Namazu11's picture
Update README.md
6ef2e6e verified
|
raw
history blame
940 Bytes
metadata
license: apache-2.0
datasets:
  - ichikara-instruction
  - elyza/ELYZA-tasks-100
  - weblab-GENIAC/aya-ja-evol-instruct-calm3-dpo-masked
  - llm-jp/hh-rlhf-12k-ja
language:
  - ja
base_model:
  - llm-jp/llm-jp-3-13b
tags:
  - text-generation-inference
  - transformers
  - unsloth
  - llama
  - trl

Uploaded model

  • Developed by: Namazu11
  • License: apache-2.0
  • Finetuned from model : llm-jp/llm-jp-3-13b

This llama model was trained 2x faster with Unsloth and Huggingface's TRL library.

■このモデルは東京大学リスキリング講座「大規模言語モデル2024」の最終課題(コンペ)のためのものです。 「ELYZA-tasks-100-TV」というデータセットが配布され、精度を競います。