chocopan's picture
Update README.md
8639be6 verified
|
raw
history blame
2.76 kB
metadata
library_name: transformers
license: cc
language:
  - ja
  - en
base_model:
  - llm-jp/llm-jp-3-13b

Model Card for Model ID

llm-jp-3-13bモデルをichikaraデータセットでSFTしたモデルです。
アップロードされているファイルはLoraアダプタのみです。
HF_TOKEN, WB_TOKENはご自身のものに書き換えてください。

How to Get Started with the Model

  • Jupyter Notebook Training-Inference-code.ipynb
  • Training Dataset ichikara-instruction-003-merge.json
  • Test Dataset ELYZA-tasks-100-TV (not included)

File Tree

/workspace
  |--Training-Inference-code.ipynb
  |--models/models--llm-jp--llm-jp-3-13b/snapshots/cd3823f4c1fcbb0ad2e2af46036ab1b0ca13192a
  |--ichikara-instruction-003-merge.json
  `--elyza-tasks-100-TV_0.jsonl

Training Details

training_arguments = TrainingArguments(
    output_dir=new_model_id,
    per_device_train_batch_size=1,
    gradient_accumulation_steps=2,
    optim="paged_adamw_32bit",
    num_train_epochs=2,
    logging_strategy="steps",
    logging_steps=10,
    warmup_steps=10,
    save_steps=100,
    save_total_limit = 2,
    max_steps = -1,
    learning_rate=5e-5,
    fp16=False,
    bf16=True,
    seed = 1001,
    group_by_length=True,
    report_to="wandb"
)

Training Results

Training Time: 5:52:48
Total steps: 6030 steps
Epoch: 2

Train

Training Dataset

  • LMのための日本語インストラクションデータ(ichikara-instruction) https://liat-aip.sakura.ne.jp/wp/llm のための日本語インストラクションデータ作成/llmのための日本語インストラクションデータ-公開/ 関根聡, 安藤まや, 後藤美知子, 鈴木久美, 河原大輔, 井之上直也, 乾健太郎. ichikara-instruction: LLMのための日本語インストラクションデータの構築. 言語処理学会第30回年次大会(2024)

上記datasetをすべてマージし、IDを連番になるよう振りなおしています。
LICENCE: CC-BY-NC-SA

Hardware

Google Cloud Platform
L4 GPU 24GB
RAM 48GB

Software

transformers==4.46.3
trl==0.12.2
Others: latast