Chrom256 commited on
Commit
02ac129
1 Parent(s): 5a54201

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +7 -1
README.md CHANGED
@@ -26,7 +26,7 @@ This gemma2 model was trained 2x faster with [Unsloth](https://github.com/unslot
26
 
27
  ## 概要
28
  GoogleのGemma-2-9bをベースに、LoRAを使用して最適化した日本語対応モデルです。
29
- 本モデルは[東京大学松尾・岩澤研究室大 規模言語モデル Deep Learning 応用講座(2024) コンペティション](https://weblab.t.u-tokyo.ac.jp/lecture/course-list/large-language-model/)提出用のものであり、その他の用途での使用を禁止します。
30
 
31
  ## 訓練データ
32
  以下のデータセットを用いてInstruction-tuningを実施しました:
@@ -42,6 +42,12 @@ GoogleのGemma-2-9bをベースに、LoRAを使用して最適化した日本語
42
 
43
  上記リンクから、Google Colabでの実行をお願いします。
44
 
 
 
 
 
 
 
45
  ノートブックには、必要なセットアップと推論用のコードが全て含まれています。
46
 
47
  L4でのコード実行時間は全体で約45分でした。
 
26
 
27
  ## 概要
28
  GoogleのGemma-2-9bをベースに、LoRAを使用して最適化した日本語対応モデルです。
29
+ 本モデルは[東京大学松尾・岩澤研究室大 規模言語モデル Deep Learning 応用講座(2024)](https://weblab.t.u-tokyo.ac.jp/lecture/course-list/large-language-model/)におけるLLMコンペティション提出用のものであり、その他の用途での使用を禁止します。
30
 
31
  ## 訓練データ
32
  以下のデータセットを用いてInstruction-tuningを実施しました:
 
42
 
43
  上記リンクから、Google Colabでの実行をお願いします。
44
 
45
+ 実行前の準備
46
+ - シークレットにHF_TOKENを配置してください
47
+ - 名前に'HF_TOKEN'を入力
48
+ - 値にHugging Faceトークンを入力して保存
49
+ - ファイルタブ内にelyza-tasks-100-TV_0.jsonlを配置してください
50
+
51
  ノートブックには、必要なセットアップと推論用のコードが全て含まれています。
52
 
53
  L4でのコード実行時間は全体で約45分でした。