Update README.md
Browse files
README.md
CHANGED
@@ -26,7 +26,7 @@ This gemma2 model was trained 2x faster with [Unsloth](https://github.com/unslot
|
|
26 |
|
27 |
## 概要
|
28 |
GoogleのGemma-2-9bをベースに、LoRAを使用して最適化した日本語対応モデルです。
|
29 |
-
本モデルは[東京大学松尾・岩澤研究室大 規模言語モデル Deep Learning 応用講座(2024)
|
30 |
|
31 |
## 訓練データ
|
32 |
以下のデータセットを用いてInstruction-tuningを実施しました:
|
@@ -42,6 +42,12 @@ GoogleのGemma-2-9bをベースに、LoRAを使用して最適化した日本語
|
|
42 |
|
43 |
上記リンクから、Google Colabでの実行をお願いします。
|
44 |
|
|
|
|
|
|
|
|
|
|
|
|
|
45 |
ノートブックには、必要なセットアップと推論用のコードが全て含まれています。
|
46 |
|
47 |
L4でのコード実行時間は全体で約45分でした。
|
|
|
26 |
|
27 |
## 概要
|
28 |
GoogleのGemma-2-9bをベースに、LoRAを使用して最適化した日本語対応モデルです。
|
29 |
+
本モデルは[東京大学松尾・岩澤研究室大 規模言語モデル Deep Learning 応用講座(2024)](https://weblab.t.u-tokyo.ac.jp/lecture/course-list/large-language-model/)におけるLLMコンペティション提出用のものであり、その他の用途での使用を禁止します。
|
30 |
|
31 |
## 訓練データ
|
32 |
以下のデータセットを用いてInstruction-tuningを実施しました:
|
|
|
42 |
|
43 |
上記リンクから、Google Colabでの実行をお願いします。
|
44 |
|
45 |
+
実行前の準備
|
46 |
+
- シークレットにHF_TOKENを配置してください
|
47 |
+
- 名前に'HF_TOKEN'を入力
|
48 |
+
- 値にHugging Faceトークンを入力して保存
|
49 |
+
- ファイルタブ内にelyza-tasks-100-TV_0.jsonlを配置してください
|
50 |
+
|
51 |
ノートブックには、必要なセットアップと推論用のコードが全て含まれています。
|
52 |
|
53 |
L4でのコード実行時間は全体で約45分でした。
|