Update README.md
Browse files
README.md
CHANGED
@@ -5,14 +5,14 @@ tags:
|
|
5 |
- text-generation-inference
|
6 |
- llama
|
7 |
- trl
|
8 |
-
license:
|
9 |
---
|
10 |
|
11 |
# Model Card for Model ID
|
12 |
- **Developed by:** togepi55
|
13 |
- **Funded by :** llm-jp/llm-jp-3-13b
|
14 |
- **Language(s) (NLP):** English, Japanese
|
15 |
-
- **License:**
|
16 |
|
17 |
### 注意
|
18 |
プロンプトは形式でのみ学習しています。
|
@@ -97,6 +97,9 @@ RLHF,DPOを実施していないため不適切な表現が出力される可
|
|
97 |
* ichikara-instruction-003-002-1.json
|
98 |
* elyza/ELYZA-tasks-100
|
99 |
|
|
|
|
|
|
|
100 |
### SFTの概要
|
101 |
* 4bit量子化
|
102 |
* LoRAによるSFT
|
@@ -109,7 +112,10 @@ RLHF,DPOを実施していないため不適切な表現が出力される可
|
|
109 |
|
110 |
|
111 |
|
112 |
-
# tasks-100-
|
|
|
|
|
|
|
113 |
|
114 |
~~~
|
115 |
import torch
|
@@ -180,4 +186,5 @@ with open("output.jsonl", "wt", encoding='utf-8') as f:
|
|
180 |
for result in results:
|
181 |
json.dump(result, f, ensure_ascii=False)
|
182 |
f.write('\n')
|
183 |
-
~~~
|
|
|
|
5 |
- text-generation-inference
|
6 |
- llama
|
7 |
- trl
|
8 |
+
license: apache-2.0
|
9 |
---
|
10 |
|
11 |
# Model Card for Model ID
|
12 |
- **Developed by:** togepi55
|
13 |
- **Funded by :** llm-jp/llm-jp-3-13b
|
14 |
- **Language(s) (NLP):** English, Japanese
|
15 |
+
- **License:** apache-2.0
|
16 |
|
17 |
### 注意
|
18 |
プロンプトは形式でのみ学習しています。
|
|
|
97 |
* ichikara-instruction-003-002-1.json
|
98 |
* elyza/ELYZA-tasks-100
|
99 |
|
100 |
+
### ライセンス
|
101 |
+
* ichikara-instructionデータセットのライセンスはcc-by-nc-sa,ELYZA-tasks-100のライセンスはcc-by-sa-4.0になっております。
|
102 |
+
|
103 |
### SFTの概要
|
104 |
* 4bit量子化
|
105 |
* LoRAによるSFT
|
|
|
112 |
|
113 |
|
114 |
|
115 |
+
# elyza-tasks-100-TV_0.jsonlでの出力方法
|
116 |
+
|
117 |
+
特定タスクであるelyza-tasks-100-TV_0.jsonlに記載されている指示に対する返答のサンプル出力コードは次のようになります。
|
118 |
+
|
119 |
|
120 |
~~~
|
121 |
import torch
|
|
|
186 |
for result in results:
|
187 |
json.dump(result, f, ensure_ascii=False)
|
188 |
f.write('\n')
|
189 |
+
~~~
|
190 |
+
|