Update README.md
Browse files
README.md
CHANGED
@@ -4,6 +4,10 @@ datasets:
|
|
4 |
- llm-jp/magpie-sft-v1.0
|
5 |
base_model:
|
6 |
- google/gemma-2-9b
|
|
|
|
|
|
|
|
|
7 |
---
|
8 |
|
9 |
# Model Card for Model ID
|
@@ -17,7 +21,8 @@ base_model:
|
|
17 |
### Model Description
|
18 |
|
19 |
<!-- Provide a longer summary of what this model is. -->
|
20 |
-
gemma-2-9bを4bit
|
|
|
21 |
|
22 |
以下のチャットテンプレートを定義しています。
|
23 |
<bos>{%- for message in messages %}
|
@@ -48,9 +53,11 @@ This is the model card of a 🤗 transformers model that has been pushed on the
|
|
48 |
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
|
49 |
|
50 |
from transformers import AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig
|
|
|
51 |
import torch
|
52 |
-
from peft import PeftModel, PeftConfig
|
53 |
|
|
|
|
|
54 |
model_name = "mssfj/gemma-2-9b-bnb-4bit-chat-template"
|
55 |
lora_weight = "mssfj/gemma-2-9b-4bit-magpie"
|
56 |
|
@@ -75,14 +82,14 @@ model = PeftModel.from_pretrained(base_model, lora_weight)
|
|
75 |
# トークナイザのロード
|
76 |
tokenizer = AutoTokenizer.from_pretrained(model_name)
|
77 |
|
78 |
-
input="""
|
79 |
-
このとき、「図書館」は「どこ」の疑問詞タグを持ちます。
|
80 |
-
|
81 |
-
それでは、「本」という単語はどのような疑問詞タグを持つでしょうか? 全て選んでください。対応するものがない場合は「なし」と答えてください。
|
82 |
"""
|
83 |
|
84 |
messages = [
|
85 |
-
{"role": "system", "content": """
|
|
|
|
|
|
|
86 |
"""},
|
87 |
{"role": "user", "content": input},
|
88 |
]
|
@@ -97,7 +104,7 @@ input_ids = tokenizer.apply_chat_template(
|
|
97 |
|
98 |
outputs = model.generate(
|
99 |
input_ids,
|
100 |
-
max_new_tokens=
|
101 |
temperature=0.2,
|
102 |
do_sample=True,
|
103 |
eos_token_id=tokenizer.eos_token_id,
|
|
|
4 |
- llm-jp/magpie-sft-v1.0
|
5 |
base_model:
|
6 |
- google/gemma-2-9b
|
7 |
+
license: gemma
|
8 |
+
language:
|
9 |
+
- ja
|
10 |
+
- en
|
11 |
---
|
12 |
|
13 |
# Model Card for Model ID
|
|
|
21 |
### Model Description
|
22 |
|
23 |
<!-- Provide a longer summary of what this model is. -->
|
24 |
+
このモデルはgemma-2-9bをbitsandbytesで4bit量子化し、llm-jp/magpie-sft-v0.1を用いQloraでInstruction Turnnigしたモデルです。
|
25 |
+
loraアダプターはmssfj/gemma-2-9b-4bit-magpieになります。
|
26 |
|
27 |
以下のチャットテンプレートを定義しています。
|
28 |
<bos>{%- for message in messages %}
|
|
|
53 |
<!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
|
54 |
|
55 |
from transformers import AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig
|
56 |
+
|
57 |
import torch
|
|
|
58 |
|
59 |
+
from peft import PeftModel, PeftConfig
|
60 |
+
# モデル名
|
61 |
model_name = "mssfj/gemma-2-9b-bnb-4bit-chat-template"
|
62 |
lora_weight = "mssfj/gemma-2-9b-4bit-magpie"
|
63 |
|
|
|
82 |
# トークナイザのロード
|
83 |
tokenizer = AutoTokenizer.from_pretrained(model_name)
|
84 |
|
85 |
+
input="""日本で一番高い山は?
|
|
|
|
|
|
|
86 |
"""
|
87 |
|
88 |
messages = [
|
89 |
+
{"role": "system", "content": """あなたは誠実で優秀な日本人のアシスタントです。あなたはユーザと日本語で会話しています。アシスタントは以下の原則を忠実に守り丁寧に回答します。
|
90 |
+
- 日本語で簡潔に回答する
|
91 |
+
- 回答は必ず完結した文で終える
|
92 |
+
- 質問の文脈に沿った自然な応答をする
|
93 |
"""},
|
94 |
{"role": "user", "content": input},
|
95 |
]
|
|
|
104 |
|
105 |
outputs = model.generate(
|
106 |
input_ids,
|
107 |
+
max_new_tokens=512,
|
108 |
temperature=0.2,
|
109 |
do_sample=True,
|
110 |
eos_token_id=tokenizer.eos_token_id,
|