mssfj commited on
Commit
d6ae3ca
1 Parent(s): 3f66ec1

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +15 -8
README.md CHANGED
@@ -4,6 +4,10 @@ datasets:
4
  - llm-jp/magpie-sft-v1.0
5
  base_model:
6
  - google/gemma-2-9b
 
 
 
 
7
  ---
8
 
9
  # Model Card for Model ID
@@ -17,7 +21,8 @@ base_model:
17
  ### Model Description
18
 
19
  <!-- Provide a longer summary of what this model is. -->
20
- gemma-2-9bを4bit量子化しQloraでllm-jp/magpie-sft-v0.1を用いInstruction Turnnigしたモデルです。
 
21
 
22
  以下のチャットテンプレートを定義しています。
23
  <bos>{%- for message in messages %}
@@ -48,9 +53,11 @@ This is the model card of a 🤗 transformers model that has been pushed on the
48
  <!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
49
 
50
  from transformers import AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig
 
51
  import torch
52
- from peft import PeftModel, PeftConfig
53
 
 
 
54
  model_name = "mssfj/gemma-2-9b-bnb-4bit-chat-template"
55
  lora_weight = "mssfj/gemma-2-9b-4bit-magpie"
56
 
@@ -75,14 +82,14 @@ model = PeftModel.from_pretrained(base_model, lora_weight)
75
  # トークナイザのロード
76
  tokenizer = AutoTokenizer.from_pretrained(model_name)
77
 
78
- input="""「図書館で本を読んだ。」という文は「どこで本を読んだ?」という疑問文に直すことができます。
79
- このとき、「図書館」は「どこ」の疑問詞タグを持ちます。
80
-
81
- それでは、「本」という単語はどのような疑問詞タグを持つでしょうか? 全て選んでください。対応するものがない場合は「なし」と答えてください。
82
  """
83
 
84
  messages = [
85
- {"role": "system", "content": """日本で一番高い山は?
 
 
 
86
  """},
87
  {"role": "user", "content": input},
88
  ]
@@ -97,7 +104,7 @@ input_ids = tokenizer.apply_chat_template(
97
 
98
  outputs = model.generate(
99
  input_ids,
100
- max_new_tokens=256,
101
  temperature=0.2,
102
  do_sample=True,
103
  eos_token_id=tokenizer.eos_token_id,
 
4
  - llm-jp/magpie-sft-v1.0
5
  base_model:
6
  - google/gemma-2-9b
7
+ license: gemma
8
+ language:
9
+ - ja
10
+ - en
11
  ---
12
 
13
  # Model Card for Model ID
 
21
  ### Model Description
22
 
23
  <!-- Provide a longer summary of what this model is. -->
24
+ このモデルはgemma-2-9bをbitsandbytesで4bit量子化し、llm-jp/magpie-sft-v0.1を用いQloraでInstruction Turnnigしたモデルです。
25
+ loraアダプターはmssfj/gemma-2-9b-4bit-magpieになります。
26
 
27
  以下のチャットテンプレートを定義しています。
28
  <bos>{%- for message in messages %}
 
53
  <!-- Address questions around how the model is intended to be used, including the foreseeable users of the model and those affected by the model. -->
54
 
55
  from transformers import AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig
56
+
57
  import torch
 
58
 
59
+ from peft import PeftModel, PeftConfig
60
+ # モデル名
61
  model_name = "mssfj/gemma-2-9b-bnb-4bit-chat-template"
62
  lora_weight = "mssfj/gemma-2-9b-4bit-magpie"
63
 
 
82
  # トークナイザのロード
83
  tokenizer = AutoTokenizer.from_pretrained(model_name)
84
 
85
+ input="""日本で一番高い山は?
 
 
 
86
  """
87
 
88
  messages = [
89
+ {"role": "system", "content": """あなたは誠実で優秀な日本人のアシスタントです。あなたはユーザと日本語で会話しています。アシスタントは以下の原則を忠実に守り丁寧に回答します。
90
+ - 日本語で簡潔に回答する
91
+ - 回答は必ず完結した文で終える
92
+ - 質問の文脈に沿った自然な応答をする
93
  """},
94
  {"role": "user", "content": input},
95
  ]
 
104
 
105
  outputs = model.generate(
106
  input_ids,
107
+ max_new_tokens=512,
108
  temperature=0.2,
109
  do_sample=True,
110
  eos_token_id=tokenizer.eos_token_id,