Update README.md
Browse files
README.md
CHANGED
@@ -61,9 +61,9 @@ cp_model.save_pretrained("./model-chatvector")
|
|
61 |
|
62 |
3. 作成されたモデルディレクトリにあるconfig.jsonを以下のように変更して、ContextSizeの内容をMistral7BInstructの通りに修正します。(一つ目以外はあまり理解していない)
|
63 |
|
64 |
-
- "max_position_embeddings"
|
65 |
-
- "rope_theta"
|
66 |
-
- "sliding_window"
|
67 |
|
68 |
## MoE化
|
69 |
|
@@ -136,5 +136,5 @@ User: 次のお話の続きを考えて恋愛小説で書いてください。
|
|
136 |
|
137 |
### 参考文献
|
138 |
|
139 |
-
[Chat Vectorを使って日本語LLMをチャットモデルに改造する #Python - Qiita](https://qiita.com/jovyan/items/ee6affa5ee5bdaada6b4)
|
140 |
-
[学習済みの LLM を束ねて Mixture of Experts を作るテク](https://zenn.dev/zaburo_ch/articles/88e35e5c80f974)
|
|
|
61 |
|
62 |
3. 作成されたモデルディレクトリにあるconfig.jsonを以下のように変更して、ContextSizeの内容をMistral7BInstructの通りに修正します。(一つ目以外はあまり理解していない)
|
63 |
|
64 |
+
- `"max_position_embeddings"`を`32768`
|
65 |
+
- `"rope_theta"`を`1000000.0`
|
66 |
+
- `"sliding_window"`を`null`
|
67 |
|
68 |
## MoE化
|
69 |
|
|
|
136 |
|
137 |
### 参考文献
|
138 |
|
139 |
+
- [Chat Vectorを使って日本語LLMをチャットモデルに改造する #Python - Qiita](https://qiita.com/jovyan/items/ee6affa5ee5bdaada6b4)
|
140 |
+
- [学習済みの LLM を束ねて Mixture of Experts を作るテク](https://zenn.dev/zaburo_ch/articles/88e35e5c80f974)
|