Update README.md
Browse files
README.md
CHANGED
@@ -1,6 +1,9 @@
|
|
1 |
---
|
2 |
license: mit
|
3 |
---
|
|
|
|
|
|
|
4 |
### acsr-y34b-4bpw-hb6-exl2
|
5 |
|
6 |
- base model: [Yi-34B-Chat](https://huggingface.co/01-ai/Yi-34B-Chat)
|
@@ -10,6 +13,7 @@ license: mit
|
|
10 |
- Instruction template: ChatML
|
11 |
- Origin max token size: 4096
|
12 |
- 在使用text-generation-webui作后台,SillyTavern做前端时,webui上MaxToken调到8K时SillyTavern的MaxToken要调整到18K,WebUI才不会提前截断
|
|
|
13 |
- 在SillyTavern上要得到Roleplay样式的长回复需做如下调整
|
14 |
- 使用ChatML作为指令格式
|
15 |
- 勾选 `用换行符换行序列`
|
|
|
1 |
---
|
2 |
license: mit
|
3 |
---
|
4 |
+
|
5 |
+
个人感觉这是当前对中文角色扮演聊天支持最好的模型了
|
6 |
+
|
7 |
### acsr-y34b-4bpw-hb6-exl2
|
8 |
|
9 |
- base model: [Yi-34B-Chat](https://huggingface.co/01-ai/Yi-34B-Chat)
|
|
|
13 |
- Instruction template: ChatML
|
14 |
- Origin max token size: 4096
|
15 |
- 在使用text-generation-webui作后台,SillyTavern做前端时,webui上MaxToken调到8K时SillyTavern的MaxToken要调整到18K,WebUI才不会提前截断
|
16 |
+
- 上下文长度8K Alpha调到2.5左右时,聊天到6K 以上Token还是不可避免的出现重复的回复和回复质量下降
|
17 |
- 在SillyTavern上要得到Roleplay样式的长回复需做如下调整
|
18 |
- 使用ChatML作为指令格式
|
19 |
- 勾选 `用换行符换行序列`
|