File size: 1,795 Bytes
e20ad67 6939335 e20ad67 b6c41ee 72d6f78 54a89ee 72d6f78 96f5ed0 72d6f78 54a89ee 72d6f78 e20ad67 ff87023 c13fe75 1870166 e20ad67 d37606f ff87023 e20ad67 ff87023 40dceb2 ff87023 e20ad67 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 |
---
language:
- zh
library_name: transformers
license: apache-2.0
---
# ElisNovel-V1-14B
本模型基于Qwen3-14B,专门用于小说文本续写(完美穿透朱雀检测,AI率为0)。
## 安装方式(以ollama为例)
快速安装:
```bash
ollama run cyanelis/ElisNovel-V1:14b # 从ollama模型库安装Q4_K_M精度,预计占用显存12G-
```
手动安装,在gguf模型文件和modelfile文件所在目录输入以下命令:
```bash
ollama create ElisNovel-V1-14B-Q4_K_M -f Modelfile # 安装Q4_K_M精度,预计占用显存12G-
```
```bash
ollama create ElisNovel-V1-14B-Q8_0 -f Modelfile(将Modelfiles第四行Q4_K_M替换为Q8_0) # 安装Q8_0精度,预计占用显存18G-
```
```bash
ollama create ElisNovel-V1-14B-F16 -f Modelfile(Modelfiles第四行Q4_K_M替换为F16) # 安装F16精度,预计占用显存28G
```
## 使用方式
最大上下文长度设置为5770tokens。
清空系统级提示词。
输入不超过4320字(2880tokens)的内容,模型预测4320字下文。
批量推理,需要把txt文件放入G109b文件夹(没有则新建一个),G109b文件夹内的第一个文件推理得到Z109c\G2.txt,第二个文件推理得到Z109c\G3.txt,最后一个文件推理得到Z109c\G1.txt:
```bash
python tokenzzzsimple.py # 默认Q4_K_M精度
```
## 注意事项⚠️
1. 请遵守apache-2.0。
2. 生成内容的传播需符合当地法律法规。
3. 模型生成内容的文风取决于输入内容的文风,会尽量贴近。
4. 模型在不知道大纲的前提下进行续写,续写方向根据输入的内容的趋势进行预测。
5. 小说所需要的逻辑对于目前的模型而言负担太大,生成内容不宜直接使用,因此需要人类智慧的校正。
## 信息反馈
交流群:755638032 |