metadata
language:
- zh
library_name: transformers
license: apache-2.0
ElisNovel-V1-14B
本模型基于Qwen3-14B,专门用于小说文本续写(完美穿透朱雀检测,AI率为0)。
安装方式(以ollama为例)
快速安装:
ollama run cyanelis/ElisNovel-V1:14b # 从ollama模型库安装Q4_K_M精度,预计占用显存12G-
手动安装,在gguf模型文件和modelfile文件所在目录输入以下命令:
ollama create ElisNovel-V1-14B-Q4_K_M -f Modelfile # 安装Q4_K_M精度,预计占用显存12G-
ollama create ElisNovel-V1-14B-Q8_0 -f Modelfile(将Modelfiles第四行Q4_K_M替换为Q8_0) # 安装Q8_0精度,预计占用显存18G-
ollama create ElisNovel-V1-14B-F16 -f Modelfile(Modelfiles第四行Q4_K_M替换为F16) # 安装F16精度,预计占用显存28G
使用方式
最大上下文长度设置为5770tokens。
清空系统级提示词。
输入不超过4320字(2880tokens)的内容,模型预测4320字下文。
批量推理,需要把txt文件放入G109b文件夹(没有则新建一个),G109b文件夹内的第一个文件推理得到Z109c\G2.txt,第二个文件推理得到Z109c\G3.txt,最后一个文件推理得到Z109c\G1.txt:
python tokenzzzsimple.py # 默认Q4_K_M精度
注意事项⚠️
- 请遵守apache-2.0。
- 生成内容的传播需符合当地法律法规。
- 模型生成内容的文风取决于输入内容的文风,会尽量贴近。
- 模型在不知道大纲的前提下进行续写,续写方向根据输入的内容的趋势进行预测。
- 小说所需要的逻辑对于目前的模型而言负担太大,生成内容不宜直接使用,因此需要人类智慧的校正。
信息反馈
交流群:755638032