ElisNovel-V1-14B
本模型基于Qwen3-14B,专门用于小说文本续写(完美穿透朱雀检测,AI率为0)。
安装方式(以ollama为例)
更新ollama(如果是window则右键upgrade即可):
curl -fsSL https://ollama.com/install.sh | sh
快速安装{
ollama run cyanelis/ElisNovel-V1:14b # 从ollama模型库安装Q4_K_M精度,预计占用显存12G-
快速安装的模型名称默认为:cyanelis/ElisNovel-V1:14b
}
手动安装{
下载gguf模型文件:
windows下载链接:https://hf-mirror.com/cyanelis/ElisNovel-V1-14B/resolve/main/ElisNovel-V1-14B-Q4_K_M.gguf
linux输入:wget "https://hf-mirror.com/cyanelis/ElisNovel-V1-14B/resolve/main/ElisNovel-V1-14B-Q4_K_M.gguf?download=true" -O ElisNovel-V1-14B-Q4_K_M.gguf
下载modelfile文件:
windows下载链接:https://hf-mirror.com/cyanelis/ElisNovel-V1-14B/resolve/main/Modelfile
linux输入:wget "https://hf-mirror.com/cyanelis/ElisNovel-V1-14B/resolve/main/Modelfile?download=true" -O Modelfile
进入它们所在的同一个目录,输入以下命令:
ollama create ElisNovel-V1-14B-Q4_K_M -f Modelfile # 安装Q4_K_M精度,预计占用显存12G-
如将上述手动安装中的Q4_K_M(也包括Modelfile文件的第四行中的Q4_K_M)都改为Q8_0或F16,则会安装Q8_0或F16精度,预计显存占用18G-/28G
手动安装的模型名称默认为:ElisNovel-V1-14B-你选择的精度:latest
}
使用方式
ollama serve # 启动ollama。windows双击ollama运行也行。
最大上下文长度不低于但最好等于5770tokens:
/set parameter num_ctx 5770 # 每次run一个模型之后输入。下个版本会写进modelfile里。
清空系统级提示词。
输入不超过4320字(2880tokens)的内容,模型预测4320字下文。
批量推理简单脚本————你完全可以将其魔改成适合你的版本{
windows下载链接:https://hf-mirror.com/cyanelis/ElisNovel-V1-14B/resolve/main/tokenzzzsimple.py
linux输入:wget "https://hf-mirror.com/cyanelis/ElisNovel-V1-14B/resolve/main/tokenzzzsimple.py?download=true" -O tokenzzzsimple.py
需要把txt文件放入G109b文件夹(没有则新建一个),G109b文件夹内的第一个文件推理得到Z109c\Z2.txt,第二个文件推理得到Z109c\Z3.txt,最后一个文件推理得到Z109c\Z1.txt
再开一个终端/命令提示符:
python tokenzzzsimple.py # 假设模型名称为cyanelis/ElisNovel-V1:14b
}
注意事项⚠️
- 请遵守apache-2.0。
- 生成内容的传播需符合当地法律法规。
- 模型生成内容的文风取决于输入内容的文风,会尽量贴近。
- 模型在不知道大纲的前提下进行续写,续写方向根据输入的内容的趋势进行预测。
- 小说所需要的逻辑对于目前的模型而言负担太大,生成内容不宜直接使用,因此需要人类智慧的校正。
信息反馈
交流群:755638032
- Downloads last month
- 1,314
4-bit
8-bit
16-bit