ElisNovel-V1-14B

本模型基于Qwen3-14B,专门用于小说文本续写(完美穿透朱雀检测,AI率为0)。

安装方式(以ollama为例)

更新ollama(如果是window则右键upgrade即可):

curl -fsSL https://ollama.com/install.sh | sh

快速安装{

ollama run cyanelis/ElisNovel-V1:14b # 从ollama模型库安装Q4_K_M精度,预计占用显存12G-

快速安装的模型名称默认为:cyanelis/ElisNovel-V1:14b

}

手动安装{

下载gguf模型文件:

windows下载链接:https://hf-mirror.com/cyanelis/ElisNovel-V1-14B/resolve/main/ElisNovel-V1-14B-Q4_K_M.gguf

linux输入:wget "https://hf-mirror.com/cyanelis/ElisNovel-V1-14B/resolve/main/ElisNovel-V1-14B-Q4_K_M.gguf?download=true" -O ElisNovel-V1-14B-Q4_K_M.gguf

下载modelfile文件:

windows下载链接:https://hf-mirror.com/cyanelis/ElisNovel-V1-14B/resolve/main/Modelfile

linux输入:wget "https://hf-mirror.com/cyanelis/ElisNovel-V1-14B/resolve/main/Modelfile?download=true" -O Modelfile

进入它们所在的同一个目录,输入以下命令:

ollama create ElisNovel-V1-14B-Q4_K_M -f Modelfile # 安装Q4_K_M精度,预计占用显存12G-

如将上述手动安装中的Q4_K_M(也包括Modelfile文件的第四行中的Q4_K_M)都改为Q8_0或F16,则会安装Q8_0或F16精度,预计显存占用18G-/28G

手动安装的模型名称默认为:ElisNovel-V1-14B-你选择的精度:latest

}

使用方式

ollama serve # 启动ollama。windows双击ollama运行也行。

最大上下文长度不低于但最好等于5770tokens:

/set parameter num_ctx 5770 # 每次run一个模型之后输入。下个版本会写进modelfile里。

清空系统级提示词。

输入不超过4320字(2880tokens)的内容,模型预测4320字下文。

批量推理简单脚本————你完全可以将其魔改成适合你的版本{

windows下载链接:https://hf-mirror.com/cyanelis/ElisNovel-V1-14B/resolve/main/tokenzzzsimple.py

linux输入:wget "https://hf-mirror.com/cyanelis/ElisNovel-V1-14B/resolve/main/tokenzzzsimple.py?download=true" -O tokenzzzsimple.py

需要把txt文件放入G109b文件夹(没有则新建一个),G109b文件夹内的第一个文件推理得到Z109c\Z2.txt,第二个文件推理得到Z109c\Z3.txt,最后一个文件推理得到Z109c\Z1.txt

再开一个终端/命令提示符:

python tokenzzzsimple.py # 假设模型名称为cyanelis/ElisNovel-V1:14b

}

注意事项⚠️

  1. 请遵守apache-2.0。
  2. 生成内容的传播需符合当地法律法规。
  3. 模型生成内容的文风取决于输入内容的文风,会尽量贴近。
  4. 模型在不知道大纲的前提下进行续写,续写方向根据输入的内容的趋势进行预测。
  5. 小说所需要的逻辑对于目前的模型而言负担太大,生成内容不宜直接使用,因此需要人类智慧的校正。

信息反馈

交流群:755638032

Downloads last month
1,314
GGUF
Model size
15B params
Architecture
qwen3
Hardware compatibility
Log In to view the estimation

4-bit

8-bit

16-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support