ElisNovel-V1-14B / README.md
cyanelis's picture
Update README.md
c13fe75 verified
|
raw
history blame
1.8 kB
metadata
language:
  - zh
library_name: transformers
license: apache-2.0

ElisNovel-V1-14B

本模型基于Qwen3-14B,专门用于小说文本续写(完美穿透朱雀检测,AI率为0)。

安装方式(以ollama为例)

快速安装:

ollama run cyanelis/ElisNovel-V1:14b # 从ollama模型库安装Q4_K_M精度,预计占用显存12G-

手动安装,在gguf模型文件和modelfile文件所在目录输入以下命令:

ollama create ElisNovel-V1-14B-Q4_K_M -f Modelfile # 安装Q4_K_M精度,预计占用显存12G-
ollama create ElisNovel-V1-14B-Q8_0 -f Modelfile(将Modelfiles第四行Q4_K_M替换为Q8_0) # 安装Q8_0精度,预计占用显存18G-
ollama create ElisNovel-V1-14B-F16 -f Modelfile(Modelfiles第四行Q4_K_M替换为F16) # 安装F16精度,预计占用显存28G

使用方式

最大上下文长度设置为5770tokens。

清空系统级提示词。

输入不超过4320字(2880tokens)的内容,模型预测4320字下文。

批量推理,需要把txt文件放入G109b文件夹(没有则新建一个),G109b文件夹内的第一个文件推理得到Z109c\G2.txt,第二个文件推理得到Z109c\G3.txt,最后一个文件推理得到Z109c\G1.txt:

python tokenzzzsimple.py # 默认Q4_K_M精度

注意事项⚠️

  1. 请遵守apache-2.0。
  2. 生成内容的传播需符合当地法律法规。
  3. 模型生成内容的文风取决于输入内容的文风,会尽量贴近。
  4. 模型在不知道大纲的前提下进行续写,续写方向根据输入的内容的趋势进行预测。
  5. 小说所需要的逻辑对于目前的模型而言负担太大,生成内容不宜直接使用,因此需要人类智慧的校正。

信息反馈

交流群:755638032