File size: 1,795 Bytes
e20ad67
 
 
 
 
 
 
 
6939335
e20ad67
 
 
b6c41ee
 
 
 
 
 
72d6f78
54a89ee
72d6f78
 
96f5ed0
72d6f78
 
54a89ee
72d6f78
e20ad67
 
 
 
ff87023
c13fe75
 
1870166
e20ad67
d37606f
 
 
 
 
ff87023
e20ad67
ff87023
40dceb2
ff87023
 
 
e20ad67
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
---
language:
- zh
library_name: transformers
license: apache-2.0
---
# ElisNovel-V1-14B

本模型基于Qwen3-14B,专门用于小说文本续写(完美穿透朱雀检测,AI率为0)。

## 安装方式(以ollama为例)

快速安装:
```bash
ollama run cyanelis/ElisNovel-V1:14b # 从ollama模型库安装Q4_K_M精度,预计占用显存12G-
```

手动安装,在gguf模型文件和modelfile文件所在目录输入以下命令:
```bash
ollama create ElisNovel-V1-14B-Q4_K_M -f Modelfile # 安装Q4_K_M精度,预计占用显存12G-
```
```bash
ollama create ElisNovel-V1-14B-Q8_0 -f Modelfile(将Modelfiles第四行Q4_K_M替换为Q8_0) # 安装Q8_0精度,预计占用显存18G-
```
```bash
ollama create ElisNovel-V1-14B-F16 -f Modelfile(Modelfiles第四行Q4_K_M替换为F16) # 安装F16精度,预计占用显存28G
```

## 使用方式

最大上下文长度设置为5770tokens。

清空系统级提示词。

输入不超过4320字(2880tokens)的内容,模型预测4320字下文。

批量推理,需要把txt文件放入G109b文件夹(没有则新建一个),G109b文件夹内的第一个文件推理得到Z109c\G2.txt,第二个文件推理得到Z109c\G3.txt,最后一个文件推理得到Z109c\G1.txt:
```bash
python tokenzzzsimple.py # 默认Q4_K_M精度
```

## 注意事项⚠️ 

1. 请遵守apache-2.0。
2. 生成内容的传播需符合当地法律法规。
3. 模型生成内容的文风取决于输入内容的文风,会尽量贴近。
4. 模型在不知道大纲的前提下进行续写,续写方向根据输入的内容的趋势进行预测。
5. 小说所需要的逻辑对于目前的模型而言负担太大,生成内容不宜直接使用,因此需要人类智慧的校正。

## 信息反馈

交流群:755638032