File size: 709 Bytes
e168d9e
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
# Glm-Edge-Chat-4B-GGUF

## 使用ollama 推理

### 安装
目前针对该模型的适配代码正在积极合入官方llama.cpp中,可通过下述适配版本进行测试:

```
git clone https://github.com/piDack/llama.cpp -b support_glm_edge_model
cmake -B build -DGGML_CUDA=ON # 或开启其他加速硬件
cmake --build build -- -j
```

### 推理

安装完成后,您可以通过以下命令启动GLM-Edge Chat模型:

```shell
llama-cli -m <path>/model.gguf -p "<|user|>\nhi<|assistant|>\n" -ngl 999
```

在命令行界面,您可以与模型进行交互,输入您的需求,模型将为您提供相应的回复。

## 协议

本模型的权重的使用则需要遵循 [LICENSE](LICENSE)。