|
# Glm-Edge-V-5B-GGUF |
|
|
|
## 使用ollama 推理 |
|
|
|
### 安装 |
|
目前针对该模型的适配代码正在积极合入官方llama.cpp中,可通过下述适配版本进行测试: |
|
|
|
``` |
|
git clone https://github.com/piDack/llama.cpp -b support_glm_edge_model |
|
cmake -B build -DGGML_CUDA=ON # 或开启其他加速硬件 |
|
cmake --build build -- -j |
|
``` |
|
|
|
### 推理 |
|
|
|
安装完成后,您可以通过以下命令启动GLM-Edge Chat模型: |
|
|
|
```bash |
|
llama-llava-cli -m model_path/ggml-model-f16.gguf --mmproj model_path/mmproj-model-f16.gguf --image img_path/image.jpg -p "<|system|>\n system prompt <image><|user|>\n prompt <|assistant|>\n" |
|
``` |
|
|
|
在命令行界面,您可以与模型进行交互,输入您的需求,模型将为您提供相应的回复。 |
|
|
|
## 协议 |
|
|
|
本模型的权重的使用则需要遵循 [LICENSE](LICENSE)。 |