Update README.md
Browse files
README.md
CHANGED
@@ -8,7 +8,18 @@ language:
|
|
8 |
---
|
9 |
# GigaChat-20B-A3B-instruct GGUF
|
10 |
|
11 |
-
**Для работы с представленными GGUF нужно самостоятельно собрать llama-cpp от [следующего Pull Request](https://github.com/ggerganov/llama.cpp/pull/10827)**
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
12 |
|
13 |
Диалоговая модель из семейства моделей GigaChat, основная на [ai-sage/GigaChat-20B-A3B-instruct](https://huggingface.co/ai-sage/GigaChat-20B-A3B-instruct). Поддерживает контекст в 131 тысячу токенов.
|
14 |
|
|
|
8 |
---
|
9 |
# GigaChat-20B-A3B-instruct GGUF
|
10 |
|
11 |
+
**Для работы с представленными GGUF нужно самостоятельно собрать llama-cpp от [следующего Pull Request (merged)](https://github.com/ggerganov/llama.cpp/pull/10827)**
|
12 |
+
|
13 |
+
|
14 |
+
**Модель рекомендуется запускать в режиме чата для автоматической поддержки chat template:**
|
15 |
+
|
16 |
+
```
|
17 |
+
./bin/llama-simple-chat -m /path/to/downloaded/GigaChat-20B-A3B-instruct_f16.gguf
|
18 |
+
```
|
19 |
+
|
20 |
+
**Добавление поддержки модели в:**
|
21 |
+
- llama-cpp-python (PR нет, ожидаем в 0.3.6)
|
22 |
+
- ollama ([PR](https://github.com/ollama/ollama/pull/8142), ожидаем в 0.5.5)
|
23 |
|
24 |
Диалоговая модель из семейства моделей GigaChat, основная на [ai-sage/GigaChat-20B-A3B-instruct](https://huggingface.co/ai-sage/GigaChat-20B-A3B-instruct). Поддерживает контекст в 131 тысячу токенов.
|
25 |
|