|
--- |
|
license: mit |
|
base_model: |
|
- ai-sage/GigaChat-20B-A3B-instruct |
|
language: |
|
- ru |
|
- en |
|
--- |
|
# GigaChat-20B-A3B-instruct GGUF |
|
|
|
**Для работы с представленными GGUF нужно самостоятельно собрать llama-cpp от [следующего Pull Request (merged)](https://github.com/ggerganov/llama.cpp/pull/10827)** |
|
|
|
|
|
**Модель рекомендуется запускать в режиме чата для автоматической поддержки chat template:** |
|
|
|
``` |
|
./bin/llama-simple-chat -m /path/to/downloaded/GigaChat-20B-A3B-instruct_f16.gguf |
|
``` |
|
|
|
**Добавление поддержки модели в:** |
|
- llama-cpp-python (PR нет, ожидаем в 0.3.6) |
|
- ollama ([PR](https://github.com/ollama/ollama/pull/8142), ожидаем в 0.5.5) |
|
|
|
Диалоговая модель из семейства моделей GigaChat, основная на [ai-sage/GigaChat-20B-A3B-instruct](https://huggingface.co/ai-sage/GigaChat-20B-A3B-instruct). Поддерживает контекст в 131 тысячу токенов. |
|
|
|
Больше подробностей в [хабр статье](https://habr.com/en/companies/sberdevices/articles/865996/) и в карточке оригинальной instruct модели. |
|
|
|
|