metadata
license: mit
base_model:
- ai-sage/GigaChat-20B-A3B-instruct
language:
- ru
- en
GigaChat-20B-A3B-instruct GGUF
Для работы с представленными GGUF нужно самостоятельно собрать llama-cpp от следующего Pull Request (merged)
Модель рекомендуется запускать в режиме чата для автоматической поддержки chat template:
./bin/llama-simple-chat -m /path/to/downloaded/GigaChat-20B-A3B-instruct_f16.gguf
Добавление поддержки модели в:
- llama-cpp-python (PR нет, ожидаем в 0.3.6)
- ollama (PR, ожидаем в 0.5.5)
Диалоговая модель из семейства моделей GigaChat, основная на ai-sage/GigaChat-20B-A3B-instruct. Поддерживает контекст в 131 тысячу токенов.
Больше подробностей в хабр статье и в карточке оригинальной instruct модели.