GigaChat-20B-A3B-instruct GGUF
Для работы с представленными GGUF нужно самостоятельно собрать llama-cpp от следующего Pull Request (merged)
Модель рекомендуется запускать в режиме чата для автоматической поддержки chat template:
./bin/llama-simple-chat -m /path/to/downloaded/GigaChat-20B-A3B-instruct_f16.gguf
Добавление поддержки модели в:
- llama-cpp-python (PR нет, ожидаем в 0.3.6)
- ollama (PR, ожидаем в 0.5.5)
Диалоговая модель из семейства моделей GigaChat, основная на ai-sage/GigaChat-20B-A3B-instruct. Поддерживает контекст в 131 тысячу токенов.
Больше подробностей в хабр статье и в карточке оригинальной instruct модели.
- Downloads last month
- 249
Model tree for ai-sage/GigaChat-20B-A3B-instruct-GGUF
Base model
ai-sage/GigaChat-20B-A3B-base
Finetuned
ai-sage/GigaChat-20B-A3B-instruct