GigaChat-20B-A3B-instruct GGUF

Для работы с представленными GGUF нужно самостоятельно собрать llama-cpp от следующего Pull Request (merged)

Модель рекомендуется запускать в режиме чата для автоматической поддержки chat template:

./bin/llama-simple-chat -m /path/to/downloaded/GigaChat-20B-A3B-instruct_f16.gguf

Добавление поддержки модели в:

  • llama-cpp-python (PR нет, ожидаем в 0.3.6)
  • ollama (PR, ожидаем в 0.5.5)

Диалоговая модель из семейства моделей GigaChat, основная на ai-sage/GigaChat-20B-A3B-instruct. Поддерживает контекст в 131 тысячу токенов.

Больше подробностей в хабр статье и в карточке оригинальной instruct модели.

Downloads last month
249
GGUF
Model size
20.6B params
Architecture
deepseek

8-bit

16-bit

Inference API
Unable to determine this model's library. Check the docs .

Model tree for ai-sage/GigaChat-20B-A3B-instruct-GGUF

Quantized
(10)
this model