GigaChat-20B-A3B-instruct-v1.5 GGUF

Диалоговая модель из семейства моделей GigaChat, основная на ai-sage/GigaChat-20B-A3B-instruct-v1.5. Поддерживает контекст в 131 тысячу токенов.

Больше подробностей в хабр статье и в карточке оригинальной instruct модели.

Добавление поддержки модели в:

  • llama-cpp-python (>=0.3.6)
  • ollama (>=0.5.5)
  • lm studio (>=0.3.6), вот небольшой гайд

llama cpp

Модель рекомендуется запускать в режиме чата для автоматической поддержки chat template:

./bin/llama-simple-chat -m /path/to/downloaded/GigaChat-20B-A3B-instruct_v1.5_bf16.gguf
Downloads last month
78
GGUF
Model size
20.6B params
Architecture
deepseek

4-bit

5-bit

6-bit

8-bit

16-bit

Inference Providers NEW
This model is not currently available via any of the supported third-party Inference Providers, and HF Inference API was unable to determine this model's library.

Model tree for ai-sage/GigaChat-20B-A3B-instruct-v1.5-GGUF

Quantized
(2)
this model