--- license: mit base_model: - ai-sage/GigaChat-20B-A3B-base language: - ru - en --- # GigaChat-20B-A3B-instruct Диалоговая модель из семейства моделей GigaChat, основная на [GigaChat-20B-A3B-base](https://huggingface.co/ai-sage/GigaChat-20B-A3B-base). Поддерживает контекст в 131 тысячу токенов. Больше подробностей в [хабр статье](https://habr.com/en/companies/sberdevices/articles/865996/). ## Бенчмарки | | T-lite-instruct-0.1
(llama 3.1 8B based) | gemma-2-9b-it | GigaChat-20B-A3B-instruct | |----------------|---------------------|---------------|---------------------------| | MERA | 0.335 | 0.392 | 0.513 | | ru-MMLU 5-shot | 0.555 | 0.625 | 0.598 | | Shlepa | 0.36 | 0.388 | 0.482 | ### Семейство GigaChat | | GigaChat-20B-A3B-instruct | GigaChat-Pro v26.20 | GigaChat-Max v26.20 | |--------------------------------|---------------------------|---------------------|---------------------| | **Математические задачи** | | GSM8K 5-shot | 0,763 | 0,782 | 0,929 | | MATH 4-shot | 0,426 | 0,446 | 0,53 | | **Написание кода** | | | | | HumanEval 0-shot | 0,329 | 0,439 | 0,64 | | MBPP 0-shot | 0,385 | 0,487 | 0,667 | | **Общие знания** | | MMLU EN 5-shot | 0,648 | 0,687 | 0,804 | | MMLU RU 5-shot
Переведенные данные из MMLU EN 5-shot | 0,598 | 0,645 | 0,75 | | MMLU RU 1-shot | — | 0,617 | 0,718 | | MMLU PRO EN 5-shot | 0,348 | 0,431 | 0,589 | | RUBQ 0-shot | 0,675 | 0,724 | 0,73 | | WINOGRANDE 4-shot | 0,75 | 0,796 | 0,832 | | CyberMetric 0-shot | 0,798 | 0,827 | 0,864 | | **Следование инструкциям** | | IFEval 0-shot | 0,411 | 0,566 | 0,721 |
Особенности замеров GSM8k — это тест, который проверяет, как хорошо модели могут решать задачи с числами. В нашем исследовании мы использовали 5 шотов, чтобы оценить модель, и смотрели на последнее число в ответе. В оригинальное тесте ответ ищется по шаблону: ‘### число’. Тест Math тоже имеет разные версии, которые проверяют математические способности моделей. В нашем исследовании мы давали 4 примера и смотрели на последнее выражение в формате '\boxed{expression}'. Затем оценивали результаты на совпадение с помощью библиотеки sympy.
## Requirements * ```transformers>=4.47``` ## Пример использования через transformers ```python import torch from transformers import AutoTokenizer, AutoModelForCausalLM, GenerationConfig model_name = "ai-sage/GigaChat-20B-A3B-instruct" tokenizer = AutoTokenizer.from_pretrained(model_name, trust_remote_code=True) model = AutoModelForCausalLM.from_pretrained(model_name, trust_remote_code=True, torch_dtype=torch.bfloat16, device_map="auto") model.generation_config = GenerationConfig.from_pretrained(model_name) messages = [ {"role": "user", "content": "Докажи теорему о неподвижной точке"} ] input_tensor = tokenizer.apply_chat_template(messages, add_generation_prompt=True, return_tensors="pt") outputs = model.generate(input_tensor.to(model.device)) result = tokenizer.decode(outputs[0][input_tensor.shape[1]:], skip_special_tokens=False) print(result) ``` ## Пример использования через vLLM ```python from transformers import AutoTokenizer from vllm import LLM, SamplingParams model_name = "ai-sage/GigaChat-20B-A3B-instruct" tokenizer = AutoTokenizer.from_pretrained(model_name) llm = LLM(model=model_name, trust_remote_code=True) sampling_params = SamplingParams(temperature=0.3, max_tokens=8192) messages_list = [ [{"role": "user", "content": "Докажи теорему о неподвижной точке"}], ] prompt_token_ids = [tokenizer.apply_chat_template(messages, add_generation_prompt=True) for messages in messages_list] outputs = llm.generate(prompt_token_ids=prompt_token_ids, sampling_params=sampling_params) generated_text = [output.outputs[0].text for output in outputs] print(generated_text) ``` В GigaChat-20B-A3B-instruct используется особый способ токенизации текста, поэтому **не рекомендуется** следующий сценарий ```python input_string = tokenizer.apply_chat_template(messages,tokenize=False, add_generation_prompt=True) input_tensor = tokenizer(input_string, return_tensors="pt") ``` ## Пример использования vLLM server Запуск сервера ```bash vllm serve ai-sage/GigaChat-20B-A3B-instruct \ --disable-log-requests \ --trust_remote_code \ --dtype bfloat16 \ --max-seq-len 8192 ``` Пример запроса ```bash curl http://localhost:8000/v1/chat/completions \ -H "Content-Type: application/json" \ -d '{ "model": "ai-sage/GigaChat-20B-A3B-instruct" , "messages": [ {"role": "system", "content": "Ты ОЧЕНЬ умный математик"}, {"role": "user", "content": "Докажи теорему о неподвижной точке"} ] }' ```