File size: 5,788 Bytes
2be7e5d
 
4582e41
 
 
 
2be7e5d
 
4582e41
2be7e5d
42d8757
2be7e5d
42d8757
2be7e5d
4582e41
 
 
 
2be7e5d
4582e41
 
 
 
 
2be7e5d
4582e41
2be7e5d
4582e41
 
 
2be7e5d
4582e41
 
 
 
 
 
 
 
 
 
 
2be7e5d
4582e41
 
 
2be7e5d
4582e41
 
 
2be7e5d
4582e41
2be7e5d
4582e41
 
 
 
2be7e5d
4582e41
 
 
2be7e5d
 
4582e41
2be7e5d
4a4cd2e
2be7e5d
 
4582e41
4a4cd2e
91592e9
4a4cd2e
91592e9
4a4cd2e
91592e9
4a4cd2e
91592e9
4a4cd2e
91592e9
4a4cd2e
91592e9
 
 
 
 
4a4cd2e
91592e9
4a4cd2e
91592e9
4a4cd2e
91592e9
4a4cd2e
91592e9
4a4cd2e
34fbce1
 
 
 
 
 
 
bc24af0
34fbce1
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
---
library_name: transformers
language:
- ru
- en
pipeline_tag: text-generation
---

# Cotype-Nano-4bit🤖

Cotype-Nano-4bit – это LLM, которая весит меньше и работает быстрее чем Cotype-Nano, при этом сохраняя свои языковые способности

Cotype-Nano-4bit is an LLM that is lighter and runs faster than Cotype-Nano, while maintaining its language capabilities.

### Inference with vLLM
```
python3 -m vllm.entrypoints.openai.api_server --model MTSAIR/Cotype-Nano-4bit --port 8000
```

### Recommended generation parameters and system prompt
```python
import openai
import pandas as pd
from tqdm import tqdm

openai.api_key = 'xxx'

endpoint = 'http://localhost:8000/v1'
model = 'MTSAIR/Cotype-Nano-4bit'
openai.api_base = endpoint

response = openai.ChatCompletion.create(
    model=model,
    temperature=0.0, # также допускается 0.2
    frequency_penalty=0.0,
    max_tokens=2048,
    top_p=0.1, # также допускается 0.9
    messages=[
          {"role": "system", "content": "Ты — ИИ-помощник. Тебе дано задание: необходимо сгенерировать подробный и развернутый ответ."},
          {"role": "user", "content": "Расскажи мне про ИИ, коротко"}
        ]
    )

answer = response["choices"][0]["message"]["content"]
print(answer)
```

### Inference with Huggingface
```python
from transformers import pipeline

pipe = pipeline("text-generation", model="MTSAIR/Cotype-Nano-4bit", device="cuda")

messages = [
  {"role": "system", "content": "Ты — ИИ-помощник. Тебе дано задание: необходимо сгенерировать подробный и развернутый ответ."},
  {"role": "user", "content": "Расскажи мне про ИИ"},
]

res = pipe(messages, max_length=1024)
print(res[0]['generated_text'][1])
```


## Example request

**Request:** 


#### Cotype-Nano-4bit response:

> **Рекламный текст для магазина экологичной одежды:**
> 
> ---
> 
> **Заботьтесь о Земле, одевайтесь с умом!**
> 
> Приглашаем вас в мир экологичной моды! Мы предлагаем вам не только стильные и качественные вещи, но и возможность сделать свой выбор в пользу устойчивого развития и сохранения природы.
> 
> **Экологичная одежда – ваш выбор!**
> 
> 1. **Создание гармонии с природой.** Мы используем только экологически чистые материалы, которые не наносят вреда окружающей среде. 
> 2. **Минимализм в стиле.** Наша одежда – это не просто предметы гардероба, это стиль, который подчеркивает вашу индивидуальность.
> 3. **Продолжительный срок службы.** Мы создаем вещи, которые прослужат вам долго, что позволяет избежать ненужного потребления и отходов.
> 4. **Поддержка местных производителей.** Мы выбираем местных мастеров и производителей, что способствует созданию рабочих мест и поддерживает местную экономику.
> 5. **Возвращаем вещи в круговорот.** Мы предлагаем программы по возврату и переработке одежды, чтобы вы могли внести свой вклад в сохранение экологии.
> 
> **Ваш выбор – ваша ответственность.**
> 
> Выбирайте экологичную одежду, и помните, что ваш выбор влияет на будущее нашей планеты. Давайте вместе создадим гармонию между человеком, его потребностями и природой.
> 
> **Приходите в наш магазин, чтобы стать частью экологической моды!**
> 
> ---
> 
>Мы уверены, что вы найдете в нашем ассортименте не только стильные вещи, но и уверенность в том, что ваш выбор в пользу устойчивости и экологии не будет лишним. Приходите и посмотрите, как можно сочетать моду с ответственностью!

### Results on ru-llm-arena: 20.3 (local measurement)

| **Model**                                   | **Score** | **95% CI**      | **Avg Tokens** |
| ------------------------------------------- | --------- | --------------- | -------------- |
| storm-7b                                    | 20.62     | +2.0 / -1.6     | 419.32         |
| **Llama-3-Cotype-Nano-4bit**                  | **20.3**     | **+1.6 / -1.4**     | **588**         |
| neural-chat-7b-v3-3                         | 19.04     | +2.0 / -1.7     | 927.21         |
| Vikhrmodels-Vikhr-Llama-3.2-1B-instruct | 19.04 | +1.3 / -1.6 | 958.63     |
| gigachat_lite                               | 17.2      | +1.4 / -1.4     | 276.81         | 
| Vikhrmodels-vikhr-qwen-1.5b-it              | 13.19     | +1.4 / -1.6     | 2495.38        |
| meta-llama-Llama-3.2-1B-Instruct            | 4.04      | +0.8 / -0.6     | 1240.53        |