RefalMachine commited on
Commit
9e6c162
1 Parent(s): 5c9885c

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +61 -14
README.md CHANGED
@@ -24,6 +24,42 @@ base_model:
24
  ![image/png](https://cdn-uploads.huggingface.co/production/uploads/652cedbdf120598322ae358a/O4eQEhnowETEatDPcmArB.png)
25
 
26
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
27
  ![image/png](https://cdn-uploads.huggingface.co/production/uploads/652cedbdf120598322ae358a/oW0Q6LzD_Py3GdH0kfqu4.png)
28
 
29
  ## Метрики и оценка качества
@@ -38,20 +74,31 @@ base_model:
38
 
39
  | Model Name | Winrate | 95% CI | Average # Tokens |
40
  |--------------------------------------------------|--------|--------------------|------------------|
41
- | gpt-4-1106-preview | 90.9 | (-1.3, 1.0) | 541 |
42
- | gpt-4o-mini | 83.9 | (-1.8, 1.1) | 448 |
43
- | vikhr-nemo-12b-instruct-r-21-09-24 | 79.8 | (-2.2, 1.9) | 627 |
44
- | gemma-2-9b-it-sppo-iter3 | 73.6 | (-1.6, 2.2) | 509 |
45
- | gemma-2-9b-it | 69.2 | (-2.5, 1.9) | 459 |
46
- | saiga_llama3_8b_v7 | 67.6 | (?, ?) | 503 |
47
- | **ruadapt_qwen2.5_3B_ext_u48_instruct_v4** | **66.1** | **(?, ?)** | **531** |
48
- | t-lite-instruct-0.1 | 64.7 | (-2.1, 1.7) | 810 |
49
- | vikhr-llama3.1-8b-instruct-r-21-09-24 | 63.4 | (-2.1, 2.5) | 618 |
50
- | suzume-llama-3-8B-multilingual-orpo-borda-half | 57.1 | (-1.9, 2.2) | 682 |
51
- | mistral-nemo-instruct-2407 | 50.5 | (-2.7, 2.6) | 403 |
52
- | gpt-3.5-turbo-0125 | 50.0 | (0.0, 0.0) | 220 |
53
- | c4ai-command-r-v01 | 49.0 | (-1.7, 2.2) | 529 |
54
- | meta-llama-3.1-8b-instruct | 43.1 | (-2.8, 2.3) | 628 |
 
 
 
 
 
 
 
 
 
 
 
55
 
56
  #### Результаты на MERA
57
 
 
24
  ![image/png](https://cdn-uploads.huggingface.co/production/uploads/652cedbdf120598322ae358a/O4eQEhnowETEatDPcmArB.png)
25
 
26
 
27
+ ![image/png](https://cdn-uploads.huggingface.co/production/uploads/652cedbdf120598322ae358a/oW0Q6LzD_Py3GdH0kfqu4.png)
28
+
29
+ ## Метрики и оценка качества
30
+
31
+ Модель была оценена на Ru-Arena-General, MERA, llmtf_open
32
+
33
+ #### Результаты на Ru-Arena-General
34
+
35
+ Замеры были произведены с использованием оффициального кода лидерборда (https://github.com/VikhrModels/ru_llm_arena), **но с repetition_penalty=1.1**.
36
+
37
+ Приведена лишь часть лидерборда, подробнее смотрите в репозитории бенчмарка (https://huggingface.co/spaces/Vikhrmodels/arenahardlb).
38
+
39
+ ---
40
+ datasets:
41
+ - IlyaGusev/saiga_scored
42
+ - IlyaGusev/saiga_preferences
43
+ - dichspace/darulm
44
+ language:
45
+ - ru
46
+ pipeline_tag: text-generation
47
+ ---
48
+
49
+ ## Model description
50
+
51
+ Инструктивная версия адаптированной на русский язык модели Qwen2.5-7B. В модели был заменен токенизатор, затем произведено дообучение (Continued pretraining) на русскоязычном корпусе, после чего была применена техника LEP (Learned Embedding Propagation, paper will be soon).
52
+
53
+ Благодаря новому токенизатору (расширенный tiktoken cl100k с помощью униграм токенизатора на 48 т. токенов) скорость генерации* русскоязычных текстов возрасла до 60% по сравнению с исходной моделью Qwen-2.5-7B-Instruct.
54
+
55
+ *Под скоростью генерации подразумевается количество русскоязычных символов/слов в секунду на одинаковых текстовых последовательностях.
56
+
57
+ ## Токенизация
58
+
59
+
60
+ ![image/png](https://cdn-uploads.huggingface.co/production/uploads/652cedbdf120598322ae358a/O4eQEhnowETEatDPcmArB.png)
61
+
62
+
63
  ![image/png](https://cdn-uploads.huggingface.co/production/uploads/652cedbdf120598322ae358a/oW0Q6LzD_Py3GdH0kfqu4.png)
64
 
65
  ## Метрики и оценка качества
 
74
 
75
  | Model Name | Winrate | 95% CI | Average # Tokens |
76
  |--------------------------------------------------|--------|--------------------|------------------|
77
+ | gpt-4-1106-preview | 90.9 | ( +1.3 / -0.9) | 541 |
78
+ | vikhr-nemo-12b-instruct-r-21-09-24 | 87.3 | (+1.1 / -1.2) | 627 |
79
+ | gpt-4o-mini | 83.9 | (+1.9 / -1.6) | 448 |
80
+ | ruadapt_qwen2.5_7B_ext_u48_instruct | 81.9 | (+1.7 / -1.6) | 556 |
81
+ | gemma-2-9b-it | 76.5 | (+1.1 / -1.1) | 459 |
82
+ | Qwen2.5-7B-Instruct | 76.0 | (+1.6 / -1.8) | 484 |
83
+ | gemma-2-9b-it-sppo-iter3 | 73.6 | (+2.1 / -2.2) | 509 |
84
+ | saiga_llama3_8b_v7 | 67.6 | (+1.7 / -1.4) | 503 |
85
+ | **ruadapt_qwen2.5_3B_ext_u48_instruct_v4** | **66.1** | **(+2.2 / -1.9)** | **531** |
86
+ | t-lite-instruct-0.1 | 64.7 | (+2.3 / -2.2) | 810 |
87
+
88
+
89
+ #### Результаты на MERA
90
+
91
+ TODO
92
+
93
+ #### Результаты на llmtf_open
94
+
95
+ TODO
96
+
97
+ ## How to cite:
98
+
99
+ Tikhomirov M., Chernyshev D. Facilitating large language model Russian adaptation with Learned Embedding Propagation // 2024 (will be soon)
100
+
101
+ Tikhomirov M., Chernyshev D. Impact of Tokenization on LLaMa Russian Adaptation //2023 Ivannikov Ispras Open Conference (ISPRAS). – IEEE, 2023. – С. 163-168.
102
 
103
  #### Результаты на MERA
104