iashchak commited on
Commit
01efd17
1 Parent(s): bdb069c

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +32 -26
README.md CHANGED
@@ -1,67 +1,73 @@
 
 
 
 
 
 
 
 
 
 
 
 
1
  # ruGPT-3.5-13B Converted to GGML Format / ruGPT-3.5-13B Конвертированная в формат GGML
2
 
3
- ## English
 
 
4
 
5
- This repository contains a GGML-formatted version of the [ruGPT-3.5-13B model](https://huggingface.co/ai-forever/ruGPT-3.5-13B) originally hosted on Hugging Face. The model has 13 billion parameters and was initially trained on a 300GB dataset from various domains. It was further fine-tuned on 100GB of code and legal documents.
6
 
7
- ### Dataset Details
8
 
9
  - **Training Data**: 300GB from various domains
10
  - **Fine-tuning Data**: 100GB of code and legal documents
11
  - **Technical Specs**: Trained using Deepspeed and Megatron libraries on 300B tokens dataset for 3 epochs, around 45 days on 512 V100 GPUs. Fine-tuned for 1 epoch with a sequence length of 2048, around 20 days on 200 A100 GPUs.
12
  - **Perplexity**: Around 8.8 for Russian language
13
 
14
- ### Usage
15
-
16
- #### 4-bit Quantized Version
17
 
18
- ```python
19
  from llm_rs import AutoModel
20
 
21
  model = AutoModel.from_pretrained("iashchak/ruGPT-3.5-13B-ggml", model_file="ruGPT-3.5-13B-q4_0-ggjt.bin")
22
- ```
23
 
24
- #### f16 Version
25
-
26
- ```python
27
  from llm_rs import AutoModel
28
 
29
  model = AutoModel.from_pretrained("iashchak/ruGPT-3.5-13B-ggml", model_file="ruGPT-3.5-13B-f16.bin")
30
- ```
31
 
32
- ### Compatibility
33
 
34
  While this model is intended to be compatible with any GGML-compatible UI, it has not been extensively tested in such environments. Use at your own risk.
35
 
36
- ## Русский
37
 
38
- Этот репозиторий содержит версию модели [ruGPT-3.5-13B](https://huggingface.co/ai-forever/ruGPT-3.5-13B) в формате GGML. Модель имеет 13 миллиардов параметров и изначально обучалась на 300ГБ данных из различных доменов. Далее она была дообучена на 100ГБ кода и юридических документов.
39
 
40
- ### Детали набора данных
41
 
42
  - **Тренировочные данные**: 300ГБ из различных доменов
43
  - **Данные для дообучения**: 100ГБ кода и юридических документов
44
  - **Технические характеристики**: Обучена с использованием библиотек Deepspeed и Megatron на наборе данных из 300 миллиардов токенов за 3 эпохи, примерно 45 дней на 512 GPU V100. Дообучена 1 эпоху с длиной последовательности 2048, примерно 20 дней на 200 GPU A100.
45
  - **Перплексия**: Около 8,8 для русского языка
46
 
47
- ### Использование
48
-
49
- #### Версия с квантованием в 4 бита
50
 
51
- ```python
52
  from llm_rs import AutoModel
53
 
54
  model = AutoModel.from_pretrained("iashchak/ruGPT-3.5-13B-ggml", model_file="ruGPT-3.5-13B-q4_0-ggjt.bin")
55
- ```
56
-
57
- #### Версия f16
58
 
59
- ```python
60
  from llm_rs import AutoModel
61
 
62
  model = AutoModel.from_pretrained("iashchak/ruGPT-3.5-13B-ggml", model_file="ruGPT-3.5-13B-f16.bin")
63
- ```
64
 
65
- ### Совместимость
66
 
67
  Хотя эта модель предназначена для совместимости с любым GGML-совместимым интерфейсом, она не была тщательно протестирована в таких средах. Используйте на свой страх и риск.
 
1
+ ---
2
+ language:
3
+ - ru
4
+ - en
5
+ tags:
6
+ - ruGPT
7
+ - GGML
8
+ - NLP
9
+ - Text Generation
10
+ license: mit
11
+ ---
12
+
13
  # ruGPT-3.5-13B Converted to GGML Format / ruGPT-3.5-13B Конвертированная в формат GGML
14
 
15
+ ## Model Description / Описание модели
16
+
17
+ ### English
18
 
19
+ This repository contains a GGML-formatted version of the [ruGPT-3.5-13B model](https://huggingface.co/ai-forever/ruGPT-3.5-13B) originally hosted on Hugging Face. The model has 13 billion parameters and was initially trained on a 300GB dataset from various domains. It was further fine-tuned on 100GB of code and legal documents. The model understands both Russian and English.
20
 
21
+ #### Dataset Details
22
 
23
  - **Training Data**: 300GB from various domains
24
  - **Fine-tuning Data**: 100GB of code and legal documents
25
  - **Technical Specs**: Trained using Deepspeed and Megatron libraries on 300B tokens dataset for 3 epochs, around 45 days on 512 V100 GPUs. Fine-tuned for 1 epoch with a sequence length of 2048, around 20 days on 200 A100 GPUs.
26
  - **Perplexity**: Around 8.8 for Russian language
27
 
28
+ #### Usage
 
 
29
 
30
+ \```python
31
  from llm_rs import AutoModel
32
 
33
  model = AutoModel.from_pretrained("iashchak/ruGPT-3.5-13B-ggml", model_file="ruGPT-3.5-13B-q4_0-ggjt.bin")
34
+ \```
35
 
36
+ \```python
 
 
37
  from llm_rs import AutoModel
38
 
39
  model = AutoModel.from_pretrained("iashchak/ruGPT-3.5-13B-ggml", model_file="ruGPT-3.5-13B-f16.bin")
40
+ \```
41
 
42
+ #### Compatibility
43
 
44
  While this model is intended to be compatible with any GGML-compatible UI, it has not been extensively tested in such environments. Use at your own risk.
45
 
46
+ ### Русский
47
 
48
+ Этот репозиторий содержит версию модели [ruGPT-3.5-13B](https://huggingface.co/ai-forever/ruGPT-3.5-13B) в формате GGML. Модель имеет 13 миллиардов параметров и изначально обучалась на 300ГБ данных из различных доменов. Далее она была дообучена на 100ГБ кода и юридических документов. Модель понимает как русский, так и английский языки.
49
 
50
+ #### Детали набора данных
51
 
52
  - **Тренировочные данные**: 300ГБ из различных доменов
53
  - **Данные для дообучения**: 100ГБ кода и юридических документов
54
  - **Технические характеристики**: Обучена с использованием библиотек Deepspeed и Megatron на наборе данных из 300 миллиардов токенов за 3 эпохи, примерно 45 дней на 512 GPU V100. Дообучена 1 эпоху с длиной последовательности 2048, примерно 20 дней на 200 GPU A100.
55
  - **Перплексия**: Около 8,8 для русского языка
56
 
57
+ #### Использование
 
 
58
 
59
+ \```python
60
  from llm_rs import AutoModel
61
 
62
  model = AutoModel.from_pretrained("iashchak/ruGPT-3.5-13B-ggml", model_file="ruGPT-3.5-13B-q4_0-ggjt.bin")
63
+ \```
 
 
64
 
65
+ \```python
66
  from llm_rs import AutoModel
67
 
68
  model = AutoModel.from_pretrained("iashchak/ruGPT-3.5-13B-ggml", model_file="ruGPT-3.5-13B-f16.bin")
69
+ \```
70
 
71
+ #### Совместимость
72
 
73
  Хотя эта модель предназначена для совместимости с любым GGML-совместимым интерфейсом, она не была тщательно протестирована в таких средах. Используйте на свой страх и риск.