File size: 2,604 Bytes
fec2a86 e87c086 4e0c668 e87c086 bea7332 11789e6 5222191 494df68 |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 |
---
language:
- ru
license: apache-2.0
pipeline_tag: text-generation
---
# BulgakovLM 3B
A language model trained on Russian. May be suitable for further tuning. The 100 gigabyte dataset consisted primarily of web pages, books, poems, and prose. The model was trained over 2 epochs.
Uses GPT-J architecture with a context window of 4k tokens.
Trained thanks to a TRC grant on TPU-VM v3-8
# Usage
```python
from transformers import AutoTokenizer, AutoModelForCausalLM
import torch
tokenizer = AutoTokenizer.from_pretrained("0x7o/BulgakovLM-3B")
model = AutoModelForCausalLM.from_pretrained("0x7o/BulgakovLM-3B")
input_ids = tokenizer("Искусственный интеллект - это", return_tensors='pt').to(model.device)["input_ids"]
output = model.generate(input_ids, max_new_tokens=48, do_sample=True, temperature=0.7)
print(tokenizer.decode(output[0]))
```
Output:
```
Искусственный интеллект - это всего-навсего программа, которая анализирует данные и решает, насколько тот или иной выбор может оказаться оптимальным. Как и во всех остальных сферах человеческой деятельности, в IT есть свои плюсы и минусы. И если в прошлом веке искусственный интеллект был чем
```
# Evaluation
The results are obtained through the Russian-language benchmark [MERA](https://mera.a-ai.ru/ru)
Total score: 0.198
| Задача | Результат | Метрика |
|--------------|---------------|--------------------|
| BPS | 0.44 | Accuracy |
| LCS | 0.118 | Accuracy |
| RCB | 0.333 / 0.167 | Avg. F1 / Accuracy |
| USE | 0 | Grade Norm |
| RWSD | 0.523 | Accuracy |
| PARus | 0.498 | Accuracy |
| ruTiE | 0.5 | Accuracy |
| MultiQ | 0.059 / 0.007 | F1-score/EM |
| ruMMLU | 0.25 | Accuracy |
| CheGeKa | 0.006 / 0 | F1 / EM |
| ruModAr | 0.001 | Accuracy |
| SimpleAr | 0.001 | Accuracy |
| ruMultiAr | 0.011 | Accuracy |
| MathLogicQA | 0.245 | Accuracy |
| ruHumanEval | 0 / 0 / 0 | pass@k |
| ruWorldTree | 0.265 / 0.246 | Avg. F1 / Accuracy |
| ruOpenBookQA | 0.24 / 0.221 | Avg. F1 / Accuracy |
|