sebaxakerhtc's picture
Update README.md
21814d0 verified
---
base_model: unsloth/qwen2.5-math-7b-instruct-bnb-4bit
tags:
- text-generation-inference
- transformers
- unsloth
- sebaxakerhtc
- bggpt
- qwen2
- trl
license: apache-2.0
language:
- bg
datasets:
- INSAIT-Institute/mathqa-bgeval
---
# Български математик!
Модела е тренирана върху математически данни (7.5К реда) извлечени и оптимизирани от [mathqa-bgeval датасет](https://huggingface.co/datasets/INSAIT-Institute/mathqa-bgeval), предоставен от [INSAIT](https://huggingface.co/INSAIT-Institute)
# Как работи?
### Въпрос:
<p>една копирна машина може да направи 20 копия на минута, а втора копирна машина прави 10 копия на минута. ако двете копирни машини работят заедно, колко време ще им отнеме да направят 900 копия?</p>
### Входни данни:
<p>a ) 10 минути , b ) 20 минути , c ) 25 минути , d ) 30 минути , e ) 35 минути</p>
### Отговор от ИИ:
<p>нека x е времето, необходимо на двете копирни машини за направяване на 900 копии. 20 * x + 10 * x = 900 30 * x = 900 x = 30 минути отговорът е d.</p>
# Темплейт
```
### Instruction:
{}
### Input:
{}
### Response:
{}"""
```
# Uploaded model
- **Developed by:** burgasdotpro
- **License:** apache-2.0
- **Finetuned from model :** unsloth/qwen2.5-math-7b-instruct-bnb-4bit
Тази qwen2.5 модела тренирана 2 пъти по-бързо с помоща на [Unsloth](https://github.com/unslothai/unsloth) и TRL библиотеката на Huggingface.
[<img src="https://raw.githubusercontent.com/unslothai/unsloth/main/images/unsloth%20made%20with%20love.png" width="100"/>](https://github.com/unslothai/unsloth)