metadata
base_model: unsloth/qwen2.5-math-7b-instruct-bnb-4bit
tags:
- text-generation-inference
- transformers
- unsloth
- sebaxakerhtc
- bggpt
- qwen2
- gguf
license: apache-2.0
language:
- bg
datasets:
- burgasdotpro/synthetic_dataset
Uploaded model
- Developed by: burgasdotpro
- License: apache-2.0
- Finetuned from model : unsloth/qwen2.5-math-7b-instruct-bnb-4bit
Първите резултати, които не са лоши... Засега е тренирана върху моят малък датасет с 1000 реда синтетически дани (формат: въпрос-отговор)
Тази qwen2 модела тренирана 2 пъти по-бързо с помоща на Unsloth и TRL библиотеката на Huggingface.