--- base_model: unsloth/qwen2.5-math-7b-instruct-bnb-4bit tags: - text-generation-inference - transformers - unsloth - sebaxakerhtc - bggpt - qwen2 - gguf license: apache-2.0 language: - bg datasets: - burgasdotpro/synthetic_dataset --- # Uploaded model - **Developed by:** burgasdotpro - **License:** apache-2.0 - **Finetuned from model :** unsloth/qwen2.5-math-7b-instruct-bnb-4bit Първите резултати, които не са лоши... Засега е тренирана върху моят малък датасет с 1000 реда синтетически дани (формат: въпрос-отговор) Тази qwen2 модела тренирана 2 пъти по-бързо с помоща на [Unsloth](https://github.com/unslothai/unsloth) и TRL библиотеката на Huggingface. [](https://github.com/unslothai/unsloth)