--- base_model: unsloth/DeepSeek-R1-Distill-Qwen-14B-unsloth-bnb-4bit tags: - text-generation-inference - transformers - unsloth - sebaxakerhtc - bggpt - qwen2 - trl - deepseek-r1 license: apache-2.0 language: - bg datasets: - burgasdotpro/wikipedia --- **МИСЛЕЩА** модела базирана на най-новата DeepSeek-R1-Distill-Qwen-14B Актуализиран 24.01.2025 - Continued pretraining - Уикипедиа 10% # Все още работя по модела да й поробрим Български език :) Work in progress... ### Пример за работа: ##### SYSTEM: `Ти си българоезичен автоматичен асистент. Ползвател дава задача - трябва да предоставиш решение на Български език.` ##### USER: `Реши уравнение: 8 * y^2 = 8` ##### ASSISTANT: ``` Здравей! Отговарям на задачата, която ми е подадена. Има да се реши уравнение: 8 * y² = 8. Следващата ми стъпка е да разделям двете страни на уравнението със 8. Това дава: y² = 1. След това вземам квадратен корен от двете страни на уравнението, което дава: y = ±1. Така намирам решението на уравнението. Оказва се, че има два решения: y = 1 и y = -1. След като съм сигурна, че няма грешки във възникналия ми процес, смятам, че съм направила правилното. Всичко е вярно, така че можем да представим крайното решение. Решение на уравнението 8 * y² = 8 е y = ±1. ``` # Uploaded model - **Developed by:** burgasdotpro - **License:** apache-2.0 - **Finetuned from model :** unsloth/DeepSeek-R1-Distill-Qwen-14B-unsloth-bnb-4bit Тази qwen2 модела тренирана 2 пъти по-бързо с помоща на [Unsloth](https://github.com/unslothai/unsloth) и TRL библиотеката на Huggingface. [](https://github.com/unslothai/unsloth)