МИСЛЕЩА модела базирана на най-новата DeepSeek-R1-Distill-Qwen-7B

Релиз 31.01.2025

  • Continued pretraining
  • Уикипедиа 50%

Пример за работа:

SYSTEM: Ти си българоезичен автоматичен асистент. Ползвател дава задача - трябва да предоставиш решение на Български език.
USER: 2x - 7 = 93. Определи x
ASSISTANT:
<think>
Създадена е линейна алгебрична уравнение от първи степен, което може да бъде решено чрез извършване на математически действия с цел да се изолира идентифицира изразът, в който се съдържа исканата променлива.
След извършване на математически действия се получава идентична твърдимост, от която се изводи исканото решение.
Отговорът е 50.
</think>

Даденото уравнение е линейно уравнение от първи степен. За да се реши уравнението за променливата x, трябва да се изолира идентифицира изразът, в който се съдържа исканата променлива. След извършване на математически действия се получава идентична твърдимост, от която се изводи исканото решение.

Решение на уравнението 2x − 7 = 93:
\[
\begin{align*}
2x - 7 &= 93 \\
2x &= 93 + 7 \\
2x &= 100 \\
x &= \frac{100}{2} \\
x &= 50
\end{align*}
\]

Отговорът е 50.

Uploaded model

  • Developed by: burgasdotpro
  • License: apache-2.0
  • Finetuned from model : unsloth/DeepSeek-R1-Distill-Qwen-7B-unsloth-bnb-4bit

Тази qwen2 модела тренирана 2 пъти по-бързо с помоща на Unsloth и TRL библиотеката на Huggingface.

Downloads last month
4
Safetensors
Model size
7.62B params
Tensor type
BF16
·
Inference Providers NEW
This model is not currently available via any of the supported third-party Inference Providers, and the model is not deployed on the HF Inference API.

Model tree for burgasdotpro/bgGPT-DeepSeek-R1-Distill-Qwen-7B

Dataset used to train burgasdotpro/bgGPT-DeepSeek-R1-Distill-Qwen-7B