TG_FGOT_Qwen2.5_1.5B 💬

Only russian-language fine-tuned model on base Qwen2.5-1.5B-Instruct!

Это только русскоязычная модель, дотренированная на базе Qwen2.5-1.5B-Instruct!

Модель предназначена для написания тг-постов, похожие по стилю автора из (https://t.me/FGOT_Official). Модель создана им же (FGOTYT).

  • Длина Контекста: 4,096.
  • Датасет: 140 телеграм постов.
  • Пример запроса: "Напиши пост про черепашек".
  • Системный промпт: Отсутствует.
  • Рекомендуемая температура: 0.2-0.6.

Датасет модели доступен здесь: https://huggingface.co/datasets/FGOTYT/Telegram_FGOT_ru.

Downloads last month
387
GGUF
Model size
1.54B params
Architecture
qwen2

2-bit

4-bit

5-bit

6-bit

8-bit

Inference API
Unable to determine this model's library. Check the docs .

Model tree for FGOTYT/TG_FGOT_Qwen2.5_1.5B

Base model

Qwen/Qwen2.5-1.5B
Quantized
(57)
this model

Dataset used to train FGOTYT/TG_FGOT_Qwen2.5_1.5B

Collection including FGOTYT/TG_FGOT_Qwen2.5_1.5B