Fix
Browse files
README.md
CHANGED
@@ -27,7 +27,7 @@ Instructive model based on **Qwen-2.5-0.5B-Instruct**, trained on the Russian-la
|
|
27 |
|
28 |
## Особенности:
|
29 |
|
30 |
-
- 📚 Основа / Base: [Qwen-2.5-0.5B-Instruct](https://huggingface.co/Qwen/
|
31 |
- 🇷🇺 Специализация / Specialization: **RU**
|
32 |
- 💾 Датасет / Dataset: [GrandMaster-PRO-MAX](https://huggingface.co/datasets/Vikhrmodels/GrandMaster-PRO-MAX)
|
33 |
|
@@ -70,17 +70,22 @@ tokenizer = AutoTokenizer.from_pretrained(model_name)
|
|
70 |
# Подготовка входного текста
|
71 |
input_text = "Напиши очень краткую рецензию о книге Гарри Поттер."
|
72 |
|
|
|
|
|
|
|
|
|
|
|
73 |
# Токенизация и генерация текста
|
74 |
-
input_ids = tokenizer.
|
75 |
output = model.generate(
|
76 |
-
|
77 |
-
|
78 |
-
|
79 |
-
|
80 |
-
|
81 |
-
|
82 |
-
|
83 |
-
|
84 |
|
85 |
# Декодирование и вывод результата
|
86 |
generated_text = tokenizer.decode(output[0], skip_special_tokens=True)
|
|
|
27 |
|
28 |
## Особенности:
|
29 |
|
30 |
+
- 📚 Основа / Base: [Qwen-2.5-0.5B-Instruct](https://huggingface.co/Qwen/Qwen2.5-0.5B-Instruct)
|
31 |
- 🇷🇺 Специализация / Specialization: **RU**
|
32 |
- 💾 Датасет / Dataset: [GrandMaster-PRO-MAX](https://huggingface.co/datasets/Vikhrmodels/GrandMaster-PRO-MAX)
|
33 |
|
|
|
70 |
# Подготовка входного текста
|
71 |
input_text = "Напиши очень краткую рецензию о книге Гарри Поттер."
|
72 |
|
73 |
+
messages = [
|
74 |
+
{"role": "system", "content": "Вы - Vikhr, помощник с искусственным интеллектом, созданный компанией Vikhr models, чтобы быть полезным, безобидным и честным."},
|
75 |
+
{"role": "user", "content": input_text},
|
76 |
+
]
|
77 |
+
|
78 |
# Токенизация и генерация текста
|
79 |
+
input_ids = tokenizer.apply_chat_template(messages, truncation=True, add_generation_prompt=True, return_tensors="pt")
|
80 |
output = model.generate(
|
81 |
+
input_ids,
|
82 |
+
max_length=1512,
|
83 |
+
temperature=0.3,
|
84 |
+
num_return_sequences=1,
|
85 |
+
no_repeat_ngram_size=2,
|
86 |
+
top_k=50,
|
87 |
+
top_p=0.95,
|
88 |
+
)
|
89 |
|
90 |
# Декодирование и вывод результата
|
91 |
generated_text = tokenizer.decode(output[0], skip_special_tokens=True)
|