LakoMoor commited on
Commit
9f827ac
1 Parent(s): 15b26c5
Files changed (1) hide show
  1. README.md +15 -10
README.md CHANGED
@@ -27,7 +27,7 @@ Instructive model based on **Qwen-2.5-0.5B-Instruct**, trained on the Russian-la
27
 
28
  ## Особенности:
29
 
30
- - 📚 Основа / Base: [Qwen-2.5-0.5B-Instruct](https://huggingface.co/Qwen/Qwen-2.5-0.5B-Instruct)
31
  - 🇷🇺 Специализация / Specialization: **RU**
32
  - 💾 Датасет / Dataset: [GrandMaster-PRO-MAX](https://huggingface.co/datasets/Vikhrmodels/GrandMaster-PRO-MAX)
33
 
@@ -70,17 +70,22 @@ tokenizer = AutoTokenizer.from_pretrained(model_name)
70
  # Подготовка входного текста
71
  input_text = "Напиши очень краткую рецензию о книге Гарри Поттер."
72
 
 
 
 
 
 
73
  # Токенизация и генерация текста
74
- input_ids = tokenizer.encode(input_text, return_tensors="pt")
75
  output = model.generate(
76
- input_ids,
77
- max_length=1512,
78
- temperature=0.3,
79
- num_return_sequences=1,
80
- no_repeat_ngram_size=2,
81
- top_k=50,
82
- top_p=0.95,
83
- )
84
 
85
  # Декодирование и вывод результата
86
  generated_text = tokenizer.decode(output[0], skip_special_tokens=True)
 
27
 
28
  ## Особенности:
29
 
30
+ - 📚 Основа / Base: [Qwen-2.5-0.5B-Instruct](https://huggingface.co/Qwen/Qwen2.5-0.5B-Instruct)
31
  - 🇷🇺 Специализация / Specialization: **RU**
32
  - 💾 Датасет / Dataset: [GrandMaster-PRO-MAX](https://huggingface.co/datasets/Vikhrmodels/GrandMaster-PRO-MAX)
33
 
 
70
  # Подготовка входного текста
71
  input_text = "Напиши очень краткую рецензию о книге Гарри Поттер."
72
 
73
+ messages = [
74
+ {"role": "system", "content": "Вы - Vikhr, помощник с искусственным интеллектом, созданный компанией Vikhr models, чтобы быть полезным, безобидным и честным."},
75
+ {"role": "user", "content": input_text},
76
+ ]
77
+
78
  # Токенизация и генерация текста
79
+ input_ids = tokenizer.apply_chat_template(messages, truncation=True, add_generation_prompt=True, return_tensors="pt")
80
  output = model.generate(
81
+ input_ids,
82
+ max_length=1512,
83
+ temperature=0.3,
84
+ num_return_sequences=1,
85
+ no_repeat_ngram_size=2,
86
+ top_k=50,
87
+ top_p=0.95,
88
+ )
89
 
90
  # Декодирование и вывод результата
91
  generated_text = tokenizer.decode(output[0], skip_special_tokens=True)