Apel-sin commited on
Commit
53521a8
·
1 Parent(s): 30906c8

add measurement.json

Browse files
Files changed (2) hide show
  1. README.md +81 -0
  2. measurement.json +0 -0
README.md ADDED
@@ -0,0 +1,81 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ language:
3
+ - ru
4
+ base_model: t-tech/T-pro-it-1.0
5
+ ---
6
+ # T-pro-it-1.0
7
+
8
+ **🚨 T-pro is designed for further fine-tuning and is not intended as a ready-to-use conversational assistant. Users are advised to exercise caution and are responsible for any additional training and oversight required to ensure the model's responses meet acceptable ethical and safety standards. The responsibility for incorporating this model into industrial or commercial solutions lies entirely with those who choose to deploy it.**
9
+
10
+ ## Description
11
+
12
+ T-pro-it-1.0 was trained in bf16.
13
+
14
+ Detailed model card’s coming soon…
15
+
16
+ ### 📚 Dataset
17
+
18
+ Detailed model card’s coming soon…
19
+
20
+ ## 📊 Benchmarks
21
+
22
+ Detailed model card’s coming soon…
23
+
24
+ ## 👨‍💻 Examples of usage
25
+
26
+
27
+ ```python
28
+ from transformers import AutoTokenizer, AutoModelForCausalLM
29
+ import torch
30
+ torch.manual_seed(42)
31
+
32
+ model_name = "t-tech/T-pro-it-1.0"
33
+ tokenizer = AutoTokenizer.from_pretrained(model_name)
34
+ model = AutoModelForCausalLM.from_pretrained(
35
+ model_name,
36
+ torch_dtype="auto",
37
+ device_map="auto",
38
+ )
39
+
40
+ prompt = "Напиши стих про машинное обучение"
41
+ messages = [
42
+ {"role": "system", "content": "Ты T-pro, виртуальный ассистент в Т-Технологии. Твоя задача - быть полезным диалоговым ассистентом."},
43
+ {"role": "user", "content": prompt}
44
+ ]
45
+ text = tokenizer.apply_chat_template(
46
+ messages,
47
+ tokenize=False,
48
+ add_generation_prompt=True
49
+ )
50
+ model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
51
+
52
+ generated_ids = model.generate(
53
+ **model_inputs,
54
+ max_new_tokens=256
55
+ )
56
+ generated_ids = [
57
+ output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
58
+ ]
59
+
60
+ response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
61
+
62
+ print(response)
63
+ ```
64
+
65
+ Output:
66
+ ```
67
+ В мире данных и алгоритмов, где путь просветления лежит,
68
+ Машинное обучение — как звезда, что светом знаний сияет.
69
+ Слои нейронов, как мозг огромный, в цифровой тишине дремлют,
70
+ Изучают закономерности, скрытые в числах глубоко.
71
+
72
+ Оно учится на примерах, как ребёнок, открывая мир,
73
+ На ошибках своих корректируясь, шаг за шагом к совершенству стремится.
74
+ Где раньше требовалась рука человека, теперь сеть сама решает,
75
+ Прогнозы точные строит, решения сложные принимает.
76
+
77
+ В облаках данных, как корабль, плывёт через шторм и спокойствие,
78
+ Поиск закономерностей — его цель, открыть тайны бытия.
79
+ От распознавания лиц до понимания речи,
80
+ Машинное обучение — это ключ, что открывает двери.
81
+ ```
measurement.json ADDED
The diff for this file is too large to render. See raw diff