metadata
language:
- ru
T-pro-it-1.0
Description
T-pro-it-0.1 was trained in bf16.
Detailed model card’s coming soon…
📚 Dataset
Detailed model card’s coming soon…
📊 Benchmarks
Detailed model card’s coming soon… Here we present the results of T-pro-it-1.0 on automatic benchmarks.
👨💻 Examples of usage
from transformers import AutoTokenizer, AutoModelForCausalLM
import torch
torch.manual_seed(42)
model_name = "t-tech/T-lite-pro-1.0"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(
model_name,
torch_dtype="auto",
device_map="auto",
)
prompt = "Напиши стих про машинное обучение"
messages = [
{"role": "system", "content": "Ты T-lite, виртуальный ассистент в Т-Технологии. Твоя задача - быть полезным диалоговым ассистентом."},
{"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
messages,
tokenize=False,
add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)
generated_ids = model.generate(
**model_inputs,
max_new_tokens=256
)
generated_ids = [
output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]
response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]
print(response)
Output:
В мире данных, где цифры танцуют,
Машинное обученье — ведущий вальс.
Алгоритмы учатся, как дети,
На примерах, как на сказочных страницах.
Они ищут закономерности в потоках,
Как мудрецы в древних свитках.
С каждым шагом всё точнее предсказания,
Вот так, словно волшебство, оживает.
Обучаясь на ошибках, они растут,
Из простых моделей в сложные формы.
Каждый новый пример — как новая строка,
В книге знаний, что не знает конца.
Не бойтесь перемен, ведь это — путь,
Который ведёт к будущему, светлому и новому.
Машинное обученье — наш проводник,
В этом мире, где технологии царят.