T-pro-it-1.0 / README.md
ZeL1k7's picture
update README and add LICENSE
af8d250
|
raw
history blame
2.57 kB
metadata
language:
  - ru

T-pro-it-1.0

Description

T-pro-it-0.1 was trained in bf16.

Detailed model card’s coming soon…

📚 Dataset

Detailed model card’s coming soon…

📊 Benchmarks

Detailed model card’s coming soon… Here we present the results of T-pro-it-1.0 on automatic benchmarks.

👨‍💻 Examples of usage

from transformers import AutoTokenizer, AutoModelForCausalLM
import torch
torch.manual_seed(42)

model_name = "t-tech/T-lite-pro-1.0"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(
    model_name, 
    torch_dtype="auto",
    device_map="auto",
)

prompt = "Напиши стих про машинное обучение"
messages = [
    {"role": "system", "content": "Ты T-lite, виртуальный ассистент в Т-Технологии. Твоя задача - быть полезным диалоговым ассистентом."},
    {"role": "user", "content": prompt}
]
text = tokenizer.apply_chat_template(
    messages,
    tokenize=False,
    add_generation_prompt=True
)
model_inputs = tokenizer([text], return_tensors="pt").to(model.device)

generated_ids = model.generate(
    **model_inputs,
    max_new_tokens=256
)
generated_ids = [
    output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids)
]

response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0]

print(response)

Output:

В мире данных, где цифры танцуют,  
Машинное обученье — ведущий вальс.  
Алгоритмы учатся, как дети,  
На примерах, как на сказочных страницах.

Они ищут закономерности в потоках,  
Как мудрецы в древних свитках.  
С каждым шагом всё точнее предсказания,  
Вот так, словно волшебство, оживает.

Обучаясь на ошибках, они растут,  
Из простых моделей в сложные формы.  
Каждый новый пример — как новая строка,  
В книге знаний, что не знает конца.

Не бойтесь перемен, ведь это — путь,  
Который ведёт к будущему, светлому и новому.  
Машинное обученье — наш проводник,  
В этом мире, где технологии царят.