--- language: - ru --- # T-pro-it-1.0 ## Description T-pro-it-0.1 was trained in bf16. Detailed model card’s coming soon… ### 📚 Dataset Detailed model card’s coming soon… ## 📊 Benchmarks Detailed model card’s coming soon… Here we present the results of T-pro-it-1.0 on automatic benchmarks. ## 👨‍💻 Examples of usage ```python from transformers import AutoTokenizer, AutoModelForCausalLM import torch torch.manual_seed(42) model_name = "t-tech/T-lite-pro-1.0" tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForCausalLM.from_pretrained( model_name, torch_dtype="auto", device_map="auto", ) prompt = "Напиши стих про машинное обучение" messages = [ {"role": "system", "content": "Ты T-lite, виртуальный ассистент в Т-Технологии. Твоя задача - быть полезным диалоговым ассистентом."}, {"role": "user", "content": prompt} ] text = tokenizer.apply_chat_template( messages, tokenize=False, add_generation_prompt=True ) model_inputs = tokenizer([text], return_tensors="pt").to(model.device) generated_ids = model.generate( **model_inputs, max_new_tokens=256 ) generated_ids = [ output_ids[len(input_ids):] for input_ids, output_ids in zip(model_inputs.input_ids, generated_ids) ] response = tokenizer.batch_decode(generated_ids, skip_special_tokens=True)[0] print(response) ``` Output: ``` В мире данных, где цифры танцуют, Машинное обученье — ведущий вальс. Алгоритмы учатся, как дети, На примерах, как на сказочных страницах. Они ищут закономерности в потоках, Как мудрецы в древних свитках. С каждым шагом всё точнее предсказания, Вот так, словно волшебство, оживает. Обучаясь на ошибках, они растут, Из простых моделей в сложные формы. Каждый новый пример — как новая строка, В книге знаний, что не знает конца. Не бойтесь перемен, ведь это — путь, Который ведёт к будущему, светлому и новому. Машинное обученье — наш проводник, В этом мире, где технологии царят. ```