llama-2-7b-custom-amadeus-conceptual-model
Este modelo es un asistente virtual inteligente diseñado como un chatbot para evaluar el nivel de madurez tecnológica (Technology Readiness Level, TRL) utilizando la metodología definida por la NASA.
Model Details
Model Description
Este modelo es un asistente virtual inteligente diseñado como un chatbot para evaluar el nivel de madurez tecnológica (Technology Readiness Level, TRL) utilizando la metodología definida por la NASA. El modelo se basa enNousResearch/llama-2-7b-chat-hf, que es parte de la familia de modelos Llama 2 desarrollada por Meta. Esta familia incluye modelos generativos de texto preentrenados y ajustados, optimizados para casos de uso de diálogo.
El modelo entrenado se enfoca en realizar una evaluacion del TRL realizando preguntas clave al usuario para estimar el nivel TRL. Utiliza un enfoque de aprendizaje supervisado basado en un dataset especializado que contiene definiciones del TRL, actividades asociadas a cada nivel y ejemplos de evaluaciones TRL.
- Developed by: Juan Sebastián Betancourt and Andrés Felipe Coral
- Dataset:amadesus-trl-assistant-dataset-v2-0
- Model type: Text Generation
- Language(s) (NLP): Spanish
- License: Meta License
- Parameters: 7B
- Finetuned from model:NousResearch/llama-2-7b-chat-hf
Uses
El modelo está diseñado para servir como un asistente virtual inteligente especializado en la evaluación del Nivel de Madurez Tecnológica (Technology Readiness Level, TRL) según la metodología definida por la NASA. A través de interacciones tipo chatbot, el modelo guía a los usuarios mediante preguntas clave para estimar con precisión el nivel TRL de una tecnología o proyecto.
Direct Use
El uso directo del modelo implica interactuar con él a través de una interfaz de chatbot, donde el modelo formula una serie de preguntas estructuradas al usuario para evaluar el nivel de madurez tecnológica de un proyecto o desarrollo específico. Este enfoque permite una evaluación interactiva y dinámica, adaptándose a las respuestas proporcionadas por el usuario para ofrecer una estimación precisa del TRL.
Training Details
Training Data
El modelo fue entrenado utilizando el dataset amadesus-trl-assistant-dataset-v2-0, que está diseñado para evaluar el Nivel de Madurez Tecnológica (TRL) en proyectos tecnológicos. Este dataset incluye:
- Definiciones TRL: Descripciones detalladas de cada nivel de madurez tecnológica.
- Actividades TRL: Ejemplos de actividades típicas en cada nivel.
- Evaluaciones TRL: Casos de estudio y ejemplos prácticos para cada nivel TRL.
El dataset se procesó para asegurar la consistencia y relevancia de los datos, y se estructuró en formato JSONL para facilitar su uso durante el entrenamiento.
Training Procedure
El modelo fue entrenado implementando técnicas para optimizar el rendimiento debido a los recursos limitados. El entrenamiento se realizó en una GPU de 15 GB, lo que requirió ajustes cuidadosos para maximizar la eficiencia.
Se utilizaron los siguientes parámetros de optimización:
- Configuración de LoRA (Low-Rank Adaptation):
- lora_r = 64
- lora_alpha = 16
- lora_dropout = 0.1
- Cuantización de 4 bits:
- bnb_4bit_compute_dtype = "float16"
- bnb_4bit_quant_type = "nf4"
- use_nested_quant = False
La configuración de LoRA fue diseñada para reducir la cantidad de parámetros ajustables durante el entrenamiento. Además, se aplicó cuantización en 4 bits para disminuir el uso de memoria y acelerar el procesamiento, sin sacrificar significativamente la precisión del modelo.
El proceso de entrenamiento fue gestionado a través del framework Hugging Face Transformers, utilizando el SFTTrainer para la afinación supervisada (Supervised Fine-Tuning), lo que permitió una integración fluida de la configuración de LoRA y las características de cuantización.
Training hyperparameters
The following hyperparameters were used during training:
- learning_rate: 0.0002
- train_batch_size: 4
- eval_batch_size: 8
- seed: 42
- optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
- lr_scheduler_type: constant
- lr_scheduler_warmup_ratio: 0.03
- num_epochs: 1
Training results
Training Loss | Epoch | Step | Validation Loss |
---|---|---|---|
2.7469 | 0.07 | 5 | 2.4758 |
2.1933 | 0.15 | 10 | 1.7288 |
1.6072 | 0.22 | 15 | 1.1641 |
1.16 | 0.3 | 20 | 0.6878 |
0.7187 | 0.37 | 25 | 0.4879 |
0.5549 | 0.45 | 30 | 0.4058 |
0.6104 | 0.52 | 35 | 0.3864 |
0.485 | 0.6 | 40 | 0.3316 |
0.3829 | 0.67 | 45 | 0.2744 |
0.4555 | 0.75 | 50 | 0.2632 |
0.5469 | 0.82 | 55 | 0.2544 |
0.3611 | 0.9 | 60 | 0.2384 |
0.3443 | 0.97 | 65 | 0.2227 |
- Loss: 0.2227
Framework versions
- Transformers 4.31.0
- Pytorch 2.3.1+cu121
- Datasets 2.20.0
- Tokenizers 0.13.3
Limitations and Ethical Considerations
Este modelo está diseñado específicamente para estimar niveles de madurez tecnológica y no debe ser utilizado para otros fines sin una revisión adicional. Además, la calidad de las respuestas del modelo depende en gran medida de la precisión de los datos proporcionados por el usuario.
Dataset used to train JsBetancourt/llama-2-7b-custom-amadeus-conceptual-model
Evaluation results
- Perplexity on amadesus-trl-assistant-dataset-v2-0Custom Evaluation50.210
- Accuracy on amadesus-trl-assistant-dataset-v2-0Custom Evaluation0.140
- Precision on amadesus-trl-assistant-dataset-v2-0Custom Evaluation0.130
- Recall on amadesus-trl-assistant-dataset-v2-0Custom Evaluation0.150
- F1 Score on amadesus-trl-assistant-dataset-v2-0Custom Evaluation0.140
- BLEU on amadesus-trl-assistant-dataset-v2-0Custom Evaluation14.290
- ROUGE-1 on amadesus-trl-assistant-dataset-v2-0Custom Evaluation0.390
- ROUGE-2 on amadesus-trl-assistant-dataset-v2-0Custom Evaluation0.230
- ROUGE-L on amadesus-trl-assistant-dataset-v2-0Custom Evaluation0.340
- Inference Time on amadesus-trl-assistant-dataset-v2-0Custom Evaluation38.350