Edit model card

llama-2-7b-custom-amadeus-conceptual-model

Este modelo es un asistente virtual inteligente diseñado como un chatbot para evaluar el nivel de madurez tecnológica (Technology Readiness Level, TRL) utilizando la metodología definida por la NASA.

Model Details

Model Description

Este modelo es un asistente virtual inteligente diseñado como un chatbot para evaluar el nivel de madurez tecnológica (Technology Readiness Level, TRL) utilizando la metodología definida por la NASA. El modelo se basa enNousResearch/llama-2-7b-chat-hf, que es parte de la familia de modelos Llama 2 desarrollada por Meta. Esta familia incluye modelos generativos de texto preentrenados y ajustados, optimizados para casos de uso de diálogo.

El modelo entrenado se enfoca en realizar una evaluacion del TRL realizando preguntas clave al usuario para estimar el nivel TRL. Utiliza un enfoque de aprendizaje supervisado basado en un dataset especializado que contiene definiciones del TRL, actividades asociadas a cada nivel y ejemplos de evaluaciones TRL.

Uses

El modelo está diseñado para servir como un asistente virtual inteligente especializado en la evaluación del Nivel de Madurez Tecnológica (Technology Readiness Level, TRL) según la metodología definida por la NASA. A través de interacciones tipo chatbot, el modelo guía a los usuarios mediante preguntas clave para estimar con precisión el nivel TRL de una tecnología o proyecto.

Direct Use

El uso directo del modelo implica interactuar con él a través de una interfaz de chatbot, donde el modelo formula una serie de preguntas estructuradas al usuario para evaluar el nivel de madurez tecnológica de un proyecto o desarrollo específico. Este enfoque permite una evaluación interactiva y dinámica, adaptándose a las respuestas proporcionadas por el usuario para ofrecer una estimación precisa del TRL.

Training Details

Training Data

El modelo fue entrenado utilizando el dataset amadesus-trl-assistant-dataset-v2-0, que está diseñado para evaluar el Nivel de Madurez Tecnológica (TRL) en proyectos tecnológicos. Este dataset incluye:

  • Definiciones TRL: Descripciones detalladas de cada nivel de madurez tecnológica.
  • Actividades TRL: Ejemplos de actividades típicas en cada nivel.
  • Evaluaciones TRL: Casos de estudio y ejemplos prácticos para cada nivel TRL.

El dataset se procesó para asegurar la consistencia y relevancia de los datos, y se estructuró en formato JSONL para facilitar su uso durante el entrenamiento.

Training Procedure

El modelo fue entrenado implementando técnicas para optimizar el rendimiento debido a los recursos limitados. El entrenamiento se realizó en una GPU de 15 GB, lo que requirió ajustes cuidadosos para maximizar la eficiencia.

Se utilizaron los siguientes parámetros de optimización:

  • Configuración de LoRA (Low-Rank Adaptation):
    • lora_r = 64
    • lora_alpha = 16
    • lora_dropout = 0.1
  • Cuantización de 4 bits:
    • bnb_4bit_compute_dtype = "float16"
    • bnb_4bit_quant_type = "nf4"
    • use_nested_quant = False

La configuración de LoRA fue diseñada para reducir la cantidad de parámetros ajustables durante el entrenamiento. Además, se aplicó cuantización en 4 bits para disminuir el uso de memoria y acelerar el procesamiento, sin sacrificar significativamente la precisión del modelo.

El proceso de entrenamiento fue gestionado a través del framework Hugging Face Transformers, utilizando el SFTTrainer para la afinación supervisada (Supervised Fine-Tuning), lo que permitió una integración fluida de la configuración de LoRA y las características de cuantización.

Training hyperparameters

The following hyperparameters were used during training:

  • learning_rate: 0.0002
  • train_batch_size: 4
  • eval_batch_size: 8
  • seed: 42
  • optimizer: Adam with betas=(0.9,0.999) and epsilon=1e-08
  • lr_scheduler_type: constant
  • lr_scheduler_warmup_ratio: 0.03
  • num_epochs: 1

Training results

Training Loss Epoch Step Validation Loss
2.7469 0.07 5 2.4758
2.1933 0.15 10 1.7288
1.6072 0.22 15 1.1641
1.16 0.3 20 0.6878
0.7187 0.37 25 0.4879
0.5549 0.45 30 0.4058
0.6104 0.52 35 0.3864
0.485 0.6 40 0.3316
0.3829 0.67 45 0.2744
0.4555 0.75 50 0.2632
0.5469 0.82 55 0.2544
0.3611 0.9 60 0.2384
0.3443 0.97 65 0.2227
  • Loss: 0.2227

Framework versions

  • Transformers 4.31.0
  • Pytorch 2.3.1+cu121
  • Datasets 2.20.0
  • Tokenizers 0.13.3

Limitations and Ethical Considerations

Este modelo está diseñado específicamente para estimar niveles de madurez tecnológica y no debe ser utilizado para otros fines sin una revisión adicional. Además, la calidad de las respuestas del modelo depende en gran medida de la precisión de los datos proporcionados por el usuario.

Downloads last month

-

Downloads are not tracked for this model. How to track
Inference Examples
Unable to determine this model's library. Check the docs .

Dataset used to train JsBetancourt/llama-2-7b-custom-amadeus-conceptual-model

Evaluation results