File size: 2,049 Bytes
1c1edac
 
 
26f6bcb
cdd343b
 
c4213c0
 
47968b2
cdd343b
 
 
47968b2
c4213c0
 
 
 
 
47968b2
cdd343b
 
 
 
 
 
 
 
 
 
 
 
47968b2
c4213c0
47968b2
 
 
 
 
 
 
c4213c0
47968b2
 
26f6bcb
c4213c0
26f6bcb
c4213c0
26f6bcb
c4213c0
 
 
cdd343b
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
---
license: gpl
---

# Nombre del estudiante: Brayam Arvey Ardila 


# Nombre del modelo: BAAO

Se enfoca en la implementaci贸n y entrenamiento de un modelo de procesamiento 
de lenguaje natural basado en la arquitectura T5, utilizando la biblioteca Transformers de Hugging Face. 


# Descripci貌n

Este modelo utiliza la arquitectura T5 de Transformers para tareas de procesamiento de lenguaje natural, 
centradas en la generaci贸n de texto. Se implemento y entreno usando PyTorch Lightning, 
lo que facilita la escalabilidad y eficiencia en el entrenamiento.

# Funcionamiento: 

El proceso comienza con la instalaci贸n de las bibliotecas necesarias: transformers, sentencepiece 
y pytorch_lightning. Estas bibliotecas proporcionan las herramientas para trabajar con modelos de 
lenguaje avanzados y facilitan el manejo del entrenamiento y la validaci贸n de modelos.

Se utiliza una clase personalizada, T5Dataset, para preparar y gestionar los datos. 
El modelo se construye y entrena dentro de una clase T5Model, que hereda de pl.LightningModule. 
Esto implica que el modelo se beneficia de las caracter铆sticas de PyTorch Lightning, como la gesti贸n 
eficiente del entrenamiento y la escalabilidad. El entrenamiento del modelo se realiza con callbacks 
y checkpoints para monitorizar y guardar el progreso.


# Caracter矛sticas del modelo

Tipo de Modelo: T5 para generaci贸n condicional de texto.

Entrenado con: PyTorch Lightning.

Bibliotecas Clave: Transformers, SentencePiece, PyTorch Lightning.

# Datos utilizados

Preparaci贸n de Datos: Uso de T5Dataset para la manipulaci贸n y preparaci贸n de datos, adaptado para trabajar con el modelo T5.

Divisi贸n de Datos: Dividido en conjuntos de entrenamiento y prueba para una evaluaci贸n efectiva.

# Arquitectura del modelo

Base: T5ForConditionalGeneration de la biblioteca Transformers.
Personalizaci贸n: Implementaci贸n dentro de una clase T5Model que extiende pl.LightningModule, 
lo que indica una integraci贸n con PyTorch Lightning para gestionar el entrenamiento y la validaci贸n.