Iker commited on
Commit
b464437
1 Parent(s): 4d7a2bf

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +72 -1
README.md CHANGED
@@ -1,5 +1,6 @@
1
  ---
2
  license: apache-2.0
 
3
  datasets:
4
  - somosnlp/Resumen_Noticias_Clickbait
5
  language:
@@ -66,4 +67,74 @@ widget:
66
  generar resúmenes concisos y de alta calidad de artículos con titulares clickbait.
67
 
68
 
69
- #
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
  ---
2
  license: apache-2.0
3
+ base_model: openchat/openchat-3.5-0106
4
  datasets:
5
  - somosnlp/Resumen_Noticias_Clickbait
6
  language:
 
67
  generar resúmenes concisos y de alta calidad de artículos con titulares clickbait.
68
 
69
 
70
+ # Entrenamiento del Modelo
71
+
72
+ Para entrenar el modelo hemos desarrollado nuestra propia librería de entrenamiento y anotación: [https://github.com/ikergarcia1996/NoticIA](https://github.com/ikergarcia1996/NoticIA). Esta librería hace uso
73
+ de 🤗 Transformers, 🤗 PEFT, Bitsandbytes y Deepspeed.
74
+
75
+ Para el hackathon hemos decidido entrenar un modelo de 7 Billones de parámetros, ya que, usando cuantificación de 4 bits, es posible ejecutar el modelo en hardware doméstico.
76
+ Tras analizar el rendimiento de una gran cantidad de LLMs, nos hemos decantado por [openchat-3.5-0106](https://huggingface.co/openchat/openchat-3.5-0106) debido a su gran rendimiento sin
77
+ necesidad de ser preentrenado. Para perturbar lo mínimo posible el conocimiento previo del modelo que le permite obtener este rendimiento, hemos optado por usar la técnica de
78
+ entrenamiento *Low-Rank Adaptation* (LoRA).
79
+
80
+ La configuración exacta de entrenamiento está disponible en []()
81
+
82
+ ### Prompt
83
+ El prompt utilizado para el entrenamiento es el mismo definido explicado en [https://huggingface.co/datasets/somosnlp/Resumen_Noticias_Clickbait](https://huggingface.co/datasets/somosnlp/Resumen_Noticias_Clickbait).
84
+ El prompt es convertido al template de chat específico de cada modelo.
85
+
86
+ # Rendimiento
87
+
88
+ Como es habitual en las tareas de resumen, utilizamos la métrica de puntuación ROUGE para evaluar automáticamente los resúmenes producidos por los modelos.
89
+ Nuestra métrica principal es ROUGE-1, que considera las palabras enteras como unidades básicas. Para calcular la puntuación ROUGE, ponemos en minúsculas ambos resúmenes y eliminamos los signos de puntuación.
90
+ Además de la puntuación ROUGE, también tenemos en cuenta la longitud media de los resúmenes.
91
+ Para nuestra tarea, pretendemos que los resúmenes sean concisos, un aspecto que la puntuación ROUGE no evalúa. Por lo tanto, al evaluar los modelos tenemos en cuenta tanto la puntuación ROUGE-1 como la longitud media de los resúmenes. Nuestro objetivo es encontrar un modelo que consiga la mayor puntuación ROUGE posible con la menor longitud de resumen posible, equilibrando calidad y brevedad.
92
+
93
+ Hemos realizado una evaluación incluyendo los mejores modelos de lenguaje entrenados para seguir instrucciones actuales, también hemos incluido el rendimiento obtenido por un anotador humano.
94
+ El código para reproducir los resultados se encuentra en el siguiente enlace: [https://github.com/ikergarcia1996/NoticIA](https://github.com/ikergarcia1996/NoticIA)
95
+
96
+ <p align="center">
97
+ <img src="https://huggingface.co/datasets/somosnlp/Resumen_Noticias_Clickbait/resolve/main/Results_zero.png" style="width: 100%;">
98
+ </p>
99
+
100
+
101
+ Tras el entrenamiento nuestro modelo adquire la capacidad de realizar resúmenes con una capacidad cercana a los humanos. Superando amplicamente a cualquier modelo en un setting zero-shot.
102
+ Al mismo tiempo, el modelo produce resúmenes más concisos y cortos.
103
+
104
+ # Demo
105
+
106
+ Una demo para probar nuestro modelo está disponible en el siguiente enlace: [Coming Soon]()
107
+
108
+
109
+
110
+ # Usos del modelo
111
+ Este dataset ha sido entrenado para su uso en investigación científica. Si quieres hacer un uso comercial del modelo tendrás que tener
112
+ el permiso expreso de los medios de los cuales han sido obtenidas las noticias usadas para entrenarlo. Prohibimos el uso de este modelo para
113
+ realizar cualquier acción que pueda perjudicar la legitimidad o viabilidad económica de medios de comunicación legítimos y profesionales.
114
+
115
+
116
+
117
+ # Model Description
118
+ - **Author:** [Iker García-Ferrero](https://ikergarcia1996.github.io/Iker-Garcia-Ferrero/)
119
+ - **Author** [Begoña Altuna](https://www.linkedin.com/in/bego%C3%B1a-altuna-78014139)
120
+ - **Web Page**: [Github](https://github.com/ikergarcia1996/NoticIA)
121
+ - **Language(s) (NLP):** Spanish
122
+
123
+ # Autores
124
+
125
+ Este modelo ha sido creado por [Iker García-Ferrero](https://ikergarcia1996.github.io/Iker-Garcia-Ferrero/) y [Begoña Altuna](https://www.linkedin.com/in/bego%C3%B1a-altuna-78014139).
126
+ Somos investigadores en PLN en la Universidad del País Vasco, dentro del grupo de investigación [IXA](https://www.ixa.eus/) y formamos parte de [HiTZ, el Centro Vasco de Tecnología de la Lengua](https://www.hitz.eus/es).
127
+
128
+
129
+ <div style="display: flex; justify-content: space-around; width: 100%;">
130
+ <div style="width: 50%;" align="left">
131
+ <a href="http://ixa.si.ehu.es/">
132
+ <img src="https://raw.githubusercontent.com/ikergarcia1996/Iker-Garcia-Ferrero/master/icons/ixa.png" width="50" height="50" alt="Ixa NLP Group">
133
+ </a>
134
+ </div>
135
+ <div style="width: 50%;" align="right">
136
+ <a href="http://www.hitz.eus/">
137
+ <img src="https://raw.githubusercontent.com/ikergarcia1996/Iker-Garcia-Ferrero/master/icons/Hitz.png" width="300" height="50" alt="HiTZ Basque Center for Language Technologies">
138
+ </a>
139
+ </div>
140
+ </div>