Update README.md
Browse files
README.md
CHANGED
@@ -1,5 +1,6 @@
|
|
1 |
---
|
2 |
license: apache-2.0
|
|
|
3 |
datasets:
|
4 |
- somosnlp/Resumen_Noticias_Clickbait
|
5 |
language:
|
@@ -66,4 +67,74 @@ widget:
|
|
66 |
generar resúmenes concisos y de alta calidad de artículos con titulares clickbait.
|
67 |
|
68 |
|
69 |
-
#
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
---
|
2 |
license: apache-2.0
|
3 |
+
base_model: openchat/openchat-3.5-0106
|
4 |
datasets:
|
5 |
- somosnlp/Resumen_Noticias_Clickbait
|
6 |
language:
|
|
|
67 |
generar resúmenes concisos y de alta calidad de artículos con titulares clickbait.
|
68 |
|
69 |
|
70 |
+
# Entrenamiento del Modelo
|
71 |
+
|
72 |
+
Para entrenar el modelo hemos desarrollado nuestra propia librería de entrenamiento y anotación: [https://github.com/ikergarcia1996/NoticIA](https://github.com/ikergarcia1996/NoticIA). Esta librería hace uso
|
73 |
+
de 🤗 Transformers, 🤗 PEFT, Bitsandbytes y Deepspeed.
|
74 |
+
|
75 |
+
Para el hackathon hemos decidido entrenar un modelo de 7 Billones de parámetros, ya que, usando cuantificación de 4 bits, es posible ejecutar el modelo en hardware doméstico.
|
76 |
+
Tras analizar el rendimiento de una gran cantidad de LLMs, nos hemos decantado por [openchat-3.5-0106](https://huggingface.co/openchat/openchat-3.5-0106) debido a su gran rendimiento sin
|
77 |
+
necesidad de ser preentrenado. Para perturbar lo mínimo posible el conocimiento previo del modelo que le permite obtener este rendimiento, hemos optado por usar la técnica de
|
78 |
+
entrenamiento *Low-Rank Adaptation* (LoRA).
|
79 |
+
|
80 |
+
La configuración exacta de entrenamiento está disponible en []()
|
81 |
+
|
82 |
+
### Prompt
|
83 |
+
El prompt utilizado para el entrenamiento es el mismo definido explicado en [https://huggingface.co/datasets/somosnlp/Resumen_Noticias_Clickbait](https://huggingface.co/datasets/somosnlp/Resumen_Noticias_Clickbait).
|
84 |
+
El prompt es convertido al template de chat específico de cada modelo.
|
85 |
+
|
86 |
+
# Rendimiento
|
87 |
+
|
88 |
+
Como es habitual en las tareas de resumen, utilizamos la métrica de puntuación ROUGE para evaluar automáticamente los resúmenes producidos por los modelos.
|
89 |
+
Nuestra métrica principal es ROUGE-1, que considera las palabras enteras como unidades básicas. Para calcular la puntuación ROUGE, ponemos en minúsculas ambos resúmenes y eliminamos los signos de puntuación.
|
90 |
+
Además de la puntuación ROUGE, también tenemos en cuenta la longitud media de los resúmenes.
|
91 |
+
Para nuestra tarea, pretendemos que los resúmenes sean concisos, un aspecto que la puntuación ROUGE no evalúa. Por lo tanto, al evaluar los modelos tenemos en cuenta tanto la puntuación ROUGE-1 como la longitud media de los resúmenes. Nuestro objetivo es encontrar un modelo que consiga la mayor puntuación ROUGE posible con la menor longitud de resumen posible, equilibrando calidad y brevedad.
|
92 |
+
|
93 |
+
Hemos realizado una evaluación incluyendo los mejores modelos de lenguaje entrenados para seguir instrucciones actuales, también hemos incluido el rendimiento obtenido por un anotador humano.
|
94 |
+
El código para reproducir los resultados se encuentra en el siguiente enlace: [https://github.com/ikergarcia1996/NoticIA](https://github.com/ikergarcia1996/NoticIA)
|
95 |
+
|
96 |
+
<p align="center">
|
97 |
+
<img src="https://huggingface.co/datasets/somosnlp/Resumen_Noticias_Clickbait/resolve/main/Results_zero.png" style="width: 100%;">
|
98 |
+
</p>
|
99 |
+
|
100 |
+
|
101 |
+
Tras el entrenamiento nuestro modelo adquire la capacidad de realizar resúmenes con una capacidad cercana a los humanos. Superando amplicamente a cualquier modelo en un setting zero-shot.
|
102 |
+
Al mismo tiempo, el modelo produce resúmenes más concisos y cortos.
|
103 |
+
|
104 |
+
# Demo
|
105 |
+
|
106 |
+
Una demo para probar nuestro modelo está disponible en el siguiente enlace: [Coming Soon]()
|
107 |
+
|
108 |
+
|
109 |
+
|
110 |
+
# Usos del modelo
|
111 |
+
Este dataset ha sido entrenado para su uso en investigación científica. Si quieres hacer un uso comercial del modelo tendrás que tener
|
112 |
+
el permiso expreso de los medios de los cuales han sido obtenidas las noticias usadas para entrenarlo. Prohibimos el uso de este modelo para
|
113 |
+
realizar cualquier acción que pueda perjudicar la legitimidad o viabilidad económica de medios de comunicación legítimos y profesionales.
|
114 |
+
|
115 |
+
|
116 |
+
|
117 |
+
# Model Description
|
118 |
+
- **Author:** [Iker García-Ferrero](https://ikergarcia1996.github.io/Iker-Garcia-Ferrero/)
|
119 |
+
- **Author** [Begoña Altuna](https://www.linkedin.com/in/bego%C3%B1a-altuna-78014139)
|
120 |
+
- **Web Page**: [Github](https://github.com/ikergarcia1996/NoticIA)
|
121 |
+
- **Language(s) (NLP):** Spanish
|
122 |
+
|
123 |
+
# Autores
|
124 |
+
|
125 |
+
Este modelo ha sido creado por [Iker García-Ferrero](https://ikergarcia1996.github.io/Iker-Garcia-Ferrero/) y [Begoña Altuna](https://www.linkedin.com/in/bego%C3%B1a-altuna-78014139).
|
126 |
+
Somos investigadores en PLN en la Universidad del País Vasco, dentro del grupo de investigación [IXA](https://www.ixa.eus/) y formamos parte de [HiTZ, el Centro Vasco de Tecnología de la Lengua](https://www.hitz.eus/es).
|
127 |
+
|
128 |
+
|
129 |
+
<div style="display: flex; justify-content: space-around; width: 100%;">
|
130 |
+
<div style="width: 50%;" align="left">
|
131 |
+
<a href="http://ixa.si.ehu.es/">
|
132 |
+
<img src="https://raw.githubusercontent.com/ikergarcia1996/Iker-Garcia-Ferrero/master/icons/ixa.png" width="50" height="50" alt="Ixa NLP Group">
|
133 |
+
</a>
|
134 |
+
</div>
|
135 |
+
<div style="width: 50%;" align="right">
|
136 |
+
<a href="http://www.hitz.eus/">
|
137 |
+
<img src="https://raw.githubusercontent.com/ikergarcia1996/Iker-Garcia-Ferrero/master/icons/Hitz.png" width="300" height="50" alt="HiTZ Basque Center for Language Technologies">
|
138 |
+
</a>
|
139 |
+
</div>
|
140 |
+
</div>
|