Iker commited on
Commit
5458ca9
1 Parent(s): 48f71c6

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +28 -3
README.md CHANGED
@@ -79,8 +79,8 @@ La siguiente imágen muestra algunas noticias Clickbait extraídas de nuestro da
79
  <img src="https://raw.githubusercontent.com/ikergarcia1996/NoticIA/main/assets/examples.png" style="width: 100%;">
80
  </p>
81
 
82
- # Creación del dataset
83
- ## Recopilación de Noticias Clickbait
84
 
85
  Hemos recopilado noticias clickbait usando la timeline del usuario de X/Twitter [@ahorrandoclick1](https://x.com/ahorrandoclick1). Para ello, hemos extraído
86
  las url de las noticias mencionadas por el usuario. Además, hemos añadido aproximadamente 100 noticias clibait escogidas por nosotros. La siguiente imágen, muestra
@@ -96,13 +96,38 @@ Hemos clasificado cada una de las noticias en base a la categoría a la que pert
96
  <img src="https://raw.githubusercontent.com/ikergarcia1996/NoticIA/main/assets/categories_distribution_spanish.png" style="width: 50%;">
97
  </p>
98
 
99
- ## Anotación del dataset
100
 
101
  Aunque [@ahorrandoclick1](https://x.com/ahorrandoclick1) reliza resúmenes de las noticias clickbat, estos resúmenes no siguen unas guidelines, y en muchos casos,
102
  su resumen no hace referencia al texto, si no que son del estilo *"Esto es publicidad"*, *"Aún no se han enterado de que..."*. Por lo tanto, hemos generado
103
  a mano el resumen de las 850 noticias. Para ello, hemos definido unas guidelines de anotación estrictas, disponibles en el siguiente enlace: [https://huggingface.co/spaces/Iker/ClickbaitAnnotation/blob/main/guidelines.py](https://huggingface.co/spaces/Iker/ClickbaitAnnotation/blob/main/guidelines.py).
104
  El dataset ha sido anotado por [Iker García-Ferrero](https://ikergarcia1996.github.io/Iker-Garcia-Ferrero/) y [Begoña Altuna](https://www.linkedin.com/in/bego%C3%B1a-altuna-78014139), en este proceso se han invertido aproximadamente 40 horas.
105
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
106
  # Formato de los datos
107
 
108
  El dataset se encuentra listo para ser usado para evaluar modelos de lenguaje. Para ellos, hemos desarrollado un *prompt* que hace uso del titular de la noticia y el texto.
 
79
  <img src="https://raw.githubusercontent.com/ikergarcia1996/NoticIA/main/assets/examples.png" style="width: 100%;">
80
  </p>
81
 
82
+
83
+ # Recopilación de Noticias Clickbait
84
 
85
  Hemos recopilado noticias clickbait usando la timeline del usuario de X/Twitter [@ahorrandoclick1](https://x.com/ahorrandoclick1). Para ello, hemos extraído
86
  las url de las noticias mencionadas por el usuario. Además, hemos añadido aproximadamente 100 noticias clibait escogidas por nosotros. La siguiente imágen, muestra
 
96
  <img src="https://raw.githubusercontent.com/ikergarcia1996/NoticIA/main/assets/categories_distribution_spanish.png" style="width: 50%;">
97
  </p>
98
 
99
+ # Anotación del dataset
100
 
101
  Aunque [@ahorrandoclick1](https://x.com/ahorrandoclick1) reliza resúmenes de las noticias clickbat, estos resúmenes no siguen unas guidelines, y en muchos casos,
102
  su resumen no hace referencia al texto, si no que son del estilo *"Esto es publicidad"*, *"Aún no se han enterado de que..."*. Por lo tanto, hemos generado
103
  a mano el resumen de las 850 noticias. Para ello, hemos definido unas guidelines de anotación estrictas, disponibles en el siguiente enlace: [https://huggingface.co/spaces/Iker/ClickbaitAnnotation/blob/main/guidelines.py](https://huggingface.co/spaces/Iker/ClickbaitAnnotation/blob/main/guidelines.py).
104
  El dataset ha sido anotado por [Iker García-Ferrero](https://ikergarcia1996.github.io/Iker-Garcia-Ferrero/) y [Begoña Altuna](https://www.linkedin.com/in/bego%C3%B1a-altuna-78014139), en este proceso se han invertido aproximadamente 40 horas.
105
 
106
+ # Estadísticas del dataset
107
+ Hemos dividido el dataset en tres splits, lo que facilita el entrenamiento de modelos. Como se puede ver en la siguiente tabla, los resúmenes de las noticias son extremadamente concisos.
108
+ Responden al titulat clcikbait de usando el menor número de palabras posibles.
109
+
110
+ | | Train | Validation | Test | Total |
111
+ |--------------------|-------|-----|------|-------|
112
+ | Número de artículos | 700 | 50 | 100 | 850 |
113
+ | Número medio de palabras en los titulates | 16 | 17 | 17 | 17 |
114
+ | Número medio de palabras del texto de la noticia | 544 | 663 | 549 | 552 |
115
+ | Número medio de palabras en los resúmenes | 12 | 11 | 11 | 12 |
116
+
117
+ # Validación de las anotaciones
118
+ Para validar el dataset, los 100 resúmenes del conjunto de Test han sido anotados por dos anotadores.
119
+ La concordancia general entre los anotadores ha sido alta, ya que han proporcionado exactamente la misma respuesta en el 26\% de los casos y han proporcionado respuestas que comparten parcialmente la información en el 48\% de los casos (misma respuesta, pero con alguna variación en las palabras utilizadas).
120
+ Esto demuestra que a los humanos les resultó fácil encontrar la información a la que se refiere el titular. También hemos identificado una lista de casos en los que los anotadores han ofrecido respuestas diferentes pero igualmente válidas, lo que constituye el 18\% de los casos.
121
+ Por último, identificamos 8 casos de desacuerdo. En 3 casos, uno de los anotadores realizó un resumen incorrecto,
122
+ probablemente debido al cansancio tras anotar múltiples ejemplos. En los 5 casos restantes, el desacuerdo se debió a información contradictoria en el artículo y
123
+ a diferentes interpretaciones de esta información. En estos casos, la determinación del resumen correcto queda sujeto a la interpretación del lector.
124
+
125
+ En cuanto a la evaluación de las guidelines, en general, no eran ambiguas, aunque que la petición de seleccionar la cantidad mínima de palabras para generar un
126
+ resumen válido a veces no es interpretada de la misma forma por los anotadores: Por ejemplo, la extensión mínima podría entenderse como el enfoque de la pregunta en el titular o una frase mínima bien formada.
127
+
128
+
129
+ En breves publicaremos un artículo con un análisis más detallado. Las anotaciones escritas por cada anotador pueden comprobarse en el siguiente enlace: [https://huggingface.co/datasets/Iker/NoticIA_Human_Validation](https://huggingface.co/datasets/Iker/NoticIA_Human_Validation).
130
+
131
  # Formato de los datos
132
 
133
  El dataset se encuentra listo para ser usado para evaluar modelos de lenguaje. Para ellos, hemos desarrollado un *prompt* que hace uso del titular de la noticia y el texto.