Iker commited on
Commit
43c5ad2
1 Parent(s): b3ef29b

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +134 -0
README.md CHANGED
@@ -28,4 +28,138 @@ configs:
28
  path: data/validation-*
29
  - split: test
30
  path: data/test-*
 
 
 
 
 
 
 
 
 
 
 
31
  ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
28
  path: data/validation-*
29
  - split: test
30
  path: data/test-*
31
+ task_categories:
32
+ - summarization
33
+ language:
34
+ - es
35
+ pretty_name: Resumen Noticias Clickbait
36
+ size_categories:
37
+ - n<1K
38
+ tags:
39
+ - summarization
40
+ - clickbait
41
+ - news
42
  ---
43
+
44
+ <p align="center">
45
+ <img src="https://huggingface.co/datasets/Iker/NoticIA/resolve/main/assets/logo.png" style="width: 50%;">
46
+ </p>
47
+ <h3 align="center">"NoticIA: Un Dataset para el Resumen de Artículos Clickbait en Español."</h3>
48
+
49
+ Definimos un artículo clickbait como un artículo que busca atraer la atención del lector a través de la curiosidad.
50
+ Para ello, el titular plantea una pregunta o una afirmación incompleta, sansacionalista, exagerada o engañosa.
51
+ La respuesta a la pregunta generada en el titular, no suele aparecer hasta el final del artículo, la cual es precedida por una gran cantidad de contenido irrelevante.
52
+ El objetivo es que el usuario entre en la web a través del titular y después haga scroll hasta el final del artículo haciéndole ver la mayor cantidad de publicidad posible.
53
+ Los artículos clickbait suelen ser de baja calidad y no aportan valor al lector, más allá de la curiosidad inicial. Este fenómeno hace socavar la confianza del público en las fuentes de noticias.
54
+ Y afecta negativamente a los ingresos publicitarios de los creadores de contenidos legítimos, que podrían ver reducido su tráfico web.
55
+
56
+ Presentamos NoticIA, un conjunto de datos que consta de 850 artículos de noticias en español con titulares clickbait,
57
+ cada uno emparejado con resúmenes generativos de alta calidad de una sola frase escritos por humanos.
58
+ Esta tarea exige habilidades avanzadas de comprensión y resumen de texto, desafiando la capacidad de los modelos para inferir y
59
+ conectar diversas piezas de información para satisfacer la curiosidad informativa del usuario generada por el titular clickbait.
60
+
61
+ El proyecto está inspirado la cuenta de X/Twitter [@ahorrandoclick1](https://x.com/ahorrandoclick1).
62
+ [@ahorrandoclick1](https://x.com/ahorrandoclick1) cuenta con 300.000 seguidores, lo que demuestra el gran valor de realizar resúmenes de noticias clickbait.
63
+ Sin embargo, realizar estos resúmenes a mano, es una tarea muy laboriosa, y el número de noticias clickbait publicadas supera ampliante el número de resúmenes que
64
+ una persona puede realizar. Por lo tanto, existe la necesidad de generar resúmenes automáticos de noticias clickbait. Además, como hemos mencionado anteriormente, se
65
+ trata de una tarea ideal para analizar las capacidades de compresión de texto en español de un modelo de lenguaje.
66
+
67
+
68
+ # Ejemplos de Noticias Clickbait
69
+
70
+ La siguiente imágen muestra algunas noticias Clickbait extraídas de nuestro dataset. Como se puede ver, los titulares son altamente sensacionalistas, prometiendo al usuario una información que no cumple las expectivas, o que en algunos casos, ni siquiera existe.
71
+ Estos artículos no cumplen ninguna función informatica, y su único objetivo es generar ingresos publicitarios con los lectores que se ven atraídos por un titular engañoso.
72
+
73
+
74
+ <p align="center">
75
+ <img src="https://raw.githubusercontent.com/ikergarcia1996/NoticIA/main/assets/examples.png" style="width: 100%;">
76
+ </p>
77
+
78
+ # Creación del dataset
79
+ ## Recopilación de Noticias Clickbait
80
+
81
+ Hemos recopilado noticias clickbait usando la timeline del usuario de X/Twitter [@ahorrandoclick1](https://x.com/ahorrandoclick1). Para ello, hemos extraído
82
+ las url de las noticias mencionadas por el usuario. Además, hemos añadido aproximadamente 100 noticias clibait escogidas por nosotros. La siguiente imágen, muestra
83
+ la fuente de las noticias del dataset.
84
+
85
+ <p align="center">
86
+ <img src="https://raw.githubusercontent.com/ikergarcia1996/NoticIA/main/assets/noticia_dataset.png" style="width: 50%;">
87
+ </p>
88
+
89
+ Hemos clasificado cada una de las noticias en base a la categoría a la que pertenecen. Como se puede observar, nuestro dataset incluye una gran variedad de categorías.
90
+
91
+ <p align="center">
92
+ <img src="https://raw.githubusercontent.com/ikergarcia1996/NoticIA/main/assets/categories_distribution_spanish.png" style="width: 50%;">
93
+ </p>
94
+
95
+ ## Anotación del dataset
96
+
97
+ Aunque [@ahorrandoclick1](https://x.com/ahorrandoclick1) reliza resúmenes de las noticias clickbat, estos resúmenes no siguen unas guidelines, y en muchos casos,
98
+ su resumen no hace referencia al texto, si no que son del estilo *"Esto es publicidad"*, *"Aún no se han enterado de que..."*. Por lo tanto, hemos generado
99
+ a mano el resumen de las 850 noticias. Para ello, hemos definido unas guidelines de anotación estrictas, disponibles en el siguiente enlace: [https://huggingface.co/spaces/Iker/ClickbaitAnnotation/blob/main/guidelines.py](https://huggingface.co/spaces/Iker/ClickbaitAnnotation/blob/main/guidelines.py).
100
+ El dataset ha sido anotado por [Iker García-Ferrero](https://ikergarcia1996.github.io/Iker-Garcia-Ferrero/) y [Begoña Altuna](https://www.linkedin.com/in/bego%C3%B1a-altuna-78014139), en este proceso se han invertido aproximadamente 40 horas.
101
+
102
+ # Formato de los datos
103
+
104
+ El dataset se encuentra listo para ser usado para evaluar modelos de lenguaje. Para ellos, hemos desarrollado un *prompt* que hace uso del titular de la noticia y el texto.
105
+ El prompt es el siguiente:
106
+ ```python
107
+ def clickbait_prompt(
108
+ headline: str,
109
+ body: str,
110
+ ) -> str:
111
+ """
112
+ Generate the prompt for the model.
113
+ Args:
114
+ headline (`str`):
115
+ The headline of the article.
116
+ body (`str`):
117
+ The body of the article.
118
+ Returns:
119
+ `str`: The formatted prompt.
120
+ """
121
+ return (
122
+ f"Ahora eres una Inteligencia Artificial experta en desmontar titulares sensacionalistas o clickbait. "
123
+ f"Tu tarea consiste en analizar noticias con titulares sensacionalistas y "
124
+ f"generar un resumen de una sola frase que revele la verdad detrás del titular.\n"
125
+ f"Este es el titular de la noticia: {headline}\n"
126
+ f"El titular plantea una pregunta o proporciona información incompleta. "
127
+ f"Debes buscar en el cuerpo de la noticia una frase que responda lo que se sugiere en el título. "
128
+ f"Responde siempre que puedas parafraseando el texto original. "
129
+ f"Usa siempre las mínimas palabras posibles. "
130
+ f"Recuerda responder siempre en Español.\n"
131
+ f"Este es el cuerpo de la noticia:\n"
132
+ f"{body}\n"
133
+ )
134
+ ```
135
+
136
+
137
+ El output experado del modelo es el resúmen. A continuación, se muestra un ejemplo de como evaluar `gemma-2b` en nuestro dataset:
138
+ ```
139
+ from transformers import pipeline
140
+ from datasets import load_dataset
141
+
142
+ generator = pipeline(model="google/gemma-2b-it",device_map="auto")
143
+ dataset = load_dataset("somosnlp/Resumen_Noticias_Clickbait",split="test")
144
+
145
+ outputs = generator(dataset[0], return_full_text=False,max_length=4096)
146
+ print(outputs)
147
+ ```
148
+
149
+ ## Datos en formato RAW
150
+ Los datos en formato RAW se cuentran en el siguiente repositorio [Iker/NoticIA](https://huggingface.co/datasets/Iker/NoticIA)
151
+
152
+
153
+ # Usos del dataset
154
+ Este dataset ha sido recopilado para su uso en investigación científica. Concretamente, para su uso en la evaluación de modelos de lenguaje en Español.
155
+ El uso comercial de este dataset está supedidado a las licencias de cada noticia y medio. Si quieres hacer un uso comercial del dataset tendrás que tener
156
+ el permiso expreso de los medios de los cuales han sido obtenidas las noticias. Prohibimos expresamente el uso de estos datos para dos casos de uso que consideramos
157
+ que pueden ser perjudiciales: El entrenamiento de modelos que generen titulares sensacionalistas o clickbait, y el entrenamiento de modelos que generen artículos o noticias de forma automática.
158
+
159
+
160
+ # Dataset Description
161
+ - **Author:** [Iker García-Ferrero](https://ikergarcia1996.github.io/Iker-Garcia-Ferrero/)
162
+ - **Author** [Begoña Altuna](https://www.linkedin.com/in/bego%C3%B1a-altuna-78014139)
163
+ - **Web Page**: [Github](https://github.com/ikergarcia1996/NoticIA)
164
+ - **Language(s) (NLP):** Spanish
165
+