--- language: - es size_categories: - n<1K task_categories: - summarization pretty_name: Resumen Noticias Clickbait dataset_info: features: - name: id dtype: int64 - name: summary dtype: string - name: headline dtype: string - name: prompt dtype: string - name: body dtype: string splits: - name: train num_bytes: 5389285 num_examples: 700 - name: validation num_bytes: 458718 num_examples: 50 - name: test num_bytes: 775135 num_examples: 100 download_size: 3407435 dataset_size: 6623138 configs: - config_name: default data_files: - split: train path: data/train-* - split: validation path: data/validation-* - split: test path: data/test-* tags: - summarization - clickbait - news ---
# Creación del dataset ## Recopilación de Noticias Clickbait Hemos recopilado noticias clickbait usando la timeline del usuario de X/Twitter [@ahorrandoclick1](https://x.com/ahorrandoclick1). Para ello, hemos extraído las url de las noticias mencionadas por el usuario. Además, hemos añadido aproximadamente 100 noticias clibait escogidas por nosotros. La siguiente imágen, muestra la fuente de las noticias del dataset.
Hemos clasificado cada una de las noticias en base a la categoría a la que pertenecen. Como se puede observar, nuestro dataset incluye una gran variedad de categorías.
## Anotación del dataset Aunque [@ahorrandoclick1](https://x.com/ahorrandoclick1) reliza resúmenes de las noticias clickbat, estos resúmenes no siguen unas guidelines, y en muchos casos, su resumen no hace referencia al texto, si no que son del estilo *"Esto es publicidad"*, *"Aún no se han enterado de que..."*. Por lo tanto, hemos generado a mano el resumen de las 850 noticias. Para ello, hemos definido unas guidelines de anotación estrictas, disponibles en el siguiente enlace: [https://huggingface.co/spaces/Iker/ClickbaitAnnotation/blob/main/guidelines.py](https://huggingface.co/spaces/Iker/ClickbaitAnnotation/blob/main/guidelines.py). El dataset ha sido anotado por [Iker García-Ferrero](https://ikergarcia1996.github.io/Iker-Garcia-Ferrero/) y [Begoña Altuna](https://www.linkedin.com/in/bego%C3%B1a-altuna-78014139), en este proceso se han invertido aproximadamente 40 horas. # Formato de los datos El dataset se encuentra listo para ser usado para evaluar modelos de lenguaje. Para ellos, hemos desarrollado un *prompt* que hace uso del titular de la noticia y el texto. El prompt es el siguiente: ```python def clickbait_prompt( headline: str, body: str, ) -> str: """ Generate the prompt for the model. Args: headline (`str`): The headline of the article. body (`str`): The body of the article. Returns: `str`: The formatted prompt. """ return ( f"Ahora eres una Inteligencia Artificial experta en desmontar titulares sensacionalistas o clickbait. " f"Tu tarea consiste en analizar noticias con titulares sensacionalistas y " f"generar un resumen de una sola frase que revele la verdad detrás del titular.\n" f"Este es el titular de la noticia: {headline}\n" f"El titular plantea una pregunta o proporciona información incompleta. " f"Debes buscar en el cuerpo de la noticia una frase que responda lo que se sugiere en el título. " f"Responde siempre que puedas parafraseando el texto original. " f"Usa siempre las mínimas palabras posibles. " f"Recuerda responder siempre en Español.\n" f"Este es el cuerpo de la noticia:\n" f"{body}\n" ) ``` El output experado del modelo es el resúmen. A continuación, se muestra un ejemplo de como evaluar `gemma-2b` en nuestro dataset: ``` from transformers import pipeline from datasets import load_dataset generator = pipeline(model="google/gemma-2b-it",device_map="auto") dataset = load_dataset("somosnlp/Resumen_Noticias_Clickbait",split="test") outputs = generator(dataset[0]["prompt"], return_full_text=False,max_length=4096) print(outputs) ``` El dataset incluye los siguientes campos: - **ID**: id del ejemplo - **summary**: Resumen escrito por un humano - **prompt**: Prompt listo para servir de input a un modelo de lenguaje - **headline**: Titular del artículo - **body**: Texto del artículo, obtenido del HTML. ## Datos en formato RAW Los datos en formato RAW se cuentran en el siguiente repositorio [Iker/NoticIA](https://huggingface.co/datasets/Iker/NoticIA) # Usos del dataset Este dataset ha sido recopilado para su uso en investigación científica. Concretamente, para su uso en la evaluación de modelos de lenguaje en Español. El uso comercial de este dataset está supedidado a las licencias de cada noticia y medio. Si quieres hacer un uso comercial del dataset tendrás que tener el permiso expreso de los medios de los cuales han sido obtenidas las noticias. Prohibimos expresamente el uso de estos datos para dos casos de uso que consideramos que pueden ser perjudiciales: El entrenamiento de modelos que generen titulares sensacionalistas o clickbait, y el entrenamiento de modelos que generen artículos o noticias de forma automática. # Dataset Description - **Author:** [Iker García-Ferrero](https://ikergarcia1996.github.io/Iker-Garcia-Ferrero/) - **Author** [Begoña Altuna](https://www.linkedin.com/in/bego%C3%B1a-altuna-78014139) - **Web Page**: [Github](https://github.com/ikergarcia1996/NoticIA) - **Language(s) (NLP):** Spanish