import gradio as gr from transformers import AutoTokenizer, AutoModelForSequenceClassification, TextClassificationPipeline title = "Clasificador de Tesis" description = "hugginface/hackathon-pln-es/unam_tesis_BETO_finnetuning" article = """ ## Miembros del Equipo: - Isaac Isaías López López ([MajorIsaiah](https://huggingface.co/MajorIsaiah)) - Dionis López Ramos ([inoid](https://huggingface.co/inoid)) - Yisel Clavel Quintero ([clavel](https://huggingface.co/clavel)) - Ximena Yeraldin López López ([Ximyer](https://huggingface.co/Ximyer)) """ tokenizer = AutoTokenizer.from_pretrained('hiiamsid/BETO_es_binary_classification', use_fast=False) model = AutoModelForSequenceClassification.from_pretrained( 'hackathon-pln-e/unam_tesis_beto_finnetuning', num_labels=5, output_attentions=False, output_hidden_states=False) pipe = TextClassificationPipeline(model=model, tokenizer=tokenizer, return_all_scores=True) classificationResult = pipe("El objetivo de esta tesis es elaborar un estudio de las condiciones asociadas al aprendizaje desde casa.") def thesis_prediction(input): pass examples = ["Introducción al análisis de riesgos competitivos bajo el enfoque de la función de incidencia acumulada (FIA) y su aplicación con R", "Los promedios de calificaciones y clasificar por grupo o asignatura se realizaron a través de tablas dinámicas en Excel"] if __name__ == "__main__": gr.Interface( fn=thesis_prediction, inputs=gr.inputs.Textbox( lines=2, placeholder="Ingrese de favor el título de la tesis o un fragmento de esta.", ), outputs=["text"], title=title, description=description, article=article, examples=[examples], ).launch()