Edit model card

BERT-massa - Modelo de Análisis de Sentimientos en Español

Este modelo está basado en XLM-RoBERTa y ha sido fine-tuned para realizar análisis de sentimientos en textos en español en comentarios sobre el candidato en redes sociales durante el primer debate presidencial de Argentina en 2023.

Rendimiento del Modelo

•⁠ ⁠Accuracy: 0.815 •⁠ ⁠F1 Score: 0.767 •⁠ ⁠Precision: 0.729 •⁠ ⁠Recall: 0.814

Métricas por Clase

Clase Precision Recall F1-Score Support
Negativo 0.8718 0.7234 0.7907 47
Neutro 0.0000 0.0000 0.0000 3
Positivo 0.6000 0.8750 0.7119 24

Uso del Modelo

Este modelo puede ser utilizado para clasificar el sentimiento de textos en español en tres categorías: negativo, neutro y positivo.

from transformers import AutoModelForSequenceClassification, AutoTokenizer
import torch

model_name = "nmarinnn/bert-schiaretti"
model = AutoModelForSequenceClassification.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)

def predict(text):
    inputs = tokenizer(text, return_tensors="pt", truncation=True, padding=True, max_length=512)
    with torch.no_grad():
        outputs = model(**inputs)
    
    probabilities = torch.nn.functional.softmax(outputs.logits, dim=-1)
    predicted_class = torch.argmax(probabilities, dim=-1).item()
    
    class_labels = {0: "negativo", 1: "neutro", 2: "positivo"}
    return class_labels[predicted_class]

# Ejemplo de uso
texto = "Vamos schiaretti!"
sentimiento = predict(texto)
print(f"El sentimiento del texto es: {sentimiento}")

Limitaciones

•⁠ ⁠El modelo muestra un rendimiento bajo en la clase "neutro", posiblemente debido a un desbalance en el dataset de entrenamiento. •⁠ ⁠Se recomienda precaución al interpretar resultados para textos muy cortos o ambiguos.

Información de Entrenamiento

•⁠ ⁠Épocas: 2 •⁠ ⁠Pasos de entrenamiento: 148 •⁠ ⁠Pérdida de entrenamiento: 0.6209

Cita

Si utilizas este modelo en tu investigación, por favor cita:

@misc{marinnn2023bertschiaretti, author = {Marin, Natalia}, title = {BERT Bregman - Modelo de Análisis de Sentimientos en Español}, year = {2023}, publisher = {HuggingFace}, journal = {HuggingFace Model Hub}, howpublished = {\url{https://huggingface.co/nmarinnn/bert-bregman}} }

Downloads last month
136
Safetensors
Model size
278M params
Tensor type
F32
·
Inference Examples
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social visibility and check back later, or deploy to Inference Endpoints (dedicated) instead.

Model tree for nmarinnn/bert-schiaretti

Finetuned
(31)
this model

Collection including nmarinnn/bert-schiaretti

Evaluation results