Model Card for ModernBERT Domain Classifier
Model Details
Model Description
Este modelo é baseado no ModernBERT-base
e foi ajustado (fine-tuned) para realizar a classificação de textos em dois rótulos: "Transferir" e "Não transferir". Ele foi projetado para auxiliar sistemas de atendimento automatizado, ajudando a decidir se uma interação precisa ser transferida para um atendente humano.
- Developed by: Lailson Henrique
- Funded by [optional]:
- Shared by [optional]: Lailson Henrique
- Model type: Modelo de classificação de texto baseado em Transformers.
- Language(s) (NLP): Português.
- License: Apache 2.0
- Finetuned from model [optional]:
answerdotai/ModernBERT-base
Model Sources [optional]
- Repository:
- Paper [optional]:
- Demo [optional]:
Uses
Direct Use
Este modelo pode ser usado diretamente para classificar interações entre clientes e sistemas automatizados em dois rótulos:
- Transferir: Quando a interação deve ser encaminhada para um atendente humano.
- Não transferir: Quando o sistema automatizado pode lidar com a interação.
Downstream Use [optional]
Pode ser integrado em sistemas de call centers ou atendimento por chat para otimizar a transferência para atendentes humanos.
Out-of-Scope Use
- Não recomendado para uso fora do idioma português.
- Não adequado para sistemas críticos ou decisões sensíveis sem supervisão humana.
Bias, Risks, and Limitations
- O modelo pode apresentar vieses baseados nos dados usados para treinamento.
- Não é garantido que o modelo funcione corretamente em textos ambíguos ou fora do domínio.
Recommendations
- Realize testes rigorosos antes da implantação em produção.
- Supervisione manualmente interações críticas ou sensíveis.
How to Get Started with the Model
Use o código abaixo para começar:
from transformers import AutoModelForSequenceClassification, AutoTokenizer
# Carregar o modelo
model = AutoModelForSequenceClassification.from_pretrained("seu-usuario/modernbert-domain-classifier")
tokenizer = AutoTokenizer.from_pretrained("seu-usuario/modernbert-domain-classifier")
# Fazer a predição
inputs = tokenizer("Preciso falar com um humano", return_tensors="pt")
outputs = model(**inputs)
logits = outputs.logits
predicted_class = logits.argmax().item()
# Mapear para os rótulos
label_map = {0: "Não transferir", 1: "Transferir"}
print(f"Predição: {label_map[predicted_class]}")
- Downloads last month
- 16
Inference Providers
NEW
This model is not currently available via any of the supported third-party Inference Providers, and
the model is not deployed on the HF Inference API.