metadata
library_name: transformers
tags: []
TriageTron-large
TriageTron-large se trata de un modelo inicializado con xlnet-large-unsased y adaptado con preguntas y especialidades para poder realizar Derivaciones Automatizadas en Servicios Hospitalarios. El dataset se puede encontrar de manera p煤blica y se trata de MedDialog EN.
Para el entrenamiento de este modelo hemos seguidos los est谩ndares de la librer铆a transformers y se ha utilizado una NVIDIA P100. Adem谩s, ha sido entrenado con un batch-size de 4, un learning rate de 2e-5, X epochs y un weigth decay de 0.015, loggeando los resultados cada 100 iteraciones.
Utilizaci贸n
Mediante el pipeline
de Hugging Face:
from transformers import pipeline
model_id = "eperezs/TriageTron-large"
pipe = pipeline("text-classification", model_id, token = <your_token_here>)
text = "I have pain in the back"
result = pipe(text)
print(result)
Mediante AutoModelForSequenceClassification
y AutoTokenizer
:
from transformers import AutoModelForSequenceClassification, AutoTokenizer
model_id = "eperezs/TriageTron-large"
tokenizer = AutoTokenizer.from_pretrained(model_id)
model = AutoModelForSequenceClassification.from_pretrained(model_id)
text = "I have pain in the back"
inputs = tokenizer(text, return_tensors = "pt")
logits = model(**inputs)
print(f"The predicted class is {model.id2label[logits.argmax()]}")
print(result)
Evaluaci贸n
- Accuracy : 89,9%
- F1: 89%
- Precision: 89%
Training Hyperparameters
- learning_rate: 2e-5
- batch_size: 4
- num_train_epochs: 3
- weight_decay: 0.015
- optimizer: AdamW
- test_size: 0.2
- logging_steps: 100