KLUE RoBERTa Large KorQuAD v1 QA - Fine-tuned
이 모델은 CurtisJeon/klue-roberta-large-korquad_v1_qa를 기반으로 하여 추가 데이터로 fine-tuning한 한국어 질의응답(QA) 모델입니다.
모델 정보
- 기본 모델: KLUE RoBERTa Large
- 태스크: 질의응답 (Question Answering)
- 언어: 한국어
- 훈련 데이터: KorQuAD v1 + [자체 데이터]
모델 구조
- RobertaForQuestionAnswering 아키텍처 사용 + CNN 레이어(without a dropout)
- 24개의 hidden layers
- 1024 hidden size
- 16 attention heads
- 총 파라미터: 약 355M
사용 방법
이 모델은 Hugging Face Transformers 라이브러리를 사용하여 쉽게 로드하고 사용할 수 있습니다:
from transformers import AutoModelForQuestionAnswering, AutoTokenizer
model_name = "HANTAEK/klue-roberta-large-korquad-v1-qa-finetuned"
model = AutoModelForQuestionAnswering.from_pretrained(model_name)
tokenizer = AutoTokenizer.from_pretrained(model_name)
- Downloads last month
- 43
Model tree for HANTAEK/klue-roberta-large-korquad-v1-qa-finetuned
Base model
CurtisJeon/klue-roberta-large-korquad_v1_qa