--- license: unknown datasets: - KorQuAD/squad_kor_v1 language: - ko base_model: - CurtisJeon/klue-roberta-large-korquad_v1_qa pipeline_tag: question-answering --- # KLUE RoBERTa Large KorQuAD v1 QA - Fine-tuned 이 모델은 [CurtisJeon/klue-roberta-large-korquad_v1_qa](https://huggingface.co/CurtisJeon/klue-roberta-large-korquad_v1_qa)를 기반으로 하여 추가 데이터로 fine-tuning한 한국어 질의응답(QA) 모델입니다. ## 모델 정보 - 기본 모델: KLUE RoBERTa Large - 태스크: 질의응답 (Question Answering) - 언어: 한국어 - 훈련 데이터: KorQuAD v1 + [자체 데이터] ## 모델 구조 - RobertaForQuestionAnswering 아키텍처 사용 + CNN 레이어(without a dropout) - 24개의 hidden layers - 1024 hidden size - 16 attention heads - 총 파라미터: 약 355M ## 사용 방법 이 모델은 Hugging Face Transformers 라이브러리를 사용하여 쉽게 로드하고 사용할 수 있습니다: ```python from transformers import AutoModelForQuestionAnswering, AutoTokenizer model_name = "HANTAEK/klue-roberta-large-korquad-v1-qa-finetuned" model = AutoModelForQuestionAnswering.from_pretrained(model_name) tokenizer = AutoTokenizer.from_pretrained(model_name)