Update README.md
Browse files
README.md
CHANGED
@@ -7,4 +7,35 @@ language:
|
|
7 |
base_model:
|
8 |
- CurtisJeon/klue-roberta-large-korquad_v1_qa
|
9 |
pipeline_tag: question-answering
|
10 |
-
---
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
7 |
base_model:
|
8 |
- CurtisJeon/klue-roberta-large-korquad_v1_qa
|
9 |
pipeline_tag: question-answering
|
10 |
+
---
|
11 |
+
|
12 |
+
# KLUE RoBERTa Large KorQuAD v1 QA - Fine-tuned
|
13 |
+
|
14 |
+
이 모델은 [CurtisJeon/klue-roberta-large-korquad_v1_qa](https://huggingface.co/CurtisJeon/klue-roberta-large-korquad_v1_qa)를 기반으로 하여 추가 데이터로 fine-tuning한 한국어 질의응답(QA) 모델입니다.
|
15 |
+
|
16 |
+
## 모델 정보
|
17 |
+
|
18 |
+
- 기본 모델: KLUE RoBERTa Large
|
19 |
+
- 태스크: 질의응답 (Question Answering)
|
20 |
+
- 언어: 한국어
|
21 |
+
- 훈련 데이터: KorQuAD v1 + [자체 데이터]
|
22 |
+
|
23 |
+
## 모델 구조
|
24 |
+
|
25 |
+
- RobertaForQuestionAnswering 아키텍처 사용 + CNN 레이어(without a dropout)
|
26 |
+
- 24개의 hidden layers
|
27 |
+
- 1024 hidden size
|
28 |
+
- 16 attention heads
|
29 |
+
- 총 파라미터: 약 355M
|
30 |
+
|
31 |
+
|
32 |
+
## 사용 방법
|
33 |
+
|
34 |
+
이 모델은 Hugging Face Transformers 라이브러리를 사용하여 쉽게 로드하고 사용할 수 있습니다:
|
35 |
+
|
36 |
+
```python
|
37 |
+
from transformers import AutoModelForQuestionAnswering, AutoTokenizer
|
38 |
+
|
39 |
+
model_name = "YOUR_USERNAME/klue-roberta-large-korquad-v1-qa-finetuned"
|
40 |
+
model = AutoModelForQuestionAnswering.from_pretrained(model_name)
|
41 |
+
tokenizer = AutoTokenizer.from_pretrained(model_name)
|