language: ko
license: cc-by-sa-4.0
tags:
- korean
- klue
- squad-kor-v1
mask_token: '[MASK]'
widget:
- text: 바그너는 괴테의 파우스트를 읽고 무엇을 쓰고자 했는가?
context: >-
1839년 바그너는 괴테의 파우스트을 처음 읽고 그 내용에 마음이 끌려 이를 소재로 해서 하나의 교향곡을 쓰려는 뜻을 갖는다. 이
시기 바그너는 1838년에 빛 독촉으로 산전수전을 다 걲은 상황이라 좌절과 실망에 가득했으며 메피스토펠레스를 만나는 파우스트의 심경에
공감했다고 한다. 또한 파리에서 아브네크의 지휘로 파리 음악원 관현악단이 연주하는 베토벤의 교향곡 9번을 듣고 깊은 감명을 받았는데,
이것이 이듬해 1월에 파우스트의 서곡으로 쓰여진 이 작품에 조금이라도 영향을 끼쳤으리라는 것은 의심할 여지가 없다. 여기의 라단조
조성의 경우에도 그의 전기에 적혀 있는 것처럼 단순한 정신적 피로나 실의가 반영된 것이 아니라 베토벤의 합창교향곡 조성의 영향을 받은
것을 볼 수 있다. 그렇게 교향곡 작곡을 1839년부터 40년에 걸쳐 파리에서 착수했으나 1악장을 쓴 뒤에 중단했다. 또한 작품의
완성과 동시에 그는 이 서곡(1악장)을 파리 음악원의 연주회에서 연주할 파트보까지 준비하였으나, 실제로는 이루어지지는 않았다. 결국
초연은 4년 반이 지난 후에 드레스덴에서 연주되었고 재연도 이루어졌지만, 이후에 그대로 방치되고 말았다. 그 사이에 그는 리엔치와
방황하는 네덜란드인을 완성하고 탄호이저에도 착수하는 등 분주한 시간을 보냈는데, 그런 바쁜 생활이 이 곡을 잊게 한 것이 아닌가 하는
의견도 있다.
example_title: 리차드 바그너
KLUE BERT base Finetuned on squad-kor-v1
Table of Contents
- Model Details
- How to Get Started With the Model
- Uses
- Training
- Evaluation
- Technical Specifications
- Citation Information
Model Details
Model Description: This model is the KLUE BERT base, fine-tuned on the squad-kor-v1 dataset for Korean question answering tasks.
- Developed by: Yeongjin Gwak
- Model Type: Transformer-based language model
- Language(s): Korean
- License: cc-by-sa-4.0
- Parent Model: See the KLUE BERT base model for more information about the parent model.
How to Get Started With the Model
from transformers import AutoModel, AutoTokenizer
model = AutoModel.from_pretrained("yjgwak/klue-bert-base-finetuned-squard-kor-v1")
tokenizer = AutoTokenizer.from_pretrained("yjgwak/klue-bert-base-finetuned-squard-kor-v1")
Uses
Direct Use
This model is specialized for the task of question answering in Korean. Users can employ this model to extract answers from passages or documents in Korean when provided with relevant questions.
Misuse and Out-of-scope Use
The model should not be used for tasks other than question answering without further fine-tuning. Using this model for generating long-form content or for tasks it wasn't fine-tuned on may result in suboptimal results.
Training
Training Data
The model was fine-tuned on the squad-kor-v1
dataset, which is the Korean version of the popular SQuAD dataset used for question answering tasks.
Training Procedure
The original BERT training methodology was adopted with the difference being the dataset used for fine-tuning. The model was trained to minimize the cross-entropy loss between predicted answers and ground truth answers in the squad-kor-v1
dataset.
Evaluation
[Provide details of any evaluation metrics, results, or testing data used to assess the performance of the model after fine-tuning. If this hasn't been done yet, you can mention that the evaluation is pending.]
Technical Specifications
See the original KLUE BERT base model card for details on the underlying architecture and technical specifications.
Citation Information
Please cite the original KLUE paper and any other relevant resources or papers associated with the squad-kor-v1
dataset.