KoBART persona extraction
- 개요 : 한 사용자의 일상 대화 채팅으로 해당 사용자의 페르소나를 추출할 수 있는 모델
- 사용 모델 : KoBART
- 데이터 : AIHub 한국어 멀티 세션 대화
- 깃헙 레포 : https://github.com/DonghaeSuh/persona_extraction_model
- 세부 학습 방법에 대한 자세한 설명 : 블로그
v-1과의 차이점
- NLPBada/kobart-chat-persona-extraction-v1
- 기존 모델은 존댓말 데이터로 학습이 되었는데, 이를 반말로 변환하여 학습
- 변환시 다음 모델을 사용 : squarelike/korean-style-converter-6b
Validation Score
- BLEU : 0.4405
Rouge-1 Rouge-2 Rouge-l recall 0.5319 0.3170 0.5282 precision 0.5817 0.3388 0.5778 f1 0.5501 0.3266 0.5463
예시
## 입력 ##
['안녕, 나는 20대 여자야.
나는 봉사활동을 하는게 즐거워.',
'응 국내 해외 가릴거 없이 봉사활동을 다녀.',
'아. 나는 콜센터 상담원이야.',
'응 해외 여행을 자주 가. 간 김에 봉사활동도 하고 그래.',
'응. 여기 일은 별로 안해.',
'여기는 야근이 따로 없더라고.',
' 나도 이만 일 해야겠네.']
## 출력 ##
나는 20대 여자이다 나는 봉사활동을 하는 게 즐겁다,
나는 콜센터 상담원이다,
나는 해외여행을 자주 간다,
나는 야근이 없다.
- Downloads last month
- 66
This model does not have enough activity to be deployed to Inference API (serverless) yet. Increase its social
visibility and check back later, or deploy to Inference Endpoints (dedicated)
instead.