Update README.md
Browse files
README.md
CHANGED
@@ -1,3 +1,33 @@
|
|
1 |
---
|
2 |
license: cc-by-sa-4.0
|
3 |
---
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
---
|
2 |
license: cc-by-sa-4.0
|
3 |
---
|
4 |
+
<h1>instruct 모델 v0.4</h1>
|
5 |
+
|
6 |
+
<b><학습 데이터 구축></b>
|
7 |
+
|
8 |
+
Open-Orca-ko 데이터를 분석하여 태스크를 추출한 뒤
|
9 |
+
해당 태스크에 맞춰서 NLP 관련 오픈소스 데이터를 활용하여 학습데이터를 자체적으로
|
10 |
+
약 4만건(역사, 과학, 수학, 기계독해, 리뷰 분석) 구축하였고,
|
11 |
+
그 외에 Open-Orca-Ko에서 데이터를 일부 필터링하여 정제해거나 KoBEST 데이터를 함께 추가하였습니다.
|
12 |
+
aihub 일반상식 및 기계독해 데이터를 활용하여 추가로 학습 데이터를 구축(형태소 관련, 기계독해 관련 및 요약)
|
13 |
+
각종 블로그에서 역사 및 상식 퀴즈를 사람이 직접 학습데이터 형태로 변경
|
14 |
+
AI2AI Challenge 데이터를 파파고를 통해 번역 및 오역된 부분을 사람이 직접 수정 하는 작업을 수행
|
15 |
+
영어 번역 데이터 영한/한영 데이터 학습 데이터로 활용 진행
|
16 |
+
|
17 |
+
총 11만개의 학습데이터로 sft를 진행하였습니다.
|
18 |
+
<br>
|
19 |
+
현재, 새로운 버전의 모델 학습 및 성능을 위해 Open-Orca 데이터셋 일부를 번역하여 정제 중에 있습니다.
|
20 |
+
<br>
|
21 |
+
+ 고등학교 역사 문제 및 TruthfulQA 관련 문제 추가를 진행하였습니다.
|
22 |
+
+ 각종 it 지식 데이터 추가진행.
|
23 |
+
+ 기계독해 관련 학습 데이터를 ChatGPT를 통해서 답변을 얻어 학습
|
24 |
+
+ 문법관련 학습 데이터
|
25 |
+
<br>
|
26 |
+
###학습 데이터 파일은 비공개입니다.
|
27 |
+
<br>
|
28 |
+
<b><학습></b>
|
29 |
+
학습은 LoRA를 사용하여 A100 40G *2에서 학습을 진행하였습니다.
|
30 |
+
|
31 |
+
<br>
|
32 |
+
<b><베이스모델></b>
|
33 |
+
42dot-PLM-1.3B 사용하였습니다.
|