Update README.md
Browse files
README.md
CHANGED
@@ -46,7 +46,7 @@ pipeline_tag: text-generation
|
|
46 |
|
47 |
|
48 |
AI 와 빅데이터 분석 전문 기업인 Linkbricks의 데이터사이언티스트인 지윤성(Saxo) 이사가 <br>
|
49 |
-
NousResearch/Hermes-3-Llama-3.1-8B 베이스모델을 사용해서 H100-80G 8개를 통해 CPT(
|
50 |
5천만건의 한글 뉴스 포함 다양한 한글 코퍼스를 기준으로 전체 파라미터중 약 25%를 재 튜닝한 한글 기본 모델로 SFT, DPO 를 통해 용도에 맞게 튜닝하면 됩니다.<br>
|
51 |
-토크나이저는 확장 없이 베이스 모델을 그대로 사용<br>
|
52 |
-128k-Context Window<br>
|
@@ -55,7 +55,7 @@ NousResearch/Hermes-3-Llama-3.1-8B 베이스모델을 사용해서 H100-80G 8개
|
|
55 |
<br><br>
|
56 |
|
57 |
Dr. Yunsung Ji (Saxo), a data scientist at Linkbricks, a company specializing in AI and big data analytics <br>
|
58 |
-
Korean language model CPT (
|
59 |
A basic Korean language model with about 25% of the total parameters re-tuned based on various Korean corpus including 50 million Korean news, which need to be customized through SFT and DPO.
|
60 |
<br><br>
|
61 |
-Tokenizer uses the base model without word expansion<br>
|
|
|
46 |
|
47 |
|
48 |
AI 와 빅데이터 분석 전문 기업인 Linkbricks의 데이터사이언티스트인 지윤성(Saxo) 이사가 <br>
|
49 |
+
NousResearch/Hermes-3-Llama-3.1-8B 베이스모델을 사용해서 H100-80G 8개를 통해 CPT(Continued Pre Trainig) 한 한글 언어 모델<br>
|
50 |
5천만건의 한글 뉴스 포함 다양한 한글 코퍼스를 기준으로 전체 파라미터중 약 25%를 재 튜닝한 한글 기본 모델로 SFT, DPO 를 통해 용도에 맞게 튜닝하면 됩니다.<br>
|
51 |
-토크나이저는 확장 없이 베이스 모델을 그대로 사용<br>
|
52 |
-128k-Context Window<br>
|
|
|
55 |
<br><br>
|
56 |
|
57 |
Dr. Yunsung Ji (Saxo), a data scientist at Linkbricks, a company specializing in AI and big data analytics <br>
|
58 |
+
Korean language model CPT (Continued Pre Trainig) with 8 H100-80Gs using NousResearch/Hermes-3-Llama-3.1-8B base model<br>
|
59 |
A basic Korean language model with about 25% of the total parameters re-tuned based on various Korean corpus including 50 million Korean news, which need to be customized through SFT and DPO.
|
60 |
<br><br>
|
61 |
-Tokenizer uses the base model without word expansion<br>
|