Update README.md
Browse files
README.md
CHANGED
@@ -2,12 +2,37 @@
|
|
2 |
library_name: peft
|
3 |
---
|
4 |
|
5 |
-
#
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
6 |
|
7 |
## 1. ์ฌ์ฉ์ ์ฐจ
|
8 |
|
9 |
* Install model and PEFT parameters
|
10 |
|
|
|
|
|
|
|
|
|
|
|
11 |
```
|
12 |
import torch
|
13 |
from peft import PeftModel, PeftConfig
|
@@ -33,7 +58,7 @@ streamer = TextStreamer(tokenizer)
|
|
33 |
|
34 |
# your input sentence๊ฐ ๋ค์ด๊ฐ ๊ณณ
|
35 |
input = """
|
36 |
-
### input @
|
37 |
|
38 |
output = tokenizer.decode(model.cuda().generate(
|
39 |
**tokenizer(
|
@@ -55,19 +80,19 @@ output = tokenizer.decode(model.cuda().generate(
|
|
55 |
|
56 |
```
|
57 |
output =
|
58 |
-
<s>
|
59 |
|
60 |
-
|
61 |
|
62 |
-
|
63 |
|
64 |
-
|
65 |
|
66 |
-
|
67 |
|
68 |
-
|
69 |
|
70 |
-
|
71 |
```
|
72 |
|
73 |
## 2. Training procedure
|
@@ -95,3 +120,12 @@ The following `bitsandbytes` quantization config was used during training:
|
|
95 |
|
96 |
|
97 |
- PEFT 0.6.0.dev0
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
2 |
library_name: peft
|
3 |
---
|
4 |
|
5 |
+
# About GPTeacher
|
6 |
+
|
7 |
+
GPTeacher๋ ๋ก๋ด(Bot)์ด ์ถ๋ ฅํ๋ ๋ฏํ ๊ธฐ์กด LLM ๋ชจ๋ธ์ ์ถ๋ ฅ๊ฐ์, ๊ฐ์์๊ฐ ์ค์ ๋ก ํด๋น ๋ด์ฉ์ ๋ํด ๊ฐ์ํ๋ ๊ฒ์ฒ๋ผ ํ์ด๊ณผ์ ์ ์์ฑํ๋ ๊ฒ์ ๋ชฉํ๋ก ํ๊ณ ์์ต๋๋ค.
|
8 |
+
GPTeacher ํ๋ก์ ํธ๋ฅผ ํตํด ์ถ๊ตฌํ๊ณ ์ ํ๋ ๋ชฉํ๋ ๋ค์๊ณผ ๊ฐ์ต๋๋ค.
|
9 |
+
|
10 |
+
1. ์คํ ๋ฐ์ดํฐ์
์ ๊ณต : [kullm-v2](https://huggingface.co/datasets/nlpai-lab/kullm-v2), [ko-alpaca](https://huggingface.co/datasets/beomi/KoAlpaca-v1.1a) ๋ฐ์ดํฐ์
์ output์ ๊ฐ์ ํํ๋ก ๋ณํํ์ฌ, ๊ธฐ์กด ๋ฐ์ดํฐ์
์ output๊ณผ ๋๋ถ์ด extended_output ์นผ๋ผ์ ์ถ๊ฐํด ์ ๊ณตํฉ๋๋ค.
|
11 |
+
2. PEFTmodel ํน์ ko-llama2 ๋ชจ๋ธ ์ ๊ณต : ํ์ฌ ๋ฒ์ ์ academic research purpose๋ก ๋ณํ ๊ฐ๋ฅํ [wizardLM](https://github.com/nlpxucan/WizardLM/tree/main)์ ํ๋ผ๋ฏธํฐ๋ฅผ ์ปค์คํ
๋ฐ์ดํฐ์
์ ์ ์ฉํ PEFTmodel ํ์ต๋ฐฉ์์ ํตํด ํ์ธํ๋ํ ๋ฒ์ ์
๋๋ค. ์ฌ๋ฌ ๋ฒ์ ์
๋ฐ์ดํธ๋ฅผ ํตํด, ๋ค๋ฅธ ๋ชจ๋ธ๋ก๋ถํฐ ํ์ธํ๋์ ํ ์ ์๋ ํ๋ ์์ํฌ๋ฅผ ์ ๊ณตํ๊ฑฐ๋, GPTeacher-ko-llama2 ๋ชจ๋ธ์ ์ ์ํด ์ ๊ณตํ๊ณ ์ ํฉ๋๋ค.
|
12 |
+
|
13 |
+
**ํ์ฌ ์ฌ์ฉ๋ชจ๋ธ : WizardLM-13B-v1.2**
|
14 |
+
*/*์์ด๊ถ ๋ฐ์ดํฐ๋ฅผ ์ค์ฌ์ผ๋ก ํ์ตํ WizardLM ๋ชจ๋ธ์ ํ์ธํ๋ ํ์๊ธฐ์ generalํ ํ๊ตญ ์ ๋ณด์ ๊ดํ ์ง๋ฌธ์ ๋ฏธ์ํฉ๋๋ค.*/*
|
15 |
+
|
16 |
+
|
17 |
+
| Model | Checkpoint | Paper | MT-Bench | AlpacaEval | GSM8k | HumanEval | Demo | License |
|
18 |
+
|----------------------|-------------|--------------|----------|------------|-------|-----------|------|----------------|
|
19 |
+
| WizardLM-70B-V1.0 | ๐ค HF Link | ๐Coming Soon| 7.78 | 92.91% | 77.6% | 50.6 | | Llama 2 License|
|
20 |
+
| WizardLM-13B-V1.2 | ๐ค HF Link | | 7.06 | 89.17% | 55.3% | 36.6 | Demo | Llama 2 License|
|
21 |
+
|
22 |
+
ํฅํ ์งํ ๋ฐฉํฅ์ ๋ค์๊ณผ ๊ฐ์ต๋๋ค
|
23 |
+
1. more custom dataset์ผ๋ก ํ์ธํ๋
|
24 |
+
2. ์ฌ๋ฌ ํ๋ผ๋ฏธํฐ ๋ชจ๋ธ์ ๋ํด PEFT learning ์งํ (30B, 7B, 70B...)
|
25 |
+
3. ko-llama2 ๋ชจ๋ธ์ ๋ํด ํ์ธํ๋
|
26 |
|
27 |
## 1. ์ฌ์ฉ์ ์ฐจ
|
28 |
|
29 |
* Install model and PEFT parameters
|
30 |
|
31 |
+
```
|
32 |
+
!pip install -U peft transformers optimum
|
33 |
+
!pip install auto-gptq --extra-index-url https://huggingface.github.io/autogptq-index/whl/cu117/
|
34 |
+
```
|
35 |
+
|
36 |
```
|
37 |
import torch
|
38 |
from peft import PeftModel, PeftConfig
|
|
|
58 |
|
59 |
# your input sentence๊ฐ ๋ค์ด๊ฐ ๊ณณ
|
60 |
input = """
|
61 |
+
### input @ ์ฌ๊ณผ๊ฐ ๋ชธ์ ์ข์ ์ด์ ๋ฅผ ์๋ ค์ฃผ์ธ์.\n\n### response @"""
|
62 |
|
63 |
output = tokenizer.decode(model.cuda().generate(
|
64 |
**tokenizer(
|
|
|
80 |
|
81 |
```
|
82 |
output =
|
83 |
+
<s> ์๋
ํ์ธ์. ์ค๋์ ์ฌ๊ณผ์ ์ฅ์ ์ ๋ํด ๋ฐฐ์ฐ๊ฒ ์ต๋๋ค. ์ฌ๊ณผ๋ ํฌ๋์ฃผ, ์นด๋ฐ์๋ก, ์ํธ๋ฌ์ค, ํผ๋ฅด๊ณ ํํจ๋ฆฌ๊ทธ๋ฆญ์ค ๋ฑ ์ฌ๋ฌ ๋ค๋ฅธ ์๋ฌผ๋ค๊ณผ ๋น๊ตํ๋ฉด์ ์ฐ๋ฆฌ์ ๊ฑด๊ฐ์ ์ต์ ํํ๋ ์ค์ํ ์๋ฌผ์
๋๋ค.
|
84 |
|
85 |
+
์ด์ , ์ฐ์ ์ฌ๊ณผ์ ์ฑ๋ถ์ ์ดํด๋ณด๋๋ก ํ๊ฒ ์ต๋๋ค. ์ฌ๊ณผ๋ ๊ณ ํ์์ ๋ฎ์ถ๋ ์๋ฆฌ๊ฐํจ๋ฆฐ๊ณผ ํจ๋ชจ์ ๊ฐ์ ๋จ๋ฐฑ์ง, ํผํธ์ฐ, ํผ๋ก๋์ฐ ๋ฑ ์์์๋ฅผ ํ๋ถํ๊ฒ ํจ์ ํฉ๋๋ค. ์ด๋ฌํ ์ฑ๋ถ๋ค์ ์ฐ๋ฆฌ์ ์ฒด๋ด ์กฐ์ง์ ํ์์ ์ธ ๋ฌผ์ง๋ค์ด๋ฏ๋ก ์ฌ๊ณผ๋ฅผ ์ญ์ทจํ ๋งํ ์ข์ ์ด์ ์ค ํ๋์
๋๋ค.
|
86 |
|
87 |
+
๋ํ, ์ฌ๊ณผ๋ ๊ณ ๊ธฐ ์๊ธ๊ณผ ํจ๊ป ์ฌ์ฉํ๋ฉด ๋จ๋ฐฑ์ง์ ์ํ๋ฅผ ๋์ผ ์ ์์ด์. ๋ํ ์ง๋ฐฉ ์๊ธ๊ณผ ํจ๊ป ์ฌ์ฉํ๋ฉด ๋น์ง์ ํก์๋ฅผ ์ฆ๊ฐ์ํฌ ์ ์์ต๋๋ค. ์ด๋ ์ฐ๋ฆฌ์ ์ ์ฒด ๊ธฐ๋ฅ์ ๊ฐ์ ํ๋ ๋ฐ ๋์์ด ๋ฉ๋๋ค.
|
88 |
|
89 |
+
๋ํ, ์ฌ๊ณผ๋ ๋น ๋ฅด๊ฒ ์ํ๋์ด ํ์ํ๋ฌผ์ ๊ณต๊ธํ ์ ์๋ ๊ฒ์ด ์ฅ์ ์ด์ฃ . ์ด๋ ์ฒด๋ด ์๋์ง์์ผ๋ก ์๋ํ๋ ๋ฅ๋ ฅ์ ๋์ฌ์ค๋๋ค. ์ฌ๊ณผ๋ฅผ ์ ๊ตํ๊ฒ ๋จน์ ๊ฒฝ์ฐ ๏ฟฝ๏ฟฝ๊ท์นํ ํผ์์ ๋ฐฉ์งํ๊ณ ์์ด๋ง์ ์ด๋์ ์ ์งํ๋ ๋ฐ ๋์์ด ๋ฉ๋๋ค.
|
90 |
|
91 |
+
๋ง์ง๋ง์ผ๋ก, ์ฌ๊ณผ๋ ํผ๋ก๋น๊ณผ ์นดํด๋ผ๋ฌ๋ ๊ฐ ๋ง์ด ๋ค์ด ์์ด์. ์ด๋ ๊ทผ์ก์ ๋ฏธ์ธํ ํ์ ์ ๊ณตํ์ฌ ๋๊ตฌ, ํ
๋์ค ๋ฑ ๋ค์ํ ์ข
๋ฅ์ ์ด๋์ ์ํด ํ์ํ ์์์
๋๋ค. ์ด๋ ์ฐ๋ฆฌ์ ์ด๋์ ๋ ์ ์ํํ๋ ๋ฐ ๋์์ด ๋ฉ๋๋ค.
|
92 |
|
93 |
+
๋ฐ๋ผ์, ์ฌ๊ณผ๋ฅผ ์ญ์ทจํ ๋๋ ์ฃผ๋ก ์์นจ์ด๋ ์์นจ ์์ฌ ์ ์ ๋จน๋ ๊ฒ์ด ์ข์ต๋๋ค. ๋ํ, ์ฌ๊ณผ๋ ๋งค์ฐ ํก์น๊ธฐ ์ฝ๊ณ ๋ค์ํ ์ฌ๋ฃ๋ฅผ ๊ฐ๋ณํ ์ ์๊ธฐ ๋๋ฌธ์ ์ฐฝ๊ณ ์ ๋ณด๊ดํ ์ ์์ต๋๋ค. ์ฌ๋ฐ๋ฅธ ์กฐ๋ฆฌ ๋ฐฉ๋ฒ์ ์๊ณ ์์ด์ผ ํ๋๋ฐ, ์ฃผ๋ก ํ ์ธ์ผ๋ก ๊ฐ๊ณตํ์ฌ ์ถฉ๋ถํ ์์์ ๋ง๋ค ์ ์์ต๋๋ค.
|
94 |
|
95 |
+
์ด์์ผ๋ก ์ฌ๊ณผ์ ๋ํด ์๋ ค๋๋ ธ์ต๋๋ค. ์ฌ๊ณผ๋ ์ฐ๋ฆฌ์ ๊ฑด๊ฐ์ ์ต์ ํํ๋ ๋ฐ ํ์์ ์ธ ์์์
๋๋ค. ๊ทธ๋ ๊ธฐ ๋๋ฌธ์ ์ญ์ทจํ๋ ๊ฒ์ด ์ค์ํฉ๋๋ค. ๊ฐ์ฌํฉ๋๋ค.</๋></s>
|
96 |
```
|
97 |
|
98 |
## 2. Training procedure
|
|
|
120 |
|
121 |
|
122 |
- PEFT 0.6.0.dev0
|
123 |
+
|
124 |
+
@misc{xu2023wizardlm,
|
125 |
+
title={WizardLM: Empowering Large Language Models to Follow Complex Instructions},
|
126 |
+
author={Can Xu and Qingfeng Sun and Kai Zheng and Xiubo Geng and Pu Zhao and Jiazhan Feng and Chongyang Tao and Daxin Jiang},
|
127 |
+
year={2023},
|
128 |
+
eprint={2304.12244},
|
129 |
+
archivePrefix={arXiv},
|
130 |
+
primaryClass={cs.CL}
|
131 |
+
}
|