Create README.md
Browse files
README.md
ADDED
@@ -0,0 +1,84 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
1 |
+
---
|
2 |
+
tags:
|
3 |
+
- llama
|
4 |
+
- sh2orc
|
5 |
+
|
6 |
+
base_model:
|
7 |
+
- meta-llama/Meta-Llama-3.1-8B-Instruct
|
8 |
+
---
|
9 |
+
|
10 |
+
# Llama-3.1-Korean-8B-Instruct
|
11 |
+
|
12 |
+
Llama-3.1-Korean-8B-Instruct is finetuned from Meta-Llama-3.1:
|
13 |
+
* [meta-llama/Meta-Llama-3.1-8B-Instruct](https://huggingface.co/meta-llama/Meta-Llama-3.1-8B-Instruct)
|
14 |
+
|
15 |
+
- Dataset:
|
16 |
+
- [maywell/ko_wikidata_QA](https://huggingface.co/datasets/maywell/ko_wikidata_QA)
|
17 |
+
- [lcw99/wikipedia-korean-20240501-1million-qna](https://huggingface.co/datasets/lcw99/wikipedia-korean-20240501-1million-qna)
|
18 |
+
- [jojo0217/korean_rlhf_dataset](https://huggingface.co/datasets/jojo0217/korean_rlhf_dataset)
|
19 |
+
|
20 |
+
## π» Usage
|
21 |
+
|
22 |
+
Use with transformers
|
23 |
+
Starting with ```transformers >= 4.43.0``` onward, you can run conversational inference using the Transformers pipeline abstraction or by leveraging the Auto classes with the generate() function.
|
24 |
+
Make sure to update your transformers installation via ```pip install --upgrade transformers.```
|
25 |
+
|
26 |
+
```python
|
27 |
+
!pip install -qU transformers accelerate
|
28 |
+
|
29 |
+
from transformers import AutoTokenizer
|
30 |
+
import transformers
|
31 |
+
import torch
|
32 |
+
|
33 |
+
model = "sh2orc/Llama-3.1-Korean-8B-Instruct"
|
34 |
+
messages = [{"role": "user", "content": "What is a large language model?"}]
|
35 |
+
|
36 |
+
tokenizer = AutoTokenizer.from_pretrained(model)
|
37 |
+
prompt = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
|
38 |
+
pipeline = transformers.pipeline(
|
39 |
+
"text-generation",
|
40 |
+
model=model,
|
41 |
+
torch_dtype=torch.float16,
|
42 |
+
device_map="auto",
|
43 |
+
)
|
44 |
+
|
45 |
+
outputs = pipeline(prompt, max_new_tokens=256, do_sample=True, temperature=0.7, top_k=50, top_p=0.95)
|
46 |
+
print(outputs[0]["generated_text"])
|
47 |
+
```
|
48 |
+
|
49 |
+
## Q&A
|
50 |
+
|
51 |
+
**Q. λνμμ λν΄μ μλ €μ£ΌμΈμ.** <br>
|
52 |
+
A. λνμμ 1896λ
μμΌλ‘, νκ΅ μ΅μ΄μ μ¬μ± μμΈμ΄μ μκ°μ
λλ€. κ·Έλ
λ μΌλ³Έμμ κ΅μ‘μ λ°κ³ κ·κ΅ν ν, λ€μν μνλ€μ λ°ννλ©° νλμ μΈ λ¬Έν μ€νμΌμ μ 보μμ΅λλ€. κ·Έλ
μ λνμ μ€ νλμΈ 'λ΄ λμ΄μ μ΄λ³'μ μ¬μ±μ΄ κ²ͺλ μ¬λκ³Ό μΈλ‘μμ κ°μ μ ννν κ²μΌλ‘ μ λͺ
ν©λλ€.
|
53 |
+
|
54 |
+
λνμμ λν μ¬νμ λ¬Έμ λ₯Ό λ€λ£¨λ©° λ
νΉνκ³ νμ μ μΈ μμ μμ€μ μΌμ΅λλ€. κ·Έλ
μ μνλ€μ λΉμ μ¬νμ μΌλ‘ ν° μν₯μ λ―Έμ³€μΌλ©°, μ΄νμλ λ§μ μ¬λλ€μκ² μκ°μ΄ λμμ΅λλ€.
|
55 |
+
|
56 |
+
κ·Έλ
λ λν μ¬μ± κΆλ¦¬ λ° νλ± μ΄λμ μ°Έμ¬νμμΌλ©°, μ΄λ¬ν νλμΌλ‘ μΈν΄ κ·Έλ
λ₯Ό νκ΅ μ΅μ΄μ μ¬μ± λ―Όμ‘±μ£ΌμμλΌκ³ λΆλ μ΅λλ€.
|
57 |
+
|
58 |
+
μμ½νλ©΄ λνμμ μμ¬μ κ°μ₯ μ€μν νκΈλ¬Ένκ°μ΄μ μμΈμΌλ‘ κ°μ£Όλ©λλ€. κ·Έλ
μ μ°½μ‘°λ ₯κ³Ό μν₯λ ₯ λλΆμ μ€λλ κΉμ§λ μ°λ¦¬μκ² κ°μΉλ₯Ό μ 곡νλ μμ μ μ
μ λ€μ΄ λ¨μμμ΅λλ€.
|
59 |
+
|
60 |
+
**Q. 2μ°¨ μΈκ³λμ μ λν΄μ μλ €μ€** <br>
|
61 |
+
A. 2μ°¨ μΈκ³λμ μ 1939λ
λΆν° 1945λ
κΉμ§ μ§μλ μ ν¬μμ΅λλ€. μ΄ μ μμ μ λ½, μμμ λ° λΆμλ©λ¦¬μΉ΄μ λ§μ κ΅κ°λ€μ΄ μ°Έμ¬νμμΌλ©°, λ
μΌκ³Ό μΌλ³Έμ΄ μ£Όμ μ μΌλ‘ νλνμ΅λλ€.
|
62 |
+
|
63 |
+
μ μ μ΄κΈ°μλ λμΉ λ
μΌμ΄ ν΄λλλ₯Ό 침곡νκ³ μλ ¨μ 곡격νλ©° μμ λ½μ μ§μΆνλ λ± λΉ λ₯΄κ² νμ₯λμμ΅λλ€. μκ΅κ³Ό νλμ€λ λ
μΌκ΅°μκ² ν¨λ°°νμ¬ μ°ν©κ΅μμ λ²μ΄λ¬μ§λ§ λ―Έκ΅μ 곧 μ°Έμ μ λ€μ΄κ°κ³ κ²°κ΅ μΉλ¦¬ν κ²μ
λλ€.
|
64 |
+
|
65 |
+
μΌλ³Έλ λλ¨μμμμ ννμ μ§μμμ μ λ Ήμ§λ₯Ό ν보νλ©΄μ μ€κ΅κ³Όμ μ μμ λ²μμ΅λλ€. κ·Έλ¬λ λ―Έκ΅μ μμνν ν¬νλ‘ μΈν΄ μΌλ³Έμ ν볡νκ² λμμ΅λλ€.
|
66 |
+
|
67 |
+
μ μ κΈ°κ° λμ μλ°±λ§ λͺ
μ΄μμ μ¬λλ€μ΄ μ¬λ§νμΌλ©° κ²½μ μ νΌν΄κ° λ§λν κ²μΌλ‘ μλ €μ Έ μμ΅λλ€.
|
68 |
+
|
69 |
+
|
70 |
+
**Q. λμ λΉλ Έλλ°, λμ μ κ°μΌλ©΄?** <br>
|
71 |
+
A. λμ λΉλ Έλλ° μ κ°μΌλ©΄, λμ λΉλ¦° μ¬λμκ² λκ°λ‘ μΈλ΄μ¬μ΄λ μ΄ν΄λ₯Ό 보μ¬μ£Όμ΄μΌ ν©λλ€. λν, μν©μ λ°λΌμ λ λ§μ 보μμ ν΄μ€ μλ μμ΅λλ€.
|
72 |
+
|
73 |
+
|
74 |
+
**Q. 건κ°νκ² μ΄κΈ° μν μμΈ** <br>
|
75 |
+
|
76 |
+
건κ°νκ² μ΄κΈ° μν μμΈλ λ€μκ³Ό κ°μ΅λλ€:
|
77 |
+
|
78 |
+
1. κ·μΉμ μΈ μ΄λ: λ§€μΌ μ μ΄λ 30λΆ μ΄μμ μ 체 νλμ νμΈμ.
|
79 |
+
2. κ· ν μ‘ν μλ¨: κ³ΌμΌ, μ±μ, λ¨λ°±μ§ λ° κ±΄κ°ν μ§λ°©μ΄ ν¬ν¨λ λ€μν μμμ μμ·¨νμΈμ.
|
80 |
+
3. μΆ©λΆν μλ©΄: ν루μ 7-9μκ°μ μλ©΄μ μ·¨νμΈμ.
|
81 |
+
4. μ€νΈλ μ€ κ΄λ¦¬: μκ°, λͺ
μ λλ λ€λ₯Έ μ€νΈλ μ€ μν κΈ°μ μ νμ©νμΈμ.
|
82 |
+
5. μ κΈ°μ μΌλ‘ κ²μ§ λ°κΈ°
|
83 |
+
6. ν‘μ°κ³Ό μμ½μ¬ μλΉλ₯Ό νΌνμμμ€
|
84 |
+
7. μμ νκ³ κΉ¨λν νκ²½μμ μννκΈ°
|