---
tags:
- merge
- mergekit
- lazymergekit
- sh2orc
- bccard
base_model:
- sh2orc/Llama-3-Korean-8B
---
# Llama-3-Korean-12B
Llama-3-Korean-12B is a merge of the following models using LazyMergekit:
* [sh2orc/Llama-3-Korean-8B](sh2orc/Llama-3-Korean-8B)
- Dataset:
- [maywell/ko_wikidata_QA](https://huggingface.co/datasets/maywell/ko_wikidata_QA)
- [lcw99/wikipedia-korean-20240501-1million-qna](https://huggingface.co/datasets/lcw99/wikipedia-korean-20240501-1million-qna)
- [inswave/AISquare_Koalpaca_Orca_merged](https://huggingface.co/datasets/inswave/AISquare_Koalpaca_Orca_merged)
- [inswave/AISqaure_Intergrated_v1](https://huggingface.co/datasets/inswave/AISqaure_Intergrated_v1)
## π» Usage
```python
!pip install -qU transformers accelerate
from transformers import AutoTokenizer
import transformers
import torch
model = "sh2orc/Llama-3-Korean-12B"
messages = [{"role": "user", "content": "What is a large language model?"}]
tokenizer = AutoTokenizer.from_pretrained(model)
prompt = tokenizer.apply_chat_template(messages, tokenize=False, add_generation_prompt=True)
pipeline = transformers.pipeline(
"text-generation",
model=model,
torch_dtype=torch.float16,
device_map="auto",
)
outputs = pipeline(prompt, max_new_tokens=256, do_sample=True, temperature=0.7, top_k=50, top_p=0.95)
print(outputs[0]["generated_text"])
```
## Q&A
**Q. 2μ°¨ μΈκ³λμ μ λν΄μ μλ €μ€**
A. 2μ°¨ μΈκ³λμ μ 1939λ
λΆν° 1945λ
κΉμ§ λ²μ΄μ§ λκ·λͺ¨ μ μμΌλ‘, μ λ½κ³Ό μμμμμ μ¬λ¬ λλΌλ€μ΄ μ°Έμ¬νμ΅λλ€. μ΄ μ μμ μ 1μ°¨ μΈκ³λμ μ μμμΌλ‘ ν 20μΈκΈ° μ΅μ
μ μ μ μ€ νλμμ΅λλ€. μ μμ λ
μΌκ³Ό μ΄ν리μκ° ν΄λλλ₯Ό 침곡νλ©΄μ μμλμκ³ , μ΄ν μλ ¨μ΄ λ
μΌμ λ§μκΈ° μν΄ μ°Έμ νλ©΄μ μ λ½ μ μ μ΄ νμ±λμμ΅λλ€. μ μμ 1941λ
6μ 22μΌ λ
μΌμ΄ μλ ¨μ 침곡νλ©΄μ μμλμκ³ , 1945λ
5μ 8μΌ λ
μΌμ΄ μ°ν©κ΅°μ ν볡νλ©΄μ μ’
λ£λμμ΅λλ€. μ μμ 1945λ
8μ 15μΌ μΌλ³Έ μ κ΅μ΄ μ°ν©κ΅°μ ν볡νλ©΄μ μ’
κ²°λμμ΅λλ€. μ΄ μ μμ 2μ°¨ μΈκ³λμ μΌλ‘ μλ €μ Έ μμΌλ©°, 2μ°¨ μΈκ³λμ μΌλ‘ μλ €μ Έ μμ΅λλ€.
**Q. λμ΄κ° λ€λ©΄ 무μμ λ¨Όμ κ³ λ―Όν΄μΌν΄?**
A. λμ΄κ° λ€λ©΄ μ¬λ¬ κ°μ§ λ¬Έμ κ° λ°μν μ μμ§λ§, κ°μ₯ μ€μν κ²μ 건κ°μ μ μ§νλ κ²μ
λλ€. λ°λΌμ μ΄λκ³Ό κ· ν μ‘ν μμ΅κ΄μ μ μ§νλ κ²μ΄ μ€μν©λλ€. λν, μ μ λλ μ μμ μλνμ§λ§ λμ΄κ° λ€λ©΄ μΉκ΅¬μ κ°μ‘±κ³Όμ κ΄κ³κ° λ μ€μν΄μ§λλ€. μ΄λ¬ν μ΄μ λ‘, λμ΄κ° λ€λ©΄μλ 건κ°ν μΆμ μ μ§νκ³ , μμ€ν μ¬λλ€κ³Ό ν¨κ» μκ°μ 보λ΄λ κ²μ΄ μ’μ΅λλ€.