Llama-3.2-1B-Instruct-korQuAD-v1
์ด ๋ชจ๋ธ์ Llama-3.2-1B-Instruct๋ฅผ ๊ธฐ๋ฐ์ผ๋ก ํ๊ตญ์ด ์ง์์๋ต ํ์คํฌ์ ๋ํด ํ์ธํ๋๋ ๋ชจ๋ธ์ ๋๋ค.
๋ชจ๋ธ ์ค๋ช
- ๊ธฐ๋ณธ ๋ชจ๋ธ: Llama-3.2-1B-Instruct
- ํ์ต ๋ฐ์ดํฐ์ : KorQuAD v1.0
- ํ์ต ๋ฐฉ๋ฒ: LoRA (Low-Rank Adaptation)
- ์ฃผ์ ํ์คํฌ: ํ๊ตญ์ด ์ง์์๋ต
๋ฒ์ ํ์คํ ๋ฆฌ
v1.0.0(2024-10-02)
- ์ด๊ธฐ ๋ฒ์ ์ ๋ก๋
- KorQuAD v1.0 ๋ฐ์ดํฐ์ ํ์ธํ๋
v1.1.0(2024-10-30)
- ๋ชจ๋ธ ํ๋กฌํํธ ๋ฐ ํ์ต ๋ฐฉ๋ฒ ๊ฐ์
- KorQuAD evaluate ์ฝ๋ ์ ์ฉ
์ฑ๋ฅ
๋ชจ๋ธ | Exact Match | F1 Score |
---|---|---|
Llama-3.2-1B-Instruct-v1 | 18.86 | 37.2 |
Llama-3.2-1B-Instruct-v2 | 36.07 | 59.03 |
โป https://korquad.github.io/category/1.0_KOR.html์ evaluation script ์ฌ์ฉ |
์ฌ์ฉ ๋ฐฉ๋ฒ
๋ค์๊ณผ ๊ฐ์ด ๋ชจ๋ธ์ ๋ก๋ํ๊ณ ์ฌ์ฉํ ์ ์์ต๋๋ค:
#๋ชจ๋ธ, ํ ํฌ๋์ด์ ๋ก๋
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
model_path = "NakJun/Llama-3.2-1B-Instruct-ko-QuAD"
model = AutoModelForCausalLM.from_pretrained(
model_path,
torch_dtype=torch.bfloat16,
device_map="auto",
)
tokenizer = AutoTokenizer.from_pretrained(model_path)
#์
๋ ฅ ํ์ ์ค์
prompt = f"""
### Question:
{question}
### Context:
{context}
### Answer:
"""
#ํ ํฐํ ๋ฐ ์ถ๋ก
input_ids = tokenizer.encode(prompt, return_tensors="pt").to(model.device)
output = model.generate(
input_ids,
max_new_tokens=100,
temperature=0.1,
repetition_penalty=1.3,
do_sample=True,
eos_token_id=tokenizer.eos_token_id
)
generated_text = tokenizer.decode(output[0], skip_special_tokens=True)
answer = generated_text.split("Answer:")[-1].strip().split('\n')[0].strip()
print("์์ฑ๋ ๋ต๋ณ:", answer)
ํ์ต ์ธ๋ถ ์ ๋ณด
- ์ํญ: 5
- ๋ฐฐ์น ํฌ๊ธฐ: 1
- ํ์ต๋ฅ : 2e-4
- ์ตํฐ๋ง์ด์ : AdamW (32-bit)
- LoRA ์ค์ :
- r: 16
- lora_alpha: 16
- ๋์ ๋ชจ๋: ["q_proj", "v_proj", "k_proj", "o_proj", "gate_proj", "down_proj", "up_proj"]
- lora_dropout: 0.01
์์ ์ง๋ฌธ ๋ฐ ๋ต๋ณ
[์์ 1: ์์ฒํฅ๋ํ๊ต]
Context:
์์ฒํฅ๋ํ๊ต๋ ์ถฉ์ฒญ๋จ๋ ์์ฐ์ ์ ์ฐฝ๋ฉด ์์ฒํฅ๋ก์ ์์นํ ์ฌ๋ฆฝ ์ข
ํฉ๋ํ๊ต์
๋๋ค.
์์ฒํฅ๋ํ๊ต์๋ 1983๋
๊ณต๊ณผ๋ํ์ด ์ค๋ฆฝ๋์์ต๋๋ค.
Question: ์์ฒํฅ๋ํ๊ต์ ์์น๋?
Answer: ์ถฉ์ฒญ๋จ๋ ์์ฐ์ ์ ์ฐฝ๋ฉด ์์ฒํฅ๋ก
[์์ 2: ์์ด๋ธ(IVE)]
Context:
์์ด๋ธ(IVE)๋ ๋ํ๋ฏผ๊ตญ์ ์คํ์ฝ ์ํฐํ
์ธ๋จผํธ ์์์ 6์ธ์กฐ ๊ฑธ๊ทธ๋ฃน์ผ๋ก, 2021๋
12์ 1์ผ์ ๋ฐ๋ทํ์ต๋๋ค.
๊ทธ๋ฃน ์ด๋ฆ์ธ 'IVE'๋ "I HAVE"์์ ์ ๋ํ์ผ๋ฉฐ, "๋ด๊ฐ ๊ฐ์ง ๊ฒ์ ๋น๋นํ๊ฒ ๋ณด์ฌ์ฃผ๊ฒ ๋ค"๋ ์๋ฏธ๋ฅผ ๋ด๊ณ ์์ต๋๋ค.
๋ฐ๋ท์ ๋์์ ํฐ ์ธ๊ธฐ๋ฅผ ๋๋ฉฐ ๋น ๋ฅด๊ฒ ์ฃผ๋ชฉ๋ฐ๋ ๊ทธ๋ฃน ์ค ํ๋๋ก ์๋ฆฌ ์ก์์ต๋๋ค.
๋ฉค๋ฒ ๊ตฌ์ฑ:
์์ ์ง (๋ฆฌ๋), ๊ฐ์, ๋ ์ด, ์ฅ์์, ๋ฆฌ์ฆ, ์ด์
์ฃผ์ ํ๋ ๋ฐ ํํธ๊ณก:
ELEVEN (2021๋
): ๋ฐ๋ท๊ณก์ผ๋ก, ์ธ๋ จ๋ ํผํฌ๋จผ์ค์ ๋ฉ๋ก๋๋ก ๋ง์ ์ฌ๋์ ๋ฐ์์ต๋๋ค.
LOVE DIVE (2022๋
): ์ค๋
์ฑ ์๋ ๋ฉ๋ก๋์ ๋งคํน์ ์ธ ์ฝ์
ํธ๋ก ํฐ ์ธ๊ธฐ๋ฅผ ์ป์ผ๋ฉฐ ์์
๋ฐฉ์ก์์ ๋ค์์ 1์๋ฅผ ์ฐจ์งํ์ต๋๋ค.
After LIKE (2022๋
): 'LOVE DIVE'์ ์ด์ด ํํธ๋ฅผ ์น ๊ณก์ผ๋ก, ์์ด๋ธ์ ๊ฐ์ฑ์ ๋ ํ๊ณ ํ ํ๋ ๊ณก์ด์์ต๋๋ค.
์์ด๋ธ๋ ๋
ํนํ ์ฝ์
ํธ์ ๋ฐ์ด๋ ๋ฌด๋ ํผํฌ๋จผ์ค๋ก ๊ตญ๋ด์ธ ํฌ๋ค์๊ฒ ์ฌ๋๋ฐ๊ณ ์์ผ๋ฉฐ, ๊ฐ ๋ฉค๋ฒ๋ค ์ญ์ ๊ฐ๋ณ์ ์ธ ๋งค๋ ฅ์ ๋ฐ์ฐํ๋ฉฐ ํ๋ฐํ ํ๋ํ๊ณ ์์ต๋๋ค.
์ฅ์์๊ณผ ์์ ์ง์ ๋ฐ๋ท ์ ๋ถํฐ ์์ด์ฆ์ ํ๋์ ํตํด ์ฃผ๋ชฉ๋ฐ์์ผ๋ฉฐ, ์ดํ ์์ด๋ธ๋ก์๋ ์ฑ๊ณต์ ์ธ ํ๋์ ์ด์ด๊ฐ๊ณ ์์ต๋๋ค.
Question1: ์์ด๋ธ์ ๋ฆฌ๋๋ ๋๊ตฌ์ผ?
Answer1: ์์ ์ง
Question2: ์์ด๋ธ ๋ฐ๋ท๊ณก ์๋ ค์ค.
Answer2: ELEVEN
์ฐ๋ฝ์ฒ
- Downloads last month
- 22,078
Model tree for NakJun/Llama-3.2-1B-Instruct-korQuAD-v1
Base model
meta-llama/Llama-3.2-1B-Instruct