PEFT
Safetensors
Transformers
English
text-generation-inference
unsloth
llama
trl
Edit model card

0725-ko-genstruct-v0.2-simple-qa

Ko-genstruct๋Š” ์ฃผ์–ด์ง„ ๋ฌธ์„œ๋กœ๋ถ€ํ„ฐ Instruction Tuning ๋ฐ์ดํ„ฐ๋ฅผ ์ƒ์„ฑํ•ด๋‚ด๋Š” ๋ชจ๋ธ์ž…๋‹ˆ๋‹ค.

๋ชจ๋ธ ์œ ํ˜•
iknow-lab/0725-ko-genstruct-v0.2-simple-qa ๋‹จ์ˆœํ•œ ์งˆ๋ฌธ๊ณผ ๋‹ต๋ณ€ ์ƒ์„ฑ
iknow-lab/0725-ko-genstruct-v0.2-writing ๊ธ€์“ฐ๊ธฐ ์ง€์‹œ๋ฌธ๊ณผ ๋‹ต๋ณ€ ์ƒ์„ฑ
iknow-lab/0725-ko-genstruct-v0.2-creative-writing ์ฐฝ์˜์ ์ธ ๊ธ€์“ฐ๊ธฐ ์ง€์‹œ๋ฌธ๊ณผ ๋‹ต๋ณ€ ์ƒ์„ฑ

์ด ๋ชจ๋ธ์€ Ada-instruct์™€ Genstruct๋กœ๋ถ€ํ„ฐ ์˜๊ฐ์„ ๋ฐ›์•˜์Šต๋‹ˆ๋‹ค.

๋‹ค์Œ๊ณผ ๊ฐ™์€ ์šฉ๋„๋กœ ํ™œ์šฉํ•  ์ˆ˜ ์žˆ์Šต๋‹ˆ๋‹ค.

  • ๊ฒ€์ƒ‰ ๋ชจ๋ธ์„ ํ•™์Šตํ•˜๊ธฐ ์œ„ํ•ด ์ฃผ์–ด์ง„ ํ…์ŠคํŠธ๋กœ๋ถ€ํ„ฐ ์งˆ๋ฌธ์„ ์ƒ์„ฑํ•˜๊ธฐ
  • ๋ณด์œ ํ•œ ๋ฐ์ดํ„ฐ๋ฅผ ์ด์šฉํ•˜์—ฌ Instruction Tuning ํ•™์Šต ๋ฐ์ดํ„ฐ๋ฅผ ์ƒ์„ฑ

์‚ฌ์šฉ๋ฐฉ๋ฒ•

์ƒ์„ฑ ์˜ˆ์ œ

์ฃผ์˜: simple-qa ๋ชจ๋ธ์€ ์ƒ์„ฑํ•˜๋Š” ์งˆ๋ฌธ์˜ ๋‹ค์–‘์„ฑ์ด ๋‚ฎ์Šต๋‹ˆ๋‹ค. ๋”ฐ๋ผ์„œ ๊ธด ํ…์ŠคํŠธ๋ฅผ ํ†ต์งธ๋กœ ์ฃผ๊ธฐ๋ณด๋‹ค ์ ๋‹นํ•œ ๊ทœ๋ชจ๋กœ ์ž˜๋ผ์„œ ์‚ฌ์šฉํ•˜์‹œ๊ธฐ๋ฅผ ๊ถŒ์žฅํ•ฉ๋‹ˆ๋‹ค.

import transformers

transformers.logging.set_verbosity_error()

import transformers
import peft

model_id = "MLP-KTLim/llama-3-Korean-Bllossom-8B"
peft_model_id = "iknow-lab/0725-ko-genstruct-v0.2-simple-qa"

tokenizer = transformers.AutoTokenizer.from_pretrained(model_id)
model = transformers.AutoModelForCausalLM.from_pretrained(model_id, device_map="cuda:0", torch_dtype="auto").eval()

model.load_adapter(peft_model_id)


text = """7์ผ(ํ˜„์ง€์‹œ๊ฐ„) ์น˜๋Ÿฌ์ง„ ํ”„๋ž‘์Šค ์กฐ๊ธฐ ์ด์„  ๊ฒฐ์„ ์—์„œ ์ขŒํŒŒ์—ฐํ•ฉ ์‹ ๋ฏผ์ค‘์ „์„ (NFP)์ด ์˜ˆ์ƒ์„ ๊นจ๊ณ  ๊ทน์šฐ ๊ตญ๋ฏผ์—ฐํ•ฉ(RN)์„ ๋ˆ„๋ฅด๊ณ  1๋‹น ์ž๋ฆฌ๋ฅผ ์ฐจ์ง€ํ–ˆ๋‹ค. 1์ฐจ ํˆฌํ‘œ์—์„œ 1์œ„๋ฅผ ์ฐจ์ง€ํ•˜๋ฉฐ ์ด์„  ๊ธฐ๊ฐ„ ๋‚ด๋‚ด ์ง€์ง€์œจ 1์œ„์˜€๋˜ RN์€ ๋ฒ”์—ฌ๊ถŒ๊ณผ ์ขŒํŒŒ์˜ ๋‹จ์ผํ™” ๋ฒฝ์— ๋ถ€๋”ชํ˜€ 3์œ„๋กœ ๋ฐ€๋ ค๋‚ฌ๋‹ค.

8์ผ ํ”„๋ž‘์Šค ๋‚ด๋ฌด๋ถ€์— ๋”ฐ๋ฅด๋ฉด ์ด์„  ๊ฒฐ์„  ํˆฌํ‘œ ๊ฒฐ๊ณผ, NFP๊ฐ€ ํ•˜์› 577์„ ์ค‘ 182์„์„ ์–ป์–ด ์›๋‚ด 1๋‹น ์ž๋ฆฌ์— ์˜ฌ๋ž๋‹ค. ์—๋งˆ๋‰˜์—˜ ๋งˆํฌ๋กฑ ๋Œ€ํ†ต๋ น์˜ ๋ฅด๋„ค์ƒ์Šค๋‹น์„ ์ค‘์‹ฌ์œผ๋กœ ํ•œ ์—ฌ๊ถŒ ์—ฐํ•ฉ ์•™์ƒ๋ธ”์€ 168์„์œผ๋กœ 2์œ„๋ฅผ ์ฐจ์ง€ํ–ˆ๋‹ค. RN์€ 143์„์„ ์–ป๋Š” ๋ฐ ๊ทธ์ณค๋‹ค.

RN์€ ์ง€๋‚œ๋‹ฌ 30์ผ 1์ฐจ ํˆฌํ‘œ์—์„œ 33.2%๋ฅผ ๋“ํ‘œํ•ด 1์œ„์— ์˜ค๋ฅด๋ฉด์„œ 2์ฐจ ๊ฒฐ์„ ํˆฌํ‘œ์—์„œ 240โˆผ270์„์„ ์–ป์„ ๊ฒƒ์œผ๋กœ ์ „๋ง๋๋‹ค. ํ•˜์ง€๋งŒ ๊ทน์šฐ ์ง‘๊ถŒ์„ ๋ง‰๊ธฐ ์œ„ํ•ด NFP์™€ ์•™์ƒ๋ธ”์ด ๋Œ€๋Œ€์ ์ธ ํ›„๋ณด ๋‹จ์ผํ™”์— ๋‚˜์„œ๋ฉด์„œ ํŒ์„ธ๊ฐ€ ๋’ค์ง‘ํ˜”๋‹ค. RN์˜ ์กฐ๋ฅด๋‹น ๋ฐ”๋ฅด๋ธ๋ผ ๋Œ€ํ‘œ๋Š” โ€œ๋ถˆ๋ช…์˜ˆ์Šค๋Ÿฌ์šด ๋™๋งน์ด ํ”„๋ž‘์Šค๋ฅผ ๊ทน์ขŒ์˜ ํ’ˆ์— ๋˜์ง€๊ณ  ์žˆ๋‹คโ€๋ฉฐ โ€œ์šฐ๋ฆฌ๋Š” ํ”„๋ž‘์Šค ๊ตญ๋ฏผ์˜ ํŽธ์— ์„ค ๊ฒƒโ€์ด๋ผ๊ณ  ํ•œ์ธต ๊ฐ•๊ฒฝํ•œ ๋Œ€์ •๋ถ€ ํˆฌ์Ÿ์„ ์˜ˆ๊ณ ํ–ˆ๋‹ค.

์ด์„  ๊ฒฐ๊ณผ ์›๋‚ด 1๋‹น์„ ์ฐจ์ง€ํ•˜๊ฒŒ ๋œ NFP๋Š” ์ •๋ถ€ ์šด์˜์— ๋‚˜์„ค ๋œป์„ ๋ถ„๋ช…ํžˆ ํ•ด 27๋…„ ๋งŒ์— ๋™๊ฑฐ์ •๋ถ€๊ฐ€ ๋“ค์–ด์„ค ๊ฒƒ์œผ๋กœ ๋ณด์ธ๋‹ค. NFP ์†Œ์†์ธ ๊ตด๋ณตํ•˜์ง€์•Š๋Š”ํ”„๋ž‘์Šค(LFI)์˜ ์žฅ๋คผํฌ ๋ฉœ๋ž‘์ˆ‘ ๋Œ€ํ‘œ๋Š” โ€œ์œ ๊ถŒ์ž๋“ค์ด ๋ถˆ๊ฐ€๋Šฅํ•  ๊ฒƒ์œผ๋กœ ์—ฌ๊ฒจ์ง„ ์ขŒํŒŒ์—ฐํ•ฉ์˜ ์Šน๋ฆฌ๋ฅผ ๋งŒ๋“ค์–ด๋ƒˆ๋‹คโ€๋ฉฐ โ€œ์ขŒํŒŒ์—ฐํ•ฉ์€ ์ง‘๊ถŒํ•  ์ค€๋น„๊ฐ€ ๋ผ ์žˆ๋‹คโ€๊ณ  ๋งํ–ˆ๋‹ค. NFP ์†Œ์† ์‚ฌํšŒ๋‹น์˜ ์˜ฌ๋ฆฌ๋น„์— ํฌ๋ฅด ๋Œ€ํ‘œ๋„ โ€œํ”„๋ž‘์Šค๋Š” RN์ด ์ง‘๊ถŒํ•˜๋Š” ๊ฒƒ์„ ๊ฑฐ๋ถ€ํ–ˆ๋‹คโ€๋ฉฐ โ€œNFP๊ฐ€ ์šฐ๋ฆฌ ์—ญ์‚ฌ์˜ ์ƒˆ๋กœ์šด ํŽ˜์ด์ง€๋ฅผ ์ฑ…์ž„์ ธ์•ผ ํ•œ๋‹คโ€๊ณ  ๊ฐ•์กฐํ–ˆ๋‹ค.

# ํ•œํŽธ ๊ฐ€๋ธŒ๋ฆฌ์—˜ ์•„ํƒˆ ์ด๋ฆฌ๋Š” ์•™์ƒ๋ธ”์ด 1๋‹น ์ง€์œ„๋ฅผ ํ™•๋ณดํ•˜์ง€ ๋ชปํ•œ ๋ฐ ๋Œ€ํ•ด ์ฑ…์ž„์„ ์ง€๊ฒ ๋‹ค๋ฉฐ ๋Œ€ํ†ต๋ น์—๊ฒŒ ์‚ฌ์˜๋ฅผ ํ‘œํ•˜๊ฒ ๋‹ค๊ณ  ๋ฐํ˜”๋‹ค."""


PROMPT_QA = """์ฃผ์–ด์ง„ ํ…์ŠคํŠธ ์ปจํ…์ธ ๋ฅผ ์ฐธ๊ณ ํ•˜์—ฌ ์งˆ๋ฌธ๊ณผ ์ •ํ™•ํ•˜๊ณ  ์ƒ์„ธํ•œ ๋‹ต๋ณ€์„ ๋งŒ๋“œ์„ธ์š”, ๋Œ€๋‹ต์€ ์•„๋ž˜ ํ˜•ํƒœ๋กœ ์ž‘์„ฑํ•˜์„ธ์š”
**๋‹ต๋ณ€ ํ˜•์‹**
[[Q]] ์ง€์‹œ๋ฌธ

[[A]] ๋‹ต๋ณ€
---
{text}"""


def generate_question(text):
    prompt = PROMPT_QA.format(text=text)
    
    prompt = [{"content": prompt, "role": "user"}]
    inputs = tokenizer.apply_chat_template(prompt, return_tensors="pt", add_generation_prompt=True, tokenize=False)
    inputs = inputs.strip()
    inputs = tokenizer.encode(inputs, add_special_tokens=False, return_tensors="pt").to(model.device)
    outputs = model.generate(input_ids=inputs, max_new_tokens=256, do_sample=True, early_stopping=True, eos_token_id=128009, temperature=1.0)

    question = tokenizer.decode(outputs[0, inputs.shape[1]:], skip_special_tokens=True)

    return question


for _ in range(5):
    question = generate_question(text)
    print(question)

์ƒ์„ฑ ๊ฒฐ๊ณผ

[[Q]] ํ”„๋ž‘์Šค ์ด์„  ๊ฒฐ์„  ๊ฒฐ๊ณผ์— ๋Œ€ํ•ด ๊ฐ„๋‹จํžˆ ์„ค๋ช…ํ•ด์ฃผ์„ธ์š”.

[[A]] ํ”„๋ž‘์Šค ์ด์„  ๊ฒฐ์„ ์—์„œ ์ขŒํŒŒ์—ฐํ•ฉ ์‹ ๋ฏผ์ค‘์ „์„ (NFP)์ด ์˜ˆ์ƒ์„ ๊นจ๊ณ  1๋‹น ์ž๋ฆฌ๋ฅผ ์ฐจ์ง€ํ•˜์˜€์œผ๋ฉฐ, ๊ทน์šฐ ๊ตญ๋ฏผ์—ฐํ•ฉ(RN)์€ 3์œ„๋ฅผ ์ฐจ์ง€ํ•˜์˜€์Šต๋‹ˆ๋‹ค. 1์ฐจ ํˆฌํ‘œ์—์„œ 1์œ„๋ฅผ ์ฐจ์ง€ํ•œ RN์€ ๋ฒ”์—ฌ๊ถŒ๊ณผ ์ขŒํŒŒ์˜ ๋‹จ์ผํ™” ๋ฒฝ์— ๋ถ€๋”ชํ˜€ 3์œ„๋กœ ๋ฐ€๋ ค๋‚ฌ์Šต๋‹ˆ
๋‹ค. NFP๋Š” ํ•˜์› 577์„ ์ค‘ 182์„์„ ์–ป์–ด ์›๋‚ด 1๋‹น ์ž๋ฆฌ์— ์˜ฌ๋ž์Šต๋‹ˆ๋‹ค. ์—๋งˆ๋‰˜์—˜ ๋งˆํฌ๋กฑ ๋Œ€ํ†ต๋ น์˜ ๋ฅด๋„ค์ƒ์Šค๋‹น์„ ์ค‘์‹ฌ์œผ๋กœ ํ•œ ์—ฌ๊ถŒ ์—ฐํ•ฉ ์•™์ƒ๋ธ”์€ 168์„์œผ๋กœ 2์œ„๋ฅผ ์ฐจ์ง€ํ•˜์˜€๊ณ , RN์€ 143์„์„ ์–ป๋Š” ๋ฐ ๊ทธ์ณค์Šต๋‹ˆ๋‹ค. RN์€ 2์ฐจ ๊ฒฐ์„ ํˆฌํ‘œ์—
์„œ 240โˆผ270์„์„ ์–ป์„ ๊ฒƒ์œผ๋กœ ์ „๋ง๋˜์—ˆ์ง€๋งŒ, ๊ทน์šฐ ์ง‘๊ถŒ์„ ๋ง‰๊ธฐ ์œ„ํ•ด NFP์™€ ์•™์ƒ๋ธ”์ด ๋Œ€๋Œ€์ ์ธ ํ›„๋ณด ๋‹จ์ผํ™”์— ๋‚˜์„œ๋ฉด์„œ ํŒ์„ธ๊ฐ€ ๋’ค์ง‘ํ˜”์Šต๋‹ˆ๋‹ค.


[[Q]] ํ”„๋ž‘์Šค ์กฐ๊ธฐ ์ด์„  ๊ฒฐ์„ ์—์„œ ์ขŒํŒŒ์—ฐํ•ฉ ์‹ ๋ฏผ์ค‘์ „์„ (NFP)์ด ์˜ˆ์ƒ์„ ๊นจ๊ณ  ๊ทน์šฐ ๊ตญ๋ฏผ์—ฐํ•ฉ(RN)์„ ๋ˆ„๋ฅด๊ณ  1๋‹น ์ž๋ฆฌ๋ฅผ ์ฐจ์ง€ํ–ˆ๋‹ค. 1์ฐจ ํˆฌํ‘œ์—์„œ 1์œ„๋ฅผ ์ฐจ์ง€ํ•˜๋ฉฐ ์ด์„  ๊ธฐ๊ฐ„ ๋‚ด๋‚ด ์ง€์ง€์œจ 1์œ„์˜€๋˜ RN์€ ๋ฒ”์—ฌ๊ถŒ๊ณผ ์ขŒํŒŒ์˜ ๋‹จ์ผํ™” ๋ฒฝ์— ๋ถ€๋”ช
ํ˜€ 3์œ„๋กœ ๋ฐ€๋ ค๋‚ฌ๋‹ค. NFP๊ฐ€ ์ด์„  ๊ฒฐ์„  ํˆฌํ‘œ ๊ฒฐ๊ณผ ํ•˜์› 577์„ ์ค‘ 182์„์„ ์–ป์–ด ์›๋‚ด 1๋‹น ์ž๋ฆฌ์— ์˜ฌ๋ž๋‹ค. RN์€ ์ง€๋‚œ๋‹ฌ 30์ผ 1์ฐจ ํˆฌํ‘œ์—์„œ 33.2%๋ฅผ ๋“ํ‘œํ•ด 1์œ„์— ์˜ค๋ฅด๋ฉด์„œ 2์ฐจ ๊ฒฐ์„ ํˆฌํ‘œ์—์„œ 240โˆผ270์„์„ ์–ป์„ ๊ฒƒ์œผ๋กœ ์ „๋ง๋๋‹ค. ํ•˜์ง€๋งŒ 
๊ทน์šฐ ์ง‘๊ถŒ์„ ๋ง‰๊ธฐ ์œ„ํ•ด NFP์™€ ์•™์ƒ๋ธ”์ด ๋Œ€๋Œ€์ ์ธ ํ›„๋ณด ๋‹จ์ผํ™”์— ๋‚˜์„œ๋ฉด์„œ ํŒ์„ธ๊ฐ€ ๋’ค์ง‘ํ˜”๋‹ค. NFP ์†Œ์†์ธ ๊ตด๋ณตํ•˜์ง€์•Š๋Š”ํ”„๋ž‘์Šค(LFI)์˜ ์žฅ๋คผํฌ ๋ฉœ๋ž‘์ˆ‘ ๋Œ€ํ‘œ๋Š” โ€œ์œ ๊ถŒ์ž๋“ค์ด ๋ถˆ๊ฐ€๋Šฅ

ใ„ด NOTE: ์ž˜๋ชป ์ƒ์„ฑ๋œ ์ผ€์ด์Šค ๐Ÿ˜ญ

[[Q]] ํ”„๋ž‘์Šค ์ด์„  ๊ฒฐ์„ ์—์„œ ์ขŒํŒŒ์—ฐํ•ฉ ์‹ ๋ฏผ์ค‘์ „์„ (NFP)์ด ์˜ˆ์ƒ์„ ๊นจ๊ณ  ๊ทน์šฐ ๊ตญ๋ฏผ์—ฐํ•ฉ(RN)์„ ๋ˆ„๋ฅด๊ณ  1๋‹น ์ž๋ฆฌ์— ์˜ค๋ฅธ ์ด์œ ๋Š” ๋ฌด์—‡์ธ๊ฐ€์š”?

[[A]] ํ”„๋ž‘์Šค ์ด์„  ๊ฒฐ์„ ์—์„œ NFP์€ ๊ทน์šฐ RN์„ ๋ˆ„๋ฅด๊ณ  1๋‹น ์ž๋ฆฌ์— ์˜ค๋ฅธ ์ด์œ ๋Š” ๋ฒ”์—ฌ๊ถŒ๊ณผ ์ขŒํŒŒ์˜ ๋‹จ์ผํ™” ๋ฒฝ์— ๋ถ€๋”ชํ˜€ RN์ด 3์œ„๋กœ ๋ฐ€๋ ค๋‚ฌ๊ธฐ ๋•Œ๋ฌธ์ž…๋‹ˆ๋‹ค. NFP์€ ์ง€๋‚œ 1์ฐจ ํˆฌํ‘œ์—์„œ 1์œ„๋ฅผ ์ฐจ์ง€ํ•˜๋ฉฐ ์ด์„  ๊ธฐ๊ฐ„ ๋‚ด๋‚ด ์ง€์ง€์œจ 1์œ„๋ฅผ ์ฐจ์ง€ํ–ˆ์ง€
๋งŒ, RN์€ ๊ทน์šฐ ์ง‘๊ถŒ์„ ๋ง‰๊ธฐ ์œ„ํ•ด NFP์™€ ์•™์ƒ๋ธ”์ด ๋Œ€๋Œ€์ ์ธ ํ›„๋ณด ๋‹จ์ผํ™”์— ๋‚˜์„œ๋ฉด์„œ ํŒ์„ธ๊ฐ€ ๋’ค์ง‘ํ˜”์Šต๋‹ˆ๋‹ค. ์ด๋กœ ์ธํ•ด NFP์€ 182์„์„ ์–ป์–ด ์›๋‚ด 1๋‹น ์ž๋ฆฌ์— ์˜ฌ๋ž์Šต๋‹ˆ๋‹ค.


[[Q]] 7์ผ ์น˜๋Ÿฌ์ง„ ํ”„๋ž‘์Šค ์กฐ๊ธฐ ์ด์„  ๊ฒฐ์„ ์—์„œ ์–ด๋–ค ๊ฒฐ๊ณผ๊ฐ€ ๋‚˜์™”๊ณ , ์ด๋Š” ์˜ˆ์ƒ์„ ์–ด๋–ป๊ฒŒ ๊นจ๋œจ๋ ธ๋Š”์ง€ ์„ค๋ช…ํ•ด ์ฃผ์‹ค ์ˆ˜ ์žˆ์„๊นŒ์š”?

[[A]] ํ”„๋ž‘์Šค ์กฐ๊ธฐ ์ด์„  ๊ฒฐ์„ ์—์„œ ์ขŒํŒŒ์—ฐํ•ฉ ์‹ ๋ฏผ์ค‘์ „์„ (NFP)์ด ์˜ˆ์ƒ์„ ๊นจ๊ณ  ๊ทน์šฐ ๊ตญ๋ฏผ์—ฐํ•ฉ(RN)์„ ๋ˆ„๋ฅด๊ณ  1๋‹น ์ž๋ฆฌ๋ฅผ ์ฐจ์ง€ํ–ˆ๋‹ค. 1์ฐจ ํˆฌํ‘œ์—์„œ 1์œ„๋ฅผ ์ฐจ์ง€ํ•˜๋ฉฐ ์ด์„  ๊ธฐ๊ฐ„ ๋‚ด๋‚ด ์ง€์ง€์œจ 1์œ„๋ฅผ ์ฐจ์ง€ํ–ˆ๋˜ RN์€ ๋ฒ”์—ฌ๊ถŒ๊ณผ ์ขŒํŒŒ์˜ ๋‹จ์ผํ™” ๋ฒฝ
์— ๋ถ€๋”ชํ˜€ 3์œ„๋ฅผ ์ฐจ์ง€ํ–ˆ๋‹ค. NFP๋Š” ํ•˜์› 577์„ ์ค‘ 182์„์„ ์–ป์–ด ์›๋‚ด 1๋‹น ์ž๋ฆฌ์— ์˜ฌ๋ž์œผ๋ฉฐ, ์—๋งˆ๋‰˜์—˜ ๋งˆํฌ๋กฑ ๋Œ€ํ†ต๋ น์˜ ๋ฅด๋„ค์ƒ์Šค๋‹น์„ ์ค‘์‹ฌ์œผ๋กœ ํ•œ ์—ฌ๊ถŒ ์—ฐํ•ฉ ์•™์ƒ๋ธ”์€ 168์„์œผ๋กœ 2์œ„๋ฅผ ์ฐจ์ง€ํ–ˆ๋‹ค. RN์€ 143์„์„ ์–ป๋Š” ๋ฐ ๊ทธ์ณค๋‹ค. NFP์˜ 
์Šน๋ฆฌ๋Š” RN์ด ์ง‘๊ถŒํ•˜๋Š” ๊ฒƒ์„ ๊ฑฐ๋ถ€ํ•œ ์œ ๊ถŒ์ž๋“ค์˜ ์ง€์ง€๋ฅผ ๋ฐ›์€ ๊ฒฐ๊ณผ๋กœ ๋ณด์ธ๋‹ค.


[[Q]] ํ”„๋ž‘์Šค ์กฐ๊ธฐ ์ด์„  ๊ฒฐ์„ ์—์„œ ์–ด๋–ค ์ •๋‹น์ด 1๋‹น ์ž๋ฆฌ๋ฅผ ์ฐจ์ง€ํ•˜์˜€๊ณ , ์–ด๋–ค ์ •๋‹น์ด 3์œ„์— ๋จธ๋ฌผ๋ €์„๊นŒ์š”?

[[A]] ํ”„๋ž‘์Šค ์กฐ๊ธฐ ์ด์„  ๊ฒฐ์„ ์—์„œ ์ขŒํŒŒ์—ฐํ•ฉ ์‹ ๋ฏผ์ค‘์ „์„ (NFP)์ด ์˜ˆ์ƒ์„ ๊นจ๊ณ  1๋‹น ์ž๋ฆฌ๋ฅผ ์ฐจ์ง€ํ•˜์˜€๊ณ , ๊ทน์šฐ ๊ตญ๋ฏผ์—ฐํ•ฉ(RN)์ด 3์œ„์— ๋จธ๋ฌผ๋ €์Šต๋‹ˆ๋‹ค.

Model

  • Developed by: iknow-lab
  • License: apache-2.0
  • Finetuned from model : MLP-KTLim/llama-3-Korean-Bllossom-8B

This llama model was trained 2x faster with Unsloth and Huggingface's TRL library.

Downloads last month
100
Inference API
Unable to determine this modelโ€™s pipeline type. Check the docs .

Model tree for iknow-lab/0725-ko-genstruct-v0.2-simple-qa

Adapter
(17)
this model

Dataset used to train iknow-lab/0725-ko-genstruct-v0.2-simple-qa