llama3-instrucTrans-enko-8b-GGUF
Quantized GGUF model files for llama3-instrucTrans-enko-8b from nayohan
Original Model Card:
instructTrans
Introduction
llama3-8b-instructTrans-en-ko model is trained on translation datasets(english->korean) based on Llama-3-8B-it. To translate the English instruction dataset.
Loading the Model
Use the following Python code to load the model:
import torch
from transformers import AutoModelForCausalLM, AutoTokenizer
model_name = "nayohan/llama3-instrucTrans-enko-8b"
tokenizer = AutoTokenizer.from_pretrained(model_name)
model = AutoModelForCausalLM.from_pretrained(
model_name,
device_map="auto",
torch_dtype=torch.bfloat16
)
Generating Text
This model supports translation from english to korean. To translate text, use the following Python code:
system_prompt="λΉμ μ λ²μκΈ° μ
λλ€. μμ΄λ₯Ό νκ΅μ΄λ‘ λ²μνμΈμ."
sentence = "The aerospace industry is a flower in the field of technology and science."
conversation = [{'role': 'system', 'content': system_prompt},
{'role': 'user', 'content': sentence}]
inputs = tokenizer.apply_chat_template(
conversation,
tokenize=True,
add_generation_prompt=True,
return_tensors='pt'
).to("cuda")
outputs = model.generate(inputs, max_new_tokens=4096) # Finetuned with length 4096
print(tokenizer.decode(outputs[0][len(inputs[0]):]))
# Result
INPUT: <|begin_of_text|><|start_header_id|>system<|end_header_id|>\n\nλΉμ μ λ²μκΈ° μ
λλ€. μμ΄λ₯Ό νκ΅μ΄λ‘ λ²μνμΈμ.<|eot_id|><|start_header_id|>user<|end_header_id|>\n\nThe aerospace industry is a flower in the field of technology and science.<|eot_id|><|start_header_id|>assistant<|end_header_id|>\n\n
OUTPUT: ν곡μ°μ£Ό μ°μ
μ κΈ°μ κ³Ό κ³Όν λΆμΌμ κ½μ
λλ€.<|eot_id|>
INPUT: <|begin_of_text|><|start_header_id|>system<|end_header_id|>\n\nλΉμ μ λ²μκΈ° μ
λλ€. μμ΄λ₯Ό νκ΅μ΄λ‘ λ²μνμΈμ.<|eot_id|><|start_header_id|>user<|end_header_id|>\n\n
Technical and basic sciences are very important in terms of research. It has a significant impact on the industrial development of a country. Government policies control the research budget.<|eot_id|><|start_header_id|>assistant<|end_header_id|>\n\n
OUTPUT: κΈ°μ λ° κΈ°μ΄ κ³Όνμ μ°κ΅¬ μΈ‘λ©΄μμ λ§€μ° μ€μν©λλ€. μ΄λ ν κ΅κ°μ μ°μ
λ°μ μ ν° μν₯μ λ―ΈμΉ©λλ€. μ λΆ μ μ±
μ μ°κ΅¬ μμ°μ ν΅μ ν©λλ€.<|eot_id|>
# EVAL_RESULT (2405_KO_NEWS) (max_new_tokens=512)
"en_ref":"This controversy arose around a new advertisement for the latest iPad Pro that Apple released on YouTube on the 7th. The ad shows musical instruments, statues, cameras, and paints being crushed in a press, followed by the appearance of the iPad Pro in their place. It appears to emphasize the new iPad Pro's artificial intelligence features, advanced display, performance, and thickness. Apple mentioned that the newly unveiled iPad Pro is equipped with the latest 'M4' chip and is the thinnest device in Apple's history. The ad faced immediate backlash upon release, as it graphically depicts objects symbolizing creators being crushed. Critics argue that the imagery could be interpreted as technology trampling on human creators. Some have also voiced concerns that it evokes a situation where creators are losing ground due to AI."
"ko_ref":"μ΄λ² λ
Όλμ μ νμ΄ μ§λ 7μΌ μ νλΈμ 곡κ°ν μ ν μμ΄ν¨λ νλ‘ κ΄κ³ λ₯Ό λλ¬μΈκ³ λΆκ±°μ‘λ€. ν΄λΉ κ΄κ³ μμμ μ
κΈ°μ μ‘°κ°μ, μΉ΄λ©λΌ, λ¬Όκ° λ±μ μμ°©κΈ°λ‘ μ§λλ₯Έ λ€ κ·Έ μ리μ μμ΄ν¨λ νλ‘λ₯Ό λ±μ₯μν€λ λ΄μ©μ΄μλ€. μ ν μμ΄ν¨λ νλ‘μ μΈκ³΅μ§λ₯ κΈ°λ₯λ€κ³Ό μ§νλ λμ€νλ μ΄μ μ±λ₯, λκ» λ±μ κ°μ‘°νκΈ° μν μ·¨μ§λ‘ νμ΄λλ€. μ νμ μ΄λ²μ 곡κ°ν μμ΄ν¨λ νλ‘μ μ ν βM4β μΉ©μ΄ νμ¬λλ©° λκ»λ μ νμ μλ μ ν μ€ κ°μ₯ μλ€λ μ€λͺ
λ λ§λΆμλ€. κ΄κ³ λ κ³΅κ° μ§ν κ±°μΌ λΉνμ μ§λ©΄νλ€. μ°½μμλ₯Ό μμ§νλ λ¬Όκ±΄μ΄ μ§λλ €μ§λ κ³Όμ μ μ§λμΉκ² μ λλΌνκ² λ¬μ¬ν μ μ΄ λ¬Έμ κ° λλ€. κΈ°μ μ΄ μΈκ° μ°½μμλ₯Ό μ§λ°λ λͺ¨μ΅μ λ¬μ¬ν κ²μΌλ‘ ν΄μλ μ¬μ§κ° μλ€λ λ¬Έμ μμμ΄λ€. μΈκ³΅μ§λ₯(AI)μΌλ‘ μΈν΄ μ°½μμκ° μ€ μλ¦¬κ° μ€μ΄λλ μν©μ μ°μμν¨λ€λ λͺ©μ리λ λμλ€."
"InstrucTrans":"μ΄λ² λ
Όλμ μ νμ΄ μ§λ 7μΌ μ νλΈμ 곡κ°ν μ΅μ μμ΄ν¨λ νλ‘ κ΄κ³ λ₯Ό μ€μ¬μΌλ‘ λΆκ±°μ‘λ€. μ΄ κ΄κ³ λ μ
κΈ°, μ‘°κ°μ, μΉ΄λ©λΌ, λ¬Όκ° λ±μ λλ₯΄κΈ° μμνλ μ₯λ©΄κ³Ό ν¨κ» κ·Έ μ리μ μμ΄ν¨λ νλ‘κ° λ±μ₯νλ μ₯λ©΄μ 보μ¬μ€λ€. μ΄λ μλ‘μ΄ μμ΄ν¨λ νλ‘μ μΈκ³΅μ§λ₯ κΈ°λ₯, κ³ κΈ λμ€νλ μ΄, μ±λ₯, λκ»λ₯Ό κ°μ‘°νλ κ²μΌλ‘ 보μΈλ€. μ νμ μ΄λ²μ 곡κ°ν μμ΄ν¨λ νλ‘μ μ΅μ 'M4' μΉ©μ΄ νμ¬λμΌλ©°, μ ν μμ¬μ κ°μ₯ μμ κΈ°κΈ°λΌκ³ μΈκΈνλ€. μ΄ κ΄κ³ λ μΆμνμλ§μ ν¬λ¦¬μμ΄ν°λ₯Ό μμ§νλ λ¬Όκ±΄μ΄ νμλλ μ₯λ©΄μ΄ κ·Έλλ‘ κ·Έλ €μ Έ λ
Όλμ΄ λκ³ μλ€. λΉνκ°λ€μ μ΄ μ΄λ―Έμ§κ° κΈ°μ μ΄ μΈκ° ν¬λ¦¬μμ΄ν°λ₯Ό μ§λ°λλ€λ μλ―Έλ‘ ν΄μλ μ μλ€κ³ μ£Όμ₯νλ€. λν AIλ‘ μΈν΄ ν¬λ¦¬μμ΄ν°λ€μ΄ λ°λ¦¬κ³ μλ€λ μν©μ μ°μμν¨λ€λ μ°λ €μ λͺ©μ리λ λμ¨λ€."
"KULLM3":"μ΄ λ
Όλμ μ νμ΄ μ νλΈμ 7μΌμ λ°νν μ΅μ iPad Pro κ΄κ³ μ£Όμμμ λ°μνμ΅λλ€. κ΄κ³ μμλ μ
κΈ°, μ‘°κ°μ, μΉ΄λ©λΌ, κ·Έλ¦¬κ³ λ¬Όκ°μ΄ μμΆκΈ°μμ νκ΄΄λλ λͺ¨μ΅μ΄ 보μ¬μ§κ³ , κ·Έ μ리μ iPad Proκ° λνλ©λλ€. μ΄λ μλ‘μ΄ iPad Proμ μΈκ³΅μ§λ₯ κΈ°λ₯, κ³ κΈ λμ€νλ μ΄, μ±λ₯, κ·Έλ¦¬κ³ μμ λμμΈμ κ°μ‘°νλ κ²μΌλ‘ 보μ
λλ€. μ νμ μ΅μ 'M4' μΉ©μ νμ¬ν μλ‘ κ³΅κ°λ iPad Proκ° μμ¬ μμ¬μ κ°μ₯ μμ κΈ°κΈ°λΌκ³ μΈκΈνμ΅λλ€. νμ§λ§ κ΄κ³ λ μΆμ μ§ν μ¦κ°μ μΈ λ°λ°μ λ°μμ΅λλ€. κ΄κ³ μμλ μ°½μμλ₯Ό μμ§νλ 물건λ€μ΄ νκ΄΄λλ λͺ¨μ΅μ΄ κ·Έλν½νκ² λ³΄μ¬μ§κΈ° λλ¬Έμ
λλ€. λΉνμλ€μ μ΄ μ΄λ―Έμ§κ° κΈ°μ μ΄ μΈκ° μ°½μμλ₯Ό μλνλ κ²μΌλ‘ ν΄μλ μ μλ€κ³ μ£Όμ₯νλ©°, μΌλΆλ μ΄κ° μ°½μμλ€μ΄ AI λλ¬Έμ μ§μλ₯Ό μλ μν©μ μ°μμν¨λ€κ³ μ°λ €νκ³ μμ΅λλ€."
"EEVE-10.8b-it":ν΄λΉ λ
Όλμ μ νμ΄ 7μΌμ μ νλΈμ 곡κ°ν μ΅μ μμ΄ν¨λ νλ‘ κ΄κ³ μ κ΄λ ¨νμ¬ λ°μνμ΅λλ€. ν΄λΉ κ΄κ³ μμλ μ
κΈ°, μ‘°κ°μ, μΉ΄λ©λΌ, κ·Έλ¦¬κ³ λΆμ΄ λλ¬μ Έ λΆμμ§λ λͺ¨μ΅κ³Ό ν¨κ» κ·Έ μ리μ μλ‘μ΄ μμ΄ν¨λ νλ‘κ° λ±μ₯νλ μ₯λ©΄μ μμνκ² λ³΄μ¬μ£Όκ³ μμ΅λλ€. μ΄λ μλ‘μ΄ μμ΄ν¨λ νλ‘μ μΈκ³΅μ§λ₯ κΈ°λ₯, μ§λ³΄λ λμ€νλ μ΄, μ±λ₯, κ·Έλ¦¬κ³ λκ»λ₯Ό λΆκ°μν€κ³ μ νλ κ²μΌλ‘ 보μ
λλ€. μ νμ κ° λ°νλ μμ΄ν¨λ νλ‘κ° μ΅μ 'M4' μΉ©μ νμ¬νκ³ μμΌλ©°, μ ν μ ν μ€ κ°μ₯ μμ μ₯μΉλΌκ³ μΈκΈνμ΅λλ€. κ΄κ³ κ° μΆμλμλ§μ λ°λ‘ λ맀λ₯Ό λ§μλλ°, μ΄λ μ°½μμλ€μ μμ§νλ 물건λ€μ΄ λλ € λΆμμ§λ μμΈν μ₯λ©΄μ λ΄κ³ μκΈ° λλ¬Έμ
λλ€. λΉνμλ€μ μ΄λ¬ν μ΄λ―Έμ§κ° κΈ°μ μ΄ μΈκ° μ°½μμλ€μ μ§λ°μ κ²μΌλ‘ ν΄μλ μ μλ€κ³ μ£Όμ₯νκ³ μμ΅λλ€. μΌλΆ μ¬λλ€μ λν AIλ‘ μΈν΄ μ°½μμλ€μ΄ λνλκ³ μλ μν©μ μμνλ κ² κ°μ μ°λ €λ₯Ό ννκ³ μμ΅λλ€."
"Seagull-13B":"μ΄ λ
Όλμ΄ λ°μν κ²μ 7μΌμ Appleμ΄ YouTubeμ 곡κ°ν μ΅μ iPad Proμ μλ‘μ΄ κ΄κ³ μ κ΄λ ¨μ΄ μμ΅λλ€. μ΄ κ΄κ³ λ μ
κΈ°, λμ, μΉ΄λ©λΌ, λ¬Όκ°μ νλ μ€μ λλ₯΄λ μ₯λ©΄μ 보μ¬μ€ λ€μ κ·Έ μ리μ iPad Proκ° λνλ©λλ€. μλ‘μ΄ iPad Proμ μΈκ³΅μ§λ₯ κΈ°λ₯, κ³ κΈ λμ€νλ μ΄, μ±λ₯ λ° λκ»λ₯Ό κ°μ‘°νλ κ²μΌλ‘ 보μ
λλ€. Appleμ μλ‘ κ³΅κ° λ iPad Proμ μ΅μ 'M4' μΉ©μ΄ μ₯μ°©λμ΄ μμΌλ©° Apple μμ¬μ κ°μ₯ μμ μ₯μΉλΌκ³ μΈκΈνμ΅λλ€. μ΄ κ΄κ³ λ ν¬λ¦¬μμ΄ν°λ₯Ό μμ§νλ 물체λ₯Ό κ·Έλν½μΌλ‘ νννμ¬ κ³΅κ° μ§ν λ°λ°μ λΆλ¬μΌμΌμΌ°μ΅λλ€. λΉνκ°λ€μ μ΄ μ΄λ―Έμ§κ° λ₯λ¬λμ΄ μΈκ° μ°½μμλ₯Ό μ§λ°λ κΈ°μ λ‘ ν΄μλ μ μλ€κ³ μ§μ ν©λλ€. μΌλΆλ AIλ‘ μΈν΄ ν¬λ¦¬μμ΄ν°κ° ν λλ₯Ό μλ μν©μ μ°μμν¨λ€λ μ°λ €μ λͺ©μ리λ μ κΈ°νμ΅λλ€.\n"
"Synatra-7B":"μ΄ λ
Όλμ 7μΌ Appleμ΄ YouTubeμ μ¬λ¦° μ΅μ iPad Proμ μ κ· κ΄κ³ λ₯Ό μ€μ¬μΌλ‘ λ²μ΄μ‘μ΅λλ€. μ΄ κ΄κ³ μλ λͺ©κ΄μ
κΈ°, μ‘°κ°μ, μΉ΄λ©λΌ, λ¬Όκ°μ΄ μλ ₯μ κ°ν ν κ·Έ μ리μ iPad Proκ° λνλλ μ₯λ©΄μ΄ νμλλ 무λ¨μ₯μ κ΄κ³ μ
λλ€. κ·Έ κ΄κ³ λ μ iPad Proμ μΈκ³΅μ§λ₯ κΈ°λ₯, κ³ κΈ λμ€νλ μ΄, μ±λ₯ λ° λκ»λ₯Ό κ°μ‘°νλ κ²μΌλ‘ 보μ
λλ€. Appleμ μλ‘κ² λ°νλ iPad Proμλ μ΅μ 'M4' μΉ©μ΄ νμ¬λμ΄ μμΌλ©° μμ¬μ κ°μ₯ μμ κΈ°κΈ°λΌκ³ μΈκΈνμ΅λλ€. μ΄ κ΄κ³ λ ν¬λ¦¬μμ΄ν°λ₯Ό μμ§νλ λ¬Όμ²΄κ° μ§κΈ°μ λ§μ μλ€λ λͺ¨μ΅μ κ·Έλν½μΌλ‘ ννν ν μ¦μ λ°λ°μ λΆλ¬ μΌμΌμΌ°μ΅λλ€. λΉνκ°λ€μ μ΄ μ΄λ―Έμ§κ° κΈ°μ μ΄ μΈκ° ν¬λ¦¬μμ΄ν°λ₯Ό νλ°νλ κ²μΌλ‘ ν΄μλ μ μλ€κ³ μ£Όμ₯ν©λλ€. μΌλΆλ λν AIλ‘ μΈν΄ ν¬λ¦¬μμ΄ν°κ° μ§μλ₯Ό μλ μν©μ λΆλ¬μΌμΌν¬ μ μλ€κ³ μ°λ €νλ λͺ©μ리λ μμ΅λλ€."
"nhndq-nllb":"μ΄ λ
Όλμ μ νμ΄ 7μΌ μ νλΈμ 곡κ°ν μ΅μ μμ΄ν¨λ νλ‘μ μ κ΄κ³ λ₯Ό λλ¬μΈκ³ λΆκ±°μ‘λ€. κ΄κ³ λ μ
κΈ°, μ‘°κ°μ, μΉ΄λ©λΌ, νμΈνΈ λ±μ΄ νλ μ€μμ μΌκΉ¨μ§κ³ κ·Έ μ리μ μμ΄ν¨λ νλ‘κ° λ±μ₯νλ λͺ¨μ΅μ 보μ¬μ€λ€. μ΄λ μλ‘μ΄ μμ΄ν¨λ νλ‘μ μΈκ³΅μ§λ₯ κΈ°λ₯κ³Ό κ³ κΈ λμ€νλ μ΄, μ±λ₯, λκ» λ±μ κ°μ‘°νλ κ²μΌλ‘ 보μΈλ€. μ νμ μλ‘ κ³΅κ°λ μμ΄ν¨λ νλ‘κ° μ΅μ 'M4' μΉ©μ μ₯μ°©νκ³ μμΌλ©° μ ν μμ¬μ κ°μ₯ μμ μ₯μΉλΌκ³ μΈκΈνλ€. AIλ‘ μΈν΄ μ¦κ°"
"our-tech":"μ΄λ² λ
Όλμ μ νμ΄ μ§λ 7μΌ μ νλΈμ 곡κ°ν μ΅μ μμ΄ν¨λ νλ‘ κ΄κ³ λ₯Ό λλ¬μΈκ³ λΆκ±°μ‘λ€. κ΄κ³ λ μ
κΈ°, μ‘°κ°μ, μΉ΄λ©λΌ, λ¬Όκ° λ±μ μμ°©κΈ°μ λ£μ΄ λΆμ΄λ²λ¦¬λ€κ° κ·Έ μ리μ μμ΄ν¨λ νλ‘κ° λ±μ₯νλ κ²μΌλ‘, μλ‘ κ³΅κ°λ μμ΄ν¨λ νλ‘κ° μ΅μ 'M4'μΉ©μ νμ¬νκ³ μ ν μ¬μ κ°μ₯ μμ κΈ°κΈ°λΌλ μ μ κ°μ‘°ν κ²μΌλ‘ 보μΈλ€. κ΄κ³ λ μΆμ μ¦μ μ°½μμλ₯Ό μμ§νλ 물건λ€μ΄ μμ°©κΈ°μ κ°κ²¨λ²λ¦¬λ μ₯λ©΄μ κ·Έλν½μΌλ‘ 보μ¬μ€, κΈ°μ μ΄ μΈκ° μ°½μμλ₯Ό μ§λ°λ κ²μΌλ‘ ν΄μλ μ μλ€λ μ§μ κ³Ό ν¨κ», AIλ‘ μΈν΄ μ°½μμλ€μ΄ μ§μλ₯Ό μμ΄κ°λ μν©μ μ°μμν¨λ€λ λΉνμ΄ μ κΈ°λλ€."
"our-general":μ΄λ² λ
Όλμ μ νμ΄ μ§λ 7μΌ μ νλΈμ 곡κ°ν μ΅μ μμ΄ν¨λ νλ‘ κ΄κ³ λ₯Ό μ€μ¬μΌλ‘ λΆκ±°μ‘λ€. κ΄κ³ λ μ
κΈ°, μ‘°κ°μ, μΉ΄λ©λΌ, λ¬Όκ° λ±μ λλ₯΄κΈ°μ μΆ©λΆν νμ κ°μ§ νλ μ€μ μ§μ΄λ£κ³ μΌκΉ¨λ λͺ¨μ΅μ 보μ¬μ€λ€. μ΄μ΄ κ·Έ μ리μ μμ΄ν¨λ νλ‘κ° λ±μ₯νλ κ²μΌλ‘, μλ‘ κ³΅κ°λ μμ΄ν¨λ νλ‘κ° μ΅μ 'M4' μΉ©μ νμ¬νκ³ μ ν μμ¬μ κ°μ₯ μμ κΈ°κΈ°λΌλ μ μ κ°μ‘°ν κ²μΌλ‘ 보μΈλ€. μ΄ κ΄κ³ λ κ³΅κ° μ§νλΆν° λ
Όλμ΄ μΌμλλ°, μ°½μμλ₯Ό μμ§νλ 물건λ€μ΄ μΌκΉ¨μ§λ μ₯λ©΄μ΄ κ·Έλλ‘ λ΄κ²¨μμ΄ κΈ°μ μ΄ μ°½μμλ₯Ό μ§λ°λλ€λ ν΄μμ΄ λμ¬ μ μλ€λ μ§μ μ΄ λμλ€. λ AIμ λ°λ € μ°½μμλ€μ΄ νμ μλ μν©μ μ°μμν¨λ€λ μ°λ €λ μ κΈ°λλ€."
"our-sharegpt":"7μΌ, Appleμ΄ YouTubeμ 곡κ°ν μ΅μ iPad Proμ μλ‘μ΄ κ΄κ³ μ κ΄λ ¨νμ¬ λ
Όλμ΄ μΌμ΄λ¬μ΅λλ€. μ΄ κ΄κ³ λ μ
κΈ°, μ‘°κ°μ, μΉ΄λ©λΌ, λ¬Όκ°μ΄ νλ μ€μμ λΆμμ§λ μ₯λ©΄μ 보μ¬μ€ ν κ·Έ μ리μ iPad Proκ° λ±μ₯ν©λλ€. μλ‘μ΄ iPad Proμ μΈκ³΅ μ§λ₯ κΈ°λ₯, κ³ κΈ λμ€νλ μ΄, μ±λ₯ λ° λκ»λ₯Ό κ°μ‘°νλ κ²μΌλ‘ 보μ
λλ€. Appleμ μλ‘ κ³΅κ°λ iPad Proκ° μ΅μ 'M4' μΉ©μ΄ νμ¬λμ΄ μμΌλ©° Apple μμ¬μ κ°μ₯ μμ κΈ°κΈ°λΌκ³ μΈκΈνμ΅λλ€. μ΄ κ΄κ³ λ ν¬λ¦¬μμ΄ν°λ₯Ό μμ§νλ λ¬Όμ²΄κ° λΆμμ§λ κ²μ κ·Έλν½μΌλ‘ λ¬μ¬νκ³ μμ΄ μΆμμ λμμ λ°λ°μ λΆλ¬μΌμΌμΌ°μ΅λλ€. λΉνκ°λ€μ μ΄ μ΄λ―Έμ§κ° κΈ°μ μ΄ μΈκ° ν¬λ¦¬μμ΄ν°λ₯Ό μ§λ°λ κ²μΌλ‘ ν΄μλ μ μλ€κ³ μ£Όμ₯ν©λλ€. λν μΌλΆμμλ ν¬λ¦¬μμ΄ν°κ° μΈκ³΅μ§λ₯μΌλ‘ μΈν΄ μ£Όλ
λ€κ³ μλ μν©μ μ°μμν¨λ€κ³ μ°λ €νλ λͺ©μ리λ μμ΅λλ€."
Evalution Result
μμ΄->νκ΅μ΄ λ²μ μ±λ₯μ νκ°νκΈ°μν λ°μ΄ν°μ μ μ μ νμ¬ νκ°λ₯Ό μ§ννμμ΅λλ€.
νκ° λ°μ΄ν°μ μΆμ²
- Aihub/FLoRes: traintogpb/aihub-flores-koen-integrated-sparta-30k | (test set 1k)
- iwslt-2023 : shreevigneshs/iwslt-2023-en-ko-train-val-split-0.1 | (f_test 597, if_test 597)
- ko_news_2024: nayohan/ko_news_eval40 | (40)
λͺ¨λΈ νκ°λ°©λ²
- κ° λͺ¨λΈμ νκΉ νμ΄μ€μ ReadMeμ μ νμλ μΆλ‘ μ½λλ₯Ό κΈ°λ°μΌλ‘ κ°κ° μΆλ‘ νμμ΅λλ€. (곡ν΅: max_new_tokens=512)
- EEVEλ λͺ λ Ήμ΄("λΉμ μ λ²μκΈ° μ λλ€. μμ΄λ₯Ό νκ΅μ΄λ‘ λ²μνμΈμ.")λ₯Ό μμ€ν ν둬ννΈμ μΆκ°νμκ³ , KULLM3λ κΈ°μ‘΄ μμ€ν ν둬ννΈλ₯Ό μ μ§νκ³ , μ μ μ μ λ ₯ 맨 μμ μΆκ°νμμ΅λλ€.
Aihub μ-ν λ²μλ°μ΄ν°μ νκ°
- Aihub νκ° λ°μ΄ν°μ
μ λͺ¨λΈλ€μ΄ νμ΅λ°μ΄ν°μ
μ ν¬ν¨λμμ μ μμ΅λλ€. μΉ΄ν
κ³ λ¦¬λ³ μ±λ₯μ νμΈνλ μ©λλ‘λ§ μ°Έκ³ ν΄μ£ΌμΈμ. [μΉ΄ν
κ³ λ¦¬ μ€λͺ
λ§ν¬]
model aihub-111 aihub-124 aihub-125 aihub-126 aihub-563 aihub-71265 aihub-71266 aihub-71382 average EEVE-10.8b-it 6.15 11.81 5.78 4.99 6.31 10.99 9.41 6.44 7.73 KULLM3 9.00 13.49 10.43 5.90 1.92 16.37 10.02 8.39 9.44 Seagull-13B 9.8 18.38 8.51 5.53 8.74 17.44 10.11 11.21 11.21 Synatra-7B 6.99 25.14 7.79 5.31 9.95 19.27 13.20 8.93 12.07 nhndq-nllb 24.09 48.71 22.89 13.98 18.71 30.18 32.49 18.62 26.20 our-tech 20.19 37.48 18.50 12.45 16.96 13.92 43.54 9.62 21.58 our-general 24.72 45.22 21.61 18.97 17.23 30.00 32.08 13.55 25.42 our-sharegpt 12.42 19.23 10.91 9.18 14.30 26.43 12.62 15.57 15.08 our-instrucTrans 24.89 47.00 22.78 21.78 24.27 27.98 31.31 15.42 26.92
FLoRes μ-ν λ²μλ°μ΄ν°μ νκ°
FloResλ νμ΄μ€λΆμμ 곡κ°ν μμ΄μ μ μ 리μμ€μ μΈμ΄ 200κ°μ λν΄μ λ³λ ¬λ‘ ꡬμ±ν λ²μ λ²€μΉλ§ν¬ λ°μ΄ν°μ μ λλ€. traintogpb/aihub-flores-koen-integrated-sparta-30kλ₯Ό νμ©νμ¬ νκ°λ₯Ό μ§ννμμ΅λλ€. (νλ¬Έμ₯ ꡬμ±)
model | flores-dev | flores-devtest | average |
---|---|---|---|
EEVE-10.8b-it | 10.99 | 11.71 | 11.35 |
KULLM3 | 12.83 | 13.23 | 13.03 |
Seagull-13B | 11.48 | 11.99 | 11.73 |
Synatra-7B | 10.98 | 10.81 | 10.89 |
nhndq-nllb | 12.79 | 15.15 | 13.97 |
our-tech | 12.14 | 12.04 | 12.09 |
our-general | 14.93 | 14.58 | 14.75 |
our-sharegpt | 14.71 | 16.69 | 15.70 |
our-instrucTrans | 14.49 | 17.69 | 16.09 |
iwslt-2023
iwslt-2023 λ°μ΄ν°μ μ λμΌν μμ΄λ¬Έμ₯μ κ°κ° λ°λ§, μ‘΄λλ§μ νκ΅μ΄λ‘ νκ°λ°μ΄ν°μ μ΄ κ΅¬μ±λμ΄ μμ΅λλ€. λͺ¨λΈμ μ‘΄λ/λ°λ§ κ²½ν₯μ μλμ μΌλ‘ νμΈν μ μμ΅λλ€. (νλ¬Έμ₯ ꡬμ±)
model | iwslt_zondae | iwslt_banmal | average |
---|---|---|---|
EEVE-10.8b-it | 4.62 | 3.79 | 4.20 |
KULLM3 | 5.94 | 5.24 | 5.59 |
Seagull-13B | 6.14 | 4.54 | 5.34 |
Synatra-7B | 5.43 | 4.73 | 5.08 |
nhndq-nllb | 8.36 | 7.44 | 7.90 |
our-tech | 3.99 | 3.95 | 3.97 |
our-general | 7.33 | 6.18 | 6.75 |
our-sharegpt | 7.83 | 6.35 | 7.09 |
our-instrucTrans | 8.63 | 6.97 | 7.80 |
ko_news_eval40
ko_news_eval40 λ°μ΄ν°μ μ νμ΅λμ§ μμμ μλ‘μ΄ λ°μ΄ν°μ μ νκ°νκ³ μ 24λ 5μ λ΄μ€λ₯Ό κ° μΉ΄ν κ³ λ¦¬(4) λ³ 10κ°μ© κΈ°μ¬ λ΄ λ¬Έλ¨ μΌλΆλ₯Ό μμ§νκ³ , GPT4λ‘ λ²μνμ¬ κ΅¬μ±νμμ΅λλ€. μμ΄λ₯Ό μΌμλ΄μ€μ μ¬μ©λλ νκ΅μ΄λ‘ μ λ²μνλμ§λ₯Ό νκ°ν©λλ€. (λ¬Έλ¨ κ΅¬μ±)
model | IT/κ³Όν | κ²½μ | μ¬ν | μ€νΌλμΈ | average |
---|---|---|---|---|---|
EEVE-10.8b-it | 9.03 | 6.42 | 5.56 | 5.10 | 6.52 |
KULLM3 | 9.82 | 5.26 | 3.48 | 7.48 | 6.51 |
Seagull-13B | 7.41 | 6.78 | 4.76 | 4.85 | 5.95 |
Synatra-7B | 11.44 | 5.59 | 4.57 | 6.31 | 6.97 |
nhndq-nllb | 11.97 | 11.12 | 6.14 | 5.28 | 8.62 |
our-tech | 10.45 | 9.98 | 5.13 | 10.15 | 8.92 |
our-general | 16.22 | 10.61 | 8.51 | 7.33 | 10.66 |
our-sharegpt | 12.71 | 8.06 | 7.70 | 6.43 | 8.72 |
our-instrucTrans | 20.42 | 12.77 | 11.40 | 10.31 | 13.72 |
Average
model | aihub | flores | iwslt | news | average |
---|---|---|---|---|---|
EEVE-10.8b-it | 7.73 | 11.35 | 4.20 | 6.52 | 7.45 |
KULLM3 | 9.44 | 13.03 | 5.59 | 6.51 | 8.64 |
Seagull-13B | 11.21 | 11.73 | 5.34 | 5.95 | 8.56 |
Synatra-7B | 12.07 | 10.89 | 5.08 | 6.97 | 8.75 |
nhndq-nllb | 26.20 | 13.97 | 7.90 | 8.62 | 14.17 |
our-tech | 21.58 | 12.09 | 3.97 | 8.92 | 11.64 |
our-general | 25.42 | 14.75 | 6.75 | 10.66 | 14.40 |
our-sharegpt | 15.08 | 15.70 | 7.09 | 8.72 | 11.64 |
our-instrucTrans | 26.92 | 16.09 | 7.80 | 13.72 | 16.13 |
Citation
@article{InstrcTrans8b,
title={llama3-instrucTrans-enko-8b},
author={Na, Yohan},
year={2024},
url={https://huggingface.co/nayohan/llama3-instrucTrans-enko-8b}
}
@article{llama3modelcard,
title={Llama 3 Model Card},
author={AI@Meta},
year={2024},
url={https://github.com/meta-llama/llama3/blob/main/MODEL_CARD.md}
}
- Downloads last month
- 87
Model tree for afrideva/llama3-instrucTrans-enko-8b-GGUF
Base model
meta-llama/Meta-Llama-3-8B-Instruct