This model is fine-tuned by DBCMLAB/Constructionsafety_QApairs based on beomi/KoAlpaca-Polyglot-12.8B.
Inference example
!pip install -U transformers
!pip install git+https://github.com/huggingface/peft
!pip install -U bitsandbytes
import torch
from transformers import pipeline, AutoModelForCausalLM, AutoTokenizer, BitsAndBytesConfig
repo_name = "DBCMLAB/KoAlpaca-Pyglot-12.8B-ConstructionSafety"
quantization_config = BitsAndBytesConfig(
load_in_8bit=True,
)
model = AutoModelForCausalLM.from_pretrained(repo_name, quantization_config=quantization_config, device_map='cuda')
tokenizer = AutoTokenizer.from_pretrained(repo_name)
pipe = pipeline(
'text-generation',
model=model,
tokenizer=tokenizer,
device_map='cuda',
)
def ask(x, context='', is_input_full=False):
ans = pipe(
f"### μ§λ¬Έ: {x}\n\n### λ§₯λ½: {context}\n\n### λ΅λ³:" if context else f"### μ§λ¬Έ: {x}\n\n### λ΅λ³:",
do_sample=True,
max_new_tokens=256,
temperature=0.3,
top_p=0.95,
return_full_text=False,
eos_token_id=2,
)
print(ans[0]['generated_text'])
ask("νλ§μ΄ κ°μμ€ κ³΅μ¬μ μ£Όμμ¬νμ 무μμΈκ°μ?")
Output
νλ§μ΄ κ°μμ€ κ³΅μ¬μ μ£Όμμ¬νμΌλ‘λ νλ§μ΄ μ§λ³΄κ³΅μ μ곡νκΈ° μ μ μ€κ³λλ©΄κ³Ό μλ°©μλ₯Ό νμΈνκ³ , μ§λ°μ 쑰건과 μμ μ±μ κ²ν ν ν κ·Έμ λ§κ² μ곡ν΄μΌ ν©λλ€. λν, κ°μμ€μ μ€μΉ λ° ν΄μ²΄ μμ
μ μμ
μ§νμλ₯Ό μ§μ νμ¬ μμ
μ§νμμ μ§μμ λ°λΌ μμ
μ μ€μνκ³ , μ§λ³΄κ³΅μ μ€μΉνλ κ²½μ°μλ λ²ν보μ λ μ₯μ λν μΆ©λΆν λ΄λ ₯μ ν보ν΄μΌ ν©λλ€. κ·Έλ¦¬κ³ νλ§μ΄ κ³΅μ¬ μ€μλ κ³μΈ‘κΈ°λ₯Ό μ€μΉνμ¬ λ³μ μΈ‘μ λ° μλ ₯ μ°μΆμ ν΅ν΄ μμ μ±μ κ²ν ν΄μΌ ν©λλ€. ν΄μ²΄ μμ
μμλ μμ μμ€μ μ€μΉνκ³ , μλΆμ μλ νμ€μ λ¨Όμ μ κ±°ν νμ μμ
μ μ€μνλ©°, λνλ°©μ§ μμ€μ μ€μΉνμ¬ μλΆ νΌν΄λ₯Ό λ°©μ§ν΄μΌ ν©λλ€. λν, μμ
μ₯μλ μ‘°λͺ
κ³Ό λ°°μμμ€μ μ€μΉνκ³ , λν μνμ΄ μλ μμ
곡ꡬμ μ©μ κΈ° λ±μ μμ νκ² κ³ μ μμΌμΌ ν©λλ€. νλ§μ΄ κ°μμ€ ν΄μ²΄ μμ
μμλ λμ± μ² μ ν μμ μ± κ²ν κ° νμν©λλ€.
- Downloads last month
- 2