Prompt 문의
#4
by
goreng2
- opened
Chat 버전으로 Finetune 하실 때, Prompt format을 어떻게 하셨는지 궁금합니다.
KuLLM의 포맷을 사용하였습니다
Prompt template라고 표현하는게 더 맞는 것 같습니다.
Llama2-chat 모델의 경우, 아래와 같은 서식을 사용하는 것으로 알고 있습니다. (https://gpus.llm-utils.org/llama-2-prompt-template/)
<s>[INST] <<SYS>>
{your_system_message}
<</SYS>>
{user_message_1} [/INST]
KuLLM의 포맷을 사용하셨다는 말은 위 서식의 {your_system_message}
에 Instruction 열 내용을, {user_message_1}
에 Input 열 내용을 대입하셨다는 말씀이실까요?
{
"description": "Alpaca-LoRA에서 사용하는 템플릿입니다.",
"prompt_input": "아래는 작업을 설명하는 명령어와 추가 컨텍스트를 제공하는 입력이 짝을 이루는 예제입니다. 요청을 적절히 완료하는 응답을 작성하세요.\n\n### 명령어:\n{instruction}\n\n### 입력:\n{input}\n\n### 응답:\n",
"prompt_no_input": "아래는 작업을 설명하는 명령어입니다. 요청을 적절히 완료하는 응답을 작성하세요.\n\n### 명령어:\n{instruction}\n\n### 응답:\n",
"response_split": "### 응답:"
}
이런식입니다.
감사합니다!
goreng2
changed discussion status to
closed