Steamout commited on
Commit
af8f530
·
verified ·
1 Parent(s): d94b26d

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +8 -49
README.md CHANGED
@@ -39,58 +39,17 @@ This is the model card of a 🤗 transformers model that has been pushed on the
39
 
40
  ## How to use
41
 
42
- This repo provides full model weight files for AkaLlama-70B-v0.1.
43
 
44
- # Use with transformers
45
 
46
- See the snippet below for usage with Transformers:
 
 
47
 
48
- ```python
49
- import transformers
50
- import torch
51
-
52
- model_id = "mirlab/AkaLlama-llama3-70b-v0.1-GGUF"
53
-
54
- pipeline = transformers.pipeline(
55
- "text-generation",
56
- model=model_id,
57
- model_kwargs={"torch_dtype": torch.bfloat16},
58
- device="auto",
59
- )
60
-
61
- system_prompt = """당신은 연세대학교 멀티모달 연구실 (MIR lab) 이 만든 대규모 언어 모델인 AkaLlama (아카라마) 입니다.
62
- 다음 지침을 따르세요:
63
- 1. 사용자가 별도로 요청하지 않는 한 항상 한글로 소통하세요.
64
- 2. 유해하거나 비윤리적, 차별적, 위험하거나 불법적인 내용이 답변에 포함되어서는 안 됩니다.
65
- 3. 질문이 말이 되지 않거나 사실에 부합하지 않는 경우 정답 대신 그 이유를 설명하세요. 질문에 대한 답을 모른다면 거짓 정보를 공유하지 마세요.
66
- 4. 안전이나 윤리에 위배되지 않는 한 사용자의 모든 질문에 완전하고 포괄적으로 답변하세요."""
67
-
68
- messages = [
69
- {"role": "system", "content": system_prompt},
70
- {"role": "user", "content": "네 이름은 뭐야?"},
71
- ]
72
-
73
- prompt = pipeline.tokenizer.apply_chat_template(
74
- messages,
75
- tokenize=False,
76
- add_generation_prompt=True
77
- )
78
-
79
- terminators = [
80
- pipeline.tokenizer.eos_token_id,
81
- pipeline.tokenizer.convert_tokens_to_ids("<|eot_id|>")
82
- ]
83
-
84
- outputs = pipeline(
85
- prompt,
86
- max_new_tokens=256,
87
- eos_token_id=terminators,
88
- do_sample=True,
89
- temperature=0.6,
90
- top_p=0.9,
91
- )
92
- print(outputs[0]["generated_text"][len(prompt):])
93
- # 내 이름은 AkaLlama입니다! 나는 언어 모델로, 사용자와 대화하는 데 도움을 주기 위해 만들어졌습니다. 나는 다양한 주제에 대한 질문에 답하고, 새로운 아이디어를 제공하며, 문제를 해결하는 데 도움이 될 수 있습니다. 사용자가 원하는 정보나 도움을 받도록 최선을 다할 것입니다!
94
  ```
95
 
96
  ## Evaluation
 
39
 
40
  ## How to use
41
 
42
+ This repo provides quantized model weight files for AkaLlama-70B-v0.1.
43
 
44
+ ### Chat by `ollama`
45
 
46
+ ```bash
47
+ #download model weight
48
+ wget https://huggingface.co/mirlab/AkaLlama-llama3-70b-v0.1-GGUF/resolve/main/smthing.gguf
49
 
50
+ # run ollama
51
+ ollama create
52
+ ollama run llava-llama3-f16 "네 이름은 뭐야?"
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
53
  ```
54
 
55
  ## Evaluation