File size: 1,162 Bytes
2abc8c3
 
 
 
702dc85
 
 
 
 
e3799d5
 
2abc8c3
702dc85
 
 
 
 
 
76b5c7e
 
 
 
 
 
 
702dc85
 
 
 
 
 
 
e3799d5
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
---
license: other
license_name: llama3
license_link: https://huggingface.co/meta-llama/Meta-Llama-3-8B/blob/main/LICENSE
language:
- en
- ja
tags:
- llama3
datasets:
- TFMC/imatrix-dataset-for-japanese-llm
---
# Meta-Llama-3-70B-Instruct-gguf 
[meta-llamaさんが公開しているMeta-Llama-3-70B-Instruct](https://huggingface.co/meta-llama/Meta-Llama-3-70B-Instruct)のggufフォーマット変換版です。

eot_id対応してます。 
imatrixのデータは[TFMC/imatrix-dataset-for-japanese-llm](https://huggingface.co/datasets/TFMC/imatrix-dataset-for-japanese-llm)を使用して作成しました。  

## 分割されたファイルについて
q6_kやq8_0のファイルはサイズが大きく分割されているので結合する必要があります。  

~~~bash
cat Meta-Llama-3-70B-Instruct-Q5_K_M.gguf.* > Meta-Llama-3-70B-Instruct-Q5_K_M.gguf
~~~

## Usage

```
git clone https://github.com/ggerganov/llama.cpp.git
cd llama.cpp
make -j
./main -m 'Meta-Llama-3-70B-Instruct-Q4_0.gguf' -p "<|begin_of_text|><|start_header_id|>user <|end_header_id|>\n\nこんにちわ<|eot_id|><|start_header_id|>assistant <|end_header_id|>\n\n" -n 128
```