What is this?

Meta-Llama-3.1-70B-Instructのチューニング改良版、Llama-3.3-70B-InstructをGGUFフォーマットに変換したものです。

imatrix dataset

日本語能力を重視し、日本語が多量に含まれるTFMC/imatrix-dataset-for-japanese-llmデータセットを使用しました。
なお、計算リソースの関係上imatrixの算出においてはQ8_0量子化モデルを使用しました。

Chat template

<|start_header_id|>system<|end_header_id|>\n\nここにsystemプロンプトを書きます<|eot_id|><|start_header_id|>user<|end_header_id|>\n\nここにMessageを書きます<|eot_id|><|start_header_id|>assistant<|end_header_id|>\n\n

Environment

Windows(CUDA12)版llama.cpp-b4178、およびllama.cppの4286回目のcommit時のconvert_hf_to_gguf.pyを使用して量子化作業を実施しました。

License

LLAMA 3.3 COMMUNITY LICENSE

Developer

Meta

Credit

Built with Llama

Downloads last month
3,030
GGUF
Model size
70.6B params
Architecture
llama

4-bit

16-bit

Inference API
Unable to determine this model's library. Check the docs .