--- language: - ja --- # 本ggufモデルについて about this gguf model gemma-2-2b-itを日本語が多く含まれる重要度行列(iMatrix)を使って量子化したgguf版です。日本語対応能力が多めに保持されている事を期待しています。 This is a quantized gguf version of gemma-2-2b-it using an importance matrix (iMatrix) that contains many Japanese words. I hope it retains more Japanese support. また、最新のllama.cppに実装された投機的デコード(Speculative decoding)という新しいテクニックを使ってより大きいモデルの実行速度を上げる事ができます。 also, using latest llama.cpp and a new technique called speculative decoding, we can speed up larger models. ## windows speculative decoding command sample(ROCm compiled version) ``` set HSA_OVERRIDE_GFX_VERSION=gfx1103 && .\llama-server.exe ^ -m .\gemma-2-27B-it-Q4_K_M-fp16.gguf ^ -md .\gemma-2-2b-it-IQ3_XXS.gguf ^ -ngl 10 -ngld 10 -e --temp 0 -c 4096 ^ --draft-max 16 --draft-min 5 ``` 私のテストプロンプトの実行時間: 1576.67秒 My test prompt execution time: 1576.67 seconds ## windows normal command sample ``` .\llama-server.exe ^ -m ..\gemma\gemma-2-27B-it-Q4_K_M-fp16.gguf ^ -e --temp 0 -c 4096 ``` 私のテストプロンプトの実行時間: 4591.58秒 My test prompt execution time: 4591.58 seconds CUDAのサンプルについては[dahara1/Qwen2.5-0.5B-Instruct-gguf-japanese-imatrix-128K](https://huggingface.co/dahara1/Qwen2.5-0.5B-Instruct-gguf-japanese-imatrix-128K)をみてください See [dahara1/Qwen2.5-0.5B-Instruct-gguf-japanese-imatrix-128K](https://huggingface.co/dahara1/Qwen2.5-0.5B-Instruct-gguf-japanese-imatrix-128K) for CUDA examles. クライアントスクリプトの例は[dahara1/Qwen2.5-3B-Instruct-gguf-japanese-imatrix-128K](https://huggingface.co/dahara1/Qwen2.5-3B-Instruct-gguf-japanese-imatrix-128K)をご覧ください See [dahara1/Qwen2.5-3B-Instruct-gguf-japanese-imatrix-128K](https://huggingface.co/dahara1/Qwen2.5-3B-Instruct-gguf-japanese-imatrix-128K) for cliant example. コマンドの詳細は[llama.cppの公式ページ](https://github.com/ggerganov/llama.cpp/pull/10455)をご覧ください For more command information, see the official [llama.cpp page](https://github.com/ggerganov/llama.cpp/pull/10455).