Text Generation
GGUF
Japanese
mistral
mixtral
Merge
Mixture of Experts
Not-For-All-Audiences
nsfw
Inference Endpoints
LightChatAssistant-2x7B-GGUF
より日本語を自然にする調整を手作業で施したLightChatAssistant-TypeB-2x7Bを製作しました。
Sdff-Ltba/LightChatAssistant-2x7BをGGUF変換したものです。
ファイル名に_imatrix
が付いているものはiMatrixを併用して量子化しています。
※製作者は本モデルを使うときはiQ3_XXSを使用しています。
量子化手順
以下の通りに実行しました。(iMatrixを併用してiQ3_XXSにする場合)
python ./llama.cpp/convert.py ./LightChatAssistant-2x7B --outtype f16 --outfile ./gguf-model_f16.gguf
./llama.cpp/imatrix -m ./gguf-model_f16.gguf -f ./wiki.train.raw -o ./gguf-model_f16.imatrix --chunks 32
./llama.cpp/quantize --imatrix ./gguf-model_f16.imatrix ./gguf-model_f16.gguf ./LightChatAssistant-2x7B_iq3xxs.gguf iq3_xxs
環境
- CPU: Ryzen 5 5600X
- GPU: GeForce RTX 3060 12GB
- RAM: DDR4-3200 96GB
- OS: Windows 10
- software: Python 3.12.2、KoboldCpp v1.62.2
KoboldCppの設定
(デフォルトから変更したもののみ記載)
GPU Layers: 33
(33以上でフルロード)Context Size: 32768
- Downloads last month
- 432