tokyotech-llm-Swallow-7b-plus-hf-gguf

tokyotech-llmさんが公開しているSwallow-7b-plus-hfのggufフォーマット変換版です。 こちらはベースモデルになります。

他のモデル

mmnga/tokyotech-llm-Swallow-7b-plus-hf-gguf
mmnga/tokyotech-llm-Swallow-MS-7b-v0.1-gguf
mmnga/tokyotech-llm-Swallow-MX-8x7b-NVE-v0.1-gguf

Usage

git clone https://github.com/ggerganov/llama.cpp.git
cd llama.cpp
make -j
./main -m 'tokyotech-llm-Swallow-7b-plus-hf-q4_0.gguf' -p "今晩の夕食をご紹介します。" -n 512

ライセンス

元モデルのライセンス表記に則り、llama2ライセンスになります

Downloads last month
143
GGUF
Model size
6.83B params
Architecture
llama

2-bit

3-bit

4-bit

5-bit

6-bit

8-bit

Inference API
Unable to determine this model's library. Check the docs .