Update README.md
Browse files
README.md
CHANGED
@@ -16,7 +16,9 @@ tags:
|
|
16 |
Fast版 日本語の語彙を追加してトークンコストを減らし、1.8倍高速化したモデル
|
17 |
[mmnga/ELYZA-japanese-Llama-2-7b-fast-gguf](https://huggingface.co/mmnga/ELYZA-japanese-Llama-2-7b-fast-gguf)
|
18 |
[mmnga/ELYZA-japanese-Llama-2-7b-fast-instruct-gguf](https://huggingface.co/mmnga/ELYZA-japanese-Llama-2-7b-fast-instruct-gguf)
|
19 |
-
|
|
|
|
|
20 |
**モデルの変換コード**は[こちら](https://github.com/mmnga/llama.cpp/blob/mmnga-dev/convert-llama-hf-to-gguf_for_ex_vocab.py)
|
21 |
|
22 |
## Usage
|
|
|
16 |
Fast版 日本語の語彙を追加してトークンコストを減らし、1.8倍高速化したモデル
|
17 |
[mmnga/ELYZA-japanese-Llama-2-7b-fast-gguf](https://huggingface.co/mmnga/ELYZA-japanese-Llama-2-7b-fast-gguf)
|
18 |
[mmnga/ELYZA-japanese-Llama-2-7b-fast-instruct-gguf](https://huggingface.co/mmnga/ELYZA-japanese-Llama-2-7b-fast-instruct-gguf)
|
19 |
+
|
20 |
+
llama.cppの本家の更新で以前のfastモデルのggufが使用できなくなっています。
|
21 |
+
fastモデルのggufを更新しましたので、お手数ですが再ダウンロードをお願いします。
|
22 |
**モデルの変換コード**は[こちら](https://github.com/mmnga/llama.cpp/blob/mmnga-dev/convert-llama-hf-to-gguf_for_ex_vocab.py)
|
23 |
|
24 |
## Usage
|