Update README.md
Browse files
README.md
CHANGED
@@ -9,6 +9,7 @@ tags:
|
|
9 |
[ELYZAさんが公開しているELYZA-japanese-Llama-2-7b-fast](https://huggingface.co/ELYZA/ELYZA-japanese-Llama-2-7b-fast)のggufフォーマット変換版です。
|
10 |
|
11 |
他のモデルはこちら
|
|
|
12 |
通常版: llama2に日本語のデータセットで学習したモデル
|
13 |
[mmnga/ELYZA-japanese-Llama-2-7b-gguf](https://huggingface.co/mmnga/ELYZA-japanese-Llama-2-7b-gguf)
|
14 |
[mmnga/ELYZA-japanese-Llama-2-7b-instruct-gguf](https://huggingface.co/mmnga/ELYZA-japanese-Llama-2-7b-instruct-gguf)
|
@@ -16,6 +17,13 @@ tags:
|
|
16 |
Fast版 日本語の語彙を追加してトークンコストを減らし、1.8倍高速化したモデル
|
17 |
[mmnga/ELYZA-japanese-Llama-2-7b-fast-gguf](https://huggingface.co/mmnga/ELYZA-japanese-Llama-2-7b-fast-gguf)
|
18 |
[mmnga/ELYZA-japanese-Llama-2-7b-fast-instruct-gguf](https://huggingface.co/mmnga/ELYZA-japanese-Llama-2-7b-fast-instruct-gguf)
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
19 |
|
20 |
llama.cppの本家の更新で2023-10-23前のfastモデルのggufが使用できなくなっています。
|
21 |
fastモデルのggufを更新しましたので、お手数ですが再ダウンロードをお願いします。
|
|
|
9 |
[ELYZAさんが公開しているELYZA-japanese-Llama-2-7b-fast](https://huggingface.co/ELYZA/ELYZA-japanese-Llama-2-7b-fast)のggufフォーマット変換版です。
|
10 |
|
11 |
他のモデルはこちら
|
12 |
+
|
13 |
通常版: llama2に日本語のデータセットで学習したモデル
|
14 |
[mmnga/ELYZA-japanese-Llama-2-7b-gguf](https://huggingface.co/mmnga/ELYZA-japanese-Llama-2-7b-gguf)
|
15 |
[mmnga/ELYZA-japanese-Llama-2-7b-instruct-gguf](https://huggingface.co/mmnga/ELYZA-japanese-Llama-2-7b-instruct-gguf)
|
|
|
17 |
Fast版 日本語の語彙を追加してトークンコストを減らし、1.8倍高速化したモデル
|
18 |
[mmnga/ELYZA-japanese-Llama-2-7b-fast-gguf](https://huggingface.co/mmnga/ELYZA-japanese-Llama-2-7b-fast-gguf)
|
19 |
[mmnga/ELYZA-japanese-Llama-2-7b-fast-instruct-gguf](https://huggingface.co/mmnga/ELYZA-japanese-Llama-2-7b-fast-instruct-gguf)
|
20 |
+
|
21 |
+
Codellama版 GGUF
|
22 |
+
[mmnga/ELYZA-japanese-CodeLlama-7b-gguf](https://huggingface.co/mmnga/ELYZA-japanese-CodeLlama-7b-gguf)
|
23 |
+
[mmnga/ELYZA-japanese-CodeLlama-7b-instruct-gguf](https://huggingface.co/mmnga/ELYZA-japanese-CodeLlama-7b-instruct-gguf)
|
24 |
+
|
25 |
+
Codellama版 GPTQ
|
26 |
+
[mmnga/ELYZA-japanese-CodeLlama-7b-instruct-GPTQ-calib-ja-1k](https://huggingface.co/mmnga/ELYZA-japanese-CodeLlama-7b-instruct-GPTQ-calib-ja-1k)
|
27 |
|
28 |
llama.cppの本家の更新で2023-10-23前のfastモデルのggufが使用できなくなっています。
|
29 |
fastモデルのggufを更新しましたので、お手数ですが再ダウンロードをお願いします。
|