Update README.md
Browse files
README.md
CHANGED
@@ -123,8 +123,8 @@ Using Colab, Google's free web tool, you can easily verify the performance of AL
|
|
123 |
GPTQはモデルサイズを小さくする手法(量子化といいます)です。
|
124 |
GPTQ is a technique (called quantization) that reduces model size.
|
125 |
|
126 |
-
ALMA-7B-Ja-V2-GPTQ-Ja-EnはGPTQ
|
127 |
-
ALMA-7B-Ja-V2-GPTQ-Ja-En is a quantized version
|
128 |
|
129 |
ただし、性能は少し落ちてしまいます。また、日本語と英語以外の言語への翻訳能力は著しく低下しているはずです。
|
130 |
However, performance is slightly reduced. Also, the ability to translate into languages other than Japanese and English should be significantly reduced.
|
|
|
123 |
GPTQはモデルサイズを小さくする手法(量子化といいます)です。
|
124 |
GPTQ is a technique (called quantization) that reduces model size.
|
125 |
|
126 |
+
[ALMA-7B-Ja-V2-GPTQ-Ja-En](https://huggingface.co/webbigdata/ALMA-7B-Ja-V2-GPTQ-Ja-En)はGPTQ量子化版で、モデルサイズ(3.9GB)とメモリ使用量を削減し、速度を向上しています。
|
127 |
+
[ALMA-7B-Ja-V2-GPTQ-Ja-En](https://huggingface.co/webbigdata/ALMA-7B-Ja-V2-GPTQ-Ja-En) is a quantized GPTQ version, which reduces model size (3.9 GB) and memory usage and increases speed.
|
128 |
|
129 |
ただし、性能は少し落ちてしまいます。また、日本語と英語以外の言語への翻訳能力は著しく低下しているはずです。
|
130 |
However, performance is slightly reduced. Also, the ability to translate into languages other than Japanese and English should be significantly reduced.
|