dahara1 commited on
Commit
67a66cc
·
1 Parent(s): 6ad4d23

Update README.md

Browse files
Files changed (1) hide show
  1. README.md +2 -2
README.md CHANGED
@@ -123,8 +123,8 @@ Using Colab, Google's free web tool, you can easily verify the performance of AL
123
  GPTQはモデルサイズを小さくする手法(量子化といいます)です。
124
  GPTQ is a technique (called quantization) that reduces model size.  
125
 
126
- ALMA-7B-Ja-V2-GPTQ-Ja-EnはGPTQを量子化したもので、モデルサイズ(3.9GB)とメモリ使用量を削減し、速度を向上しています。
127
- ALMA-7B-Ja-V2-GPTQ-Ja-En is a quantized version of GPTQ, which reduces model size (3.9 GB) and memory usage and increases speed.
128
 
129
  ただし、性能は少し落ちてしまいます。また、日本語と英語以外の言語への翻訳能力は著しく低下しているはずです。
130
  However, performance is slightly reduced. Also, the ability to translate into languages other than Japanese and English should be significantly reduced.
 
123
  GPTQはモデルサイズを小さくする手法(量子化といいます)です。
124
  GPTQ is a technique (called quantization) that reduces model size.  
125
 
126
+ [ALMA-7B-Ja-V2-GPTQ-Ja-En](https://huggingface.co/webbigdata/ALMA-7B-Ja-V2-GPTQ-Ja-En)はGPTQ量子化版で、モデルサイズ(3.9GB)とメモリ使用量を削減し、速度を向上しています。
127
+ [ALMA-7B-Ja-V2-GPTQ-Ja-En](https://huggingface.co/webbigdata/ALMA-7B-Ja-V2-GPTQ-Ja-En) is a quantized GPTQ version, which reduces model size (3.9 GB) and memory usage and increases speed.
128
 
129
  ただし、性能は少し落ちてしまいます。また、日本語と英語以外の言語への翻訳能力は著しく低下しているはずです。
130
  However, performance is slightly reduced. Also, the ability to translate into languages other than Japanese and English should be significantly reduced.