GPUは24Gの3090で、8bitの量子化モデルを読み込もうとした処失敗してしまいました。当llm-jpは8bit量子化をサポートしてないでしょうか?
· Sign up or log in to comment