8bit量子化の問題

#1
by yz23 - opened
LLM-jp org

GPUは24Gの3090で、8bitの量子化モデルを読み込もうとした処失敗してしまいました。当llm-jpは8bit量子化をサポートしてないでしょうか?

yz23 changed discussion status to closed

Sign up or log in to comment