webui / docs /What Works.md
hadidev's picture
Upload folder using huggingface_hub
72db4a9 verified
|
raw
history blame
1.96 kB

What Works

Loader Loading 1 LoRA Loading 2 or more LoRAs Training LoRAs Multimodal extension Perplexity evaluation
Transformers โœ… โœ…*** โœ…* โœ… โœ…
ExLlamav2_HF โœ… โœ… โŒ โŒ โœ…
ExLlamav2 โœ… โœ… โŒ โŒ use ExLlamav2_HF
AutoGPTQ โœ… โŒ โŒ โœ… โœ…
GPTQ-for-LLaMa โœ…** โœ…*** โœ… โœ… โœ…
llama.cpp โŒ โŒ โŒ โŒ use llamacpp_HF
llamacpp_HF โŒ โŒ โŒ โŒ โœ…
ctransformers โŒ โŒ โŒ โŒ โŒ
AutoAWQ ? โŒ ? ? โœ…

โŒ = not implemented

โœ… = implemented

* Training LoRAs with GPTQ models also works with the Transformers loader. Make sure to check "auto-devices" and "disable_exllama" before loading the model.

** Requires the monkey-patch. The instructions can be found here.

*** Multi-LoRA in PEFT is tricky and the current implementation does not work reliably in all cases.