How to train it with qlora?
This was the code:
from peft import prepare_model_for_kbit_training
model.gradient_checkpointing_enable()
model = prepare_model_for_kbit_training(model)
This was the error:
โญโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโ Traceback (most recent call last) โโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโฎ
โ in <cell line: 3>:3 โ
โ โ
โ /usr/local/lib/python3.10/dist-packages/transformers/modeling_utils.py:1624 in โ
โ gradient_checkpointing_enable โ
โ โ
โ 1621 โ โ activations". โ
โ 1622 โ โ """ โ
โ 1623 โ โ if not self.supports_gradient_checkpointing: โ
โ โฑ 1624 โ โ โ raise ValueError(f"{self.class.name} does not support gradient check โ
โ 1625 โ โ self.apply(partial(self._set_gradient_checkpointing, value=True)) โ
โ 1626 โ โ
โ 1627 โ def gradient_checkpointing_disable(self): โ
โฐโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโโฏ
ValueError: MPTForCausalLM does not support gradient checkpointing.