diff --git "a/best_checkpoint/adapter_config.json" "b/best_checkpoint/adapter_config.json" new file mode 100644--- /dev/null +++ "b/best_checkpoint/adapter_config.json" @@ -0,0 +1,7207 @@ +{ + "auto_mapping": { + "base_model_class": "WhisperForConditionalGeneration", + "parent_library": "transformers.models.whisper.modeling_whisper" + }, + "base_model_name_or_path": "openai/whisper-large-v2", + "beta1": 0.85, + "beta2": 0.85, + "bias": "none", + "deltaT": 10, + "fan_in_fan_out": false, + "inference_mode": true, + "init_lora_weights": true, + "init_r": 12, + "layers_pattern": null, + "layers_to_transform": null, + "lora_alpha": 32, + "lora_dropout": 0.1, + "modules_to_save": null, + "orth_reg_weight": 0.5, + "peft_type": "ADALORA", + "r": 8, + "rank_pattern": { + "model.decoder.layers.0.encoder_attn.k_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.0.encoder_attn.out_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + false, + false, + true, + true, + true + ], + "model.decoder.layers.0.encoder_attn.q_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.0.encoder_attn.v_proj.lora_E": [ + true, + true, + false, + true, + true, + true, + false, + true, + true, + true, + true, + true + ], + "model.decoder.layers.0.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.0.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.0.self_attn.k_proj.lora_E": [ + false, + true, + false, + false, + true, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.0.self_attn.out_proj.lora_E": [ + false, + true, + false, + false, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.0.self_attn.q_proj.lora_E": [ + true, + false, + false, + true, + true, + false, + true, + false, + false, + false, + false, + false + ], + "model.decoder.layers.0.self_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + false, + true, + true, + true, + true, + true + ], + "model.decoder.layers.1.encoder_attn.k_proj.lora_E": [ + false, + false, + true, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.1.encoder_attn.out_proj.lora_E": [ + false, + false, + true, + false, + false, + true, + true, + true, + false, + true, + false, + true + ], + "model.decoder.layers.1.encoder_attn.q_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.1.encoder_attn.v_proj.lora_E": [ + false, + true, + false, + true, + true, + false, + true, + false, + false, + false, + true, + false + ], + "model.decoder.layers.1.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.1.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.1.self_attn.k_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.1.self_attn.out_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + false, + true + ], + "model.decoder.layers.1.self_attn.q_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + true, + false, + false, + false + ], + "model.decoder.layers.1.self_attn.v_proj.lora_E": [ + true, + true, + false, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.10.encoder_attn.k_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.10.encoder_attn.out_proj.lora_E": [ + true, + true, + false, + true, + true, + false, + false, + true, + false, + true, + true, + true + ], + "model.decoder.layers.10.encoder_attn.q_proj.lora_E": [ + false, + false, + false, + false, + false, + true, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.10.encoder_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + false, + false, + true, + true, + true + ], + "model.decoder.layers.10.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.10.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.10.self_attn.k_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + true, + false, + false, + false, + true + ], + "model.decoder.layers.10.self_attn.out_proj.lora_E": [ + true, + true, + true, + false, + true, + true, + true, + true, + false, + true, + true, + true + ], + "model.decoder.layers.10.self_attn.q_proj.lora_E": [ + false, + false, + false, + false, + true, + false, + false, + true, + false, + false, + false, + false + ], + "model.decoder.layers.10.self_attn.v_proj.lora_E": [ + false, + true, + true, + true, + true, + false, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.11.encoder_attn.k_proj.lora_E": [ + false, + false, + false, + false, + true, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.11.encoder_attn.out_proj.lora_E": [ + true, + true, + true, + true, + false, + false, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.11.encoder_attn.q_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.11.encoder_attn.v_proj.lora_E": [ + true, + true, + true, + false, + false, + true, + true, + false, + true, + true, + true, + true + ], + "model.decoder.layers.11.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.11.fc2.lora_E": [ + true, + true, + false, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.11.self_attn.k_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.11.self_attn.out_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.11.self_attn.q_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.11.self_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + false, + true, + true, + true, + true + ], + "model.decoder.layers.12.encoder_attn.k_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.12.encoder_attn.out_proj.lora_E": [ + true, + true, + true, + false, + true, + true, + true, + true, + true, + true, + true, + false + ], + "model.decoder.layers.12.encoder_attn.q_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.12.encoder_attn.v_proj.lora_E": [ + true, + false, + false, + false, + true, + true, + false, + true, + false, + false, + true, + false + ], + "model.decoder.layers.12.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.12.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.12.self_attn.k_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + true, + false, + false, + true, + true, + false + ], + "model.decoder.layers.12.self_attn.out_proj.lora_E": [ + true, + true, + true, + true, + false, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.12.self_attn.q_proj.lora_E": [ + false, + true, + true, + false, + true, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.12.self_attn.v_proj.lora_E": [ + true, + false, + true, + true, + false, + false, + true, + false, + false, + true, + false, + false + ], + "model.decoder.layers.13.encoder_attn.k_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.13.encoder_attn.out_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.13.encoder_attn.q_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.13.encoder_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.13.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.13.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.13.self_attn.k_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + false, + false, + true + ], + "model.decoder.layers.13.self_attn.out_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.13.self_attn.q_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + true, + false, + true, + false, + false, + false + ], + "model.decoder.layers.13.self_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + false, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.14.encoder_attn.k_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.14.encoder_attn.out_proj.lora_E": [ + false, + true, + true, + true, + false, + false, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.14.encoder_attn.q_proj.lora_E": [ + false, + false, + false, + false, + true, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.14.encoder_attn.v_proj.lora_E": [ + false, + true, + true, + true, + false, + false, + true, + false, + true, + true, + true, + true + ], + "model.decoder.layers.14.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.14.fc2.lora_E": [ + true, + false, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.14.self_attn.k_proj.lora_E": [ + false, + false, + false, + true, + true, + true, + false, + false, + false, + true, + false, + false + ], + "model.decoder.layers.14.self_attn.out_proj.lora_E": [ + true, + true, + true, + false, + true, + true, + false, + true, + true, + true, + true, + true + ], + "model.decoder.layers.14.self_attn.q_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + true, + false + ], + "model.decoder.layers.14.self_attn.v_proj.lora_E": [ + false, + true, + false, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.15.encoder_attn.k_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + true + ], + "model.decoder.layers.15.encoder_attn.out_proj.lora_E": [ + true, + true, + true, + true, + true, + false, + true, + true, + true, + false, + true, + true + ], + "model.decoder.layers.15.encoder_attn.q_proj.lora_E": [ + false, + false, + true, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.15.encoder_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + false, + true + ], + "model.decoder.layers.15.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.15.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.15.self_attn.k_proj.lora_E": [ + false, + false, + false, + true, + true, + false, + false, + false, + false, + false, + false, + true + ], + "model.decoder.layers.15.self_attn.out_proj.lora_E": [ + false, + false, + true, + false, + true, + false, + true, + false, + false, + true, + true, + true + ], + "model.decoder.layers.15.self_attn.q_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + true, + false, + false, + false, + false + ], + "model.decoder.layers.15.self_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + false, + true, + true, + false + ], + "model.decoder.layers.16.encoder_attn.k_proj.lora_E": [ + true, + false, + false, + false, + false, + true, + false, + false, + true, + false, + false, + false + ], + "model.decoder.layers.16.encoder_attn.out_proj.lora_E": [ + true, + false, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.16.encoder_attn.q_proj.lora_E": [ + true, + false, + false, + false, + false, + true, + true, + true, + false, + true, + false, + true + ], + "model.decoder.layers.16.encoder_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + false, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.16.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.16.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + false, + true, + true, + true, + true, + true + ], + "model.decoder.layers.16.self_attn.k_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + true, + true, + false, + false, + true, + false + ], + "model.decoder.layers.16.self_attn.out_proj.lora_E": [ + true, + false, + true, + true, + true, + false, + false, + true, + true, + false, + true, + true + ], + "model.decoder.layers.16.self_attn.q_proj.lora_E": [ + false, + true, + false, + false, + false, + false, + true, + false, + false, + true, + true, + false + ], + "model.decoder.layers.16.self_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.17.encoder_attn.k_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.17.encoder_attn.out_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + false, + true + ], + "model.decoder.layers.17.encoder_attn.q_proj.lora_E": [ + false, + true, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.17.encoder_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.17.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.17.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + false + ], + "model.decoder.layers.17.self_attn.k_proj.lora_E": [ + false, + false, + true, + false, + false, + false, + false, + false, + false, + false, + true, + false + ], + "model.decoder.layers.17.self_attn.out_proj.lora_E": [ + false, + true, + true, + true, + true, + true, + true, + false, + true, + true, + true, + true + ], + "model.decoder.layers.17.self_attn.q_proj.lora_E": [ + false, + true, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.17.self_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.18.encoder_attn.k_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.18.encoder_attn.out_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + false + ], + "model.decoder.layers.18.encoder_attn.q_proj.lora_E": [ + true, + false, + false, + false, + true, + false, + true, + false, + false, + false, + true, + true + ], + "model.decoder.layers.18.encoder_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.18.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.18.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.18.self_attn.k_proj.lora_E": [ + true, + true, + true, + true, + false, + true, + true, + false, + true, + false, + false, + false + ], + "model.decoder.layers.18.self_attn.out_proj.lora_E": [ + true, + false, + false, + false, + true, + true, + true, + false, + true, + false, + true, + true + ], + "model.decoder.layers.18.self_attn.q_proj.lora_E": [ + false, + false, + false, + true, + false, + false, + false, + false, + false, + false, + true, + false + ], + "model.decoder.layers.18.self_attn.v_proj.lora_E": [ + true, + true, + true, + false, + true, + true, + true, + false, + false, + false, + false, + true + ], + "model.decoder.layers.19.encoder_attn.k_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.19.encoder_attn.out_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.19.encoder_attn.q_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.19.encoder_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + false, + true, + true, + true + ], + "model.decoder.layers.19.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.19.fc2.lora_E": [ + true, + true, + true, + false, + true, + true, + true, + true, + true, + true, + true, + false + ], + "model.decoder.layers.19.self_attn.k_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.19.self_attn.out_proj.lora_E": [ + false, + false, + true, + false, + true, + false, + false, + true, + true, + false, + true, + false + ], + "model.decoder.layers.19.self_attn.q_proj.lora_E": [ + false, + false, + true, + false, + false, + false, + true, + false, + false, + false, + true, + false + ], + "model.decoder.layers.19.self_attn.v_proj.lora_E": [ + false, + true, + true, + true, + true, + true, + true, + false, + true, + true, + true, + true + ], + "model.decoder.layers.2.encoder_attn.k_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + true, + false + ], + "model.decoder.layers.2.encoder_attn.out_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + false, + true, + true + ], + "model.decoder.layers.2.encoder_attn.q_proj.lora_E": [ + true, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.2.encoder_attn.v_proj.lora_E": [ + false, + true, + false, + true, + true, + true, + true, + false, + true, + true, + true, + false + ], + "model.decoder.layers.2.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.2.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.2.self_attn.k_proj.lora_E": [ + false, + false, + true, + false, + false, + false, + false, + false, + false, + false, + true, + false + ], + "model.decoder.layers.2.self_attn.out_proj.lora_E": [ + false, + true, + true, + true, + true, + true, + true, + true, + false, + true, + false, + true + ], + "model.decoder.layers.2.self_attn.q_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.2.self_attn.v_proj.lora_E": [ + true, + false, + true, + true, + true, + false, + false, + false, + false, + true, + true, + false + ], + "model.decoder.layers.20.encoder_attn.k_proj.lora_E": [ + false, + false, + false, + false, + true, + false, + false, + false, + true, + false, + false, + false + ], + "model.decoder.layers.20.encoder_attn.out_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.20.encoder_attn.q_proj.lora_E": [ + false, + false, + false, + false, + true, + true, + false, + false, + false, + true, + true, + true + ], + "model.decoder.layers.20.encoder_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + false + ], + "model.decoder.layers.20.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.20.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.20.self_attn.k_proj.lora_E": [ + true, + true, + false, + true, + true, + false, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.20.self_attn.out_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + false, + true + ], + "model.decoder.layers.20.self_attn.q_proj.lora_E": [ + true, + true, + true, + false, + true, + false, + false, + false, + true, + true, + true, + true + ], + "model.decoder.layers.20.self_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + false, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.21.encoder_attn.k_proj.lora_E": [ + true, + false, + false, + false, + true, + false, + false, + true, + false, + false, + false, + false + ], + "model.decoder.layers.21.encoder_attn.out_proj.lora_E": [ + true, + true, + true, + true, + false, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.21.encoder_attn.q_proj.lora_E": [ + false, + true, + false, + false, + false, + true, + false, + true, + false, + true, + false, + true + ], + "model.decoder.layers.21.encoder_attn.v_proj.lora_E": [ + true, + true, + true, + true, + false, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.21.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.21.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.21.self_attn.k_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + false, + true, + true, + true, + true, + true + ], + "model.decoder.layers.21.self_attn.out_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.21.self_attn.q_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + false, + true, + true, + true + ], + "model.decoder.layers.21.self_attn.v_proj.lora_E": [ + false, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.22.encoder_attn.k_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.22.encoder_attn.out_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.22.encoder_attn.q_proj.lora_E": [ + false, + false, + false, + true, + true, + false, + false, + false, + false, + true, + true, + true + ], + "model.decoder.layers.22.encoder_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.22.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.22.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.22.self_attn.k_proj.lora_E": [ + true, + false, + true, + true, + false, + true, + true, + true, + true, + true, + false, + true + ], + "model.decoder.layers.22.self_attn.out_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.22.self_attn.q_proj.lora_E": [ + true, + false, + false, + false, + false, + true, + false, + false, + false, + true, + false, + true + ], + "model.decoder.layers.22.self_attn.v_proj.lora_E": [ + true, + true, + true, + false, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.23.encoder_attn.k_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.23.encoder_attn.out_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.23.encoder_attn.q_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + false, + true, + true, + true, + true + ], + "model.decoder.layers.23.encoder_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.23.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.23.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + false, + true, + true + ], + "model.decoder.layers.23.self_attn.k_proj.lora_E": [ + true, + true, + true, + true, + true, + false, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.23.self_attn.out_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.23.self_attn.q_proj.lora_E": [ + true, + false, + false, + true, + true, + true, + true, + false, + false, + true, + true, + true + ], + "model.decoder.layers.23.self_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + false, + true, + true, + true, + true, + true + ], + "model.decoder.layers.24.encoder_attn.k_proj.lora_E": [ + true, + true, + true, + true, + false, + true, + true, + true, + false, + true, + false, + false + ], + "model.decoder.layers.24.encoder_attn.out_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.24.encoder_attn.q_proj.lora_E": [ + true, + true, + true, + false, + true, + true, + true, + true, + true, + false, + true, + true + ], + "model.decoder.layers.24.encoder_attn.v_proj.lora_E": [ + true, + false, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.24.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.24.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.24.self_attn.k_proj.lora_E": [ + true, + true, + true, + false, + true, + false, + true, + true, + true, + true, + true, + false + ], + "model.decoder.layers.24.self_attn.out_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.24.self_attn.q_proj.lora_E": [ + true, + true, + false, + true, + true, + false, + false, + true, + true, + true, + true, + true + ], + "model.decoder.layers.24.self_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.25.encoder_attn.k_proj.lora_E": [ + false, + false, + false, + false, + false, + true, + false, + false, + true, + true, + false, + false + ], + "model.decoder.layers.25.encoder_attn.out_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.25.encoder_attn.q_proj.lora_E": [ + true, + false, + true, + true, + false, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.25.encoder_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.25.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.25.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.25.self_attn.k_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.25.self_attn.out_proj.lora_E": [ + true, + true, + true, + false, + false, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.25.self_attn.q_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + false + ], + "model.decoder.layers.25.self_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.26.encoder_attn.k_proj.lora_E": [ + false, + false, + true, + false, + true, + false, + false, + false, + false, + true, + true, + false + ], + "model.decoder.layers.26.encoder_attn.out_proj.lora_E": [ + true, + true, + true, + false, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.26.encoder_attn.q_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + true, + true, + true, + false, + false, + false + ], + "model.decoder.layers.26.encoder_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.26.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.26.fc2.lora_E": [ + true, + true, + true, + true, + true, + false, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.26.self_attn.k_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.26.self_attn.out_proj.lora_E": [ + true, + false, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.26.self_attn.q_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + false, + true + ], + "model.decoder.layers.26.self_attn.v_proj.lora_E": [ + true, + false, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.27.encoder_attn.k_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.27.encoder_attn.out_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.27.encoder_attn.q_proj.lora_E": [ + true, + false, + true, + false, + false, + false, + false, + false, + true, + false, + true, + true + ], + "model.decoder.layers.27.encoder_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.27.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.27.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.27.self_attn.k_proj.lora_E": [ + true, + true, + true, + true, + true, + false, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.27.self_attn.out_proj.lora_E": [ + false, + true, + true, + true, + true, + true, + true, + false, + false, + true, + true, + true + ], + "model.decoder.layers.27.self_attn.q_proj.lora_E": [ + false, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + false + ], + "model.decoder.layers.27.self_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + false, + true, + true + ], + "model.decoder.layers.28.encoder_attn.k_proj.lora_E": [ + true, + false, + true, + true, + true, + true, + false, + true, + true, + true, + false, + true + ], + "model.decoder.layers.28.encoder_attn.out_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.28.encoder_attn.q_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.28.encoder_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.28.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.28.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.28.self_attn.k_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + false, + true, + true, + true + ], + "model.decoder.layers.28.self_attn.out_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + false, + true, + true, + false, + true, + true + ], + "model.decoder.layers.28.self_attn.q_proj.lora_E": [ + true, + true, + true, + true, + false, + true, + true, + false, + false, + true, + true, + true + ], + "model.decoder.layers.28.self_attn.v_proj.lora_E": [ + true, + false, + false, + true, + true, + true, + true, + false, + true, + false, + true, + true + ], + "model.decoder.layers.29.encoder_attn.k_proj.lora_E": [ + false, + true, + false, + true, + false, + false, + true, + false, + true, + false, + true, + true + ], + "model.decoder.layers.29.encoder_attn.out_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.29.encoder_attn.q_proj.lora_E": [ + true, + true, + false, + false, + true, + true, + true, + false, + false, + true, + false, + true + ], + "model.decoder.layers.29.encoder_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.29.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.29.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.29.self_attn.k_proj.lora_E": [ + true, + true, + true, + true, + false, + true, + true, + false, + true, + true, + true, + true + ], + "model.decoder.layers.29.self_attn.out_proj.lora_E": [ + false, + true, + true, + true, + false, + true, + true, + true, + true, + true, + false, + true + ], + "model.decoder.layers.29.self_attn.q_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.29.self_attn.v_proj.lora_E": [ + true, + false, + true, + true, + false, + false, + true, + true, + false, + true, + true, + true + ], + "model.decoder.layers.3.encoder_attn.k_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.3.encoder_attn.out_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.3.encoder_attn.q_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.3.encoder_attn.v_proj.lora_E": [ + true, + true, + true, + false, + true, + true, + false, + false, + true, + true, + true, + true + ], + "model.decoder.layers.3.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.3.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + false, + true, + true, + true, + true, + true + ], + "model.decoder.layers.3.self_attn.k_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.3.self_attn.out_proj.lora_E": [ + true, + true, + false, + true, + true, + true, + true, + true, + false, + true, + true, + true + ], + "model.decoder.layers.3.self_attn.q_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.3.self_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + false, + true + ], + "model.decoder.layers.30.encoder_attn.k_proj.lora_E": [ + true, + false, + true, + true, + true, + false, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.30.encoder_attn.out_proj.lora_E": [ + true, + true, + true, + true, + true, + false, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.30.encoder_attn.q_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + false, + true, + true + ], + "model.decoder.layers.30.encoder_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.30.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.30.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.30.self_attn.k_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + false, + true, + true + ], + "model.decoder.layers.30.self_attn.out_proj.lora_E": [ + true, + true, + true, + false, + true, + true, + false, + false, + true, + true, + true, + false + ], + "model.decoder.layers.30.self_attn.q_proj.lora_E": [ + true, + true, + false, + false, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.30.self_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + false, + false, + true, + true, + true, + true, + true + ], + "model.decoder.layers.31.encoder_attn.k_proj.lora_E": [ + false, + false, + false, + true, + false, + true, + true, + true, + false, + false, + false, + false + ], + "model.decoder.layers.31.encoder_attn.out_proj.lora_E": [ + true, + true, + true, + true, + false, + true, + true, + false, + true, + true, + true, + true + ], + "model.decoder.layers.31.encoder_attn.q_proj.lora_E": [ + true, + true, + false, + false, + false, + true, + false, + false, + true, + false, + false, + false + ], + "model.decoder.layers.31.encoder_attn.v_proj.lora_E": [ + true, + true, + true, + true, + false, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.31.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.31.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.31.self_attn.k_proj.lora_E": [ + false, + false, + true, + false, + true, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.31.self_attn.out_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + false, + false, + false, + false, + false + ], + "model.decoder.layers.31.self_attn.q_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + true, + false, + false, + false + ], + "model.decoder.layers.31.self_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + false, + true, + true, + false + ], + "model.decoder.layers.4.encoder_attn.k_proj.lora_E": [ + false, + false, + true, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.4.encoder_attn.out_proj.lora_E": [ + true, + true, + false, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.4.encoder_attn.q_proj.lora_E": [ + true, + true, + true, + true, + false, + false, + true, + true, + true, + false, + false, + false + ], + "model.decoder.layers.4.encoder_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + false, + true, + true + ], + "model.decoder.layers.4.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + false + ], + "model.decoder.layers.4.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.4.self_attn.k_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.4.self_attn.out_proj.lora_E": [ + false, + false, + true, + false, + false, + false, + true, + false, + false, + false, + false, + true + ], + "model.decoder.layers.4.self_attn.q_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.4.self_attn.v_proj.lora_E": [ + true, + false, + true, + true, + false, + true, + true, + true, + true, + false, + true, + true + ], + "model.decoder.layers.5.encoder_attn.k_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.5.encoder_attn.out_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.5.encoder_attn.q_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.5.encoder_attn.v_proj.lora_E": [ + true, + true, + true, + true, + false, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.5.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.5.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.5.self_attn.k_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.5.self_attn.out_proj.lora_E": [ + true, + true, + false, + true, + false, + true, + true, + false, + false, + true, + true, + false + ], + "model.decoder.layers.5.self_attn.q_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + true, + false, + false, + false + ], + "model.decoder.layers.5.self_attn.v_proj.lora_E": [ + true, + false, + false, + true, + false, + false, + true, + true, + true, + true, + false, + false + ], + "model.decoder.layers.6.encoder_attn.k_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.6.encoder_attn.out_proj.lora_E": [ + false, + false, + true, + false, + false, + false, + true, + true, + true, + false, + true, + false + ], + "model.decoder.layers.6.encoder_attn.q_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.6.encoder_attn.v_proj.lora_E": [ + true, + true, + false, + false, + true, + true, + false, + false, + true, + true, + false, + true + ], + "model.decoder.layers.6.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.6.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.6.self_attn.k_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.6.self_attn.out_proj.lora_E": [ + false, + false, + false, + false, + true, + true, + true, + false, + false, + true, + true, + true + ], + "model.decoder.layers.6.self_attn.q_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.6.self_attn.v_proj.lora_E": [ + true, + true, + true, + true, + false, + true, + true, + true, + false, + false, + true, + false + ], + "model.decoder.layers.7.encoder_attn.k_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.7.encoder_attn.out_proj.lora_E": [ + true, + true, + false, + true, + false, + false, + true, + true, + false, + true, + false, + false + ], + "model.decoder.layers.7.encoder_attn.q_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.7.encoder_attn.v_proj.lora_E": [ + false, + false, + false, + true, + false, + false, + true, + true, + false, + false, + true, + false + ], + "model.decoder.layers.7.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.7.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.7.self_attn.k_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.7.self_attn.out_proj.lora_E": [ + true, + false, + true, + false, + false, + true, + true, + true, + false, + true, + true, + false + ], + "model.decoder.layers.7.self_attn.q_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.7.self_attn.v_proj.lora_E": [ + false, + false, + true, + true, + false, + true, + true, + true, + true, + false, + true, + false + ], + "model.decoder.layers.8.encoder_attn.k_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.8.encoder_attn.out_proj.lora_E": [ + true, + true, + false, + true, + true, + true, + true, + true, + false, + true, + true, + true + ], + "model.decoder.layers.8.encoder_attn.q_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.8.encoder_attn.v_proj.lora_E": [ + true, + true, + true, + false, + true, + true, + true, + false, + false, + false, + true, + false + ], + "model.decoder.layers.8.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.8.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.8.self_attn.k_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.8.self_attn.out_proj.lora_E": [ + false, + false, + false, + true, + true, + true, + true, + true, + false, + false, + false, + true + ], + "model.decoder.layers.8.self_attn.q_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.8.self_attn.v_proj.lora_E": [ + true, + true, + false, + true, + true, + false, + true, + false, + true, + false, + false, + false + ], + "model.decoder.layers.9.encoder_attn.k_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.9.encoder_attn.out_proj.lora_E": [ + true, + true, + true, + true, + false, + true, + true, + false, + true, + true, + true, + true + ], + "model.decoder.layers.9.encoder_attn.q_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + true + ], + "model.decoder.layers.9.encoder_attn.v_proj.lora_E": [ + false, + false, + true, + true, + false, + false, + false, + false, + true, + true, + false, + true + ], + "model.decoder.layers.9.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.9.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.decoder.layers.9.self_attn.k_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.9.self_attn.out_proj.lora_E": [ + false, + true, + false, + true, + true, + true, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.9.self_attn.q_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.decoder.layers.9.self_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + false, + true, + true, + false, + false, + false, + true + ], + "model.encoder.layers.0.fc1.lora_E": [ + true, + true, + true, + false, + true, + false, + false, + true, + false, + false, + true, + true + ], + "model.encoder.layers.0.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + false, + true, + true, + true, + true, + true + ], + "model.encoder.layers.0.self_attn.k_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.encoder.layers.0.self_attn.out_proj.lora_E": [ + true, + true, + false, + true, + true, + false, + true, + true, + false, + true, + true, + true + ], + "model.encoder.layers.0.self_attn.q_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.encoder.layers.0.self_attn.v_proj.lora_E": [ + false, + true, + false, + true, + true, + true, + true, + false, + true, + false, + true, + true + ], + "model.encoder.layers.1.fc1.lora_E": [ + true, + true, + true, + false, + false, + false, + false, + true, + true, + true, + true, + true + ], + "model.encoder.layers.1.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.1.self_attn.k_proj.lora_E": [ + false, + false, + true, + true, + false, + false, + true, + false, + false, + true, + false, + true + ], + "model.encoder.layers.1.self_attn.out_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.1.self_attn.q_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.encoder.layers.1.self_attn.v_proj.lora_E": [ + false, + true, + false, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.10.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + false + ], + "model.encoder.layers.10.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + false + ], + "model.encoder.layers.10.self_attn.k_proj.lora_E": [ + true, + false, + false, + false, + false, + false, + false, + true, + false, + false, + false, + true + ], + "model.encoder.layers.10.self_attn.out_proj.lora_E": [ + true, + false, + true, + true, + true, + true, + false, + true, + true, + false, + true, + true + ], + "model.encoder.layers.10.self_attn.q_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.encoder.layers.10.self_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.11.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + false, + true, + true, + true, + true, + true + ], + "model.encoder.layers.11.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + false + ], + "model.encoder.layers.11.self_attn.k_proj.lora_E": [ + false, + false, + true, + false, + false, + false, + true, + true, + true, + true, + true, + false + ], + "model.encoder.layers.11.self_attn.out_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.11.self_attn.q_proj.lora_E": [ + true, + false, + false, + false, + true, + true, + false, + false, + true, + false, + false, + false + ], + "model.encoder.layers.11.self_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.12.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.12.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.12.self_attn.k_proj.lora_E": [ + false, + true, + false, + true, + false, + true, + false, + false, + false, + true, + false, + true + ], + "model.encoder.layers.12.self_attn.out_proj.lora_E": [ + true, + true, + true, + false, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.12.self_attn.q_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.encoder.layers.12.self_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + false + ], + "model.encoder.layers.13.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.13.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.13.self_attn.k_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.encoder.layers.13.self_attn.out_proj.lora_E": [ + true, + true, + true, + false, + false, + true, + false, + true, + true, + true, + true, + true + ], + "model.encoder.layers.13.self_attn.q_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.encoder.layers.13.self_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.14.fc1.lora_E": [ + false, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.14.fc2.lora_E": [ + true, + true, + false, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.14.self_attn.k_proj.lora_E": [ + false, + false, + false, + false, + true, + false, + false, + false, + true, + false, + false, + true + ], + "model.encoder.layers.14.self_attn.out_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.14.self_attn.q_proj.lora_E": [ + false, + true, + true, + false, + false, + false, + false, + true, + false, + false, + false, + true + ], + "model.encoder.layers.14.self_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.15.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.15.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.15.self_attn.k_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + true, + false, + false + ], + "model.encoder.layers.15.self_attn.out_proj.lora_E": [ + false, + true, + true, + true, + true, + true, + false, + true, + true, + true, + true, + true + ], + "model.encoder.layers.15.self_attn.q_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.encoder.layers.15.self_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + false, + true, + true, + true + ], + "model.encoder.layers.16.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.16.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.16.self_attn.k_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + true, + true, + false, + true, + false, + false + ], + "model.encoder.layers.16.self_attn.out_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.16.self_attn.q_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + true, + false, + false, + false, + false, + false + ], + "model.encoder.layers.16.self_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.17.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.17.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.17.self_attn.k_proj.lora_E": [ + false, + false, + true, + false, + false, + false, + false, + false, + false, + true, + false, + false + ], + "model.encoder.layers.17.self_attn.out_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + false, + true, + true, + true, + true, + true + ], + "model.encoder.layers.17.self_attn.q_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.encoder.layers.17.self_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.18.fc1.lora_E": [ + false, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.18.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.18.self_attn.k_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.encoder.layers.18.self_attn.out_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + false, + true, + true, + true, + true, + true + ], + "model.encoder.layers.18.self_attn.q_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.encoder.layers.18.self_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.19.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.19.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.19.self_attn.k_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.encoder.layers.19.self_attn.out_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.19.self_attn.q_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.encoder.layers.19.self_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.2.fc1.lora_E": [ + true, + true, + true, + true, + true, + false, + false, + true, + true, + false, + true, + true + ], + "model.encoder.layers.2.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + false, + false, + true, + true, + false + ], + "model.encoder.layers.2.self_attn.k_proj.lora_E": [ + false, + false, + false, + true, + true, + false, + false, + true, + false, + false, + true, + false + ], + "model.encoder.layers.2.self_attn.out_proj.lora_E": [ + true, + true, + true, + true, + false, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.2.self_attn.q_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.encoder.layers.2.self_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.20.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.20.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.20.self_attn.k_proj.lora_E": [ + false, + true, + false, + false, + false, + true, + true, + false, + false, + true, + true, + true + ], + "model.encoder.layers.20.self_attn.out_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.20.self_attn.q_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + true, + false + ], + "model.encoder.layers.20.self_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + false, + true, + true, + true, + true, + true + ], + "model.encoder.layers.21.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.21.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.21.self_attn.k_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.encoder.layers.21.self_attn.out_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.21.self_attn.q_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + true + ], + "model.encoder.layers.21.self_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.22.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + false + ], + "model.encoder.layers.22.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.22.self_attn.k_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + true + ], + "model.encoder.layers.22.self_attn.out_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.22.self_attn.q_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.encoder.layers.22.self_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.23.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.23.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.23.self_attn.k_proj.lora_E": [ + false, + false, + true, + false, + true, + false, + false, + false, + false, + false, + false, + false + ], + "model.encoder.layers.23.self_attn.out_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.23.self_attn.q_proj.lora_E": [ + false, + false, + false, + false, + false, + true, + false, + false, + false, + false, + false, + false + ], + "model.encoder.layers.23.self_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.24.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.24.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.24.self_attn.k_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + true, + false, + false, + false, + false + ], + "model.encoder.layers.24.self_attn.out_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.24.self_attn.q_proj.lora_E": [ + false, + false, + true, + false, + false, + true, + false, + false, + true, + false, + false, + false + ], + "model.encoder.layers.24.self_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.25.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.25.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.25.self_attn.k_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + true, + false, + false + ], + "model.encoder.layers.25.self_attn.out_proj.lora_E": [ + true, + true, + true, + true, + true, + false, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.25.self_attn.q_proj.lora_E": [ + false, + true, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.encoder.layers.25.self_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.26.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.26.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.26.self_attn.k_proj.lora_E": [ + false, + true, + true, + true, + false, + true, + false, + false, + false, + false, + true, + true + ], + "model.encoder.layers.26.self_attn.out_proj.lora_E": [ + true, + true, + true, + true, + true, + false, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.26.self_attn.q_proj.lora_E": [ + true, + true, + false, + false, + true, + false, + true, + false, + true, + false, + false, + true + ], + "model.encoder.layers.26.self_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.27.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.27.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.27.self_attn.k_proj.lora_E": [ + false, + true, + true, + true, + true, + false, + false, + false, + false, + false, + false, + true + ], + "model.encoder.layers.27.self_attn.out_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.27.self_attn.q_proj.lora_E": [ + true, + true, + false, + true, + true, + false, + false, + false, + true, + true, + true, + true + ], + "model.encoder.layers.27.self_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.28.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.28.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.28.self_attn.k_proj.lora_E": [ + false, + true, + true, + false, + true, + true, + true, + true, + true, + true, + false, + true + ], + "model.encoder.layers.28.self_attn.out_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.28.self_attn.q_proj.lora_E": [ + false, + true, + true, + true, + false, + true, + true, + true, + true, + false, + true, + true + ], + "model.encoder.layers.28.self_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.29.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.29.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.29.self_attn.k_proj.lora_E": [ + true, + false, + true, + false, + true, + false, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.29.self_attn.out_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.29.self_attn.q_proj.lora_E": [ + true, + true, + true, + true, + true, + false, + true, + true, + true, + true, + false, + true + ], + "model.encoder.layers.29.self_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.3.fc1.lora_E": [ + true, + true, + true, + true, + true, + false, + true, + true, + false, + true, + true, + true + ], + "model.encoder.layers.3.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.3.self_attn.k_proj.lora_E": [ + false, + false, + true, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.encoder.layers.3.self_attn.out_proj.lora_E": [ + false, + false, + true, + true, + true, + true, + true, + true, + true, + true, + false, + true + ], + "model.encoder.layers.3.self_attn.q_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.encoder.layers.3.self_attn.v_proj.lora_E": [ + true, + true, + false, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.30.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.30.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.30.self_attn.k_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.30.self_attn.out_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.30.self_attn.q_proj.lora_E": [ + true, + true, + false, + true, + true, + false, + true, + true, + true, + false, + false, + true + ], + "model.encoder.layers.30.self_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.31.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.31.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.31.self_attn.k_proj.lora_E": [ + true, + true, + false, + true, + true, + true, + true, + false, + true, + false, + true, + true + ], + "model.encoder.layers.31.self_attn.out_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + false, + true, + true + ], + "model.encoder.layers.31.self_attn.q_proj.lora_E": [ + false, + true, + true, + true, + true, + false, + true, + true, + false, + false, + true, + true + ], + "model.encoder.layers.31.self_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.4.fc1.lora_E": [ + true, + true, + true, + false, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.4.fc2.lora_E": [ + true, + false, + true, + true, + true, + true, + false, + true, + true, + false, + true, + true + ], + "model.encoder.layers.4.self_attn.k_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.encoder.layers.4.self_attn.out_proj.lora_E": [ + true, + true, + false, + false, + true, + true, + true, + false, + false, + false, + true, + true + ], + "model.encoder.layers.4.self_attn.q_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.encoder.layers.4.self_attn.v_proj.lora_E": [ + true, + true, + true, + true, + false, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.5.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.5.fc2.lora_E": [ + false, + true, + true, + true, + true, + true, + false, + true, + true, + true, + true, + true + ], + "model.encoder.layers.5.self_attn.k_proj.lora_E": [ + false, + false, + false, + true, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.encoder.layers.5.self_attn.out_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.5.self_attn.q_proj.lora_E": [ + false, + false, + false, + true, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.encoder.layers.5.self_attn.v_proj.lora_E": [ + true, + true, + true, + true, + false, + true, + true, + false, + true, + true, + true, + true + ], + "model.encoder.layers.6.fc1.lora_E": [ + true, + true, + true, + false, + true, + false, + true, + true, + true, + false, + true, + false + ], + "model.encoder.layers.6.fc2.lora_E": [ + true, + false, + true, + false, + true, + true, + false, + true, + false, + true, + true, + true + ], + "model.encoder.layers.6.self_attn.k_proj.lora_E": [ + true, + false, + true, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.encoder.layers.6.self_attn.out_proj.lora_E": [ + true, + false, + false, + true, + true, + true, + false, + false, + true, + false, + true, + false + ], + "model.encoder.layers.6.self_attn.q_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.encoder.layers.6.self_attn.v_proj.lora_E": [ + true, + false, + true, + true, + true, + true, + true, + true, + true, + true, + false, + true + ], + "model.encoder.layers.7.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + false, + true, + true, + true, + true + ], + "model.encoder.layers.7.fc2.lora_E": [ + true, + true, + true, + false, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.7.self_attn.k_proj.lora_E": [ + false, + true, + false, + true, + false, + true, + false, + false, + false, + false, + true, + false + ], + "model.encoder.layers.7.self_attn.out_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + false, + true, + true, + true, + true, + true + ], + "model.encoder.layers.7.self_attn.q_proj.lora_E": [ + false, + false, + false, + true, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.encoder.layers.7.self_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.8.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + false + ], + "model.encoder.layers.8.fc2.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + false + ], + "model.encoder.layers.8.self_attn.k_proj.lora_E": [ + false, + false, + false, + true, + false, + false, + false, + true, + false, + false, + false, + true + ], + "model.encoder.layers.8.self_attn.out_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.8.self_attn.q_proj.lora_E": [ + false, + false, + true, + false, + true, + false, + false, + false, + false, + false, + false, + false + ], + "model.encoder.layers.8.self_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + false, + true, + true, + true, + true + ], + "model.encoder.layers.9.fc1.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true, + true + ], + "model.encoder.layers.9.fc2.lora_E": [ + true, + true, + true, + true, + false, + true, + true, + true, + true, + false, + true, + false + ], + "model.encoder.layers.9.self_attn.k_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.encoder.layers.9.self_attn.out_proj.lora_E": [ + false, + true, + true, + true, + true, + true, + false, + false, + false, + true, + true, + true + ], + "model.encoder.layers.9.self_attn.q_proj.lora_E": [ + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false, + false + ], + "model.encoder.layers.9.self_attn.v_proj.lora_E": [ + true, + true, + true, + true, + true, + true, + true, + true, + false, + true, + true, + false + ] + }, + "revision": null, + "target_modules": [ + "k_proj", + "q_proj", + "v_proj", + "out_proj", + "fc1", + "fc2" + ], + "target_r": 4, + "task_type": null, + "tfinal": 1000, + "tinit": 200, + "total_step": 5600 +} \ No newline at end of file