Update README.md
Browse files
README.md
CHANGED
@@ -42,4 +42,6 @@ LoRA 的更新可以表示为 W + BA,其中 BA 是一个低秩矩阵。
|
|
42 |
|
43 |
1. 参数减少:通过减小秩,大幅减少了参数数量,从而减小了模型大小。
|
44 |
2. 信息保留:通过保留部分原始权重,尽量保持了模型的部分学习能力。
|
45 |
-
3. 一致性:对模型中的所有 LoRA 层统一应用这种压缩,确保了整体结构的一致性。
|
|
|
|
|
|
42 |
|
43 |
1. 参数减少:通过减小秩,大幅减少了参数数量,从而减小了模型大小。
|
44 |
2. 信息保留:通过保留部分原始权重,尽量保持了模型的部分学习能力。
|
45 |
+
3. 一致性:对模型中的所有 LoRA 层统一应用这种压缩,确保了整体结构的一致性。
|
46 |
+
|
47 |
+
![image/png](https://cdn-uploads.huggingface.co/production/uploads/6421bdf78adc8881b9751715/Vk3MzEqsrLiflq7hxJAl5.png)
|