abdullah's picture
Add files using upload-large-folder tool
97e683e verified
raw
history blame
37.7 kB
1
00:00:20,650 --> 00:00:23,110
بسم الله الرحمن الرحيم، احنا اليوم إن شاء الله بدنا
2
00:00:23,110 --> 00:00:26,450
نكمل الموضوع اللي فتحناه قبل هيك في المحاضرات
3
00:00:26,450 --> 00:00:32,610
الماضية، اللي هو الـ artificial neural networks الـ
4
00:00:32,610 --> 00:00:35,670
supervised learning باستخدام الـ artificial neural
5
00:00:35,670 --> 00:00:42,570
networks. كنا في المحاضرة الماضية حكينا عن اللي هو
6
00:00:42,570 --> 00:00:48,290
الـ Perceptron، وشوفنا آلية عمله، وآلية
7
00:00:48,290 --> 00:00:53,090
التعلم اللي هي مقصودة بالتعديل الوزني، وبعدين
8
00:00:53,090 --> 00:00:57,270
كمان أيضًا طلعنا على الـ multi-layered networks الـ
9
00:00:57,270 --> 00:01:00,270
multi-layered networks اللي هي عبارة عن شبكة من الـ
10
00:01:00,270 --> 00:01:05,850
perceptrons. الشبكة هذه مُهيكلة على أساس layers، والـ
11
00:01:05,850 --> 00:01:08,890
layers، كل layer فيها مجموعة من الـ perceptrons
12
00:01:08,890 --> 00:01:13,090
بتغذي المجموعة اللي بعدها، أو الـ layer اللي بعدها،
13
00:01:14,080 --> 00:01:18,840
وشوفنا آلية التعلم في الـ multilayer networks،
14
00:01:18,840 --> 00:01:23,080
صح، آلية التعلم المُتّبعة بها مرة أخرى، اللي هي آلية
15
00:01:23,080 --> 00:01:27,420
تعديل الأوزان، وشوفنا كيف بتختلف آلية تعديل الأوزان
16
00:01:27,420 --> 00:01:36,000
في الـ output layer عنّها في الـ hidden layer، صح الآن؟
17
00:01:36,000 --> 00:01:40,290
احنا بدنا نلقي نظرة أخيرة على الـ multilayer
18
00:01:40,290 --> 00:01:44,510
networks، بعدين بنحكي في جزئية صغيرة، اللي هي الـ
19
00:01:44,510 --> 00:01:48,610
accelerating، اللي هي النقطة هذه، ماضحة النقطة هذه،
20
00:01:48,610 --> 00:01:53,170
اللي هي accelerated learning، المقصود بها تسريع
21
00:01:53,170 --> 00:01:56,710
عملية التعلم. عملية التعلم احنا فاهمين إنها بتحصل
22
00:01:56,710 --> 00:02:04,390
على شكل ايش؟ iterations. iterations، مظبوط، وسمينا كل
23
00:02:04,390 --> 00:02:08,630
مجموعة من الـ iterations سمينها epoch، صح؟ الـ Epoch هو
24
00:02:08,630 --> 00:02:14,970
دفعة، أو short من الـ iterations. عملية التسريع هو
25
00:02:14,970 --> 00:02:21,870
تقليل عدد الـ iterations. بدل من أن الـ network تأخذ
26
00:02:21,870 --> 00:02:29,940
400 دورة، 400 iterations قبل أن تستقر الأوزان، لما
27
00:02:29,940 --> 00:02:33,020
بنقول احنا بدنا نسرّع عملية التعلم، معناه ذلك
28
00:02:33,020 --> 00:02:36,240
الـ 400 هدول بدنا نختصرهم، أو نُقلّلهم إلى 300،
29
00:02:36,240 --> 00:02:42,100
إلى 200، إلى 100 ربما، بدون أن نُنقص من دقة
30
00:02:42,100 --> 00:02:48,290
التعلم. هذه النقطة اللي هي المقصود بها اللي هو
31
00:02:48,290 --> 00:02:52,730
accelerated learning، أو ممكن نقول accelerating الـ
32
00:02:52,730 --> 00:02:55,570
learning، يعني تسريع التعلم في الـ multi neural
33
00:02:55,570 --> 00:02:59,390
networks. بعد ما نخلص النقطة هذه إن شاء الله، بنتطلع
34
00:02:59,390 --> 00:03:03,250
على الـ Hopfield network والـ BAM، اللي هي
35
00:03:03,250 --> 00:03:07,010
bidirectional associative memories. هدول نوعين من
36
00:03:07,010 --> 00:03:13,420
الـ artificial neural networks اللي بينطوروا تحت إطار
37
00:03:13,420 --> 00:03:18,200
اللي هو supervised learning. طيب، إيش قلنا بدنا
38
00:03:18,200 --> 00:03:20,640
نبدأ في الأول بإيش؟ بإننا نلقي نظرة أخيرة على الـ
39
00:03:20,640 --> 00:03:23,920
multilayer neural networks اللي كنا حكينا فيها من
40
00:03:23,920 --> 00:03:28,400
قبل. بدنا نرجع على طريقة الـ slide اللي فيها الـ
41
00:03:28,400 --> 00:03:34,040
example اللي تبعه، تتذكروا تبع إيش؟ تبع تدريب الـ
42
00:03:34,040 --> 00:03:41,100
network على اللي هو الـ XOR، الـ XOR gate أو الـ XOR
43
00:03:41,100 --> 00:03:44,900
function، ذاكرين؟
44
00:03:44,900 --> 00:03:49,700
هذا المثال. اما كنا بنحكي إنه هاي الـ neural network
45
00:03:49,700 --> 00:03:54,920
في عندنا الثلاث nodes، هدول node رقم ثلاثة ورقم
46
00:03:54,920 --> 00:03:58,020
أربعة، هدول تابعين لإيش؟ للـ layer، الـ hidden layer،
47
00:03:58,020 --> 00:04:03,460
مظبوط، الـ hidden layer، صح؟ والـ output layer إيش
48
00:04:03,460 --> 00:04:07,660
فيها؟ فيها node واحدة، اللي هي node number five، صح؟
49
00:04:07,660 --> 00:04:13,200
لأن الـ input بيدخل بـ X1 و X2 على node number one و
50
00:04:13,200 --> 00:04:16,700
node number two. ملاحظين هدول الـ two nodes شكلهم
51
00:04:16,700 --> 00:04:22,780
مربع، لتمييزهم عن من عن الـ nodes الأخرى. مميزين بإيش؟
52
00:04:22,780 --> 00:04:26,300
إيش الفرق ما بينهم؟ إن هدول ما بيعملوش أي
53
00:04:27,210 --> 00:04:31,330
calculations، ما بيعملوش أي computation، صح؟ مجرد اللي
54
00:04:31,330 --> 00:04:35,890
بيدخل عليهم بيتوزع على مين؟ على اللي بعدهم، okay؟ يبقى احنا
55
00:04:35,890 --> 00:04:39,730
عمليًا في المثال هذا، يوم ما بدنا نيجي نحسب ونعدّ
56
00:04:39,730 --> 00:04:42,990
الأوزان، ونعد الأوزان، بس ثلاثة وأربعة وخمسة،
57
00:04:42,990 --> 00:04:47,470
مظبوط، بنبدأ من مين؟ من الخمسة في الأول بالظبط، لأن
58
00:04:47,470 --> 00:04:52,080
الخمسة هي اللي عندها desired output، وهي اللي بتقدر
59
00:04:52,080 --> 00:04:55,460
تعرف الـ error أو تحسب الـ error، وبعدها بتطلع الـ
60
00:04:55,460 --> 00:04:59,420
error، بتعدّل أوزانها، وبعدها بترحل الـ error
61
00:04:59,420 --> 00:05:02,820
gradient إلى مين؟ إلى ثلاثة وأربعة، الـ error
62
00:05:02,820 --> 00:05:07,900
gradient اللي ذكرناه هو small delta، بترحل إلى ثلاثة
63
00:05:07,900 --> 00:05:10,740
وإلى أربعة، عشان كل واحدة منهم، ثلاثة وأربعة، تحسب
64
00:05:10,740 --> 00:05:15,230
الـ error تبعها، الـ error gradient تبعها، يعني عشان
65
00:05:15,230 --> 00:05:18,730
تعدّل أوزانها بناء عليه. هذا الكلام هو total طبعًا،
66
00:05:18,730 --> 00:05:22,710
هنا في الـ slide هذه، بيعطيك الـ initial values تبع
67
00:05:22,710 --> 00:05:30,390
الـ إيش؟ الأوزان،
68
00:05:30,390 --> 00:05:34,230
والـ threshold،
69
00:05:34,230 --> 00:05:41,980
that theta، صح؟ مظبوط؟ بعد ذلك، هنا بيبدأ الحساب. أول
70
00:05:41,980 --> 00:05:46,260
شيء، بيحسب الـ Y3، الـ output اللي بده يطلع من Y3،
71
00:05:46,260 --> 00:05:53,100
مظبوط، بس احنا قلنا أول حاجة، بدنا نعدّل الأوزان
72
00:05:53,100 --> 00:05:59,840
فيها على Y5. طب ليش بدأنا في Y3 و Y4؟ لأن Y5
73
00:06:01,600 --> 00:06:05,000
بتعرف كيف تحسب الـ output تبعها، لازم يجيها input من
74
00:06:05,000 --> 00:06:09,120
وين؟ بتجيها الـ input من Y3 و Y4. يبقى لازم أحسب Y3 و
75
00:06:09,120 --> 00:06:13,800
Y4، ليش؟ بدهم يطلعوا عشان نُسَلّم لـ Y5، عشان Y5 تحسب
76
00:06:13,800 --> 00:06:16,580
الـ output تبعها. تبعها، دلوقت، لأن شوف إيش فيه error،
77
00:06:16,580 --> 00:06:22,180
ويتراح تاني، يعني احنا forward propagation
78
00:06:22,180 --> 00:06:26,140
of data، و backward propagation of error
79
00:06:26,140 --> 00:06:31,070
information، صح؟ okay، هي الآن، بعد ما طلعنا ...
80
00:06:31,070 --> 00:06:34,050
من حسبنا، وطبعًا حسبنا الـ activation
81
00:06:34,050 --> 00:06:37,870
function، استخدمنا اللي هي الـ sigmoid، الـ sigmoid،
82
00:06:37,870 --> 00:06:41,270
طبعًا، يوم ما يكون في عندك مثال أو امتحان أو كده، الـ
83
00:06:41,270 --> 00:06:44,830
formula حتبدو مألوفة لك أنت، بس مجرد إيش؟ بتاخد
84
00:06:44,830 --> 00:06:48,110
الأرقام وبتطلع الـ output. الـ output، لأن الـ sigmoid
85
00:06:48,110 --> 00:06:51,330
بتطلع continuous values، يعني إيش؟ يعني أرقام عشرية،
86
00:06:51,330 --> 00:06:58,750
مش binary زي مين؟ زي الـ step function، و ليش؟ بالـ pulse
87
00:06:58,750 --> 00:07:04,010
function، صح؟ okay، فَالآن هذه الـ continuous values،
88
00:07:04,010 --> 00:07:07,870
أو الـ real values، أو الـ float values، بتدخل على مين؟
89
00:07:07,870 --> 00:07:12,350
على Y5، تنضرب في الأوزان تبعها، وتُؤخذ مع الـ
90
00:07:12,350 --> 00:07:16,750
threshold عشان تطلع الـ output تبع Y5. من هنا الآن،
91
00:07:16,750 --> 00:07:20,610
نبدأ نشوف ليش الـ error، الـ error اللي أنا بحسبه هو
92
00:07:20,610 --> 00:07:24,610
عبارة عن ببساطة الـ difference ما بين الـ desired، الـ
93
00:07:24,610 --> 00:07:32,080
desired، لما يكون عندي أنا الـ X واحد، X واحد،
94
00:07:32,080 --> 00:07:36,240
أنا بقصد هنا X واحد و X اثنين، الاثنين الـ input، الـ
95
00:07:36,240 --> 00:07:41,340
value تبعهم one one، لازم الـ XOR function
96
00:07:41,340 --> 00:07:42,120
تعطيني إيش؟
97
00:07:50,560 --> 00:07:54,460
Y5 يفترض أن يكون zero، بس ما هو اللي بيطلع معنا هنا
98
00:07:54,460 --> 00:07:56,580
في الـ calculation هذا، يفترض أن يكون zero، بس ما هو
99
00:07:56,580 --> 00:07:56,920
اللي بيطلع معنا هنا في الـ calculation هذا، يفترض أن
100
00:07:56,920 --> 00:07:56,960
يكون zero، بس ما هو اللي بيطلع معنا هنا في الـ
101
00:07:56,960 --> 00:08:03,540
calculation هذا، يفترض أن يكون zero، بس
102
00:08:03,540 --> 00:08:05,000
ما هو اللي بيطلع معنا هنا في الـ calculation هذا،
103
00:08:05,000 --> 00:08:06,320
يفترض أن يكون zero، بس ما هو اللي بيطلع معنا هنا في
104
00:08:07,180 --> 00:08:09,700
الـ small delta تبع هذه الخمسة، اللي هي إيش اسمها؟
105
00:08:09,700 --> 00:08:13,220
الـ error gradient. شوف أنا وين بقصد هنا الـ error
106
00:08:13,220 --> 00:08:18,200
gradient، إذا ذكرتوا هذا المصطلح، إن هو الـ small
107
00:08:18,200 --> 00:08:23,070
delta، الـ error gradient هذا لما بنحسبه، بعد هيك، على
108
00:08:23,070 --> 00:08:27,630
أساسه، بتتعدّل الأوزان، الأوزان تبعون الـ inputs اللي
109
00:08:27,630 --> 00:08:33,890
داخلة على Y خمسة، صح؟ من هم هدول الأوزان؟ W ثلاثة
110
00:08:33,890 --> 00:08:38,190
خمسة، و W أربعة خمسة. ليش بسمّيهم هيك؟ لأن واحد منهم
111
00:08:38,190 --> 00:08:42,670
جاي من ثلاثة إلى خمسة، والثاني جاي من أربعة إلى
112
00:08:42,670 --> 00:08:47,470
خمسة، أو الأصح إن احنا نقول واحد منهم هو وزن الـ
113
00:08:47,470 --> 00:08:51,610
input اللي جاي من ثلاثة إلى خمسة، والثاني هو وزن الـ
114
00:08:51,610 --> 00:08:56,910
input اللي جاي من أربعة إلى خمسة، صح؟ طبعًا. فأول شيء
115
00:08:56,910 --> 00:09:00,370
عشان نعدّل الأوزان، نحسب الـ delta تبع الوزن، مقدار
116
00:09:00,370 --> 00:09:08,390
التغيير، بعدين بنضيفه على الـ current، أو الـ weight،
117
00:09:08,390 --> 00:09:13,250
الوزن الحالي، عشان يطلع معنا وزن جديد. نفس الشيء
118
00:09:13,250 --> 00:09:18,000
بنعمله لمين؟ للـ Theta، للـ Threshold. لاحظوا أن
119
00:09:18,000 --> 00:09:20,900
عملية تعديل الأوزان ببساطة شديدة، يعني الـ Delta،
120
00:09:20,900 --> 00:09:22,880
بيصير عبارة عن الـ Alpha اللي هو الـ learning rate،
121
00:09:22,880 --> 00:09:28,920
مضروب في قيمة الـ input اللي بيخش عبر هذا
122
00:09:28,920 --> 00:09:33,740
الوزن، مضروب في الـ Delta، small Delta اللي هي الـ
123
00:09:33,740 --> 00:09:38,840
Delta 5. فهي Delta 5 موجودة في الثلاث حسابات،
124
00:09:40,110 --> 00:09:44,130
طيب، هذا الكلام إيش خلّصنا فيه؟ هذا الكلام بس لحساب
125
00:09:44,130 --> 00:09:48,210
الأوزان تبع input اللي داخلة على مين؟ على
126
00:09:48,210 --> 00:09:52,450
Y5. لازم نعيد نفس الشيء للـ inputs اللي داخلة على
127
00:09:52,450 --> 00:10:01,630
Y3 و Y4، صح؟ okay، هذا الكلام نفس القوانين، بس طبعًا
128
00:10:01,630 --> 00:10:05,270
لازم في الأول، كل واحدة من Y3 و Y5 تحسب الـ error
129
00:10:05,270 --> 00:10:09,520
gradient تبعها، اللي هو الـ small delta تبعها، وبعدين
130
00:10:09,520 --> 00:10:15,220
عليه، small delta بتدخل
131
00:10:15,220 --> 00:10:19,040
في حساب الأوزان اللي رايحة على ثلاثة، وبعدين small
132
00:10:19,040 --> 00:10:21,860
delta تبع أربعة بتدخل في حساب الأوزان اللي رايحة
133
00:10:21,860 --> 00:10:29,800
على أربعة. أنا الآن بدل ما إني طبعًا هنا بعد هيك،
134
00:10:29,800 --> 00:10:35,020
الأوزان، اللي هو W واحد ثلاثة، W واحد أربعة،
135
00:10:35,020 --> 00:10:37,840
W اثنين ثلاثة، W اثنين أربعة، W ثلاثة خمسة،
136
00:10:37,840 --> 00:10:44,500
W ثلاثة أربعة. okay، بدل أنا الآن نمُرّ بهذا الحساب
137
00:10:44,500 --> 00:10:48,900
خطوة خطوة، لأ، أنا بدي أجيب وأقول لك الآن، اعتبر أنت
138
00:10:48,900 --> 00:10:53,340
بدك تكمل المثال هذا، الـ iteration اللي بعد هذه، الـ
139
00:10:53,340 --> 00:10:56,880
iteration الأولى، ولا لأ؟ لأن هذه الـ iteration إنبنت
140
00:10:56,880 --> 00:11:01,760
على الـ initial، الـ initial values تبع الأوزان،
141
00:11:01,760 --> 00:11:07,610
مظبوط. أنت الآن خذ هذا، وخذ الـ input اللي بعده، مين؟
142
00:11:07,610 --> 00:11:09,750
الـ input اللي بعده، إذا كان الـ input الأولاني كان
143
00:11:09,750 --> 00:11:17,430
one one، خذ zero one، X1 بـ zero و X2 بـ one، وعيّد
144
00:11:17,430 --> 00:11:25,890
الكرة من جديد، بالأوزان اللي هذه اللي نتجت من نهاية
145
00:11:25,890 --> 00:11:28,390
الـ iteration الأولى. أنت الآن بدك تحسب الـ iteration
146
00:11:28,390 --> 00:11:33,310
الثانية، بتقدر تعمل هذا الكلام ولا لا؟ بتقدر، إذا
147
00:11:33,310 --> 00:11:37,740
أعطيناك homework إن شاء الله بتقدر. لأ، فخلاص هي الآن
148
00:11:37,740 --> 00:11:42,260
homework. هي الآن homework مطلوب منك إيش تسوي؟ تعيد
149
00:11:42,260 --> 00:11:47,140
الكلام ده كله، للـ iteration number two، عشان تطلع
150
00:11:47,140 --> 00:11:52,140
إيش في الآخر؟ الأوزان. يعني في الآخر بدك تطلع صفحة
151
00:11:52,140 --> 00:11:59,710
زي هيك، فيها أوزان جديدة، اللي بدها تكون عندك اللي هو
152
00:11:59,710 --> 00:12:02,110
الـ iteration الثاني، في نهاية الـ iteration الثاني،
153
00:12:02,110 --> 00:12:05,870
إيش حتكون قيمة الأوزان الجديدة، والثresholds
154
00:12:05,870 --> 00:12:11,430
الجديدة، okay؟ طيب، هيك بنكون احنا ألقينا النظر الأخير
155
00:12:11,430 --> 00:12:16,470
على عملية الـ back propagation learning. واضح ليش
156
00:12:16,470 --> 00:12:20,150
اسمها back propagation؟ لأن احنا بنرجع الـ error
157
00:12:20,150 --> 00:12:25,100
لَوراء على الـ layers، من الـ output إلى الـ hidden، الـ
158
00:12:25,100 --> 00:12:28,600
hidden، طبعًا ممكن تبقى layer واحدة، أو أكتر من، ممكن
159
00:12:28,600 --> 00:12:33,880
two hidden layers، ماشي؟
160
00:12:33,880 --> 00:12:37,240
هاد الآن احنا بدنا نحكي في الـ acceleration، كيف
161
00:12:37,240 --> 00:12:44,540
يمكن تسريع، التسريع الـ learning هذا، الـ curve لو
162
00:12:44,540 --> 00:12:50,300
لاحظت عليه، إيش بيمثل؟ علاقة إيش بإيش؟ هنا epoch، بقول
163
00:12:50,300 --> 00:12:53,940
iterations، لأن الـ epoch الواحد هي مجموعة iterations،
164
00:12:53,940 --> 00:12:57,300
فأنا هنا من zero، عشان 50، 100، 150، 200،
165
00:12:57,300 --> 00:13:02,580
أقصد بها إيش؟ 200 iterations، 150
166
00:13:02,580 --> 00:13:07,980
iterations. كل ما بزيد عدد الـ iterations يفترض أن
167
00:13:07,980 --> 00:13:15,020
الـ error إيش بيصير فيه؟ بيقل، بيتناقص. احنا الآن الـ
168
00:13:15,020 --> 00:13:18,490
error، أحيانًا الـ network بتبقى الـ output layer
169
00:13:18,490 --> 00:13:23,890
تبعها فيها node واحدة، فهو error واحد، مظبوط؟
170
00:13:23,890 --> 00:13:28,410
أحيانًا بيبقى الـ layer الأخيرة بيبقى فيها عدد من
171
00:13:29,090 --> 00:13:32,310
nodes، وبالتالي الـ error، في عندي error للأولى، error
172
00:13:32,
223
00:17:32,980 --> 00:17:39,640
foundation لِ.. لِ.. لِيش؟
224
00:17:41,620 --> 00:17:46,340
لِـ course يكون في الجزء النظري أكثر فإحنا الآن
225
00:17:46,340 --> 00:17:49,560
بدنا ننتقل على هذه هي الطريقة الأولى، هذه الطريقة
226
00:17:49,560 --> 00:17:53,880
الأولى لتسريع عملية التعلم، طريقة ثانية، اللي هو
227
00:17:53,880 --> 00:17:57,300
إحنا نستخدم حاجة اسمها momentum term، انظر على
228
00:17:57,300 --> 00:18:01,860
المعادلة هذه، انظر على الشق هذا، هل الشق هذا شفناه
229
00:18:01,860 --> 00:18:05,600
قبل هيك؟ أول شيء، أيش اللي على اليسار؟ اللي يساوي
230
00:18:05,600 --> 00:18:12,400
اللي هو الـ delta W، اللي هو ايش؟ فرق الوزن بالعادة
231
00:18:12,400 --> 00:18:16,380
احنا بنعرف أن فرق الوزن هو في المحصلة هيك، بس مجرد
232
00:18:16,380 --> 00:18:21,280
الـ alpha مضروبة في الـ input مضروبة في small delta
233
00:18:21,280 --> 00:18:25,700
لِأذكركم في هذا الكلام، هيتوا، ارجع هنا ورا شوية
234
00:18:25,700 --> 00:18:30,980
ارجع هنا ورا شوية، هيتوا، هي delta صح؟ عبارة عن ايش؟
235
00:18:30,980 --> 00:18:35,450
alpha مضروبة في XX اللي هي الـ input مضروبة في
236
00:18:35,450 --> 00:18:38,410
دلتا دلتا اللي هي error gradient تبع الـ node نفسها
237
00:18:38,410 --> 00:18:43,530
اللي نحسب لها تلاتة أو زمن الداخلة عليها من واحد و
238
00:18:43,530 --> 00:18:53,830
من اتنين، مبدئياً للي مش حافظ، تعديل الوزن delta w هي
239
00:18:53,830 --> 00:18:56,690
عبارة عن ببساطة learning rate
240
00:18:59,110 --> 00:19:02,870
مضروب في الـ input اللي داخل على الـ node من هذا
241
00:19:02,870 --> 00:19:07,810
الوزن مضروب في الـ gradient، طيب ايش الاستخدام؟
242
00:19:07,810 --> 00:19:11,710
الاستخدام هذا، الـ band هذا أو هذا الـ term هذا، الـ
243
00:19:11,710 --> 00:19:14,790
term اللي هو الـ momentum term، momentum يعني الدفع
244
00:19:14,790 --> 00:19:18,450
بيعطي الدفع لعملية التعلم، هو ببساطة شديدة عبارة
245
00:19:18,450 --> 00:19:22,970
عن beta، هي عبارة عن constant صغير ما بين الـ zero
246
00:19:22,970 --> 00:19:28,630
والواحد، مضروب في ايش؟ مضروب في ايش؟ في الـ delta
247
00:19:28,630 --> 00:19:33,190
point، يعني بدنا الآن الـ network تتذكر الـ delta
248
00:19:33,190 --> 00:19:39,050
السابق، احنا نحسب الـ delta تبع P و بنقول أنه بدنا
249
00:19:39,050 --> 00:19:44,210
الـ delta تبع P ناقص واحد، يعني ايش؟ الـ delta السابق
250
00:19:44,210 --> 00:19:50,310
مش الوزن السابق، مش W، لأ، delta W، بدنا ناخده هذا
251
00:19:51,510 --> 00:19:57,390
نحتفظ فيه للدورة اللاحقة، عشان نضربه في مين؟ في الـ
252
00:19:57,390 --> 00:20:04,590
beta، هذا الكلام بشكل دفع لمين؟ لعملية التعلم، وهذا
253
00:20:04,590 --> 00:20:11,070
الـ beta قيمة تتراوح من zero لواحد، عادة بتبدأ قريبة
254
00:20:11,070 --> 00:20:17,690
من الواحد، قريبة من الواحد، يعني 0.95 مثلاً، فهذا اللي
255
00:20:17,690 --> 00:20:18,150
هو الآن
256
00:20:27,380 --> 00:20:32,280
two methods أو two measures أو two steps أو two
257
00:20:32,280 --> 00:20:41,980
techniques، ليش؟ for accelerating، أول
258
00:20:41,980 --> 00:20:42,920
واحد، ايش كانت؟
259
00:21:01,740 --> 00:21:06,060
الثاني، استخدام ايش؟
260
00:21:06,060 --> 00:21:11,540
momentum constant term، لأ، الـ constant هو جزء من الـ
261
00:21:11,540 --> 00:21:15,100
term، هذا هو كله عبارة عن الـ momentum term، تتكون
262
00:21:15,100 --> 00:21:20,260
من حاجتين مضروبات في بعض، اللي هم الـ momentum
263
00:21:20,260 --> 00:21:26,540
constant اللي هي beta مضروبة في الـ W تبعت الـ
264
00:21:26,540 --> 00:21:34,100
iteration السابقة، هذا الـ term بينجمع على الـ term
265
00:21:34,100 --> 00:21:40,240
الأصلي تبع تعديل الأوزان، اللي هو الـ alpha مضروبة
266
00:21:40,240 --> 00:21:48,820
في الـ input مضروبة في الـ error gradient، error
267
00:21:48,820 --> 00:21:54,780
gradient اللي هي small delta، تمام؟
268
00:21:54,780 --> 00:21:57,800
ايش
269
00:21:57,800 --> 00:22:02,890
غير هذا؟ هدول طريقتين، اللي قلنا ايش؟ أو أسلوبين لـ
270
00:22:02,890 --> 00:22:10,710
accelerating learning، غير هيك، هذا المثال نفس
271
00:22:10,710 --> 00:22:20,270
المثال اللي قبل هيك، بوريك كيف الـ
272
00:22:20,270 --> 00:22:27,770
learning rate هنا ثابت، ما تغيرش، ثابت، و الـ error
273
00:22:27,770 --> 00:22:37,800
بينزل، الـ error بينزل، صار بدل ما أخدت بدل
274
00:22:37,800 --> 00:22:44,280
ما تاخد 200 iteration عشان يقترب الـ error من الـ
275
00:22:44,280 --> 00:22:52,340
zero، أخدت قديش؟ 126
276
00:22:52,340 --> 00:22:57,120
epoch أو iteration، مش مشكلة، المهم القصد أنه انضغط
277
00:22:57,120 --> 00:23:03,340
الأمر من 200 إلى 126، هذا باستخدام الـ momentum term
278
00:23:03,340 --> 00:23:11,320
لما أضيف الـ momentum term على تصميم formula تعديل
279
00:23:11,320 --> 00:23:18,920
الوزن، صار اختصر أو قلّ الوجد إلى 126 بدل 200
280
00:23:18,920 --> 00:23:25,340
إذن، الآن، إضافة إلى هذول الـ two techniques، رقم
281
00:23:25,340 --> 00:23:27,360
تلاتة، اللي هو الـ heuristics
282
00:23:33,520 --> 00:23:37,660
heuristics، هذول فيهم any tools rule بتقول إنه إذا
283
00:23:37,660 --> 00:23:43,780
كان أنا قاعد بأجمع اللي هو ايش؟ الـ sum of square
284
00:23:43,780 --> 00:23:46,940
errors، ايش هو الـ sum of square errors؟ بتذكرها لو
285
00:23:46,940 --> 00:23:51,040
لسه كنا نحكي، اللي هو بجمع الـ errors تبع كل الـ
286
00:23:51,040 --> 00:23:55,900
nodes و بربعها، أولا بأخذها، بربعها، بعدين بجمع
287
00:23:55,900 --> 00:24:01,900
مربعاتها، إذا من epoch لـ epoch، الـ sum of square errors
288
00:24:01,900 --> 00:24:12,120
هذا sum of square errors باستمرار
289
00:24:12,120 --> 00:24:20,060
هذا الـ sum من
290
00:24:20,060 --> 00:24:26,520
واحد للي بعده، إما في ازدياد، يعني في الأول كان الـ
291
00:24:26,520 --> 00:24:30,780
sum نقول مثلاً تلاتة، بعدين صار أربعة، بعدين صار خمسة،
292
00:24:30,780 --> 00:24:31,280
بعدين ستة،
293
00:24:35,780 --> 00:24:45,980
بيزيد، أو الـ axis أنه في نزول، يعني الـ sum تبع هذا
294
00:24:45,980 --> 00:24:49,400
الـ epoch أقل من اللي قبله، واللي بعده أقل، واللي
295
00:24:49,400 --> 00:24:53,220
بعده أقل، جاي بتنقص، هذا الكلام مش معناته، معناته لما
296
00:24:53,220 --> 00:24:58,800
أنا بقى آخذ الفرق، من تلاتة ناقص أربعة بيطلع ناقص
297
00:24:58,800 --> 00:25:02,220
واحد، أربعة ناقص خمسة بيطلع ناقص واحد، دائماً.. دائماً
298
00:25:02,220 --> 00:25:09,020
..دائماً الفرق.. دائماً الفرق إشارته بالسالب، وهنا
299
00:25:09,020 --> 00:25:13,620
نفس الشيء برضه، سواء كان هو صعوداً أو هبوطاً، لما أنا
300
00:25:13,620 --> 00:25:17,500
أجي أقول مثلاً هذه عشرة، واللي بعدها تسعة، واللي بعدها
301
00:25:17,500 --> 00:25:21,800
ثمانية، عشرة ناقص تسعة واحد، تسعة ناقص ثمانية واحد،
302
00:25:21,800 --> 00:25:29,120
فالفرق دائماً إشارته موجبة، هنا دائماً إشارته السالبة،
303
00:25:31,690 --> 00:25:37,390
إذا دائماً هيك.. إذا دائماً.. إذا الـ change of the
304
00:25:37,390 --> 00:25:42,510
sum of square.. change.. الـ change.. التغير
305
00:25:42,510 --> 00:25:45,510
يعني هنا من عشرة إلى تسعة، وتسعة، إذا دائماً هذا الـ
306
00:25:45,510 --> 00:25:49,130
change.. كيف أنا بأحسب الـ change؟ بأخذ الفرق، إذا
307
00:25:49,130 --> 00:25:54,310
دائماً هذا الفرق بحافظ على نفس الـ sign، نفس الإشارة،
308
00:25:54,310 --> 00:25:58,190
إما دائماً موجبة أو دائماً سالبة، يبقى أنا في عندي
309
00:25:58,190 --> 00:26:03,250
اضطراد، أنا في عندي حاجة اسمها الـ.. الـ.. الـ.. الـ
310
00:26:03,250 --> 00:26:05,830
..الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ..
311
00:26:05,830 --> 00:26:06,070
الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ
312
00:26:06,070 --> 00:26:06,150
..الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ..
313
00:26:06,150 --> 00:26:06,370
الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ
314
00:26:06,370 --> 00:26:06,690
..الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ..
315
00:26:06,690 --> 00:26:07,830
الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ
316
00:26:07,830 --> 00:26:07,950
..الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ..
317
00:26:07,950 --> 00:26:11,010
الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ..
318
00:26:11,010 --> 00:26:15,430
..الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ..
319
00:26:15,430 --> 00:26:20,430
الـ..
320
00:26:20,430 --> 00:26:26,230
الـ.. في الـ sum of square errors، يبقى
321
00:26:26,230 --> 00:26:33,570
أنا المفروض أسرّع، أزيد الـ alpha، فإذا كان اختصر هذا
322
00:26:33,570 --> 00:26:39,770
الـ linguistic كالتالي: إذا كانت الـ sign of sum of
323
00:26:39,770 --> 00:26:42,570
square errors لا يوجد الاختصار
324
00:26:51,530 --> 00:26:54,230
وبعدها كلمة stable، ايش يعني stable؟ يعني ما فيش
325
00:26:54,230 --> 00:26:59,310
فيها تذبذب، مش مرة زائد ومرة ناقص، يعني مش أنه مرة
326
00:26:59,310 --> 00:27:05,390
تلاقي هيك، هنا الفرق هذا ناقص هذا سالب، سالب، بعد هيك
327
00:27:05,390 --> 00:27:09,710
الفرق صار موجب، مظبوط؟ هنا ما فيش فرق، هنا صار سالب
328
00:27:09,710 --> 00:27:13,110
سالب، سالب، هنا موجب، هذا تذبذب في ايش؟ في الـ sign
329
00:27:13,110 --> 00:27:21,150
إذا كان الـ sign is stable، فايش بسوي؟ increase alpha،
330
00:27:22,950 --> 00:27:25,930
ألفا اللي هي learning rate، وشفتوها في واحدة من
331
00:27:25,930 --> 00:27:30,210
الأمثلة كانت 0.1، increase يعني بخليها 0.2 مثلاً،
332
00:27:30,210 --> 00:27:36,270
بخليها 0.3 أو بقيت وأقول بدي أضربها، دائماً بزيدها
333
00:27:36,270 --> 00:27:43,910
بـ 5%، يعني 0.1 بدي أضيف 0.105، يعني بخلي، بمختصر أن
334
00:27:43,910 --> 00:27:51,070
ألفا تساوي ألفا ضرب 1.05، هذا معناته بزيدها بـ 5
335
00:27:52,090 --> 00:27:57,250
ممكن أقول لأ، ده زي ده 15%، ممكن أقول ده زي ده 25
336
00:27:57,250 --> 00:28:02,350
المهم أنا بقى بأثبت، نسبة زيادة، امتى بزيد، امتى
337
00:28:02,350 --> 00:28:05,290
بقى بضبط، ده الكلام لما قال لي أنه الـ sign ثابت،
338
00:28:05,290 --> 00:28:12,790
العكس من ذلك، إذا الـ algebraic sign of الـ change الـ
339
00:28:12,790 --> 00:28:16,950
change اللي هو يعني مقصود يتغير في الـ alternates،
340
00:28:16,950 --> 00:28:21,190
session alternates، يتذبذب، مرة آخر مرة موجبة، مرة
341
00:28:21,190 --> 00:28:25,760
سالبة، اللي هو معناه ذلك.. معناه ذلك في عندي الـ..
342
00:28:25,760 --> 00:28:31,620
الـ network مرة بتقترب.. مرة بتقترب وبتقلل الـ error
343
00:28:31,620 --> 00:28:36,780
و مرة بتبعد، فجأة غيرت الأوزان بشكل كبير، صار يطلع
344
00:28:36,780 --> 00:28:41,570
معها error وبعدين كانت مقتربة، بس ايش؟ التغيير
345
00:28:41,570 --> 00:28:45,550
اللي حصل كان تغيير كبير في الأوزان، خلها تفشل عن..
346
00:28:45,550 --> 00:28:50,290
زي ما هم بيقولوها، تخطي الصواب، وصارت الاشياء تبعد، و
347
00:28:50,290 --> 00:28:54,430
بعدين صارت تتردد ثانية، بس لما ردت ما رجعتش على الصواب،
348
00:28:54,430 --> 00:28:57,890
فشلت عنه بـ.. فصار.. فايش فيه مشكلة؟ المشكلة أنها
349
00:28:57,890 --> 00:29:01,450
بتخطي خطوات واسعة، فأنا بضيق الخطوات هذه، كيف بضيق
350
00:29:01,450 --> 00:29:08,770
الخطوات؟ بنزل الاشياء، الـ alpha، الـ learning rate، فإذا
351
00:29:08,770 --> 00:29:19,460
كان الـ sign خلاص، فأقول إذا هي مش stable sign
352
00:29:19,460 --> 00:29:25,700
of SSE alternates،
353
00:29:25,700 --> 00:29:29,960
معناه
354
00:29:29,960 --> 00:29:34,880
ذلك، decrease ألفا،
355
00:29:34,880 --> 00:29:39,830
decrease ألفا، برضه يكون عندي كمان، بتقدر تتخيل يعني
356
00:29:39,830 --> 00:29:48,910
هنا هو مثلاً الـ decrease،
357
00:29:48,910 --> 00:29:56,070
بأنه بضربها بـ 70%، بـ 7 من 10، يعني بنزلها 30%، تمام؟ و
358
00:29:56,070 --> 00:30:03,790
الـ increase بضربها في 1.05، واضح؟ تمام؟ فهنا
359
00:30:03,790 --> 00:30:10,570
بوريلك كيف أنه هاي الـ Epochs ماشية، وفي ده الـ دي
360
00:30:10,570 --> 00:30:18,250
الـ learning rate قاعد بتساعد نتيجة تطبيق ايش؟ هذي
361
00:30:18,250 --> 00:30:23,250
تمام؟ قاعد بيحسب لك أنه الـ error، الـ software
362
00:30:23,250 --> 00:30:26,810
errors قاعد في النازل، صح؟ في النازل، يعني إشارته
363
00:30:26,810 --> 00:30:32,170
دائماً موجبة، مظبوط؟ بقى أطرح السابق، وبقى أطرح منه
364
00:30:32,170 --> 00:30:37,960
اللاحق، وطلع موجب، فهو بسبب أنه هذا موجب، التغير
365
00:30:37,960 --> 00:30:44,780
موجب، اه التغير موجب، فهو عمال بيرفع، ليش؟ في اللي
366
00:30:44,780 --> 00:30:49,000
عند حد معين، جاب
367
00:30:49,000 --> 00:30:53,540
الـ الـ
368
00:30:53,540 --> 00:30:59,840
alpha بدأت تنزل، و نزولها، لأن وضعها في 0.7، النزول
369
00:30:59,840 --> 00:31:04,000
أسرع أو أشد من الصعود، صعود تدريجي بسيط 5% كل مرة،
370
00:31:04,000 --> 00:31:11,240
إنما هنا 30% كل مرة، فبدأت تنزل نزلة جامدة، مين هي
371
00:31:11,240 --> 00:31:14,980
اللي هو الـ learning rate نزل نزل جامدة، مع النزلة
372
00:31:14,980 --> 00:31:20,640
هذه، بدأ يقترب من ايش؟ من، بوريك فعلياً هذا الأسلوب
373
00:31:20,640 --> 00:31:22,440
في الاقتراب من
374
00:31:25,600 --> 00:31:33,420
من الـ error المخفض بوقت أقل، 100 epoch بدلاً من 126
375
00:31:33,420 --> 00:31:39,920
epoch، هذا
376
00:31:39,920 --> 00:31:45,280
الآن استخدم الـ momentum مع برضه هذه الـ heuristic،
377
00:31:45,280 --> 00:31:48,960
إقبال adaptive، ايش يعني adaptive؟ يعني لما نقول
378
00:31:48,960 --> 00:31:53,100
adapter، ايش يعني adapter؟ يعني محول، adaptive يعني
379
00:31:53,100 --> 00:31:58,260
أنه يتحول ويغير من تلقاء نفسه، ماهو اللي بتغير من
380
00:31:58,260 --> 00:32:02,240
تلقاء نفسه الـ learning rate لوحده بناء على
381
00:32:02,240 --> 00:32:07,980
استشعاره لـ sign تبع من الـ sum of square arrows،
382
00:32:07,980 --> 00:32:12,180
هو نفسه من تلقاء نفسها الـ network بتغير في الـ
383
00:32:12,180 --> 00:32:15,460
learning rate تبعها، عشان ذلك اسم هذا الكلام
384
00:32:15,460 --> 00:32:19,680
adaptive learning، فلما اندمج الـ two techniques الـ
385
00:32:19,680 --> 00:32:26,480
adaptive learning مع الـ momentum، صار عندي اختصار
386
00:32:26,480 --> 00:32:32,160
لسه أكثر، صرنا بنصل إلى
387
00:32:32,160 --> 00:32:35,780
الـ zero
388
00:32:35,780 --> 00:32:41,280
تقريباً error، ومعناه مش zero، هذا الكلام واحد من ألف، نقص
389
00:32:41,280 --> 00:32:45,580
ألف، نقص ثلاث يعني واحد من الألف، يعني مش zero،
390
00:32:46,700 --> 00:32:50,940
ما بدناش بالظبط 0، يعني ممكن تبقى صعب جداً أنّه الـ
391
00:32:50,940 -->