|
1 |
|
00:00:20,650 --> 00:00:23,110 |
|
بسم الله الرحمن الرحيم، احنا اليوم إن شاء الله بدنا |
|
|
|
2 |
|
00:00:23,110 --> 00:00:26,450 |
|
نكمل الموضوع اللي فتحناه قبل هيك في المحاضرات |
|
|
|
3 |
|
00:00:26,450 --> 00:00:32,610 |
|
الماضية، اللي هو الـ artificial neural networks الـ |
|
|
|
4 |
|
00:00:32,610 --> 00:00:35,670 |
|
supervised learning باستخدام الـ artificial neural |
|
|
|
5 |
|
00:00:35,670 --> 00:00:42,570 |
|
networks. كنا في المحاضرة الماضية حكينا عن اللي هو |
|
|
|
6 |
|
00:00:42,570 --> 00:00:48,290 |
|
الـ Perceptron، وشوفنا آلية عمله، وآلية |
|
|
|
7 |
|
00:00:48,290 --> 00:00:53,090 |
|
التعلم اللي هي مقصودة بالتعديل الوزني، وبعدين |
|
|
|
8 |
|
00:00:53,090 --> 00:00:57,270 |
|
كمان أيضًا طلعنا على الـ multi-layered networks الـ |
|
|
|
9 |
|
00:00:57,270 --> 00:01:00,270 |
|
multi-layered networks اللي هي عبارة عن شبكة من الـ |
|
|
|
10 |
|
00:01:00,270 --> 00:01:05,850 |
|
perceptrons. الشبكة هذه مُهيكلة على أساس layers، والـ |
|
|
|
11 |
|
00:01:05,850 --> 00:01:08,890 |
|
layers، كل layer فيها مجموعة من الـ perceptrons |
|
|
|
12 |
|
00:01:08,890 --> 00:01:13,090 |
|
بتغذي المجموعة اللي بعدها، أو الـ layer اللي بعدها، |
|
|
|
13 |
|
00:01:14,080 --> 00:01:18,840 |
|
وشوفنا آلية التعلم في الـ multilayer networks، |
|
|
|
14 |
|
00:01:18,840 --> 00:01:23,080 |
|
صح، آلية التعلم المُتّبعة بها مرة أخرى، اللي هي آلية |
|
|
|
15 |
|
00:01:23,080 --> 00:01:27,420 |
|
تعديل الأوزان، وشوفنا كيف بتختلف آلية تعديل الأوزان |
|
|
|
16 |
|
00:01:27,420 --> 00:01:36,000 |
|
في الـ output layer عنّها في الـ hidden layer، صح الآن؟ |
|
|
|
17 |
|
00:01:36,000 --> 00:01:40,290 |
|
احنا بدنا نلقي نظرة أخيرة على الـ multilayer |
|
|
|
18 |
|
00:01:40,290 --> 00:01:44,510 |
|
networks، بعدين بنحكي في جزئية صغيرة، اللي هي الـ |
|
|
|
19 |
|
00:01:44,510 --> 00:01:48,610 |
|
accelerating، اللي هي النقطة هذه، ماضحة النقطة هذه، |
|
|
|
20 |
|
00:01:48,610 --> 00:01:53,170 |
|
اللي هي accelerated learning، المقصود بها تسريع |
|
|
|
21 |
|
00:01:53,170 --> 00:01:56,710 |
|
عملية التعلم. عملية التعلم احنا فاهمين إنها بتحصل |
|
|
|
22 |
|
00:01:56,710 --> 00:02:04,390 |
|
على شكل ايش؟ iterations. iterations، مظبوط، وسمينا كل |
|
|
|
23 |
|
00:02:04,390 --> 00:02:08,630 |
|
مجموعة من الـ iterations سمينها epoch، صح؟ الـ Epoch هو |
|
|
|
24 |
|
00:02:08,630 --> 00:02:14,970 |
|
دفعة، أو short من الـ iterations. عملية التسريع هو |
|
|
|
25 |
|
00:02:14,970 --> 00:02:21,870 |
|
تقليل عدد الـ iterations. بدل من أن الـ network تأخذ |
|
|
|
26 |
|
00:02:21,870 --> 00:02:29,940 |
|
400 دورة، 400 iterations قبل أن تستقر الأوزان، لما |
|
|
|
27 |
|
00:02:29,940 --> 00:02:33,020 |
|
بنقول احنا بدنا نسرّع عملية التعلم، معناه ذلك |
|
|
|
28 |
|
00:02:33,020 --> 00:02:36,240 |
|
الـ 400 هدول بدنا نختصرهم، أو نُقلّلهم إلى 300، |
|
|
|
29 |
|
00:02:36,240 --> 00:02:42,100 |
|
إلى 200، إلى 100 ربما، بدون أن نُنقص من دقة |
|
|
|
30 |
|
00:02:42,100 --> 00:02:48,290 |
|
التعلم. هذه النقطة اللي هي المقصود بها اللي هو |
|
|
|
31 |
|
00:02:48,290 --> 00:02:52,730 |
|
accelerated learning، أو ممكن نقول accelerating الـ |
|
|
|
32 |
|
00:02:52,730 --> 00:02:55,570 |
|
learning، يعني تسريع التعلم في الـ multi neural |
|
|
|
33 |
|
00:02:55,570 --> 00:02:59,390 |
|
networks. بعد ما نخلص النقطة هذه إن شاء الله، بنتطلع |
|
|
|
34 |
|
00:02:59,390 --> 00:03:03,250 |
|
على الـ Hopfield network والـ BAM، اللي هي |
|
|
|
35 |
|
00:03:03,250 --> 00:03:07,010 |
|
bidirectional associative memories. هدول نوعين من |
|
|
|
36 |
|
00:03:07,010 --> 00:03:13,420 |
|
الـ artificial neural networks اللي بينطوروا تحت إطار |
|
|
|
37 |
|
00:03:13,420 --> 00:03:18,200 |
|
اللي هو supervised learning. طيب، إيش قلنا بدنا |
|
|
|
38 |
|
00:03:18,200 --> 00:03:20,640 |
|
نبدأ في الأول بإيش؟ بإننا نلقي نظرة أخيرة على الـ |
|
|
|
39 |
|
00:03:20,640 --> 00:03:23,920 |
|
multilayer neural networks اللي كنا حكينا فيها من |
|
|
|
40 |
|
00:03:23,920 --> 00:03:28,400 |
|
قبل. بدنا نرجع على طريقة الـ slide اللي فيها الـ |
|
|
|
41 |
|
00:03:28,400 --> 00:03:34,040 |
|
example اللي تبعه، تتذكروا تبع إيش؟ تبع تدريب الـ |
|
|
|
42 |
|
00:03:34,040 --> 00:03:41,100 |
|
network على اللي هو الـ XOR، الـ XOR gate أو الـ XOR |
|
|
|
43 |
|
00:03:41,100 --> 00:03:44,900 |
|
function، ذاكرين؟ |
|
|
|
44 |
|
00:03:44,900 --> 00:03:49,700 |
|
هذا المثال. اما كنا بنحكي إنه هاي الـ neural network |
|
|
|
45 |
|
00:03:49,700 --> 00:03:54,920 |
|
في عندنا الثلاث nodes، هدول node رقم ثلاثة ورقم |
|
|
|
46 |
|
00:03:54,920 --> 00:03:58,020 |
|
أربعة، هدول تابعين لإيش؟ للـ layer، الـ hidden layer، |
|
|
|
47 |
|
00:03:58,020 --> 00:04:03,460 |
|
مظبوط، الـ hidden layer، صح؟ والـ output layer إيش |
|
|
|
48 |
|
00:04:03,460 --> 00:04:07,660 |
|
فيها؟ فيها node واحدة، اللي هي node number five، صح؟ |
|
|
|
49 |
|
00:04:07,660 --> 00:04:13,200 |
|
لأن الـ input بيدخل بـ X1 و X2 على node number one و |
|
|
|
50 |
|
00:04:13,200 --> 00:04:16,700 |
|
node number two. ملاحظين هدول الـ two nodes شكلهم |
|
|
|
51 |
|
00:04:16,700 --> 00:04:22,780 |
|
مربع، لتمييزهم عن من عن الـ nodes الأخرى. مميزين بإيش؟ |
|
|
|
52 |
|
00:04:22,780 --> 00:04:26,300 |
|
إيش الفرق ما بينهم؟ إن هدول ما بيعملوش أي |
|
|
|
53 |
|
00:04:27,210 --> 00:04:31,330 |
|
calculations، ما بيعملوش أي computation، صح؟ مجرد اللي |
|
|
|
54 |
|
00:04:31,330 --> 00:04:35,890 |
|
بيدخل عليهم بيتوزع على مين؟ على اللي بعدهم، okay؟ يبقى احنا |
|
|
|
55 |
|
00:04:35,890 --> 00:04:39,730 |
|
عمليًا في المثال هذا، يوم ما بدنا نيجي نحسب ونعدّ |
|
|
|
56 |
|
00:04:39,730 --> 00:04:42,990 |
|
الأوزان، ونعد الأوزان، بس ثلاثة وأربعة وخمسة، |
|
|
|
57 |
|
00:04:42,990 --> 00:04:47,470 |
|
مظبوط، بنبدأ من مين؟ من الخمسة في الأول بالظبط، لأن |
|
|
|
58 |
|
00:04:47,470 --> 00:04:52,080 |
|
الخمسة هي اللي عندها desired output، وهي اللي بتقدر |
|
|
|
59 |
|
00:04:52,080 --> 00:04:55,460 |
|
تعرف الـ error أو تحسب الـ error، وبعدها بتطلع الـ |
|
|
|
60 |
|
00:04:55,460 --> 00:04:59,420 |
|
error، بتعدّل أوزانها، وبعدها بترحل الـ error |
|
|
|
61 |
|
00:04:59,420 --> 00:05:02,820 |
|
gradient إلى مين؟ إلى ثلاثة وأربعة، الـ error |
|
|
|
62 |
|
00:05:02,820 --> 00:05:07,900 |
|
gradient اللي ذكرناه هو small delta، بترحل إلى ثلاثة |
|
|
|
63 |
|
00:05:07,900 --> 00:05:10,740 |
|
وإلى أربعة، عشان كل واحدة منهم، ثلاثة وأربعة، تحسب |
|
|
|
64 |
|
00:05:10,740 --> 00:05:15,230 |
|
الـ error تبعها، الـ error gradient تبعها، يعني عشان |
|
|
|
65 |
|
00:05:15,230 --> 00:05:18,730 |
|
تعدّل أوزانها بناء عليه. هذا الكلام هو total طبعًا، |
|
|
|
66 |
|
00:05:18,730 --> 00:05:22,710 |
|
هنا في الـ slide هذه، بيعطيك الـ initial values تبع |
|
|
|
67 |
|
00:05:22,710 --> 00:05:30,390 |
|
الـ إيش؟ الأوزان، |
|
|
|
68 |
|
00:05:30,390 --> 00:05:34,230 |
|
والـ threshold، |
|
|
|
69 |
|
00:05:34,230 --> 00:05:41,980 |
|
that theta، صح؟ مظبوط؟ بعد ذلك، هنا بيبدأ الحساب. أول |
|
|
|
70 |
|
00:05:41,980 --> 00:05:46,260 |
|
شيء، بيحسب الـ Y3، الـ output اللي بده يطلع من Y3، |
|
|
|
71 |
|
00:05:46,260 --> 00:05:53,100 |
|
مظبوط، بس احنا قلنا أول حاجة، بدنا نعدّل الأوزان |
|
|
|
72 |
|
00:05:53,100 --> 00:05:59,840 |
|
فيها على Y5. طب ليش بدأنا في Y3 و Y4؟ لأن Y5 |
|
|
|
73 |
|
00:06:01,600 --> 00:06:05,000 |
|
بتعرف كيف تحسب الـ output تبعها، لازم يجيها input من |
|
|
|
74 |
|
00:06:05,000 --> 00:06:09,120 |
|
وين؟ بتجيها الـ input من Y3 و Y4. يبقى لازم أحسب Y3 و |
|
|
|
75 |
|
00:06:09,120 --> 00:06:13,800 |
|
Y4، ليش؟ بدهم يطلعوا عشان نُسَلّم لـ Y5، عشان Y5 تحسب |
|
|
|
76 |
|
00:06:13,800 --> 00:06:16,580 |
|
الـ output تبعها. تبعها، دلوقت، لأن شوف إيش فيه error، |
|
|
|
77 |
|
00:06:16,580 --> 00:06:22,180 |
|
ويتراح تاني، يعني احنا forward propagation |
|
|
|
78 |
|
00:06:22,180 --> 00:06:26,140 |
|
of data، و backward propagation of error |
|
|
|
79 |
|
00:06:26,140 --> 00:06:31,070 |
|
information، صح؟ okay، هي الآن، بعد ما طلعنا ... |
|
|
|
80 |
|
00:06:31,070 --> 00:06:34,050 |
|
من حسبنا، وطبعًا حسبنا الـ activation |
|
|
|
81 |
|
00:06:34,050 --> 00:06:37,870 |
|
function، استخدمنا اللي هي الـ sigmoid، الـ sigmoid، |
|
|
|
82 |
|
00:06:37,870 --> 00:06:41,270 |
|
طبعًا، يوم ما يكون في عندك مثال أو امتحان أو كده، الـ |
|
|
|
83 |
|
00:06:41,270 --> 00:06:44,830 |
|
formula حتبدو مألوفة لك أنت، بس مجرد إيش؟ بتاخد |
|
|
|
84 |
|
00:06:44,830 --> 00:06:48,110 |
|
الأرقام وبتطلع الـ output. الـ output، لأن الـ sigmoid |
|
|
|
85 |
|
00:06:48,110 --> 00:06:51,330 |
|
بتطلع continuous values، يعني إيش؟ يعني أرقام عشرية، |
|
|
|
86 |
|
00:06:51,330 --> 00:06:58,750 |
|
مش binary زي مين؟ زي الـ step function، و ليش؟ بالـ pulse |
|
|
|
87 |
|
00:06:58,750 --> 00:07:04,010 |
|
function، صح؟ okay، فَالآن هذه الـ continuous values، |
|
|
|
88 |
|
00:07:04,010 --> 00:07:07,870 |
|
أو الـ real values، أو الـ float values، بتدخل على مين؟ |
|
|
|
89 |
|
00:07:07,870 --> 00:07:12,350 |
|
على Y5، تنضرب في الأوزان تبعها، وتُؤخذ مع الـ |
|
|
|
90 |
|
00:07:12,350 --> 00:07:16,750 |
|
threshold عشان تطلع الـ output تبع Y5. من هنا الآن، |
|
|
|
91 |
|
00:07:16,750 --> 00:07:20,610 |
|
نبدأ نشوف ليش الـ error، الـ error اللي أنا بحسبه هو |
|
|
|
92 |
|
00:07:20,610 --> 00:07:24,610 |
|
عبارة عن ببساطة الـ difference ما بين الـ desired، الـ |
|
|
|
93 |
|
00:07:24,610 --> 00:07:32,080 |
|
desired، لما يكون عندي أنا الـ X واحد، X واحد، |
|
|
|
94 |
|
00:07:32,080 --> 00:07:36,240 |
|
أنا بقصد هنا X واحد و X اثنين، الاثنين الـ input، الـ |
|
|
|
95 |
|
00:07:36,240 --> 00:07:41,340 |
|
value تبعهم one one، لازم الـ XOR function |
|
|
|
96 |
|
00:07:41,340 --> 00:07:42,120 |
|
تعطيني إيش؟ |
|
|
|
97 |
|
00:07:50,560 --> 00:07:54,460 |
|
Y5 يفترض أن يكون zero، بس ما هو اللي بيطلع معنا هنا |
|
|
|
98 |
|
00:07:54,460 --> 00:07:56,580 |
|
في الـ calculation هذا، يفترض أن يكون zero، بس ما هو |
|
|
|
99 |
|
00:07:56,580 --> 00:07:56,920 |
|
اللي بيطلع معنا هنا في الـ calculation هذا، يفترض أن |
|
|
|
100 |
|
00:07:56,920 --> 00:07:56,960 |
|
يكون zero، بس ما هو اللي بيطلع معنا هنا في الـ |
|
|
|
101 |
|
00:07:56,960 --> 00:08:03,540 |
|
calculation هذا، يفترض أن يكون zero، بس |
|
|
|
102 |
|
00:08:03,540 --> 00:08:05,000 |
|
ما هو اللي بيطلع معنا هنا في الـ calculation هذا، |
|
|
|
103 |
|
00:08:05,000 --> 00:08:06,320 |
|
يفترض أن يكون zero، بس ما هو اللي بيطلع معنا هنا في |
|
|
|
104 |
|
00:08:07,180 --> 00:08:09,700 |
|
الـ small delta تبع هذه الخمسة، اللي هي إيش اسمها؟ |
|
|
|
105 |
|
00:08:09,700 --> 00:08:13,220 |
|
الـ error gradient. شوف أنا وين بقصد هنا الـ error |
|
|
|
106 |
|
00:08:13,220 --> 00:08:18,200 |
|
gradient، إذا ذكرتوا هذا المصطلح، إن هو الـ small |
|
|
|
107 |
|
00:08:18,200 --> 00:08:23,070 |
|
delta، الـ error gradient هذا لما بنحسبه، بعد هيك، على |
|
|
|
108 |
|
00:08:23,070 --> 00:08:27,630 |
|
أساسه، بتتعدّل الأوزان، الأوزان تبعون الـ inputs اللي |
|
|
|
109 |
|
00:08:27,630 --> 00:08:33,890 |
|
داخلة على Y خمسة، صح؟ من هم هدول الأوزان؟ W ثلاثة |
|
|
|
110 |
|
00:08:33,890 --> 00:08:38,190 |
|
خمسة، و W أربعة خمسة. ليش بسمّيهم هيك؟ لأن واحد منهم |
|
|
|
111 |
|
00:08:38,190 --> 00:08:42,670 |
|
جاي من ثلاثة إلى خمسة، والثاني جاي من أربعة إلى |
|
|
|
112 |
|
00:08:42,670 --> 00:08:47,470 |
|
خمسة، أو الأصح إن احنا نقول واحد منهم هو وزن الـ |
|
|
|
113 |
|
00:08:47,470 --> 00:08:51,610 |
|
input اللي جاي من ثلاثة إلى خمسة، والثاني هو وزن الـ |
|
|
|
114 |
|
00:08:51,610 --> 00:08:56,910 |
|
input اللي جاي من أربعة إلى خمسة، صح؟ طبعًا. فأول شيء |
|
|
|
115 |
|
00:08:56,910 --> 00:09:00,370 |
|
عشان نعدّل الأوزان، نحسب الـ delta تبع الوزن، مقدار |
|
|
|
116 |
|
00:09:00,370 --> 00:09:08,390 |
|
التغيير، بعدين بنضيفه على الـ current، أو الـ weight، |
|
|
|
117 |
|
00:09:08,390 --> 00:09:13,250 |
|
الوزن الحالي، عشان يطلع معنا وزن جديد. نفس الشيء |
|
|
|
118 |
|
00:09:13,250 --> 00:09:18,000 |
|
بنعمله لمين؟ للـ Theta، للـ Threshold. لاحظوا أن |
|
|
|
119 |
|
00:09:18,000 --> 00:09:20,900 |
|
عملية تعديل الأوزان ببساطة شديدة، يعني الـ Delta، |
|
|
|
120 |
|
00:09:20,900 --> 00:09:22,880 |
|
بيصير عبارة عن الـ Alpha اللي هو الـ learning rate، |
|
|
|
121 |
|
00:09:22,880 --> 00:09:28,920 |
|
مضروب في قيمة الـ input اللي بيخش عبر هذا |
|
|
|
122 |
|
00:09:28,920 --> 00:09:33,740 |
|
الوزن، مضروب في الـ Delta، small Delta اللي هي الـ |
|
|
|
123 |
|
00:09:33,740 --> 00:09:38,840 |
|
Delta 5. فهي Delta 5 موجودة في الثلاث حسابات، |
|
|
|
124 |
|
00:09:40,110 --> 00:09:44,130 |
|
طيب، هذا الكلام إيش خلّصنا فيه؟ هذا الكلام بس لحساب |
|
|
|
125 |
|
00:09:44,130 --> 00:09:48,210 |
|
الأوزان تبع input اللي داخلة على مين؟ على |
|
|
|
126 |
|
00:09:48,210 --> 00:09:52,450 |
|
Y5. لازم نعيد نفس الشيء للـ inputs اللي داخلة على |
|
|
|
127 |
|
00:09:52,450 --> 00:10:01,630 |
|
Y3 و Y4، صح؟ okay، هذا الكلام نفس القوانين، بس طبعًا |
|
|
|
128 |
|
00:10:01,630 --> 00:10:05,270 |
|
لازم في الأول، كل واحدة من Y3 و Y5 تحسب الـ error |
|
|
|
129 |
|
00:10:05,270 --> 00:10:09,520 |
|
gradient تبعها، اللي هو الـ small delta تبعها، وبعدين |
|
|
|
130 |
|
00:10:09,520 --> 00:10:15,220 |
|
عليه، small delta بتدخل |
|
|
|
131 |
|
00:10:15,220 --> 00:10:19,040 |
|
في حساب الأوزان اللي رايحة على ثلاثة، وبعدين small |
|
|
|
132 |
|
00:10:19,040 --> 00:10:21,860 |
|
delta تبع أربعة بتدخل في حساب الأوزان اللي رايحة |
|
|
|
133 |
|
00:10:21,860 --> 00:10:29,800 |
|
على أربعة. أنا الآن بدل ما إني طبعًا هنا بعد هيك، |
|
|
|
134 |
|
00:10:29,800 --> 00:10:35,020 |
|
الأوزان، اللي هو W واحد ثلاثة، W واحد أربعة، |
|
|
|
135 |
|
00:10:35,020 --> 00:10:37,840 |
|
W اثنين ثلاثة، W اثنين أربعة، W ثلاثة خمسة، |
|
|
|
136 |
|
00:10:37,840 --> 00:10:44,500 |
|
W ثلاثة أربعة. okay، بدل أنا الآن نمُرّ بهذا الحساب |
|
|
|
137 |
|
00:10:44,500 --> 00:10:48,900 |
|
خطوة خطوة، لأ، أنا بدي أجيب وأقول لك الآن، اعتبر أنت |
|
|
|
138 |
|
00:10:48,900 --> 00:10:53,340 |
|
بدك تكمل المثال هذا، الـ iteration اللي بعد هذه، الـ |
|
|
|
139 |
|
00:10:53,340 --> 00:10:56,880 |
|
iteration الأولى، ولا لأ؟ لأن هذه الـ iteration إنبنت |
|
|
|
140 |
|
00:10:56,880 --> 00:11:01,760 |
|
على الـ initial، الـ initial values تبع الأوزان، |
|
|
|
141 |
|
00:11:01,760 --> 00:11:07,610 |
|
مظبوط. أنت الآن خذ هذا، وخذ الـ input اللي بعده، مين؟ |
|
|
|
142 |
|
00:11:07,610 --> 00:11:09,750 |
|
الـ input اللي بعده، إذا كان الـ input الأولاني كان |
|
|
|
143 |
|
00:11:09,750 --> 00:11:17,430 |
|
one one، خذ zero one، X1 بـ zero و X2 بـ one، وعيّد |
|
|
|
144 |
|
00:11:17,430 --> 00:11:25,890 |
|
الكرة من جديد، بالأوزان اللي هذه اللي نتجت من نهاية |
|
|
|
145 |
|
00:11:25,890 --> 00:11:28,390 |
|
الـ iteration الأولى. أنت الآن بدك تحسب الـ iteration |
|
|
|
146 |
|
00:11:28,390 --> 00:11:33,310 |
|
الثانية، بتقدر تعمل هذا الكلام ولا لا؟ بتقدر، إذا |
|
|
|
147 |
|
00:11:33,310 --> 00:11:37,740 |
|
أعطيناك homework إن شاء الله بتقدر. لأ، فخلاص هي الآن |
|
|
|
148 |
|
00:11:37,740 --> 00:11:42,260 |
|
homework. هي الآن homework مطلوب منك إيش تسوي؟ تعيد |
|
|
|
149 |
|
00:11:42,260 --> 00:11:47,140 |
|
الكلام ده كله، للـ iteration number two، عشان تطلع |
|
|
|
150 |
|
00:11:47,140 --> 00:11:52,140 |
|
إيش في الآخر؟ الأوزان. يعني في الآخر بدك تطلع صفحة |
|
|
|
151 |
|
00:11:52,140 --> 00:11:59,710 |
|
زي هيك، فيها أوزان جديدة، اللي بدها تكون عندك اللي هو |
|
|
|
152 |
|
00:11:59,710 --> 00:12:02,110 |
|
الـ iteration الثاني، في نهاية الـ iteration الثاني، |
|
|
|
153 |
|
00:12:02,110 --> 00:12:05,870 |
|
إيش حتكون قيمة الأوزان الجديدة، والثresholds |
|
|
|
154 |
|
00:12:05,870 --> 00:12:11,430 |
|
الجديدة، okay؟ طيب، هيك بنكون احنا ألقينا النظر الأخير |
|
|
|
155 |
|
00:12:11,430 --> 00:12:16,470 |
|
على عملية الـ back propagation learning. واضح ليش |
|
|
|
156 |
|
00:12:16,470 --> 00:12:20,150 |
|
اسمها back propagation؟ لأن احنا بنرجع الـ error |
|
|
|
157 |
|
00:12:20,150 --> 00:12:25,100 |
|
لَوراء على الـ layers، من الـ output إلى الـ hidden، الـ |
|
|
|
158 |
|
00:12:25,100 --> 00:12:28,600 |
|
hidden، طبعًا ممكن تبقى layer واحدة، أو أكتر من، ممكن |
|
|
|
159 |
|
00:12:28,600 --> 00:12:33,880 |
|
two hidden layers، ماشي؟ |
|
|
|
160 |
|
00:12:33,880 --> 00:12:37,240 |
|
هاد الآن احنا بدنا نحكي في الـ acceleration، كيف |
|
|
|
161 |
|
00:12:37,240 --> 00:12:44,540 |
|
يمكن تسريع، التسريع الـ learning هذا، الـ curve لو |
|
|
|
162 |
|
00:12:44,540 --> 00:12:50,300 |
|
لاحظت عليه، إيش بيمثل؟ علاقة إيش بإيش؟ هنا epoch، بقول |
|
|
|
163 |
|
00:12:50,300 --> 00:12:53,940 |
|
iterations، لأن الـ epoch الواحد هي مجموعة iterations، |
|
|
|
164 |
|
00:12:53,940 --> 00:12:57,300 |
|
فأنا هنا من zero، عشان 50، 100، 150، 200، |
|
|
|
165 |
|
00:12:57,300 --> 00:13:02,580 |
|
أقصد بها إيش؟ 200 iterations، 150 |
|
|
|
166 |
|
00:13:02,580 --> 00:13:07,980 |
|
iterations. كل ما بزيد عدد الـ iterations يفترض أن |
|
|
|
167 |
|
00:13:07,980 --> 00:13:15,020 |
|
الـ error إيش بيصير فيه؟ بيقل، بيتناقص. احنا الآن الـ |
|
|
|
168 |
|
00:13:15,020 --> 00:13:18,490 |
|
error، أحيانًا الـ network بتبقى الـ output layer |
|
|
|
169 |
|
00:13:18,490 --> 00:13:23,890 |
|
تبعها فيها node واحدة، فهو error واحد، مظبوط؟ |
|
|
|
170 |
|
00:13:23,890 --> 00:13:28,410 |
|
أحيانًا بيبقى الـ layer الأخيرة بيبقى فيها عدد من |
|
|
|
171 |
|
00:13:29,090 --> 00:13:32,310 |
|
nodes، وبالتالي الـ error، في عندي error للأولى، error |
|
|
|
172 |
|
00:13:32, |
|
|
|
223 |
|
00:17:32,980 --> 00:17:39,640 |
|
foundation لِ.. لِ.. لِيش؟ |
|
|
|
224 |
|
00:17:41,620 --> 00:17:46,340 |
|
لِـ course يكون في الجزء النظري أكثر فإحنا الآن |
|
|
|
225 |
|
00:17:46,340 --> 00:17:49,560 |
|
بدنا ننتقل على هذه هي الطريقة الأولى، هذه الطريقة |
|
|
|
226 |
|
00:17:49,560 --> 00:17:53,880 |
|
الأولى لتسريع عملية التعلم، طريقة ثانية، اللي هو |
|
|
|
227 |
|
00:17:53,880 --> 00:17:57,300 |
|
إحنا نستخدم حاجة اسمها momentum term، انظر على |
|
|
|
228 |
|
00:17:57,300 --> 00:18:01,860 |
|
المعادلة هذه، انظر على الشق هذا، هل الشق هذا شفناه |
|
|
|
229 |
|
00:18:01,860 --> 00:18:05,600 |
|
قبل هيك؟ أول شيء، أيش اللي على اليسار؟ اللي يساوي |
|
|
|
230 |
|
00:18:05,600 --> 00:18:12,400 |
|
اللي هو الـ delta W، اللي هو ايش؟ فرق الوزن بالعادة |
|
|
|
231 |
|
00:18:12,400 --> 00:18:16,380 |
|
احنا بنعرف أن فرق الوزن هو في المحصلة هيك، بس مجرد |
|
|
|
232 |
|
00:18:16,380 --> 00:18:21,280 |
|
الـ alpha مضروبة في الـ input مضروبة في small delta |
|
|
|
233 |
|
00:18:21,280 --> 00:18:25,700 |
|
لِأذكركم في هذا الكلام، هيتوا، ارجع هنا ورا شوية |
|
|
|
234 |
|
00:18:25,700 --> 00:18:30,980 |
|
ارجع هنا ورا شوية، هيتوا، هي delta صح؟ عبارة عن ايش؟ |
|
|
|
235 |
|
00:18:30,980 --> 00:18:35,450 |
|
alpha مضروبة في XX اللي هي الـ input مضروبة في |
|
|
|
236 |
|
00:18:35,450 --> 00:18:38,410 |
|
دلتا دلتا اللي هي error gradient تبع الـ node نفسها |
|
|
|
237 |
|
00:18:38,410 --> 00:18:43,530 |
|
اللي نحسب لها تلاتة أو زمن الداخلة عليها من واحد و |
|
|
|
238 |
|
00:18:43,530 --> 00:18:53,830 |
|
من اتنين، مبدئياً للي مش حافظ، تعديل الوزن delta w هي |
|
|
|
239 |
|
00:18:53,830 --> 00:18:56,690 |
|
عبارة عن ببساطة learning rate |
|
|
|
240 |
|
00:18:59,110 --> 00:19:02,870 |
|
مضروب في الـ input اللي داخل على الـ node من هذا |
|
|
|
241 |
|
00:19:02,870 --> 00:19:07,810 |
|
الوزن مضروب في الـ gradient، طيب ايش الاستخدام؟ |
|
|
|
242 |
|
00:19:07,810 --> 00:19:11,710 |
|
الاستخدام هذا، الـ band هذا أو هذا الـ term هذا، الـ |
|
|
|
243 |
|
00:19:11,710 --> 00:19:14,790 |
|
term اللي هو الـ momentum term، momentum يعني الدفع |
|
|
|
244 |
|
00:19:14,790 --> 00:19:18,450 |
|
بيعطي الدفع لعملية التعلم، هو ببساطة شديدة عبارة |
|
|
|
245 |
|
00:19:18,450 --> 00:19:22,970 |
|
عن beta، هي عبارة عن constant صغير ما بين الـ zero |
|
|
|
246 |
|
00:19:22,970 --> 00:19:28,630 |
|
والواحد، مضروب في ايش؟ مضروب في ايش؟ في الـ delta |
|
|
|
247 |
|
00:19:28,630 --> 00:19:33,190 |
|
point، يعني بدنا الآن الـ network تتذكر الـ delta |
|
|
|
248 |
|
00:19:33,190 --> 00:19:39,050 |
|
السابق، احنا نحسب الـ delta تبع P و بنقول أنه بدنا |
|
|
|
249 |
|
00:19:39,050 --> 00:19:44,210 |
|
الـ delta تبع P ناقص واحد، يعني ايش؟ الـ delta السابق |
|
|
|
250 |
|
00:19:44,210 --> 00:19:50,310 |
|
مش الوزن السابق، مش W، لأ، delta W، بدنا ناخده هذا |
|
|
|
251 |
|
00:19:51,510 --> 00:19:57,390 |
|
نحتفظ فيه للدورة اللاحقة، عشان نضربه في مين؟ في الـ |
|
|
|
252 |
|
00:19:57,390 --> 00:20:04,590 |
|
beta، هذا الكلام بشكل دفع لمين؟ لعملية التعلم، وهذا |
|
|
|
253 |
|
00:20:04,590 --> 00:20:11,070 |
|
الـ beta قيمة تتراوح من zero لواحد، عادة بتبدأ قريبة |
|
|
|
254 |
|
00:20:11,070 --> 00:20:17,690 |
|
من الواحد، قريبة من الواحد، يعني 0.95 مثلاً، فهذا اللي |
|
|
|
255 |
|
00:20:17,690 --> 00:20:18,150 |
|
هو الآن |
|
|
|
256 |
|
00:20:27,380 --> 00:20:32,280 |
|
two methods أو two measures أو two steps أو two |
|
|
|
257 |
|
00:20:32,280 --> 00:20:41,980 |
|
techniques، ليش؟ for accelerating، أول |
|
|
|
258 |
|
00:20:41,980 --> 00:20:42,920 |
|
واحد، ايش كانت؟ |
|
|
|
259 |
|
00:21:01,740 --> 00:21:06,060 |
|
الثاني، استخدام ايش؟ |
|
|
|
260 |
|
00:21:06,060 --> 00:21:11,540 |
|
momentum constant term، لأ، الـ constant هو جزء من الـ |
|
|
|
261 |
|
00:21:11,540 --> 00:21:15,100 |
|
term، هذا هو كله عبارة عن الـ momentum term، تتكون |
|
|
|
262 |
|
00:21:15,100 --> 00:21:20,260 |
|
من حاجتين مضروبات في بعض، اللي هم الـ momentum |
|
|
|
263 |
|
00:21:20,260 --> 00:21:26,540 |
|
constant اللي هي beta مضروبة في الـ W تبعت الـ |
|
|
|
264 |
|
00:21:26,540 --> 00:21:34,100 |
|
iteration السابقة، هذا الـ term بينجمع على الـ term |
|
|
|
265 |
|
00:21:34,100 --> 00:21:40,240 |
|
الأصلي تبع تعديل الأوزان، اللي هو الـ alpha مضروبة |
|
|
|
266 |
|
00:21:40,240 --> 00:21:48,820 |
|
في الـ input مضروبة في الـ error gradient، error |
|
|
|
267 |
|
00:21:48,820 --> 00:21:54,780 |
|
gradient اللي هي small delta، تمام؟ |
|
|
|
268 |
|
00:21:54,780 --> 00:21:57,800 |
|
ايش |
|
|
|
269 |
|
00:21:57,800 --> 00:22:02,890 |
|
غير هذا؟ هدول طريقتين، اللي قلنا ايش؟ أو أسلوبين لـ |
|
|
|
270 |
|
00:22:02,890 --> 00:22:10,710 |
|
accelerating learning، غير هيك، هذا المثال نفس |
|
|
|
271 |
|
00:22:10,710 --> 00:22:20,270 |
|
المثال اللي قبل هيك، بوريك كيف الـ |
|
|
|
272 |
|
00:22:20,270 --> 00:22:27,770 |
|
learning rate هنا ثابت، ما تغيرش، ثابت، و الـ error |
|
|
|
273 |
|
00:22:27,770 --> 00:22:37,800 |
|
بينزل، الـ error بينزل، صار بدل ما أخدت بدل |
|
|
|
274 |
|
00:22:37,800 --> 00:22:44,280 |
|
ما تاخد 200 iteration عشان يقترب الـ error من الـ |
|
|
|
275 |
|
00:22:44,280 --> 00:22:52,340 |
|
zero، أخدت قديش؟ 126 |
|
|
|
276 |
|
00:22:52,340 --> 00:22:57,120 |
|
epoch أو iteration، مش مشكلة، المهم القصد أنه انضغط |
|
|
|
277 |
|
00:22:57,120 --> 00:23:03,340 |
|
الأمر من 200 إلى 126، هذا باستخدام الـ momentum term |
|
|
|
278 |
|
00:23:03,340 --> 00:23:11,320 |
|
لما أضيف الـ momentum term على تصميم formula تعديل |
|
|
|
279 |
|
00:23:11,320 --> 00:23:18,920 |
|
الوزن، صار اختصر أو قلّ الوجد إلى 126 بدل 200 |
|
|
|
280 |
|
00:23:18,920 --> 00:23:25,340 |
|
إذن، الآن، إضافة إلى هذول الـ two techniques، رقم |
|
|
|
281 |
|
00:23:25,340 --> 00:23:27,360 |
|
تلاتة، اللي هو الـ heuristics |
|
|
|
282 |
|
00:23:33,520 --> 00:23:37,660 |
|
heuristics، هذول فيهم any tools rule بتقول إنه إذا |
|
|
|
283 |
|
00:23:37,660 --> 00:23:43,780 |
|
كان أنا قاعد بأجمع اللي هو ايش؟ الـ sum of square |
|
|
|
284 |
|
00:23:43,780 --> 00:23:46,940 |
|
errors، ايش هو الـ sum of square errors؟ بتذكرها لو |
|
|
|
285 |
|
00:23:46,940 --> 00:23:51,040 |
|
لسه كنا نحكي، اللي هو بجمع الـ errors تبع كل الـ |
|
|
|
286 |
|
00:23:51,040 --> 00:23:55,900 |
|
nodes و بربعها، أولا بأخذها، بربعها، بعدين بجمع |
|
|
|
287 |
|
00:23:55,900 --> 00:24:01,900 |
|
مربعاتها، إذا من epoch لـ epoch، الـ sum of square errors |
|
|
|
288 |
|
00:24:01,900 --> 00:24:12,120 |
|
هذا sum of square errors باستمرار |
|
|
|
289 |
|
00:24:12,120 --> 00:24:20,060 |
|
هذا الـ sum من |
|
|
|
290 |
|
00:24:20,060 --> 00:24:26,520 |
|
واحد للي بعده، إما في ازدياد، يعني في الأول كان الـ |
|
|
|
291 |
|
00:24:26,520 --> 00:24:30,780 |
|
sum نقول مثلاً تلاتة، بعدين صار أربعة، بعدين صار خمسة، |
|
|
|
292 |
|
00:24:30,780 --> 00:24:31,280 |
|
بعدين ستة، |
|
|
|
293 |
|
00:24:35,780 --> 00:24:45,980 |
|
بيزيد، أو الـ axis أنه في نزول، يعني الـ sum تبع هذا |
|
|
|
294 |
|
00:24:45,980 --> 00:24:49,400 |
|
الـ epoch أقل من اللي قبله، واللي بعده أقل، واللي |
|
|
|
295 |
|
00:24:49,400 --> 00:24:53,220 |
|
بعده أقل، جاي بتنقص، هذا الكلام مش معناته، معناته لما |
|
|
|
296 |
|
00:24:53,220 --> 00:24:58,800 |
|
أنا بقى آخذ الفرق، من تلاتة ناقص أربعة بيطلع ناقص |
|
|
|
297 |
|
00:24:58,800 --> 00:25:02,220 |
|
واحد، أربعة ناقص خمسة بيطلع ناقص واحد، دائماً.. دائماً |
|
|
|
298 |
|
00:25:02,220 --> 00:25:09,020 |
|
..دائماً الفرق.. دائماً الفرق إشارته بالسالب، وهنا |
|
|
|
299 |
|
00:25:09,020 --> 00:25:13,620 |
|
نفس الشيء برضه، سواء كان هو صعوداً أو هبوطاً، لما أنا |
|
|
|
300 |
|
00:25:13,620 --> 00:25:17,500 |
|
أجي أقول مثلاً هذه عشرة، واللي بعدها تسعة، واللي بعدها |
|
|
|
301 |
|
00:25:17,500 --> 00:25:21,800 |
|
ثمانية، عشرة ناقص تسعة واحد، تسعة ناقص ثمانية واحد، |
|
|
|
302 |
|
00:25:21,800 --> 00:25:29,120 |
|
فالفرق دائماً إشارته موجبة، هنا دائماً إشارته السالبة، |
|
|
|
303 |
|
00:25:31,690 --> 00:25:37,390 |
|
إذا دائماً هيك.. إذا دائماً.. إذا الـ change of the |
|
|
|
304 |
|
00:25:37,390 --> 00:25:42,510 |
|
sum of square.. change.. الـ change.. التغير |
|
|
|
305 |
|
00:25:42,510 --> 00:25:45,510 |
|
يعني هنا من عشرة إلى تسعة، وتسعة، إذا دائماً هذا الـ |
|
|
|
306 |
|
00:25:45,510 --> 00:25:49,130 |
|
change.. كيف أنا بأحسب الـ change؟ بأخذ الفرق، إذا |
|
|
|
307 |
|
00:25:49,130 --> 00:25:54,310 |
|
دائماً هذا الفرق بحافظ على نفس الـ sign، نفس الإشارة، |
|
|
|
308 |
|
00:25:54,310 --> 00:25:58,190 |
|
إما دائماً موجبة أو دائماً سالبة، يبقى أنا في عندي |
|
|
|
309 |
|
00:25:58,190 --> 00:26:03,250 |
|
اضطراد، أنا في عندي حاجة اسمها الـ.. الـ.. الـ.. الـ |
|
|
|
310 |
|
00:26:03,250 --> 00:26:05,830 |
|
..الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. |
|
|
|
311 |
|
00:26:05,830 --> 00:26:06,070 |
|
الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ |
|
|
|
312 |
|
00:26:06,070 --> 00:26:06,150 |
|
..الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. |
|
|
|
313 |
|
00:26:06,150 --> 00:26:06,370 |
|
الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ |
|
|
|
314 |
|
00:26:06,370 --> 00:26:06,690 |
|
..الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. |
|
|
|
315 |
|
00:26:06,690 --> 00:26:07,830 |
|
الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ |
|
|
|
316 |
|
00:26:07,830 --> 00:26:07,950 |
|
..الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. |
|
|
|
317 |
|
00:26:07,950 --> 00:26:11,010 |
|
الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. |
|
|
|
318 |
|
00:26:11,010 --> 00:26:15,430 |
|
..الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. الـ.. |
|
|
|
319 |
|
00:26:15,430 --> 00:26:20,430 |
|
الـ.. |
|
|
|
320 |
|
00:26:20,430 --> 00:26:26,230 |
|
الـ.. في الـ sum of square errors، يبقى |
|
|
|
321 |
|
00:26:26,230 --> 00:26:33,570 |
|
أنا المفروض أسرّع، أزيد الـ alpha، فإذا كان اختصر هذا |
|
|
|
322 |
|
00:26:33,570 --> 00:26:39,770 |
|
الـ linguistic كالتالي: إذا كانت الـ sign of sum of |
|
|
|
323 |
|
00:26:39,770 --> 00:26:42,570 |
|
square errors لا يوجد الاختصار |
|
|
|
324 |
|
00:26:51,530 --> 00:26:54,230 |
|
وبعدها كلمة stable، ايش يعني stable؟ يعني ما فيش |
|
|
|
325 |
|
00:26:54,230 --> 00:26:59,310 |
|
فيها تذبذب، مش مرة زائد ومرة ناقص، يعني مش أنه مرة |
|
|
|
326 |
|
00:26:59,310 --> 00:27:05,390 |
|
تلاقي هيك، هنا الفرق هذا ناقص هذا سالب، سالب، بعد هيك |
|
|
|
327 |
|
00:27:05,390 --> 00:27:09,710 |
|
الفرق صار موجب، مظبوط؟ هنا ما فيش فرق، هنا صار سالب |
|
|
|
328 |
|
00:27:09,710 --> 00:27:13,110 |
|
سالب، سالب، هنا موجب، هذا تذبذب في ايش؟ في الـ sign |
|
|
|
329 |
|
00:27:13,110 --> 00:27:21,150 |
|
إذا كان الـ sign is stable، فايش بسوي؟ increase alpha، |
|
|
|
330 |
|
00:27:22,950 --> 00:27:25,930 |
|
ألفا اللي هي learning rate، وشفتوها في واحدة من |
|
|
|
331 |
|
00:27:25,930 --> 00:27:30,210 |
|
الأمثلة كانت 0.1، increase يعني بخليها 0.2 مثلاً، |
|
|
|
332 |
|
00:27:30,210 --> 00:27:36,270 |
|
بخليها 0.3 أو بقيت وأقول بدي أضربها، دائماً بزيدها |
|
|
|
333 |
|
00:27:36,270 --> 00:27:43,910 |
|
بـ 5%، يعني 0.1 بدي أضيف 0.105، يعني بخلي، بمختصر أن |
|
|
|
334 |
|
00:27:43,910 --> 00:27:51,070 |
|
ألفا تساوي ألفا ضرب 1.05، هذا معناته بزيدها بـ 5%، |
|
|
|
335 |
|
00:27:52,090 --> 00:27:57,250 |
|
ممكن أقول لأ، ده زي ده 15%، ممكن أقول ده زي ده 25%، |
|
|
|
336 |
|
00:27:57,250 --> 00:28:02,350 |
|
المهم أنا بقى بأثبت، نسبة زيادة، امتى بزيد، امتى |
|
|
|
337 |
|
00:28:02,350 --> 00:28:05,290 |
|
بقى بضبط، ده الكلام لما قال لي أنه الـ sign ثابت، |
|
|
|
338 |
|
00:28:05,290 --> 00:28:12,790 |
|
العكس من ذلك، إذا الـ algebraic sign of الـ change الـ |
|
|
|
339 |
|
00:28:12,790 --> 00:28:16,950 |
|
change اللي هو يعني مقصود يتغير في الـ alternates، |
|
|
|
340 |
|
00:28:16,950 --> 00:28:21,190 |
|
session alternates، يتذبذب، مرة آخر مرة موجبة، مرة |
|
|
|
341 |
|
00:28:21,190 --> 00:28:25,760 |
|
سالبة، اللي هو معناه ذلك.. معناه ذلك في عندي الـ.. |
|
|
|
342 |
|
00:28:25,760 --> 00:28:31,620 |
|
الـ network مرة بتقترب.. مرة بتقترب وبتقلل الـ error |
|
|
|
343 |
|
00:28:31,620 --> 00:28:36,780 |
|
و مرة بتبعد، فجأة غيرت الأوزان بشكل كبير، صار يطلع |
|
|
|
344 |
|
00:28:36,780 --> 00:28:41,570 |
|
معها error وبعدين كانت مقتربة، بس ايش؟ التغيير |
|
|
|
345 |
|
00:28:41,570 --> 00:28:45,550 |
|
اللي حصل كان تغيير كبير في الأوزان، خلها تفشل عن.. |
|
|
|
346 |
|
00:28:45,550 --> 00:28:50,290 |
|
زي ما هم بيقولوها، تخطي الصواب، وصارت الاشياء تبعد، و |
|
|
|
347 |
|
00:28:50,290 --> 00:28:54,430 |
|
بعدين صارت تتردد ثانية، بس لما ردت ما رجعتش على الصواب، |
|
|
|
348 |
|
00:28:54,430 --> 00:28:57,890 |
|
فشلت عنه بـ.. فصار.. فايش فيه مشكلة؟ المشكلة أنها |
|
|
|
349 |
|
00:28:57,890 --> 00:29:01,450 |
|
بتخطي خطوات واسعة، فأنا بضيق الخطوات هذه، كيف بضيق |
|
|
|
350 |
|
00:29:01,450 --> 00:29:08,770 |
|
الخطوات؟ بنزل الاشياء، الـ alpha، الـ learning rate، فإذا |
|
|
|
351 |
|
00:29:08,770 --> 00:29:19,460 |
|
كان الـ sign خلاص، فأقول إذا هي مش stable sign |
|
|
|
352 |
|
00:29:19,460 --> 00:29:25,700 |
|
of SSE alternates، |
|
|
|
353 |
|
00:29:25,700 --> 00:29:29,960 |
|
معناه |
|
|
|
354 |
|
00:29:29,960 --> 00:29:34,880 |
|
ذلك، decrease ألفا، |
|
|
|
355 |
|
00:29:34,880 --> 00:29:39,830 |
|
decrease ألفا، برضه يكون عندي كمان، بتقدر تتخيل يعني |
|
|
|
356 |
|
00:29:39,830 --> 00:29:48,910 |
|
هنا هو مثلاً الـ decrease، |
|
|
|
357 |
|
00:29:48,910 --> 00:29:56,070 |
|
بأنه بضربها بـ 70%، بـ 7 من 10، يعني بنزلها 30%، تمام؟ و |
|
|
|
358 |
|
00:29:56,070 --> 00:30:03,790 |
|
الـ increase بضربها في 1.05، واضح؟ تمام؟ فهنا |
|
|
|
359 |
|
00:30:03,790 --> 00:30:10,570 |
|
بوريلك كيف أنه هاي الـ Epochs ماشية، وفي ده الـ دي |
|
|
|
360 |
|
00:30:10,570 --> 00:30:18,250 |
|
الـ learning rate قاعد بتساعد نتيجة تطبيق ايش؟ هذي |
|
|
|
361 |
|
00:30:18,250 --> 00:30:23,250 |
|
تمام؟ قاعد بيحسب لك أنه الـ error، الـ software |
|
|
|
362 |
|
00:30:23,250 --> 00:30:26,810 |
|
errors قاعد في النازل، صح؟ في النازل، يعني إشارته |
|
|
|
363 |
|
00:30:26,810 --> 00:30:32,170 |
|
دائماً موجبة، مظبوط؟ بقى أطرح السابق، وبقى أطرح منه |
|
|
|
364 |
|
00:30:32,170 --> 00:30:37,960 |
|
اللاحق، وطلع موجب، فهو بسبب أنه هذا موجب، التغير |
|
|
|
365 |
|
00:30:37,960 --> 00:30:44,780 |
|
موجب، اه التغير موجب، فهو عمال بيرفع، ليش؟ في اللي |
|
|
|
366 |
|
00:30:44,780 --> 00:30:49,000 |
|
عند حد معين، جاب |
|
|
|
367 |
|
00:30:49,000 --> 00:30:53,540 |
|
الـ الـ |
|
|
|
368 |
|
00:30:53,540 --> 00:30:59,840 |
|
alpha بدأت تنزل، و نزولها، لأن وضعها في 0.7، النزول |
|
|
|
369 |
|
00:30:59,840 --> 00:31:04,000 |
|
أسرع أو أشد من الصعود، صعود تدريجي بسيط 5% كل مرة، |
|
|
|
370 |
|
00:31:04,000 --> 00:31:11,240 |
|
إنما هنا 30% كل مرة، فبدأت تنزل نزلة جامدة، مين هي |
|
|
|
371 |
|
00:31:11,240 --> 00:31:14,980 |
|
اللي هو الـ learning rate نزل نزل جامدة، مع النزلة |
|
|
|
372 |
|
00:31:14,980 --> 00:31:20,640 |
|
هذه، بدأ يقترب من ايش؟ من، بوريك فعلياً هذا الأسلوب |
|
|
|
373 |
|
00:31:20,640 --> 00:31:22,440 |
|
في الاقتراب من |
|
|
|
374 |
|
00:31:25,600 --> 00:31:33,420 |
|
من الـ error المخفض بوقت أقل، 100 epoch بدلاً من 126 |
|
|
|
375 |
|
00:31:33,420 --> 00:31:39,920 |
|
epoch، هذا |
|
|
|
376 |
|
00:31:39,920 --> 00:31:45,280 |
|
الآن استخدم الـ momentum مع برضه هذه الـ heuristic، |
|
|
|
377 |
|
00:31:45,280 --> 00:31:48,960 |
|
إقبال adaptive، ايش يعني adaptive؟ يعني لما نقول |
|
|
|
378 |
|
00:31:48,960 --> 00:31:53,100 |
|
adapter، ايش يعني adapter؟ يعني محول، adaptive يعني |
|
|
|
379 |
|
00:31:53,100 --> 00:31:58,260 |
|
أنه يتحول ويغير من تلقاء نفسه، ماهو اللي بتغير من |
|
|
|
380 |
|
00:31:58,260 --> 00:32:02,240 |
|
تلقاء نفسه الـ learning rate لوحده بناء على |
|
|
|
381 |
|
00:32:02,240 --> 00:32:07,980 |
|
استشعاره لـ sign تبع من الـ sum of square arrows، |
|
|
|
382 |
|
00:32:07,980 --> 00:32:12,180 |
|
هو نفسه من تلقاء نفسها الـ network بتغير في الـ |
|
|
|
383 |
|
00:32:12,180 --> 00:32:15,460 |
|
learning rate تبعها، عشان ذلك اسم هذا الكلام |
|
|
|
384 |
|
00:32:15,460 --> 00:32:19,680 |
|
adaptive learning، فلما اندمج الـ two techniques الـ |
|
|
|
385 |
|
00:32:19,680 --> 00:32:26,480 |
|
adaptive learning مع الـ momentum، صار عندي اختصار |
|
|
|
386 |
|
00:32:26,480 --> 00:32:32,160 |
|
لسه أكثر، صرنا بنصل إلى |
|
|
|
387 |
|
00:32:32,160 --> 00:32:35,780 |
|
الـ zero |
|
|
|
388 |
|
00:32:35,780 --> 00:32:41,280 |
|
تقريباً error، ومعناه مش zero، هذا الكلام واحد من ألف، نقص |
|
|
|
389 |
|
00:32:41,280 --> 00:32:45,580 |
|
ألف، نقص ثلاث يعني واحد من الألف، يعني مش zero، |
|
|
|
390 |
|
00:32:46,700 --> 00:32:50,940 |
|
ما بدناش بالظبط 0، يعني ممكن تبقى صعب جداً أنّه الـ |
|
|
|
391 |
|
00:32:50,940 --> |