File size: 43,321 Bytes
6586e8a
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
570
571
572
573
574
575
576
577
578
579
580
581
582
583
584
585
586
587
588
589
590
591
592
593
594
595
596
597
598
599
600
601
602
603
604
605
606
607
608
609
610
611
612
613
614
615
616
617
618
619
620
621
622
623
624
625
626
627
628
629
630
631
632
633
634
635
636
637
638
639
640
641
642
643
644
645
646
647
648
649
650
651
652
653
654
655
656
657
658
659
660
661
662
663
664
665
666
667
668
669
670
671
672
673
674
675
676
677
678
679
680
681
682
683
684
685
686
687
688
689
690
691
692
693
694
695
696
697
698
699
700
701
702
703
704
705
706
707
708
709
710
711
712
713
714
715
716
717
718
719
720
721
722
723
724
725
726
727
728
729
730
731
732
733
734
735
736
737
738
739
740
741
742
743
744
745
746
747
748
749
750
751
752
753
754
755
756
757
758
759
760
761
762
763
764
765
766
767
768
769
770
771
772
773
774
775
776
777
778
779
780
781
782
783
784
785
786
787
788
789
790
791
792
793
794
795
796
797
798
799
800
801
802
803
804
805
806
807
808
809
810
811
812
813
814
815
816
817
818
819
820
821
822
823
824
825
826
827
828
829
830
831
832
833
834
835
836
837
838
839
840
841
842
843
844
845
846
847
848
849
850
851
852
853
854
855
856
857
858
859
860
861
862
863
864
865
866
867
868
869
870
871
872
873
874
875
876
877
878
879
880
881
882
883
884
885
886
887
888
889
890
891
892
893
894
895
896
897
898
899
900
901
902
903
904
905
906
907
908
909
910
911
912
913
914
915
916
917
918
919
920
921
922
923
924
925
926
927
928
929
930
931
932
933
934
935
936
937
938
939
940
941
942
943
944
945
946
947
948
949
950
951
952
953
954
955
956
957
958
959
960
961
962
963
964
965
966
967
968
969
970
971
972
973
974
975
976
977
978
979
980
981
982
983
984
985
986
987
988
989
990
991
992
993
994
995
996
997
998
999
1000
1001
1002
1003
1004
1005
1006
1007
1008
1009
1010
1011
1012
1013
1014
1015
1016
1017
1018
1019
1020
1021
1022
1023
1024
1025
1026
1027
1028
1029
1030
1031
1032
1033
1034
1035
1036
1037
1038
1039
1040
1041
1042
1043
1044
1045
1046
1047
1048
1049
1050
1051
1052
1053
1054
1055
1056
1057
1058
1059
1060
1061
1062
1063
1064
1065
1066
1067
1068
1069
1070
1071
1072
1073
1074
1075
1076
1077
1078
1079
1080
1081
1082
1083
1084
1085
1086
1087
1088
1089
1090
1091
1092
1093
1094
1095
1096
1097
1098
1099
1100
1101
1102
1103
1104
1105
1106
1107
1108
1109
1110
1111
1112
1113
1114
1115
1116
1117
1118
1119
1120
1121
1122
1123
1124
1125
1126
1127
1128
1129
1130
1131
1132
1133
1134
1135
1136
1137
1138
1139
1140
1141
1142
1143
1144
1145
1146
1147
1148
1149
1150
1151
1152
1153
1154
1155
1156
1157
1158
1159
1160
1161
1162
1163
1164
1165
1166
1167
1168
1169
1170
1171
1172
1173
1174
1175
1176
1177
1178
1179
1180
1181
1182
1183
1184
1185
1186
1187
1188
1189
1190
1191
1192
1193
1194
1195
1196
1197
1198
1199
1200
1201
1202
1203
1204
1205
1206
1207
1208
1209
1210
1211
1212
1213
1214
1215
1216
1217
1218
1219
1220
1221
1222
1223
1224
1225
1226
1227
1228
1229
1230
1231
1232
1233
1234
1235
1236
1237
1238
1239
1240
1241
1242
1243
1244
1245
1246
1247
1248
1249
1250
1251
1252
1253
1254
1255
1256
1257
1258
1259
1260
1261
1262
1263
1264
1265
1266
1267
1268
1269
1270
1271
1272
1273
1274
1275
1276
1277
1278
1279
1280
1281
1282
1283
1284
1285
1286
1287
1288
1289
1290
1291
1292
1293
1294
1295
1296
1297
1298
1299
1300
1301
1302
1303
1304
1305
1306
1307
1308
1309
1310
1311
1312
1313
1314
1315
1316
1317
1318
1319
1320
1321
1322
1323
1324
1325
1326
1327
1328
1329
1330
1331
1332
1333
1334
1335
1336
1337
1338
1339
1340
1341
1342
1343
1344
1345
1346
1347
1348
1349
1350
1351
1352
1353
1354
1355
1356
1357
1358
1359
1360
1361
1362
1363
1364
1365
1366
1367
1368
1369
1370
1371
1372
1373
1374
1375
1376
1377
1378
1379
1380
1381
1382
1383
1384
1385
1386
1387
1388
1389
1390
1391
1392
1393
1394
1395
1396
1397
1398
1399
1400
1401
1402
1403
1404
1405
1406
1407
1408
1409
1410
1411
1412
1413
1414
1415
1416
1417
1418
1419
1420
1421
1422
1423
1424
1425
1426
1427
1428
1429
1430
1431
1432
1433
1434
1435
1436
1437
1438
1439
1440
1441
1442
1443
1444
1445
1446
1447
1448
1449
1450
1451
1452
1453
1454
1455
1456
1457
1458
1459
1460
1461
1462
1463
1464
1465
1466
1467
1468
1469
1470
1471
1472
1473
1474
1475
1476
1477
1478
1479
1480
1481
1482
1483
1484
1485
1486
1487
1488
1489
1490
1491
1492
1493
1494
1495
1496
1497
1498
1499
1500
1501
1502
1503
1504
1505
1506
1507
1508
1509
1510
1511
1512
1513
1514
1515
1516
1517
1518
1519
1520
1521
1522
1523
1524
1525
1526
1527
1528
1529
1530
1531
1532
1533
1534
1535
1536
1537
1538
1539
1540
1541
1542
1543
1544
1545
1546
1547
1548
1549
1550
1551
1552
1553
1554
1555
1556
1557
1558
1559
1560
1561
1562
1563
1564
1565
1566
1567
1568
1569
1570
1571
1572
1573
1574
1575
1576
1577
1578
1579
1580
1581
1582
1583
1584
1585
1586
1587
1588
1589
1590
1591
1592
1593
1594
1595
1596
1597
1598
1599
1600
1601
1602
1603
1604
1605
1606
1607
1608
1609
1610
1611
1612
1613
1614
1615
1616
1617
1618
1619
1620
1621
1622
1623
1624
1625
1
00:00:20,650 --> 00:00:23,110
بسم الله الرحمن الرحيم احنا اليوم ان شاء الله بدنا

2
00:00:23,110 --> 00:00:26,450
نكمل الموضوع اللي فتحناه قبل هيكه في المحاضرات

3
00:00:26,450 --> 00:00:32,610
الماضية اللي هو ال artificial neural networks ال

4
00:00:32,610 --> 00:00:35,670
supervised learning باستخدام ال artificial neural

5
00:00:35,670 --> 00:00:42,570
networks كنا في المحاضرة الماضية حكينا عن اللي هو

6
00:00:42,570 --> 00:00:48,290
ال Perceptron وشوفنا قالية العمل تبعتهو آلية

7
00:00:48,290 --> 00:00:53,090
التعلم اللي هي مقصودة بالتعديل الأوزاني و بعدين

8
00:00:53,090 --> 00:00:57,270
كمان ايضا اطلعنا على ال multi-layered networks ال

9
00:00:57,270 --> 00:01:00,270
multi-layered networks اللي هي عبارة عن شبكة من ال

10
00:01:00,270 --> 00:01:05,850
perceptrons الشبكة هذه مهيكلة على أساس layers و ال

11
00:01:05,850 --> 00:01:08,890
layers كل layer فيها مجموعة من ال perceptrons

12
00:01:08,890 --> 00:01:13,090
بتغذي المجموعة اللي بعدها أو ال layer اللي بعدها

13
00:01:14,080 --> 00:01:18,840
وشوفنا آلية الآن التعلم في ال multilayer networks

14
00:01:18,840 --> 00:01:23,080
صح آلية التعلم المفصولة بها مرة أخرى اللي هي آلية

15
00:01:23,080 --> 00:01:27,420
تعديل الأوزان وشوفنا كيف بتختلف آلية تعديل الأوزان

16
00:01:27,420 --> 00:01:36,000
في ال output يرعنها في ال hidden layer صح الآن

17
00:01:36,000 --> 00:01:40,290
احنا بدنانلقي نظرة أخيرة على ال multilayer

18
00:01:40,290 --> 00:01:44,510
networks بعدين بنحكي في جزئية صغيرة اللي هي ال

19
00:01:44,510 --> 00:01:48,610
accelerating اللي هي النقطة هذه ماضح النقطة هذه

20
00:01:48,610 --> 00:01:53,170
اللي هي accelerated learning المقصود بيها تسريع

21
00:01:53,170 --> 00:01:56,710
عملية التعلم عملية التعلم احنا فاهمين انها بتحصل

22
00:01:56,710 --> 00:02:04,390
على شكل ايش iterations iterations مظبوط وسمينا كل

23
00:02:04,390 --> 00:02:08,630
مجموعة من ال iterations سمينها epo صحالـ Epoch هو

24
00:02:08,630 --> 00:02:14,970
دفعة أو short من ال iterations عملية التسريع هو

25
00:02:14,970 --> 00:02:21,870
تقليل عدد ال iterations بدل من أن ال network تأخذ

26
00:02:21,870 --> 00:02:29,940
400 دورة 400 iterations قبل أن تستقر الأوزانلما

27
00:02:29,940 --> 00:02:33,020
بنقول احنا بدنا نسرع لقليلة التعلم، معناه ذلك

28
00:02:33,020 --> 00:02:36,240
الأربعمية هدولة بدنا نختصرهم أو بنجللهم إلى تلت

29
00:02:36,240 --> 00:02:42,100
مية، إلى متين، إلى مية ربما، بدون أن ننطقش من دقة

30
00:02:42,100 --> 00:02:48,290
التعلمهذه النقطة اللي هي المقصود بها اللي هو

31
00:02:48,290 --> 00:02:52,730
accelerated learning او ممكن نقول accelerating ال

32
00:02:52,730 --> 00:02:55,570
learning يعني تسريع التعلم في ال multi neural

33
00:02:55,570 --> 00:02:59,390
networks بعد ما نخلص النقطة هذه ان شاء الله بنتطلع

34
00:02:59,390 --> 00:03:03,250
على ال hub field network و ال BAM اللي هي

35
00:03:03,250 --> 00:03:07,010
bidirectional associative memories هدولة نوعين من

36
00:03:07,010 --> 00:03:13,420
ال artificial neural networksاللي بينطور تحت إطار

37
00:03:13,420 --> 00:03:18,200
اللي هو supervised learning طيب، إيش قلنا بدنا

38
00:03:18,200 --> 00:03:20,640
نبدأ في الأول بإيش؟ بإننا نلقي نظرة أخيرة على ال

39
00:03:20,640 --> 00:03:23,920
multilayer neural networks اللي كنا حكينا فيها من

40
00:03:23,920 --> 00:03:28,400
قبل بدنا نتقل على طريقة ال slide اللي فيها ال

41
00:03:28,400 --> 00:03:34,040
example اللي تبع تتذكروا تبع إيش؟ تبع تدريب ال

42
00:03:34,040 --> 00:03:41,100
network علىاللي هو ال XOR ال XOR gate او ال XOR

43
00:03:41,100 --> 00:03:44,900
function ذاكرين

44
00:03:44,900 --> 00:03:49,700
هذا المثال اما كنا بنحكي انه هاي ال neural network

45
00:03:49,700 --> 00:03:54,920
في عندنا التلاتة nodes هدولة node رقم تلاتة و رقم

46
00:03:54,920 --> 00:03:58,020
اربعة هدولة تابعين لأنهي layer ال hidden layer

47
00:03:58,020 --> 00:04:03,460
مظبوط ال hidden layer صح و ال output layer ايش

48
00:04:03,460 --> 00:04:07,660
فيهافيها node واحدة اللي هي node number five صح

49
00:04:07,660 --> 00:04:13,200
لأن ال input بيدخل ب X1 و X2 على node number one و

50
00:04:13,200 --> 00:04:16,700
node number two ملاحظين هدول ال two nodes شكلهم

51
00:04:16,700 --> 00:04:22,780
مربع لتمييزهم عن من عن ال nodes الأخرى مميزين بإيش

52
00:04:22,780 --> 00:04:26,300
إيش الفرق ما بينهم إن هدول ما بيعملوش أي

53
00:04:27,210 --> 00:04:31,330
calculations مابعملوش أي computation صح مجرد اللي

54
00:04:31,330 --> 00:04:35,890
بيدخل عليهم بتوزع علي مين علي بعدهم okay يبقى احنا

55
00:04:35,890 --> 00:04:39,730
عمليا في المثال هذا يوم ما بدنا نيجي نحسب و نعد

56
00:04:39,730 --> 00:04:42,990
الأوزان و نعد الأوزان بس تلاتة و أربعة و خمسة

57
00:04:42,990 --> 00:04:47,470
مظبوط بنبدأ من مين من الخمسة في الأول بالظبط لإن

58
00:04:47,470 --> 00:04:52,080
الخمسة هي اللي عندها desired outputو هي اللى بتقدر

59
00:04:52,080 --> 00:04:55,460
تعرف ال error او تحسب ال error و بعدها بتطلع ال

60
00:04:55,460 --> 00:04:59,420
error بتعدل أوزانها و بعدها بترحل ال error

61
00:04:59,420 --> 00:05:02,820
gradient الى مين الى تلاتة و أربعة ال error

62
00:05:02,820 --> 00:05:07,900
gradient اللى ذكره هو small delta بترحل الى تلاتة

63
00:05:07,900 --> 00:05:10,740
و الى أربعة عشان كل واحدة منهم تلاتة و أربعة تحسب

64
00:05:10,740 --> 00:05:15,230
ال error تبعها ال error gradient تبعها يعنيعشان

65
00:05:15,230 --> 00:05:18,730
تعدّل أوزانها بناء عليه هذه الكلام هي total طبعا

66
00:05:18,730 --> 00:05:22,710
هنا في ال slide هذه بيعقيلك ال initial values تبع

67
00:05:22,710 --> 00:05:30,390
ال ايش الأوزان

68
00:05:30,390 --> 00:05:34,230
ال threshold

69
00:05:34,230 --> 00:05:41,980
that theta صح؟ مصبوط؟بعد ذلك هنا بيبدأ الحسبة أول

70
00:05:41,980 --> 00:05:46,260
شيء بيحسب ال Y3 ال output اللي بدي يطلع من Y3

71
00:05:46,260 --> 00:05:53,100
مظبوط بس احنا قلنا أول حاجة بدي تم تعديل الأوزان

72
00:05:53,100 --> 00:05:59,840
فيها على Y5 طب ليش بدأنا في Y3 و Y4؟ لأن وصل ال Y5

73
00:06:01,600 --> 00:06:05,000
بتعرف كيف تحسب ال output تبعها لازم يجيها input من

74
00:06:05,000 --> 00:06:09,120
وين بتجيها ال input من Y3 و Y4 يبقى لازم أحسب Y3 و

75
00:06:09,120 --> 00:06:13,800
Y4 ليش بدهم يطلعوا عشان نسلموا ل Y5 عشان Y5 تحسب

76
00:06:13,800 --> 00:06:16,580
ال output تبعها تبعها دلوقت لإن شوف إيش فيه error

77
00:06:16,580 --> 00:06:22,180
و اترحل تاني يعني احنا forward propagation

78
00:06:22,180 --> 00:06:26,140
of data و backward propagation of error

79
00:06:26,140 --> 00:06:31,070
information صح؟ okayهي الآن بعد ما طلعت ويتلت و ..

80
00:06:31,070 --> 00:06:34,050
من حسب ويتلت و .. طبعا ويتلت ال activation

81
00:06:34,050 --> 00:06:37,870
function استخدمت اللي هي ال sigmoid ال sigmoid

82
00:06:37,870 --> 00:06:41,270
طبعا يوم ما يكون في عندك مثلة أو امتحان أو كده ال

83
00:06:41,270 --> 00:06:44,830
formula هتبدو مواطية لك انت بس مجرد ايش بتاخد

84
00:06:44,830 --> 00:06:48,110
الأرقام و بتطلع ال output ال output لأن ال sigmoid

85
00:06:48,110 --> 00:06:51,330
بتطلع continuous values يعني ايش يعني أرقام عشرية

86
00:06:51,330 --> 00:06:58,750
مش binary زي مين زي ال stepو ليش؟ بال pulse

87
00:06:58,750 --> 00:07:04,010
function صح؟ okay فالان هذه ال continuous values

88
00:07:04,010 --> 00:07:07,870
او ال real values او ال float values بتدخش على مين

89
00:07:07,870 --> 00:07:12,350
على Y5 تنضرب في الأوزن تبعها و تتاخذ مع ال

90
00:07:12,350 --> 00:07:16,750
threshold عشان تطلع ال output تبع Y5 من هنا الأن

91
00:07:16,750 --> 00:07:20,610
نبدأ نشوف ليش ال error ال error اللي انا بنحسب هو

92
00:07:20,610 --> 00:07:24,610
عبارة عن ببساطة ال difference ما بين ال desired ال

93
00:07:24,610 --> 00:07:32,080
desired لما كانلما يكون عندي انا ال X واحد X واحد

94
00:07:32,080 --> 00:07:36,240
انا بقشر هنا X واحد و X اتنين الاتنين ال input ال

95
00:07:36,240 --> 00:07:41,340
value تبعهم one one one لازم ال X core function

96
00:07:41,340 --> 00:07:42,120
تعطيني ايش

97
00:07:50,560 --> 00:07:54,460
Y5 يفترض أن يكون Zero بس ماهو اللي بيطلع معنا هنا

98
00:07:54,460 --> 00:07:56,580
في ال calculation هذا يفترض أن يكون Zero بس ماهو

99
00:07:56,580 --> 00:07:56,920
اللي بيطلع معنا هنا في ال calculation هذا يفترض أن

100
00:07:56,920 --> 00:07:56,960
يكون Zero بس ماهو اللي بيطلع معنا هنا في ال

101
00:07:56,960 --> 00:08:03,540
calculation هذا يفترض أن يكون Zero بس

102
00:08:03,540 --> 00:08:05,000
ماهو اللي بيطلع معنا هنا في ال calculation هذا

103
00:08:05,000 --> 00:08:06,320
يفترض أن يكون Zero بس ماهو اللي بيطلع معنا هنا في

104
00:08:07,180 --> 00:08:09,700
الـ small delta تبعه هاي الخمسة اللي هي ايش اسمها

105
00:08:09,700 --> 00:08:13,220
ال error gradient شوف أنا وين بقشر هنا ال error

106
00:08:13,220 --> 00:08:18,200
gradient اذا ذكروها هذا المصطلح ان هو ال small

107
00:08:18,200 --> 00:08:23,070
deltaال aero gradient هذا لما بنحسب بعد هيكة على

108
00:08:23,070 --> 00:08:27,630
أساسه تتعدى للأوزان الأوزان تبعون ال inputs اللي

109
00:08:27,630 --> 00:08:33,890
داخلة على Y خمسة صح؟ من هم هدول الأوزان W تلاتة

110
00:08:33,890 --> 00:08:38,190
خمسة و W أربعة خمسة ليش أسميهم هيكة لإن واحد منهم

111
00:08:38,190 --> 00:08:42,670
جاي من تلاتة إلى خمسة والتاني جاي من أربعة إلى

112
00:08:42,670 --> 00:08:47,470
خمسة او الاصح ان احنا نقول واحد منهم هو وزن ال

113
00:08:47,470 --> 00:08:51,610
input اللي جايمن ثلاثة إلى خمسة والتاني هو وزن ال

114
00:08:51,610 --> 00:08:56,910
input اللي جاي من أربعة إلى خمسة صح؟ طبعا فأول اشي

115
00:08:56,910 --> 00:09:00,370
عشان نعدل الأوزن نحسب ال delta تبع الوزن مقدار

116
00:09:00,370 --> 00:09:08,390
التغير بعدين بنضيف ذلك على ال current أو ال weight

117
00:09:08,390 --> 00:09:13,250
الوزن الحالي عشان يطلع معانا وزن جديد نفس الاشي

118
00:09:13,250 --> 00:09:18,000
بنعمل لمين؟الـ Theta ، الـ Threshold لاحظوا أن

119
00:09:18,000 --> 00:09:20,900
عملي التعليل الأوزان ببساطة شديدة يعني الـ Delta

120
00:09:20,900 --> 00:09:22,880
يبقى عبارة عن الـ Alpha اللي هو ال learning rate

121
00:09:22,880 --> 00:09:28,920
مضروب في ال .. قيمة ال input اللي بيخش عبر هذا

122
00:09:28,920 --> 00:09:33,740
الوزن مضروب في ال Delta small Delta اللي هي ال

123
00:09:33,740 --> 00:09:38,840
Delta 5 فهي Delta 5 موجودة في التلت حسبات

124
00:09:40,110 --> 00:09:44,130
طيب هذا الكلام ايش خلصنا ده هذا الكلام بس لحساب

125
00:09:44,130 --> 00:09:48,210
الأوزان تبعد من ال input اللي داخلها على مين على

126
00:09:48,210 --> 00:09:52,450
y5 لازم نعيد نفس الاشي لل inputs اللي داخلها على

127
00:09:52,450 --> 00:10:01,630
y3 و y4 صح؟ okay هذا الكلام نفس القاليم بس طبعا

128
00:10:01,630 --> 00:10:05,270
لازم في الأول كل واحدة من y3 و y5 تحسب ال error

129
00:10:05,270 --> 00:10:09,520
gradient تبعها اللي هو ال small delta تبعتهاوبعدين

130
00:10:09,520 --> 00:10:15,220
عليه small delta تدخل

131
00:10:15,220 --> 00:10:19,040
في حساب الأوزان اللي رايح على تلاتة وبعدين small

132
00:10:19,040 --> 00:10:21,860
delta تبعد أربعة تدخل في حساب الأوزان اللي رايح

133
00:10:21,860 --> 00:10:29,800
على أربعة انا الآن بدل ما اني طبعا هنا بعد هيك

134
00:10:29,800 --> 00:10:35,020
الأوزان اللي هو w واحد على تلاتة واحد على أربعة

135
00:10:35,020 --> 00:10:37,840
اتنين على تلاتة اتنين على اربعة تلاتة على خمسة

136
00:10:37,840 --> 00:10:44,500
تلاتة على اربعةOkay بدل أنا الآن نمر بهذا الحساب

137
00:10:44,500 --> 00:10:48,900
خطوة خطوة لأ أنا بدي أجيب و أقولك الآن اعتبر انت

138
00:10:48,900 --> 00:10:53,340
بدك تكمل المثال هذا ال iteration اللي بعت هذ ال

139
00:10:53,340 --> 00:10:56,880
iteration الأولى ولا لأ لإن هذ ال iteration انبنت

140
00:10:56,880 --> 00:11:01,760
على ال initial ال initialish values تبع الأوزان

141
00:11:01,760 --> 00:11:07,610
مصبوط انت الآن خد هذاو خد ال input اللي بعده مين

142
00:11:07,610 --> 00:11:09,750
ال input اللي بعده اذا كان ال input الأولاني كان

143
00:11:09,750 --> 00:11:17,430
one one خد zero one x1 ب zero و x2 ب one و عيد

144
00:11:17,430 --> 00:11:25,890
الكرة من جديد بالأوزان اللي هذه اللي نتجت من نهاية

145
00:11:25,890 --> 00:11:28,390
ال iteration الأولى انت الآن بدك تحسب ال iteration

146
00:11:28,390 --> 00:11:33,310
التانية بتقدر تعمل هذا الكلام ولا لا بتقدر اذا

147
00:11:33,310 --> 00:11:37,740
أعطيناك homework ان شاء الله بتقدرلأ فخلاص هي الان

148
00:11:37,740 --> 00:11:42,260
homework هي الان homework مطموعة منك أيش تسوي تعيد

149
00:11:42,260 --> 00:11:47,140
الكلام ده كله لل iteration number two عشان تطلع

150
00:11:47,140 --> 00:11:52,140
أيش في الآخر الأوزان يعني في الآخر بدك تطلع صفحة

151
00:11:52,140 --> 00:11:59,710
زي هيك فيها أوزان جديدةاللي بدها تجف عندها اللي هو

152
00:11:59,710 --> 00:12:02,110
ال iteration التاني في نهاية ال iteration التاني

153
00:12:02,110 --> 00:12:05,870
ايش هتكون قيمة الأوزان الجديدة و ال thresholds

154
00:12:05,870 --> 00:12:11,430
جديدة okay طيب هيك بنكون احنا القيل النظر الأخير

155
00:12:11,430 --> 00:12:16,470
على عملية ال back propagation learning واضح ليش

156
00:12:16,470 --> 00:12:20,150
اسمها back propagation لأن احنا بنحمل ال error

157
00:12:20,150 --> 00:12:25,100
لوراعلى ال layers من ال outward على ال hidden ال

158
00:12:25,100 --> 00:12:28,600
hidden طبعا ممكن تبقى layer واحدة او اكتر نين ممكن

159
00:12:28,600 --> 00:12:33,880
two hidden layers ماشي

160
00:12:33,880 --> 00:12:37,240
هاد الان احنا بدنا نحكي في ال acceleration كيف

161
00:12:37,240 --> 00:12:44,540
يمكن تسريع التسريع ال learning هذا ال curve لو

162
00:12:44,540 --> 00:12:50,300
لاحظت عليه ايش بيمثل علاقة ايش بايش هنا epoقول

163
00:12:50,300 --> 00:12:53,940
iterations لأن ال book الواحد هي مجموعة iterations

164
00:12:53,940 --> 00:12:57,300
فانا هنا من zero عشان خمسين مية مية خمسين ميتين

165
00:12:57,300 --> 00:13:02,580
اقصد بيها ايش ميتين iterations مية خمسين

166
00:13:02,580 --> 00:13:07,980
iterations كل ما بزيد عدد ال iterations يفترض ان

167
00:13:07,980 --> 00:13:15,020
ال error ايش بيصير فيه بيجل بيتنقص احنا الآن ال

168
00:13:15,020 --> 00:13:18,490
errorأحيانا ال network بتبقى ال output layer

169
00:13:18,490 --> 00:13:23,890
تبعتها فيها ال node واحدة فهو error واحد مصبوط

170
00:13:23,890 --> 00:13:28,410
أحيانا بيبقى ال layer الأخيرة بيبقى فيها عد تش

171
00:13:29,090 --> 00:13:32,310
notes وبالتالي ال error في عندي error للأولى error

172
00:13:32,310 --> 00:13:35,630
للتانية عدة errors مصموم فإحنا لو جينا ببساطة

173
00:13:35,630 --> 00:13:39,870
شديدة ربعنا ال errors هذه وجمعنا مربعاتهم بيطلع

174
00:13:39,870 --> 00:13:43,870
عني هنا some square error some square error يعني

175
00:13:43,870 --> 00:13:52,170
مقصود بمجموع مربعات ال errors تابعة من تابعة

176
00:13:52,170 --> 00:13:58,630
ال notesهناك أيضا تدخل في الحسبة هالي ال errors

177
00:13:58,630 --> 00:14:02,670
تبع ال hidden layers ال hidden nodes برضه ممكن

178
00:14:02,670 --> 00:14:05,790
نيجي نقول خلينا نجمع كل ال nodes اللي في ال

179
00:14:05,790 --> 00:14:10,410
network سواء output nodes ولا hidden nodes و نجمع

180
00:14:10,410 --> 00:14:14,910
ال errors تبعه منهم طبعا نعبيها في الأول و نجمع

181
00:14:14,910 --> 00:14:19,540
بيطلع معايا some square errorsome square error هذا

182
00:14:19,540 --> 00:14:24,480
يصلح أن يكون مؤشر على إيش على أداء الشبكة أداء ال

183
00:14:24,480 --> 00:14:28,460
network هل تعلمت أو لا صح لأن كل ما عليه ال error

184
00:14:28,460 --> 00:14:32,940
هذا معناته هي لسه لسه

185
00:14:32,940 --> 00:14:37,360
بتخطط لسه بتخطط صح طب احنا في الأول ليش بنربّل

186
00:14:37,360 --> 00:14:41,040
نعمل تربيع ال error ليش ما ناخده زي ما هو قولنا

187
00:14:41,040 --> 00:14:44,340
هذا لأن بعض ال errors بتبقى بالموجب وبعض بالسالب

188
00:14:44,340 --> 00:14:47,560
لو جمعناهم هم ممكن يصفروا بعضهم

189
00:14:50,980 --> 00:14:54,800
مربعهم على انه مؤشر صح لكن لما نبقى ربع ال errors

190
00:14:54,800 --> 00:14:59,200
الموجب والسالب بيصير موجب و لا لأ المربعات بيصير

191
00:14:59,200 --> 00:15:03,900
موجب فنقدر ننظر اليش الي مجموع المربعات على انه

192
00:15:03,900 --> 00:15:08,660
مؤشر على ايش مؤشر

193
00:15:08,660 --> 00:15:15,620
على ايش مؤشر على التعلم جد جيشي تعلمتفهذا الخط

194
00:15:15,620 --> 00:15:20,460
الأزرق أزرق بطالة أزرق أزرق لما بينزل هيكا معناته

195
00:15:20,460 --> 00:15:28,320
إيش مع استمرار عملية التعلم جاعد إيش ال error بجل

196
00:15:28,320 --> 00:15:33,740
صح مع استمرار تشغيل ال iterations ال error جاعد

197
00:15:33,740 --> 00:15:38,940
بجل فإحنا الآن لما بقول accelerating معناته بدنا

198
00:15:38,940 --> 00:15:45,170
ينزل للصفر الصفرهو بعدد ايش اقل من ال iterations

199
00:15:45,170 --> 00:15:49,670
فبنتقل

200
00:15:49,670 --> 00:15:55,410
الان الى هذا ال slide

201
00:15:55,410 --> 00:15:59,830
هناOkay هي بداية اللي هو اللي حاكي عن ال

202
00:15:59,830 --> 00:16:04,770
accelerated learning اعتبرها accelerating learning

203
00:16:04,770 --> 00:16:10,190
يعني ان هو احنا نسرع عملية التعلم ففي عندنا عدة

204
00:16:10,190 --> 00:16:14,350
techniques او عدة خطوات او إجراءات ممكن تنعمل

205
00:16:14,350 --> 00:16:17,650
تغيير بسيطة تغييرات بسيطة على تصميم ال neural

206
00:16:17,650 --> 00:16:21,410
network عساس انه تخلي عملية التعلم أسرع شوية واحدة

207
00:16:21,410 --> 00:16:27,410
منها اللي هي انه ال outputيعني ال .. ال .. ال

208
00:16:27,410 --> 00:16:30,010
sigmoid function اللي على .. اللي هي ال activation

209
00:16:30,010 --> 00:16:36,670
function يعاد صياغتها بهذا الصينةبهذا السبب اللي

210
00:16:36,670 --> 00:16:40,790
هو انه احنا يكون في عندي two constants a و b ال

211
00:16:40,790 --> 00:16:45,730
two constants a و b هدولة ينحسب ال ال y اللي هو ال

212
00:16:45,730 --> 00:16:49,910
output تبع ال perceptron او النود الواحدة بهذه

213
00:16:49,910 --> 00:16:52,890
القلية بدل ما بهذه ال equation بدل ال equation

214
00:16:52,890 --> 00:16:55,650
الأساسية هذه ال equation هي عبارة عن ال equation

215
00:16:55,650 --> 00:16:59,890
تمثل sigmoid functionمش إش جديد بس صياغة أخرى

216
00:16:59,890 --> 00:17:05,370
إليها الصياغة هذه بتساعد على تسريع اختصار وجد يعني

217
00:17:05,370 --> 00:17:11,460
تغيير الأوزان بكميات أكبر وصولا إلي إيشوصولا الى

218
00:17:11,460 --> 00:17:17,880
اوزان بتعطي error اقل فهذه الطريقة الأولى اللي هي

219
00:17:17,880 --> 00:17:22,860
استخدام ال hyperbolic tangent function او صيغة ال

220
00:17:22,860 --> 00:17:26,540
hyperbolic tangent تبع ال sigmoid function بدل ال

221
00:17:26,540 --> 00:17:30,460
direct sigmoid هذا الكلام مش هوصفه ليش لأنه بده

222
00:17:30,460 --> 00:17:32,980
mathematical foundation حل ال mathematical

223
00:17:32,980 --> 00:17:39,640
foundation ل .. ل .. ليش؟

224
00:17:41,620 --> 00:17:46,340
لـ course يكون في الجزء النظري أكتر فإحنا الآن

225
00:17:46,340 --> 00:17:49,560
بدنا ننتقل على هذا هو الطريقة الأولى هذا الطريقة

226
00:17:49,560 --> 00:17:53,880
الأولى لتسريع عملية التعلم طريقة تانية اللي هو

227
00:17:53,880 --> 00:17:57,300
إحنا نستخدم حاجة اسمها momentum term اتطلع على

228
00:17:57,300 --> 00:18:01,860
المعادلة هذه اتطلع على الشق هذا هل الشق هذا شفناه

229
00:18:01,860 --> 00:18:05,600
قبل هيك أول شيء ايش اللي على اليسار اللي يساوي

230
00:18:05,600 --> 00:18:12,400
اللي هو ال delta W اللي هو إيشفرق الوزن بالعادة

231
00:18:12,400 --> 00:18:16,380
احنا بنعرف ان فرق الوزن هو في المحصلة هيك بس مجرد

232
00:18:16,380 --> 00:18:21,280
ال alpha مضروبة في ال input مضروبة في small delta

233
00:18:21,280 --> 00:18:25,700
للأ اذكركم في هذا الكلام هيتوا ارجع هنا ورا شوية

234
00:18:25,700 --> 00:18:30,980
ارجع هنا ورا شوية هيتوا هي delta صح عبارة عن ايش

235
00:18:30,980 --> 00:18:35,450
alpha مضروبة في XX اللي هي ال inputمضروف ليس في

236
00:18:35,450 --> 00:18:38,410
دلتا دلتا اللي هي error gradient تبع ال node نفسها

237
00:18:38,410 --> 00:18:43,530
اللي نحسب لها تلاتة او زمن الداخلة عليها من واحد و

238
00:18:43,530 --> 00:18:53,830
من اتنين مبدئيا للي مش حافظ تعديل الوزن delta w هي

239
00:18:53,830 --> 00:18:56,690
عبارة عن ببساطة learning rate

240
00:18:59,110 --> 00:19:02,870
مضروب في ال input اللى داخل على ال node من هذا

241
00:19:02,870 --> 00:19:07,810
الوزن مضروب في ال gradient طيب ايش الاستجاد

242
00:19:07,810 --> 00:19:11,710
الاستجاد هذا ال band هذا او هذا ال term هذا ال

243
00:19:11,710 --> 00:19:14,790
term اللى هو ال momentum term momentum يعني الدفع

244
00:19:14,790 --> 00:19:18,450
بيعطي الدفع لعملية التعلمة هو ببساطة شديدة عبارة

245
00:19:18,450 --> 00:19:22,970
عن beta هي عبارة عن constant صغير ما بين ال zero

246
00:19:22,970 --> 00:19:28,630
والواحد مضروب في ايشمضروف في ايش؟ في الـ delta

247
00:19:28,630 --> 00:19:33,190
point يعني بدنا الآن ال network تتذكر ال delta

248
00:19:33,190 --> 00:19:39,050
السابق احنا نحسب ال delta تبع P و بنقول انه بدنا

249
00:19:39,050 --> 00:19:44,210
ال delta تبع P نقص واحد يعني ايش؟ ال delta السابق

250
00:19:44,210 --> 00:19:50,310
مش الوزن السابق مش W لأ delta W بدنا ناخده هذا

251
00:19:51,510 --> 00:19:57,390
نحتفظ فيه للدورة اللاحقة عشان نضربه في مين في ال

252
00:19:57,390 --> 00:20:04,590
beta هذا الكلام بشكل دفع لمين لعملية التعلم وهذا

253
00:20:04,590 --> 00:20:11,070
ال beta قيمة تتراوح من zero لواحد عادة تبتد قريبة

254
00:20:11,070 --> 00:20:17,690
من الواحد قريبة من الواحد يعني 0.95 مثلا فهذا اللي

255
00:20:17,690 --> 00:20:18,150
هو الآن

256
00:20:27,380 --> 00:20:32,280
two methods او two measures او two steps او two

257
00:20:32,280 --> 00:20:41,980
techniques ليش for accelerating أول

258
00:20:41,980 --> 00:20:42,920
واحد ايش كانت؟

259
00:21:01,740 --> 00:21:06,060
الثاني استخدام ايش

260
00:21:06,060 --> 00:21:11,540
momentum constant term لأ ال constant هو جزء من ال

261
00:21:11,540 --> 00:21:15,100
term هذا هو كله عبارة عن ال momentum term تتكوّل

262
00:21:15,100 --> 00:21:20,260
من حاجتين مضروبات في بعض اللي هم ال momentum

263
00:21:20,260 --> 00:21:26,540
constant اللي هي beta مضربة في ال W تبعت ال

264
00:21:26,540 --> 00:21:34,100
iteration السابقهذا ال term بينجمع على ال term

265
00:21:34,100 --> 00:21:40,240
الأصلي تبع تعديل الأوزان اللي هو ال alpha مضروبة

266
00:21:40,240 --> 00:21:48,820
في ال input مضروبة في ال error gradient error

267
00:21:48,820 --> 00:21:54,780
gradient اللي هي small delta تمام؟

268
00:21:54,780 --> 00:21:57,800
إيش

269
00:21:57,800 --> 00:22:02,890
غير إيك؟ هدولا طريقتين اللي قاله إيشأو أسلوبين لـ

270
00:22:02,890 --> 00:22:10,710
Accelerating Learning غير هيكة هذا المثال نفس

271
00:22:10,710 --> 00:22:20,270
المثال اللي قبل هيكة بوريها كيف ال

272
00:22:20,270 --> 00:22:27,770
learning rate هنا ثابت ماتغيرش ثابت و ال error

273
00:22:27,770 --> 00:22:37,800
بينزل ال error بينزلصار بدل ما أخدت بدل

274
00:22:37,800 --> 00:22:44,280
ما تاخد 200 iteration عشان يقترب ال error من ال

275
00:22:44,280 --> 00:22:52,340
zero أخدت جداش 126

276
00:22:52,340 --> 00:22:57,120
epo او iteration مش مشكلة المهم القصد أنه انضغط

277
00:22:57,120 --> 00:23:03,340
الأمر من 200 إلى 126هذا باستخدام ال momentum term

278
00:23:03,340 --> 00:23:11,320
لما أضيف ال momentum term على تصميم formula تعديل

279
00:23:11,320 --> 00:23:18,920
الوزن صار اختزل او جل الوجد الى 126 ابوك بدل 200

280
00:23:18,920 --> 00:23:25,340
ابوك الآن اضافة إلى هذول ال two techniques رقم

281
00:23:25,340 --> 00:23:27,360
تلاتة اللى هو ال heuristics

282
00:23:33,520 --> 00:23:37,660
plastics هذو لا فيها any tools rule بتقول إنه إذا

283
00:23:37,660 --> 00:23:43,780
كان أنا قاعد باجمع اللي هو إيش ال sum of square

284
00:23:43,780 --> 00:23:46,940
errors إيش هو ال sum of square errors بتذكرها لو

285
00:23:46,940 --> 00:23:51,040
لسه كنا نحكي اللي هو بجمع ال errors تبعد كل ال

286
00:23:51,040 --> 00:23:55,900
nodes و بربعها أولا بخدها بربعها بعدين بجمع

287
00:23:55,900 --> 00:24:01,900
مربعاتها إذا من epo ل epo ال sum of square errors

288
00:24:01,900 --> 00:24:12,120
هذاsome of square errors باستمرار

289
00:24:12,120 --> 00:24:20,060
ال some هذا من

290
00:24:20,060 --> 00:24:26,520
واحد للي بعده اما في ازدياد يعني في الاول كان ال

291
00:24:26,520 --> 00:24:30,780
some نقول مثلا تلاتة بعدين صار اربع بعدين صار خمسة

292
00:24:30,780 --> 00:24:31,280
بعدين ستة

293
00:24:35,780 --> 00:24:45,980
بيزيد او الاكس انه في النزول يعني ال sum تبع هذا

294
00:24:45,980 --> 00:24:49,400
ال epoch اقل من اللي جابله و اللي بعد اقل و اللي

295
00:24:49,400 --> 00:24:53,220
بعد اقل جاء بتنقص هذا الكلام مش معناته معناته لما

296
00:24:53,220 --> 00:24:58,800
انا بقى اخد الفرق من تلاتة نقص اربعة بيطلع نقص

297
00:24:58,800 --> 00:25:02,220
واحد اربعة نقص خمسة بيطلع نقص واحددائما .. دائما

298
00:25:02,220 --> 00:25:09,020
.. دائما الفرق .. دائما الفرق اشارته بالسلب وهنا

299
00:25:09,020 --> 00:25:13,620
نفس الاشي برضه سواء كان هو صعودا او هبوطا لما انا

300
00:25:13,620 --> 00:25:17,500
اجي اقول مثلا هذه عشرة و لبعدها تسعة و لبعدها

301
00:25:17,500 --> 00:25:21,800
تمانية عشر اناقص تسعة واحد تسعة اناقص تمانية واحد

302
00:25:21,800 --> 00:25:29,120
فالفرق دائما اشارته موجبة هنا دائما اشارته السلبة

303
00:25:31,690 --> 00:25:37,390
إذا دايما هيك .. إذا دايما .. إذا ال change of the

304
00:25:37,390 --> 00:25:42,510
sum of square .. change .. ال change .. التغير

305
00:25:42,510 --> 00:25:45,510
يعني هنا من عشر إلى تسعة و تسعة إذا دايما هذا ال

306
00:25:45,510 --> 00:25:49,130
change .. كيف أنا بحسب ال change؟ باخد الفرق إذا

307
00:25:49,130 --> 00:25:54,310
دايما هذا الفرق بحافظ على نفس ال signنفس الإشارة

308
00:25:54,310 --> 00:25:58,190
اما دايما موجبة او دايما سالبة يبقى انا في عندي

309
00:25:58,190 --> 00:26:03,250
اضطراد انا في عندي حاجة اسمها ال .. ال .. ال .. ال

310
00:26:03,250 --> 00:26:05,830
.. ال .. ال .. ال .. ال .. ال .. ال .. ال .. ال ..

311
00:26:05,830 --> 00:26:06,070
ال .. ال .. ال .. ال .. ال .. ال .. ال .. ال .. ال

312
00:26:06,070 --> 00:26:06,150
.. ال .. ال .. ال .. ال .. ال .. ال .. ال .. ال ..

313
00:26:06,150 --> 00:26:06,370
ال .. ال .. ال .. ال .. ال .. ال .. ال .. ال .. ال

314
00:26:06,370 --> 00:26:06,690
.. ال .. ال .. ال .. ال .. ال .. ال .. ال .. ال ..

315
00:26:06,690 --> 00:26:07,830
ال .. ال .. ال .. ال .. ال .. ال .. ال .. ال .. ال

316
00:26:07,830 --> 00:26:07,950
.. ال .. ال .. ال .. ال .. ال .. ال .. ال .. ال ..

317
00:26:07,950 --> 00:26:11,010
ال .. ال .. ال .. ال .. ال .. ال .. ال ..

318
00:26:11,010 --> 00:26:11,010
ال .. ال .. ال .. ال .. ال .. ال .. ال .. ال .. ال

319
00:26:11,010 --> 00:26:15,430
.. ال .. ال .. ال .. ال .. ال .. ال .. ال ..

320
00:26:15,430 --> 00:26:20,430
ال ..

321
00:26:20,430 --> 00:26:26,230
ال .. الفي ال square في sum of square errors يبقى

322
00:26:26,230 --> 00:26:33,570
أنا المفروض أسرع أزيد ال alpha فإذا كان اختصر هذا

323
00:26:33,570 --> 00:26:39,770
ال linguistic كالتالي إذا كانت ال sign of sum of

324
00:26:39,770 --> 00:26:42,570
square errors ولا حد الاختصار

325
00:26:51,530 --> 00:26:54,230
و بعدها كلمة stable ايش هان stable؟ يعني مافيش

326
00:26:54,230 --> 00:26:59,310
فيها تذبذب مش مرة زائد و مرة ناقص يعني مش انه مرة

327
00:26:59,310 --> 00:27:05,390
تلاقي هيك هنا الفرق هذا ناقص هذا سالب سالب بعد هيك

328
00:27:05,390 --> 00:27:09,710
الفرق صار موجب مظبوط؟ هنا مافيش فرق هنا صار سالب

329
00:27:09,710 --> 00:27:13,110
سالب سالب هنا موجب هذا تذبذب في ايش؟ في ال sign

330
00:27:13,110 --> 00:27:21,150
إذا كان ال sign is stable فإيش بسوي increase alpha

331
00:27:22,950 --> 00:27:25,930
ألفة اللي هي learning rate وشوفتها في واحدة من

332
00:27:25,930 --> 00:27:30,210
الأمثلة كانت 0.1 increase يعني بخليها 0.2 مثلا

333
00:27:30,210 --> 00:27:36,270
بخليها 0.3 او بقيت و بقول بدي اضربها دايما بيزيدها

334
00:27:36,270 --> 00:27:43,910
ب 5% يعني 0.1 بدي أثير 0.105 يعني بخلي بمخصر أن

335
00:27:43,910 --> 00:27:51,070
ألفة تساوي ألفة ضرب واحد هذا معناته بيزيدها ب 5%

336
00:27:52,090 --> 00:27:57,250
ممكن أقول لأ ده زي ده 15% ممكن أقول ده زي ده 25%

337
00:27:57,250 --> 00:28:02,350
المهم أنا بقى أثبت ليه نسبة زيادة امتى بتزيد امتى

338
00:28:02,350 --> 00:28:05,290
بقى طابت ده الكلام لما قاللي انه ال sign ثابت

339
00:28:05,290 --> 00:28:12,790
العكس من ذلك إذا ال algebraic sign of ال change ال

340
00:28:12,790 --> 00:28:16,950
change اللي هو يعني مقصود يتغير في ال alternates

341
00:28:16,950 --> 00:28:21,190
session alternates يتذبذب مرة أخر مرة موجة مرة

342
00:28:21,190 --> 00:28:25,760
سالباللي هو معناه ذلك .. معناه ذلك في عندي ال ..

343
00:28:25,760 --> 00:28:31,620
ال network مرة بتقترب .. مرة بتقترب و بجل ال error

344
00:28:31,620 --> 00:28:36,780
و مرة بتبعد فجيها غيرت الأوزان بشكل كبير صار يطلع

345
00:28:36,780 --> 00:28:41,570
معاها error و بعدين كانت مقتربة، بس إيش؟التغيير

346
00:28:41,570 --> 00:28:45,550
اللي حصل كان تغيير كبير في الأوزان خلها تفشج عن ..

347
00:28:45,550 --> 00:28:50,290
زي ما هم بيقولها تخطي الصواب و صارت الاش تبعد و

348
00:28:50,290 --> 00:28:54,430
بعدين صارت تترد تاني بس لما ردت مارجعتش على الصواب

349
00:28:54,430 --> 00:28:57,890
فشجت عنه ب .. فصار .. فإيش فيه مشكلة؟ المشكلة أنها

350
00:28:57,890 --> 00:29:01,450
بتخطي خطوات واسعة فانا بضيق الخطوات هذه كيف بضيق

351
00:29:01,450 --> 00:29:08,770
الخطوات؟ بنزل الاش ال alpha ال learning rate فإذا

352
00:29:08,770 --> 00:29:19,460
كان ال signخلاص فأقول S إذا هي مش stable sign

353
00:29:19,460 --> 00:29:25,700
of SSE alternates

354
00:29:25,700 --> 00:29:29,960
معناه

355
00:29:29,960 --> 00:29:34,880
ذلك decrease الألف

356
00:29:34,880 --> 00:29:39,830
decrease الألف برضه يكون عندي كمانبتقدر تتخيل يعني

357
00:29:39,830 --> 00:29:48,910
هنا هو مثلا ال decrease

358
00:29:48,910 --> 00:29:56,070
بأنه بضربها ب 70% ب 7 من 10 يعني بنزلها 30% تمام و

359
00:29:56,070 --> 00:30:03,790
ال increase بضربها في 1 و 5 من 100 واضح تمام فهنا

360
00:30:03,790 --> 00:30:10,570
بوريلك كيف انه هايالـ Epochs ماشية و في ده ال دي

361
00:30:10,570 --> 00:30:18,250
ال learning rate قاعد بتساعد نتيجة تطبيق إيش؟ هذي

362
00:30:18,250 --> 00:30:23,250
تمام؟ قاعد بيحسب لجأ أنه ال error ال software

363
00:30:23,250 --> 00:30:26,810
errors قاعد في النازل صح في النازل يعني إشارته

364
00:30:26,810 --> 00:30:32,170
دايما موجبة مظبوط؟ بقى أطرح السابق و بقى أطرح منه

365
00:30:32,170 --> 00:30:37,960
اللاحق و طلعت موجب فهو بسبب أنه هذا موجبالتغير

366
00:30:37,960 --> 00:30:44,780
موجب اه التغير موجب فهو عمار بيرفع في ليش في اللي

367
00:30:44,780 --> 00:30:49,000
عند حد معين جلب

368
00:30:49,000 --> 00:30:53,540
ال ال

369
00:30:53,540 --> 00:30:59,840
alphaبدأت تنزل و نزولها لأن وضعها في 0.7 النزول

370
00:30:59,840 --> 00:31:04,000
أسرع أو أحد من الصعود صعود تدريج بسيط 5% كل مرة

371
00:31:04,000 --> 00:31:11,240
انما هنا 30% كل مرة فبدأت تنزل نزلة جامدة مين هي

372
00:31:11,240 --> 00:31:14,980
اللي هو ال learning rate نزل نزل جامدة مع النزلة

373
00:31:14,980 --> 00:31:20,640
هذه بدأ يقترب من ايش من بوريلك فعلية هذا الأسلوب

374
00:31:20,640 --> 00:31:22,440
في الاقتراب من

375
00:31:25,600 --> 00:31:33,420
من ال error المخفض بوقت أقل 100 epoch بدلا من 126

376
00:31:33,420 --> 00:31:39,920
epoch هذا

377
00:31:39,920 --> 00:31:45,280
الأن استخدم ال momentum مع برضه هذه الهيروستيك

378
00:31:45,280 --> 00:31:48,960
اقبال adaptive ايش يعني adaptive يعني لما نقول

379
00:31:48,960 --> 00:31:53,100
adapter ايش يعني adapter يعني محولadaptive يعني

380
00:31:53,100 --> 00:31:58,260
أنه يتحول ويغير من تلقاء نفسه ماهو اللي بتغير من

381
00:31:58,260 --> 00:32:02,240
تلقاء نفسه ال learning rate لوحده بناء على

382
00:32:02,240 --> 00:32:07,980
استشعاره لل sign تبعت من ال sum of square arrows

383
00:32:07,980 --> 00:32:12,180
هو نفسه من تلقاء نفسها ال network بتغير في ال

384
00:32:12,180 --> 00:32:15,460
learning rate تبعها عشان ذلك اسم هذا الكلام

385
00:32:15,460 --> 00:32:19,680
adaptive learning فلما اندمج ال two techniques ال

386
00:32:19,680 --> 00:32:26,480
adaptive learning مع علمmomentum صار عندي اختصار

387
00:32:26,480 --> 00:32:32,160
لسه اكتر صرنا بنصل الى

388
00:32:32,160 --> 00:32:35,780
ال zero

389
00:32:35,780 --> 00:32:41,280
تقريبا error ومعناه مش zero هذا الكلام واحد اص نقص

390
00:32:41,280 --> 00:32:45,580
اشهر اص نقص ثلاث يعني واحد من الألف يعني مش zero

391
00:32:46,700 --> 00:32:50,940
مابدناش بالظبط 00 يعني ممكن تبقى صعب جدا انه ال

392
00:32:50,940 --> 00:32:56,100
network تصل لل zero لكن ممكن نقبل بأنها تصل لواحد

393
00:32:56,100 --> 00:33:01,580
من الف error ال error يصل لواحد من الف صح طيب ماشي

394
00:33:01,580 --> 00:33:06,000
الحال okay الان هنا الكلام بيوصلنا لنهاية اللي

395
00:33:06,000 --> 00:33:08,920
حاكي عن ال back propagation networks ولكن لأسف

396
00:33:08,920 --> 00:33:14,460
ماقلش معنى وقت نبدأ في ال hub field ال hub field

397
00:33:14,460 --> 00:33:19,080
networkو ال BAM فبناخدهم في المحاضرة الجاية ان شاء

398
00:33:19,080 --> 00:33:23,900
الله تمام؟ يبقى احنا الآن عمليا باختصار المحاضرة

399
00:33:23,900 --> 00:33:28,940
اليوم كانت تكملة ل ال back propagation networks

400
00:33:28,940 --> 00:33:33,960
اللي هو واحد من أنواع ال unsupervised artificial

401
00:33:33,960 --> 00:33:36,680
neural networks المحاضرة الجاية ان شاء الله بنكمل

402
00:33:36,680 --> 00:33:39,940
النوعين التانيات اللي هو ال hot field و ال BAM

403
00:33:39,940 --> 00:33:46,360
اللي هو في واقع الأمر نوع واحد بس منه نسختينو إذا

404
00:33:46,360 --> 00:33:49,600
ضال معانا وجد نبدأ في ليش؟ في ال super .. في ال

405
00:33:49,600 --> 00:33:54,420
unsupervised .. في ال unsupervised artificial

406
00:33:54,420 --> 00:33:55,140
neural networks