File size: 73,050 Bytes
4b6d5de
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
238
239
240
241
242
243
244
245
246
247
248
249
250
251
252
253
254
255
256
257
258
259
260
261
262
263
264
265
266
267
268
269
270
271
272
273
274
275
276
277
278
279
280
281
282
283
284
285
286
287
288
289
290
291
292
293
294
295
296
297
298
299
300
301
302
303
304
305
306
307
308
309
310
311
312
313
314
315
316
317
318
319
320
321
322
323
324
325
326
327
328
329
330
331
332
333
334
335
336
337
338
339
340
341
342
343
344
345
346
347
348
349
350
351
352
353
354
355
356
357
358
359
360
361
362
363
364
365
366
367
368
369
370
371
372
373
374
375
376
377
378
379
380
381
382
383
384
385
386
387
388
389
390
391
392
393
394
395
396
397
398
399
400
401
402
403
404
405
406
407
408
409
410
411
412
413
414
415
416
417
418
419
420
421
422
423
424
425
426
427
428
429
430
431
432
433
434
435
436
437
438
439
440
441
442
443
444
445
446
447
448
449
450
451
452
453
454
455
456
457
458
459
460
461
462
463
464
465
466
467
468
469
470
471
472
473
474
475
476
477
478
479
480
481
482
483
484
485
486
487
488
489
490
491
492
493
494
495
496
497
498
499
500
501
502
503
504
505
506
507
508
509
510
511
512
513
514
515
516
517
518
519
520
521
522
523
524
525
526
527
528
529
530
531
532
533
534
535
536
537
538
539
540
541
542
543
544
545
546
547
548
549
550
551
552
553
554
555
556
557
558
559
560
561
562
563
564
565
566
567
568
569
570
571
572
573
574
575
576
577
578
579
580
581
582
583
584
585
586
587
588
589
590
591
592
593
594
595
596
597
598
599
600
601
602
603
604
605
606
607
608
609
610
611
612
613
614
615
616
617
618
619
620
621
622
623
624
625
626
627
628
629
630
631
632
633
634
635
636
637
638
639
640
641
642
643
644
645
646
647
648
649
650
651
652
653
654
655
656
657
658
659
660
661
662
663
664
665
666
667
668
669
670
671
672
673
674
675
676
677
678
679
680
681
682
683
684
685
686
687
688
689
690
691
692
693
694
695
696
697
698
699
700
701
702
703
704
705
706
707
708
709
710
711
712
713
714
715
716
717
718
719
720
721
722
723
724
725
726
727
728
729
730
731
732
733
734
735
736
737
738
739
740
741
742
743
744
745
746
747
748
749
750
751
752
753
754
755
756
757
758
759
760
761
762
763
764
765
766
767
768
769
770
771
772
773
774
775
776
777
778
779
780
781
782
783
784
785
786
787
788
789
790
791
792
793
794
795
796
797
798
799
800
801
802
803
804
805
806
807
808
809
810
811
812
813
814
815
816
817
818
819
820
821
822
823
824
825
826
827
828
829
830
831
832
833
834
835
836
837
838
839
840
841
842
843
844
845
846
847
848
849
850
851
852
853
854
855
856
857
858
859
860
861
862
863
864
865
866
867
868
869
870
871
872
873
874
875
876
877
878
879
880
881
882
883
884
885
886
887
888
889
890
891
892
893
894
895
896
897
898
899
900
901
902
903
904
905
906
907
908
909
910
911
912
913
914
915
916
917
918
919
920
921
922
923
924
925
926
927
928
929
930
931
932
933
934
935
936
937
938
939
940
941
942
943
944
945
946
947
948
949
950
951
952
953
954
955
956
957
958
959
960
961
962
963
964
965
966
967
968
969
970
971
972
973
974
975
976
977
978
979
980
981
982
983
984
985
986
987
988
989
990
991
992
993
994
995
996
997
998
999
1000
1001
1002
1003
1004
1005
1006
1007
1008
1009
1010
1011
1012
1013
1014
1015
1016
1017
1018
1019
1020
1021
1022
1023
1024
1025
1026
1027
1028
1029
1030
1031
1032
1033
1034
1035
1036
1037
1038
1039
1040
1041
1042
1043
1044
1045
1046
1047
1048
1049
1050
1051
1052
1053
1054
1055
1056
1057
1058
1059
1060
1061
1062
1063
1064
1065
1066
1067
1068
1069
1070
1071
1072
1073
1074
1075
1076
1077
1078
1079
1080
1081
1082
1083
1084
1085
1086
1087
1088
1089
1090
1091
1092
1093
1094
1095
1096
1097
1098
1099
1100
1101
1102
1103
1104
1105
1106
1107
1108
1109
1110
1111
1112
1113
1114
1115
1116
1117
1118
1119
1120
1121
1122
1123
1124
1125
1126
1127
1128
1129
1130
1131
1132
1133
1134
1135
1136
1137
1138
1139
1140
1141
1142
1143
1144
1145
1146
1147
1148
1149
1150
1151
1152
1153
1154
1155
1156
1157
1158
1159
1160
1161
1162
1163
1164
1165
1166
1167
1168
1169
1170
1171
1172
1173
1174
1175
1176
1177
1178
1179
1180
1181
1182
1183
1184
1185
1186
1187
1188
1189
1190
1191
1192
1193
1194
1195
1196
1197
1198
1199
1200
1201
1202
1203
1204
1205
1206
1207
1208
1209
1210
1211
1212
1213
1214
1215
1216
1217
1218
1219
1220
1221
1222
1223
1224
1225
1226
1227
1228
1229
1230
1231
1232
1233
1234
1235
1236
1237
1238
1239
1240
1241
1242
1243
1244
1245
1246
1247
1248
1249
1250
1251
1252
1253
1254
1255
1256
1257
1258
1259
1260
1261
1262
1263
1264
1265
1266
1267
1268
1269
1270
1271
1272
1273
1274
1275
1276
1277
1278
1279
1280
1281
1282
1283
1284
1285
1286
1287
1288
1289
1290
1291
1292
1293
1294
1295
1296
1297
1298
1299
1300
1301
1302
1303
1304
1305
1306
1307
1308
1309
1310
1311
1312
1313
1314
1315
1316
1317
1318
1319
1320
1321
1322
1323
1324
1325
1326
1327
1328
1329
1330
1331
1332
1333
1334
1335
1336
1337
1338
1339
1340
1341
1342
1343
1344
1345
1346
1347
1348
1349
1350
1351
1352
1353
1354
1355
1356
1357
1358
1359
1360
1361
1362
1363
1364
1365
1366
1367
1368
1369
1370
1371
1372
1373
1374
1375
1376
1377
1378
1379
1380
1381
1382
1383
1384
1385
1386
1387
1388
1389
1390
1391
1392
1393
1394
1395
1396
1397
1398
1399
1400
1401
1402
1403
1404
1405
1406
1407
1408
1409
1410
1411
1412
1413
1414
1415
1416
1417
1418
1419
1420
1421
1422
1423
1424
1425
1426
1427
1428
1429
1430
1431
1432
1433
1434
1435
1436
1437
1438
1439
1440
1441
1442
1443
1444
1445
1446
1447
1448
1449
1450
1451
1452
1453
1454
1455
1456
1457
1458
1459
1460
1461
1462
1463
1464
1465
1466
1467
1468
1469
1470
1471
1472
1473
1474
1475
1476
1477
1478
1479
1480
1481
1482
1483
1484
1485
1486
1487
1488
1489
1490
1491
1492
1493
1494
1495
1496
1497
1498
1499
1500
1501
1502
1503
1504
1505
1506
1507
1508
1509
1510
1511
1512
1513
1514
1515
1516
1517
1518
1519
1520
1521
1522
1523
1524
1525
1526
1527
1528
1529
1530
1531
1532
1533
1534
1535
1536
1537
1538
1539
1540
1541
1542
1543
1544
1545
1546
1547
1548
1549
1550
1551
1552
1553
1554
1555
1556
1557
1558
1559
1560
1561
1562
1563
1564
1565
1566
1567
1568
1569
1570
1571
1572
1573
1574
1575
1576
1577
1578
1579
1580
1581
1582
1583
1584
1585
1586
1587
1588
1589
1590
1591
1592
1593
1594
1595
1596
1597
1598
1599
1600
1601
1602
1603
1604
1605
1606
1607
1608
1609
1610
1611
1612
1613
1614
1615
1616
1617
1618
1619
1620
1621
1622
1623
1624
1625
1626
1627
1628
1629
1630
1631
1632
1633
1634
1635
1636
1637
1638
1639
1640
1641
1642
1643
1644
1645
1646
1647
1648
1649
1650
1651
1652
1653
1654
1655
1656
1657
1658
1659
1660
1661
1662
1663
1664
1665
1666
1667
1668
1669
1670
1671
1672
1673
1674
1675
1676
1677
1678
1679
1680
1681
1682
1683
1684
1685
1686
1687
1688
1689
1690
1691
1692
1693
1694
1695
1696
1697
1698
1699
1700
1701
1702
1703
1704
1705
1706
1707
1708
1709
1710
1711
1712
1713
1714
1715
1716
1717
1718
1719
1720
1721
1722
1723
1724
1725
1726
1727
1728
1729
1730
1731
1732
1733
1734
1735
1736
1737
1738
1739
1740
1741
1742
1743
1744
1745
1746
1747
1748
1749
1750
1751
1752
1753
1754
1755
1756
1757
1758
1759
1760
1761
1762
1763
1764
1765
1766
1767
1768
1769
1770
1771
1772
1773
1774
1775
1776
1777
1778
1779
1780
1781
1782
1783
1784
1785
1786
1787
1788
1789
1790
1791
1792
1793
1794
1795
1796
1797
1798
1799
1800
1801
1802
1803
1804
1805
1806
1807
1808
1809
1810
1811
1812
1813
1814
1815
1816
1817
1818
1819
1820
1821
1822
1823
1824
1825
1826
1827
1828
1829
1830
1831
1832
1833
1834
1835
1836
1837
1838
1839
1840
1841
1842
1843
1844
1845
1846
1847
1848
1849
1850
1851
1852
1853
1854
1855
1856
1857
1858
1859
1860
1861
1862
1863
1864
1865
1866
1867
1868
1869
1870
1871
1872
1873
1874
1875
1876
1877
1878
1879
1880
1881
1882
1883
1884
1885
1886
1887
1888
1889
1890
1891
1892
1893
1894
1895
1896
1897
1898
1899
1900
1901
1902
1903
1904
1905
1906
1907
1908
1909
1910
1911
1912
1913
1914
1915
1916
1917
1918
1919
1920
1921
1922
1923
1924
1925
1926
1927
1928
1929
1930
1931
1932
1933
1934
1935
1936
1937
1938
1939
1940
1941
1942
1943
1944
1945
1946
1947
1948
1949
1950
1951
1952
1953
1954
1955
1956
1957
1958
1959
1960
1961
1962
1963
1964
1965
1966
1967
1968
1969
1970
1971
1972
1973
1974
1975
1976
1977
1978
1979
1980
1981
1982
1983
1984
1985
1986
1987
1988
1989
1990
1991
1992
1993
1994
1995
1996
1997
1998
1999
2000
2001
2002
2003
2004
2005
2006
2007
2008
2009
2010
2011
2012
2013
2014
2015
2016
2017
2018
2019
2020
2021
2022
2023
2024
2025
2026
2027
2028
2029
2030
2031
2032
2033
2034
2035
2036
2037
2038
2039
2040
2041
2042
2043
2044
2045
2046
2047
2048
2049
2050
2051
2052
2053
2054
2055
2056
2057
2058
2059
2060
2061
2062
2063
2064
2065
2066
2067
2068
2069
2070
2071
2072
2073
2074
2075
2076
2077
2078
2079
2080
2081
2082
2083
2084
2085
2086
2087
2088
2089
2090
2091
2092
2093
2094
2095
2096
2097
2098
2099
2100
2101
2102
2103
2104
2105
2106
2107
2108
2109
2110
2111
2112
2113
2114
2115
2116
2117
2118
2119
2120
2121
2122
2123
2124
2125
2126
2127
2128
2129
2130
2131
2132
2133
2134
2135
2136
2137
2138
2139
2140
2141
2142
2143
2144
2145
2146
2147
2148
2149
2150
2151
2152
2153
2154
2155
2156
2157
2158
2159
2160
2161
2162
2163
2164
2165
2166
2167
2168
2169
2170
2171
2172
2173
2174
2175
2176
2177
2178
2179
2180
2181
2182
2183
2184
2185
2186
2187
2188
2189
2190
2191
2192
2193
2194
2195
2196
2197
2198
2199
2200
2201
2202
2203
2204
2205
2206
2207
2208
2209
2210
2211
2212
2213
2214
2215
2216
2217
2218
2219
2220
2221
2222
2223
2224
2225
2226
2227
2228
2229
2230
2231
2232
2233
2234
2235
2236
2237
2238
2239
2240
2241
2242
2243
2244
2245
2246
2247
2248
2249
2250
2251
2252
2253
2254
2255
2256
2257
2258
2259
2260
2261
2262
2263
2264
2265
2266
2267
2268
2269
2270
2271
2272
2273
2274
2275
2276
2277
2278
2279
2280
2281
2282
2283
2284
2285
2286
2287
2288
2289
2290
2291
2292
2293
2294
2295
2296
2297
2298
2299
2300
2301
2302
2303
2304
2305
2306
2307
2308
2309
2310
2311
2312
2313
2314
2315
2316
2317
2318
2319
2320
2321
2322
2323
2324
2325
2326
2327
2328
2329
2330
2331
2332
2333
2334
2335
2336
2337
2338
2339
2340
2341
2342
2343
2344
2345
2346
2347
2348
2349
2350
2351
2352
2353
2354
2355
2356
2357
2358
2359
2360
2361
2362
2363
2364
2365
2366
2367
2368
2369
2370
2371
2372
2373
2374
2375
2376
2377
2378
2379
2380
2381
2382
2383
2384
2385
2386
2387
2388
2389
2390
2391
2392
2393
2394
2395
2396
2397
2398
2399
2400
2401
2402
2403
2404
2405
2406
2407
2408
2409
2410
2411
2412
2413
2414
2415
2416
2417
2418
2419
2420
2421
2422
2423
2424
2425
2426
2427
2428
2429
2430
2431
2432
2433
2434
2435
2436
2437
2438
2439
2440
2441
2442
2443
2444
2445
2446
2447
2448
2449
2450
2451
2452
2453
2454
2455
2456
2457
2458
2459
2460
2461
2462
2463
2464
2465
2466
2467
2468
2469
2470
2471
2472
2473
2474
2475
2476
2477
2478
2479
2480
2481
2482
2483
2484
2485
2486
2487
2488
2489
2490
2491
2492
2493
2494
2495
2496
2497
2498
2499
2500
2501
2502
2503
2504
2505
2506
2507
2508
2509
2510
2511
2512
2513
2514
2515
2516
2517
2518
2519
2520
2521
2522
2523
2524
2525
2526
2527
2528
2529
2530
2531
2532
2533
2534
2535
2536
2537
2538
2539
2540
2541
2542
2543
2544
2545
2546
2547
2548
2549
2550
2551
2552
2553
2554
2555
2556
2557
2558
2559
2560
2561
2562
2563
2564
2565
2566
2567
2568
2569
2570
2571
2572
2573
2574
2575
2576
2577
2578
2579
2580
2581
2582
2583
2584
2585
2586
2587
2588
2589
2590
2591
2592
2593
2594
2595
2596
2597
2598
2599
1
00:00:05,250 --> 00:00:07,430
بسم الله والحمد لله والصلاة والسلام على رسول الله

2
00:00:07,430 --> 00:00:11,930
اليوم إن شاء الله شباب، هنبدأ بـ Chapter جديد في الـ

3
00:00:11,930 --> 00:00:15,070
data mining، وهنتكلم على أولى الـ data mining tasks

4
00:00:15,070 --> 00:00:20,630
وهي الـ classification. الـ classification لكن قبل

5
00:00:20,630 --> 00:00:24,150
ما أبدأ بالمحاضرة فعلياً، وبالـ slides، بدي أسأل أنا

6
00:00:24,150 --> 00:00:26,270
إيش احنا بنقصد بالـ classification؟

7
00:00:44,700 --> 00:00:53,400
أه محمد، شو يعني classification؟

8
00:00:53,400 --> 00:00:56,580
بدي

9
00:00:56,580 --> 00:00:59,060
أصنف.. شو يعني بدي أصنف؟ أيوة، أنا بدي أقول..

10
00:00:59,060 --> 00:01:04,700
بينهم شغلات مشتركة.

11
00:01:04,700 --> 00:01:09,520
شو رايك؟ مشتركة؟  مرتّب، عفواً، بجسم الـ data على شكل

12
00:01:09,520 --> 00:01:14,720
categories. بجسم الـ data على شكل categories، كريم.

13
00:01:14,720 --> 00:01:20,040
بناءً على ترميز معيّنة، بعمل زي لِبْط بمثل الصدر أو كذا.

14
00:01:20,040 --> 00:01:24,340
طيب، أنا قاعد بسأل شو يعني تصنيف بالعربي؟ شو يعني

15
00:01:24,340 --> 00:01:30,220
تصنيف شغلات بينها أو في عناصر، فيها عناصر مشتركة.

16
00:01:30,220 --> 00:01:38,040
عمار، شو يعني تصنيف؟ تقسيم العناصر إلى مجموعات. طيب.

17
00:01:38,040 --> 00:01:42,200
شو يعني تصنيف يا راني؟ تصنيف شو يعني؟

18
00:01:47,010 --> 00:01:54,950
طيب، لو أنا جيت قلت لك، أه أحمد، تفضل. اعمل sub-class

19
00:01:54,950 --> 00:02:00,410
بناءً على role معيّن، أو subset. طيب لو.. لو أنا جيت

20
00:02:00,410 --> 00:02:09,330
قلت لكم عندي الآن قرصة كتب، مجموعة كتب، وبدنا نصنّفها.

21
00:02:15,120 --> 00:02:19,440
إيش اسمك؟ إبراهيم. إبراهيم، أنا عارف، بعمل تساؤل لك.

22
00:02:19,440 --> 00:02:26,500
سنّوار، حسب إيش بدي أصنّفها؟ ليش يا إبراهيم سألتني

23
00:02:26,500 --> 00:02:32,420
السؤال هذا؟ عشان أنا أقدر.. طب إيش اللي بدك إياه مني

24
00:02:32,420 --> 00:02:36,480
يا إبراهيم، عشان تقدر تصنّفها؟

25
00:02:36,480 --> 00:02:39,660
هو هو أنت صرت إبراهيم الآن؟ أيوة، إيش اللي بدك

26
00:02:39,660 --> 00:02:42,960
يامني، عشان تقدر تصنّفها؟  حتى تقدر تحصر لي شغلات؟

27
00:02:45,760 --> 00:02:50,560
معلومات.. معلومات.. معلومات عن إيش؟ معلومات عن

28
00:02:50,560 --> 00:02:54,680
أستراليا.. معلومات عن أستراليا.. معلومات عن

29
00:02:54,680 --> 00:02:55,440
أستراليا.. معلومات عن أستراليا.. معلومات عن

30
00:02:55,440 --> 00:02:56,680
أستراليا.. معلومات عن أستراليا.. معلومات عن

31
00:02:56,680 --> 00:02:56,920
أستراليا.. معلومات عن أستراليا.. معلومات عن

32
00:02:56,920 --> 00:02:58,800
أستراليا.. معلومات عن أستراليا.. معلومات عن

33
00:02:58,800 --> 00:03:00,320
أستراليا.. معلومات عن أستراليا.. معلومات عن

34
00:03:00,320 --> 00:03:02,840
أستراليا.. معلومات عن أستراليا.. معلومات عن

35
00:03:02,840 --> 00:03:07,340
أستراليا.. معلومات عن أستراليا.. معلومات عن

36
00:03:07,340 --> 00:03:10,880
أستراليا.. معلومات عن أستراليا.. معلومات عن أست

37
00:03:12,100 --> 00:03:16,820
تمام؟ كان كله بيتكلم على clustering أو grouping.

38
00:03:16,820 --> 00:03:21,720
لأن كلكم بتتكلموا، لمجموعات. أصنفهم لمجموعات، أصنفهم

39
00:03:21,720 --> 00:03:27,360
لمجموعات. مش هيك أصنفهم. يعني في عندي predefined

40
00:03:27,360 --> 00:03:32,220
sets. في عندي مجموعات معروفة مسبقاً، والمجموعات هذه

41
00:03:32,220 --> 00:03:38,060
إلها عناوين، وأنت دورك تشوف هل العنصر هذا بيتوافق مع

42
00:03:38,060 --> 00:03:41,440
المجموعة هذه ولا لأ، عشان تحطه تحتها. بينما اللي

43
00:03:41,440 --> 00:03:44,840
كنتوا أنتم بتطرحوه، بتقول أنا بدي أدرس الخصائص

44
00:03:44,840 --> 00:03:50,630
المشتركة بين الكتب، وأجسّمهم لمجموعات. هذا بيسمّيه

45
00:03:50,630 --> 00:03:52,510
احنا في الـ data science أو في الـ data mining

46
00:03:52,510 --> 00:03:57,230
clustering. يا تامر، بيسمّيه clustering أو grouping.

47
00:03:57,230 --> 00:04:04,370
بينما للتصنيف، أنا بقعد فيه عندي مجموعات معرفة

48
00:04:04,370 --> 00:04:08,350
مسبقاً، predefined

49
00:04:08,350 --> 00:04:14,870
groups. ممكن

50
00:04:14,870 --> 00:04:18,680
يكونوا أقل شيء، لازم يكونوا اثنتين. أجل، لازم يكونوا

51
00:04:18,680 --> 00:04:23,600
مجموعتين، وبعدين هي بيجي دوري أنا، بشوف كل object

52
00:04:23,600 --> 00:04:26,780
في الـ data set اللي عندي، أو كل object في الكتب

53
00:04:26,780 --> 00:04:33,440
اللي عندي، بيندرج تحت أي مصنّف؟ تحت أي عنوان من

54
00:04:33,440 --> 00:04:37,020
المجموعات هذه. لو أنا أجيت قلت لك يا همام، الكتب اللي

55
00:04:37,020 --> 00:04:43,400
عندي أنا إما science أو politics أو financial أو

56
00:04:43,400 --> 00:04:45,020
literature، أدب.

57
00:04:47,290 --> 00:04:54,550
اقتصاد، سياسة، علوم، شوف كيف تساوي وعندك مجموعة

58
00:04:54,550 --> 00:04:59,950
الكتب مثل ما هي مكدسة قدامي، شو هتعمل؟ كيف؟ ماشي،

59
00:04:59,950 --> 00:05:09,560
هتفرزهم الآن، شو هتسوي؟ هتمسك كل كتاب..  كمل، على

60
00:05:09,560 --> 00:05:12,820
الأقل أعرف الموضوع اللي بيتكلم فيه الكتاب، يعني

61
00:05:12,820 --> 00:05:18,400
مثلاً كتاب بتكلم عن الاحتلال الإنجليزي لشرق آسيا،

62
00:05:18,400 --> 00:05:26,760
مثلاً بتصنّفه سياسة ولا تاريخ، literature حسب الكتاب

63
00:05:26,760 --> 00:05:30,500
عن إيش بتكلم؟ هل بتكلم مثلاً رؤية سياسية ولا

64
00:05:30,500 --> 00:05:34,480
بتكلم مجرد سرد تاريخي للموضوع، الاحتلال على

65
00:05:34,480 --> 00:05:37,620
التاريخ. جيت وجيت والله، كتاب بتكلم على الـ second

66
00:05:37,620 --> 00:05:38,240
derivative.

67
00:05:41,020 --> 00:05:45,180
Science. لجيت كتاب بتكلم عن الـ poems أو الشعر،

68
00:05:45,180 --> 00:05:48,800
literature. مظبوط؟ هيك صار في عندي أنا الآن

69
00:05:48,800 --> 00:05:52,860
باستخدام الـ knowledge تبعتي، تمام؟ ومعرفتي

70
00:05:52,860 --> 00:05:58,370
بالمجموعات السابقة، بالمجموعات السابقة اللي موجودة

71
00:05:58,370 --> 00:06:02,010
عندي، وبروح إيش بصير؟ آخذ كل كتاب أو كل object

72
00:06:02,010 --> 00:06:06,230
بقرّن الخصائص تبعته، أو بحاول أطلع، أعرف عن إيش بتكلم

73
00:06:06,230 --> 00:06:10,910
الكتاب هذا، وبروح بصنّفه لحاله، بحطه تحت مجموعة أو

74
00:06:10,910 --> 00:06:16,170
تحت أي مجموعة من العناصر اللي موجودة. عامّة، تمام؟

75
00:06:16,170 --> 00:06:22,010
فمعناته الـ classification هي عضوية المجموعات

76
00:06:22,010 --> 00:06:25,950
predefined groups، مجموعات معروفة مسبقاً، وبدي أحدّد

77
00:06:25,950 --> 00:06:31,030
مين العناصر، تمام، اللي ممكن يكونوا تحت المجموعة

78
00:06:31,030 --> 00:06:36,970
اللي عندي الآن. بيفرق عن التقسيم أو الـ clustering.

79
00:06:36,970 --> 00:06:42,840
لو قلت للشباب، أنا بدي أجسّمكم لمجموعات، تمام؟ شغلات

80
00:06:42,840 --> 00:06:45,480
كتيرة ممكن تكون مشتركة، أو شغلات كتيرة ممكن تكون

81
00:06:45,480 --> 00:06:49,840
مختلفة بينكم. عشان لو رحت أنا قلت، بجسّمكم تبع الـ

82
00:06:49,840 --> 00:06:56,300
.. سنة الميلاد، تمام؟ لاحظ أنا في كل الكلام اللي

83
00:06:56,300 --> 00:07:02,620
أنا بقوله، ما لي أي control على.. على عدد

84
00:07:02,620 --> 00:07:05,760
المجموعات. بينما في الـ cluster.. في الـ

85
00:07:05,760 --> 00:07:11,400
classification، عدد المجموعات. طبعاً، بدي أجسّمكم تبعاً

86
00:07:11,400 --> 00:07:16,100
لتاريخ ميلادكم، لسنة الميلاد. كل ناس مولودين في سنة

87
00:07:16,100 --> 00:07:20,840
هذول بيكونوا مجموعة لحالهم. طب لجيت واحد لحاله، أه

88
00:07:20,840 --> 00:07:28,040
هذا، بدوني أعمل مجموعة، ما عنديش مشكلة في الموضوع، لأ.

89
00:07:28,040 --> 00:07:34,940
ممكن أسخّر الـ clustering لخدمة الـ classification. ممكن

90
00:07:34,940 --> 00:07:39,240
أسخّر الـ clustering لخدمة الـ classification، وهذا

91
00:07:39,240 --> 00:07:43,240
بنسميه عادةً semi-supervised learning. إن أنا فعلياً

92
00:07:43,240 --> 00:07:47,480
عندي بعض الـ data، بعض الـ data labeled، وبعض الـ

93
00:07:47,480 --> 00:07:51,560
data.. وكمّ كبير من الـ data unlabeled. فبروح

94
00:07:51,560 --> 00:07:56,580
بجسّمهم لأربع مجموعات حسب معرفتي من هنا، وبطلع في كل

95
00:07:56,580 --> 00:08:00,560
cluster، كل مجموعة، إيش الأكثر عناصر من الـ الـ هم

96
00:08:00,560 --> 00:08:03,600
label، وبسمّيه، بطلق عليه، وبخلي الـ bag كله، ماشي؟

97
00:08:03,600 --> 00:08:08,260
يحملوا نفس الصفة. أجيت أقول بدي أصنفكم تبعاً

98
00:08:08,260 --> 00:08:09,560
لمعدلاتكم.

99
00:08:12,460 --> 00:08:15,200
واحد يقول يا دكتور، ما هو معروف، المعدلات تسعين وفوق

100
00:08:15,200 --> 00:08:22,200
من ثمانين لتسعين، okay. بس لاحظ أنا ما اتكلمت على كل

101
00:08:22,200 --> 00:08:26,000
اسم مجموعة. المجموعات هذه ما لها أسامي، مش معرفة

102
00:08:26,000 --> 00:08:31,280
بالنسبة لي مسبقاً. تبع أوزانكم، أطوالكم، تمام؟ كل

103
00:08:31,280 --> 00:08:34,740
الشغلات هذه، عاملة جماعة. بتتكلم على مجموعات، على

104
00:08:34,740 --> 00:08:38,720
مجموعات، وبعدين هيك بنصير إما بحدّد الخاصية وبشغل، أو

105
00:08:38,720 --> 00:08:42,440
بروح بقول لشبابنا، نجسّم لمجموعتين، لثلاث مجموعات، و

106
00:08:42,440 --> 00:08:45,860
بصير أدوّر على الـ common properties اللي تجمعكم مع

107
00:08:45,860 --> 00:08:51,860
بعض. لكن إيش الصفة السائدة لكل مجموعة؟ ما نعرفش

108
00:08:51,860 --> 00:08:55,580
لاحقاً. بدنا نصير نفكّر، ندوّر بعنوان. بينما بالـ

109
00:08:55,580 --> 00:08:59,340
classification، أنا عندي التصنيفات موجودة عندي

110
00:08:59,340 --> 00:09:05,320
مستويات الطلاب موجودة: ممتاز، جيد جداً، جيد، مقبول؟ هذه

111
00:09:05,320 --> 00:09:08,920
التصنيفات اللي موجودة عندي الآن. درجة الرطوبة إما

112
00:09:08,920 --> 00:09:13,960
هتكون عالية أو متوسطة أو منخفضة. الجو إما هيكون

113
00:09:13,960 --> 00:09:18,860
غائم أو غائم جزئياً أو صافي، تمام؟ اليوم إما هيكون

114
00:09:18,860 --> 00:09:22,420
ماطر أو هيكون غير ماطر. هذه المعلومات أو هذه الـ

115
00:09:22,420 --> 00:09:22,860
categories.

116
00:09:29,580 --> 00:09:33,860
بتكلم على category كمجموعات إلها صفات مشتركة محددة

117
00:09:33,860 --> 00:09:38,040
وواضحة، وإلها اسم. فهنا احنا بنتكلم على تصنيف

118
00:09:38,040 --> 00:09:43,860
classification. إيش اللي احنا بنتعلمه في الـ chapter

119
00:09:43,860 --> 00:09:44,380
هذا؟

120
00:10:02,660 --> 00:10:06,840
إيش بتتوقع إن احنا نتعلم في الـ chapter هذا الآن؟

121
00:10:06,840 --> 00:10:18,980
كيف أقدر أعرف المجموعات؟ مش صحيح، أيوة، أتعرف

122
00:10:18,980 --> 00:10:24,340
على التقنيات اللي بتستخدم في التصنيف، غيره. طبعاً هذا

123
00:10:24,340 --> 00:10:29,700
حتكلم، شغل مكتبات أو شغل ناس شغّالة في المجال. غير،

124
00:10:29,700 --> 00:10:34,050
أه حسن، إيش بتتوقع أن أبدأ أتعلم الفصل هذا، أو

125
00:10:34,050 --> 00:10:38,450
الشابتر هذا؟

126
00:10:38,450 --> 00:10:44,170
كيف المكتبات بتعمل؟ إيش المبدأ اللي بتشتغل عليه؟

127
00:10:44,170 --> 00:10:48,470
أه أحمد، إيش ممكن أتوقع أن أتعلم الفصل هذا، الشابتر

128
00:10:48,470 --> 00:10:52,430
هذا؟ على أي أساس أصنف؟

129
00:10:56,620 --> 00:11:00,240
أديب، الشغلات المشتركة بين الـ instances أو الـ

130
00:11:00,240 --> 00:11:07,980
objects، عشان أقدر أصنفها. أقدر أفرّق بين إيش؟ بين الـ

131
00:11:07,980 --> 00:11:13,180
objects أو بين جُثتين. أتعرف على الخصائص تبع كل

132
00:11:13,180 --> 00:11:19,480
مجموعة، عشان أقدر أحدد لـ new objects أو الـ unseen

133
00:11:19,480 --> 00:11:23,900
samples بتنتمي لأي مجموعة. بس فعلياً، مش أنا اللي

134
00:11:23,900 --> 00:11:29,680
هشتغل. الـ Machine، الفكرة الآن لما نتكلم على

135
00:11:29,680 --> 00:11:32,560
Classification، هنبدأ نتكلم على Machine Learning

136
00:11:32,560 --> 00:11:37,160
Algorithm. هنبدأ نتكلم على تعلم الآلة، أو تعلم..

137
00:11:37,160 --> 00:11:40,840
تعلم الآلة. كيف الآلة بتدور على الـ characteristics

138
00:11:40,840 --> 00:11:45,320
المشتركة لكل مجموعة. الآن بما أن الـ classification

139
00:11:45,320 --> 00:11:50,380
هي واحدة من supervised learning methods. احنا كنا

140
00:11:50,380 --> 00:11:54,300
حكينا المرة الماضية، الـ data mining tasks نوعين:

141
00:11:55,310 --> 00:11:59,690
Predictive و Descriptive. في الـ Predictive، قلت أنا

142
00:11:59,690 --> 00:12:03,430
فيه Classification، وبدي أتنبأ بـ category، بدي أتنبأ

143
00:12:03,430 --> 00:12:07,310
بالـ target label تبع المجموعة. وفي عندي Regression،

144
00:12:07,310 --> 00:12:11,490
بدي أتنبأ بـ continuous value، بـ قيمة، وقلنا في الـ

145
00:12:11,490 --> 00:12:15,670
Descriptive، في الوصفية، إما بتكلم على Clustering،

146
00:12:15,670 --> 00:12:20,770
تقسيم لمجموعات، أو Outlier Detection، تحديد الشوائب،

147
00:12:20,770 --> 00:12:27,070
أو الـ Association Rules، تحديد العلاقات ما بين

148
00:12:27,070 --> 00:12:34,350
العناصر اللي موجودة. الآن، ضمن الكلام هذا، أنا هتعرف

149
00:12:34,350 --> 00:12:37,630
على مجموعة من الـ algorithms، والخوارزميات اللي

150
00:12:37,630 --> 00:12:45,450
بتستخدمها من أجل استنباط خصائص المجموعات المعرفة

151
00:12:45,450 --> 00:12:51,390
مسبقاً، اللي موجودة عندي في الـ data. ومن ثم، لما بدي

152
00:12:51,390 --> 00:12:55,000
أجي أعمل prediction، بدي تديني الـ prediction، أو بدي

153
00:12:55,000 --> 00:12:58,740
تديني الـ category أو الـ group، أو اسم المجموعة اللي

154
00:12:58,740 --> 00:13:01,540
بينتمي إليها الـ object الجديد هذا، اللي هو الـ

155
00:13:01,540 --> 00:13:06,640
unseen object أو unseen instance. يعني فعلياً أنا

156
00:13:06,640 --> 00:13:09,840
بدي أشوف الآلة كيف اللي بتتعلم. طب أنا وين في

157
00:13:09,840 --> 00:13:14,400
الموضوع؟ أنت دورك، جهّزت البيانات، بدك تختار algorithm

158
00:13:14,400 --> 00:13:18,100
كويس، وتقول للـ algorithm، اقرأ البيانات، وتعلّم منها.

159
00:13:18,100 --> 00:13:23,160
تعمل evaluation، قبل ما تقول أنا صار فيه عندي model

160
00:13:23,160 --> 00:13:26,280
بيقدر يعمل prediction للـ category أو للـ class اللي

161
00:13:26,280 --> 00:13:34,320
موجود عندها. الـ classification

162
00:13:34,320 --> 00:13:39,020
هي

163
00:13:39,020 --> 00:13:41,840
واحدة من الـ mining tasks أو الـ data mining tasks

164
00:13:41,840 --> 00:13:46,140
التقليدية. الـ task يعني من أهم أو من أكثر الـ tasks

165
00:13:46,140 --> 00:13:52,520
شهرةً.  لـ classification، وطبعاً ممتدّة أساساً بالـ

166
00:13:52,520 --> 00:13:55,060
Machine Learning. عادة الـ Machine Learning

167
00:13:55,060 --> 00:13:58,880
Algorithms، الشباب، بشكل عام، أو التقنيات بتشتغل ضمن

168
00:13:58,880 --> 00:14:04,860
منهجيات معيّنة. الأولى، أنه فعلياً، هل الـ Machine

169
00:14:04,860 --> 00:14:08,940
Learning هذه بتتدرّب أو بتتعلم من خلال الـ Human

170
00:14:08,940 --> 00:14:15,200
Supervision، من خلال مراقبة الإنسان، أو إشراف الإنسان.

171
00:14:15,200 --> 00:14:19,280
الفكرة كالتالي: ما ينفعش أنا أروح أقول للطلاب في

172
00:14:19,280 --> 00:14:23,900
المدرسة هذه، مجموعة الكتب، أروح أدخّلهم في الصف الآن

173
00:14:23,900 --> 00:14:27,660
من العاشرة للحادية عشرة، عليكم عربي، ادرسوا كتاب العربي

174
00:14:27,660 --> 00:14:35,260
بدون ما يكون عندهم

223
00:18:05,560 --> 00:18:10,260
batch learning كذلك في عندي الـ trend في الـ machine

224
00:18:10,260 --> 00:18:14,240
learning هل هي model-based ولا instance-based

225
00:18:14,240 --> 00:18:19,860
model-based يعني هيروح يبني model، هيروح يبني موديل

226
00:18:19,860 --> 00:18:24,680
هو اللي بديه يعمل prediction لاحقاً، بينما بالـ

227
00:18:24,680 --> 00:18:28,700
instance-based في كل مرة بديه يعمل prediction بديه

228
00:18:28,700 --> 00:18:34,620
يرجع للـ data الأصلية، وطبعاً هدول الشغلتين لكل

229
00:18:34,620 --> 00:18:39,480
واحدة فيه إيجابياتها وإليها سلبياتها، كذلك في

230
00:18:39,480 --> 00:18:43,040
trend آخر فيه deterministic وفيه probabilistic

231
00:18:43,040 --> 00:18:47,390
approach في الـ learning، في الـ deterministic اللي

232
00:18:47,390 --> 00:18:51,610
هو الدقيق أو الموحد، أن الـ algorithm هذا مع الـ

233
00:18:51,610 --> 00:18:56,370
input هذا لو عدته خمسة آلاف مرة، لو عدته مليون مرة

234
00:18:56,370 --> 00:19:01,070
هيديني نفس النتيجة، محدد، بينما في الـ probabilistic

235
00:19:01,070 --> 00:19:04,310
طبعاً في الـ deterministic مافيش عندي مجالة

236
00:19:04,310 --> 00:19:09,240
randomness، مافيش مجالة عشوائية، كله شغال ضمن قيم

237
00:19:09,240 --> 00:19:12,580
حقيقية موجودة بين إيدينا، بينما في الـ

238
00:19:12,580 --> 00:19:15,720
probabilistic approach بيعتمد على الـ randomness

239
00:19:15,720 --> 00:19:18,660
لأنه بياخد sample من الـ population وبيصير.. ممكن

240
00:19:18,660 --> 00:19:23,180
تتغير.. عفواً، النتيجة تتغير ما بين مرة والتانية

241
00:19:23,180 --> 00:19:26,200
بشكل

242
00:19:26,200 --> 00:19:28,880
عام، احنا بنتكلم على الـ supervised learning و

243
00:19:28,880 --> 00:19:34,050
بالتحديد الـ classification، الآن supervision زي ما

244
00:19:34,050 --> 00:19:37,870
قلنا سابقاً، training data، الـ data set اللي أنا

245
00:19:37,870 --> 00:19:49,150
اخترتها بتتكلم عن الـ heart disease، الـ

246
00:19:49,150 --> 00:19:55,090
body mass index، الـ blocked artery، تصلب الشرايين،

247
00:19:55,090 --> 00:20:04,810
قلم في الصدر، وفي الآخر التصنيف التبعي، هل هذا heart

248
00:20:04,810 --> 00:20:11,790
disease؟ هل هذا مرض قلب؟ مرض قلب ولا لأ؟ yes و no، الـ

249
00:20:11,790 --> 00:20:18,030
data set في جو زي اليوم، بتكلم الجو غائم، الـ outlook

250
00:20:18,030 --> 00:20:24,790
cloudy، الـ temperature عشرة مثلاً أو اثنا عشر، الـ

251
00:20:24,790 --> 00:20:32,600
humidity intermediate، متوسطة، الـ Windy، فيه رياح، بدي

252
00:20:32,600 --> 00:20:38,720
أعمل، هل اليوم ماطر أو لأ؟ كـ category، كفئة، لاحظ أنا

253
00:20:38,720 --> 00:20:43,400
الآن بتكلم هذه الـ label تبعتي، هي الـ target، هي الـ

254
00:20:43,400 --> 00:20:47,140
group، الـ predefined group، إما هدول الـ instances

255
00:20:47,140 --> 00:20:52,320
الـ data set مقسمين لمجموعتين، ناس مصابين بأمراض

256
00:20:52,320 --> 00:20:58,190
القلب وناس غير مصابة، الجو أيام ماطرة وأيام غير

257
00:20:58,190 --> 00:21:03,210
ماطرة، تصنيفات الطلاب جيد جداً أو ممتاز، جيد جداً، جيد،

258
00:21:03,210 --> 00:21:07,210
مقبول، هذه التصنيفات الموجودة معروفة مسبقاً، وهذه

259
00:21:07,210 --> 00:21:11,770
هتكون موجودة عندنا في الـ training set، هذه لازم تكون

260
00:21:11,770 --> 00:21:16,530
عاملة combination ما بين الـ attributes اللي عندي

261
00:21:16,530 --> 00:21:20,310
بالإضافة

262
00:21:21,330 --> 00:21:25,310
الـ groups أو الـ predefined groups، يعني بين جثتين

263
00:21:25,310 --> 00:21:34,190
محدد له بشكل دقيق، كل raw بيتبع أي مجموعة، تمام؟ كل

264
00:21:34,190 --> 00:21:39,870
raw بيتبع أي مجموعة، وعادة هذه بنسميها احنا

265
00:21:39,870 --> 00:21:45,990
training data، training data، فالـ classification هي

266
00:21:45,990 --> 00:21:53,400
مهمتها تعمل predict categorial class label، تتنبأ

267
00:21:53,400 --> 00:21:59,360
بالفئة، باسم الفئة تبعتها، تبعت المجموعات، للـ

268
00:21:59,360 --> 00:22:03,160
unseen data، طبعاً الـ class label هذا إما بيكون

269
00:22:03,160 --> 00:22:10,460
discrete أو بيكون nominal، شو يعني nominal data؟

270
00:22:10,460 --> 00:22:15,620
text.. text.. text.. تمام؟ طب شو يعني discrete

271
00:22:15,620 --> 00:22:20,450
data؟ قيم منفصلة عن بعضها، هي فعلياً ظاهرها

272
00:22:20,450 --> 00:22:24,690
continuous، عشر، عشرين، ثلاثين، تمام؟ ولما بتروح

273
00:22:24,690 --> 00:22:27,630
يعمل الـ prediction هو بتقول أما عشرة أو عشرين أو

274
00:22:27,630 --> 00:22:30,570
ثلاثين، مالهاش علاقة بالأرقام أو العلاقة بالحساب

275
00:22:30,570 --> 00:22:36,670
مطلقاً، الآن في

276
00:22:36,670 --> 00:22:39,570
الـ classification هيبني prediction model عشان

277
00:22:39,570 --> 00:22:43,410
يتنبأ بالـ discrete values اللي موجودة عندها، تعالى

278
00:22:43,410 --> 00:22:49,530
نشوف الصورة هاي، أو بلاش، قبل ما نروح على الصورة هاي

279
00:22:49,530 --> 00:22:53,010
عشان أنا بقى أظل أقول Model Model Model Model شو

280
00:22:53,010 --> 00:23:06,790
يعني Model؟ نموذج، نموذج، تمام، وشو

281
00:23:06,790 --> 00:23:11,250
يعني نموذج؟ تصور، تصور، تصور، تصور، تصور، تصور،

282
00:23:11,250 --> 00:23:13,250
تصور، تصور، تصور، تصور، تصور، تصور، تصور، تصور،

283
00:23:13,250 --> 00:23:13,750
تصور، تصور، تصور، تصور، تصور، تصور، تصور، تصور،

284
00:23:13,750 --> 00:23:16,030
تصور، تصور

285
00:23:18,130 --> 00:23:22,990
صورة مصغرة، شوف أحمد من غاد بيقول لك photo

286
00:23:22,990 --> 00:23:26,770
description، بس سيبك من الـ photo واتكلم عن الـ

287
00:23:26,770 --> 00:23:31,290
description، أنا بقول لك صح، صورة مصغرة أو نموذج، بلاش

288
00:23:31,290 --> 00:23:38,410
نقول مصغر، صورة تصف النموذج أو الشكل أو الـ object

289
00:23:38,410 --> 00:23:41,730
اللي جاي عندي، الآن بتروح شركة Apple على سبيل.. لأ

290
00:23:41,730 --> 00:23:43,410
انتوا أقول لكوا علاقة بما في ناس بتكون interested

291
00:23:43,410 --> 00:23:48,310
بالسيارات، تروح شركة BMW بتقول لك والله إحنا في عندنا

292
00:23:48,310 --> 00:23:53,470
الـ model تبع 2030 من السيارة جاهز، شو

293
00:23:53,470 --> 00:23:59,130
يعني؟ مش.. لأ لأ ما تكلم ال.. ما تكلم على الـ model

294
00:23:59,130 --> 00:24:05,770
يعني أن هو في عنده تصور أو وصف دقيق لشكل السيارة،

295
00:24:05,770 --> 00:24:08,470
إيش السيارة بدها تكون، اللي في الـ 2030 يا همام،

296
00:24:08,470 --> 00:24:12,150
ممكن prototype أو ممكن يكون عاملة prototype، بس في

297
00:24:12,150 --> 00:24:17,710
الآخر أهم في الـ prototype هذا مثلاً، معارض

298
00:24:17,710 --> 00:24:20,990
السيارات، لما بروح بيعرض في المعارض، إيش بقول لك؟

299
00:24:20,990 --> 00:24:25,910
بقول لك، هي model، تمام؟ عن السيارة، هي model عن

300
00:24:25,910 --> 00:24:26,450
الجوال

301
00:24:29,520 --> 00:24:34,720
sample، إيش بستفيد من الـ sample هاي؟ فعلياً بشوف الـ

302
00:24:34,720 --> 00:24:39,000
real description، بشوف وصفه دقيق كيف بيكون، لأ لما

303
00:24:39,000 --> 00:24:42,700
بروح بقول لك في عندي الـ model تبعت الجوال مكونة من أو

304
00:24:42,700 --> 00:24:47,500
هيك كده، فبديك وصفه، جدش حجمه، جدش الكاميرا، جدش وزنه،

305
00:24:47,500 --> 00:24:50,020
جدش الـ processor، جدش الـ memory، جدش الـ storage

306
00:24:50,020 --> 00:24:53,760
تبعته، إيش هو التقنية المستخدمة، مع الـ bluetooth، مع

307
00:24:53,760 --> 00:24:57,300
الـ land، مع الـ wireless، عفواً، كل الشغلات هذه بتكون

308
00:24:57,300 --> 00:25:04,310
موصوفة، وبالتالي الـ model هي عبارة عن طريقة لوصف شيء

309
00:25:04,310 --> 00:25:07,150
معين، objects معين، مرة عليكوا تشغلوا اسمها data

310
00:25:07,150 --> 00:25:11,930
model في الـ database زمان؟ الفصل الماضي يا إيهاب،

311
00:25:11,930 --> 00:25:16,970
لما اتكلمنا على الـ data model وقبلها أنت بتعرف

312
00:25:16,970 --> 00:25:21,750
شوية عن الـ relational model، تمام؟ مصبوط؟ ففعلياً

313
00:25:21,750 --> 00:25:25,450
ليش بسميها model؟ لأنّه بوصف البيانات، وبالتالي

314
00:25:25,450 --> 00:25:31,710
أنا الآن الـ model اللي هتكلم عليه هي عبارة عن آلية

315
00:25:31,710 --> 00:25:37,370
لِوصف الـ knowledge، ما تنساش الـ data mining هدفها

316
00:25:37,370 --> 00:25:42,450
knowledge

317
00:25:42,450 --> 00:25:45,870
extraction

318
00:25:45,870 --> 00:25:53,930
ولا لأ؟ هدف الـ mining task استخراج knowledge من الـ

319
00:25:53,930 --> 00:25:56,970
data set اللي موجودة، طب الـ knowledge اللي طلعت هاي

320
00:25:58,780 --> 00:26:04,060
كيف بدي أوصفها؟ كيف بدي أستخدمها؟ لازم تكون ضمن

321
00:26:04,060 --> 00:26:10,040
model معين، عشان نقدر نستخدمها، الآن بالمثال

322
00:26:10,040 --> 00:26:14,300
اللي موجود عندي هان في

323
00:26:14,300 --> 00:26:18,800
عندي input raw data، مجموعة من التفاح حسب الصورة

324
00:26:18,800 --> 00:26:26,140
اللي موجودة عندي هان، ثمان تفاحات، أحجامهم، ألوانهم،

325
00:26:27,010 --> 00:26:30,190
الأوراق اللي موجودة عليهم، بالإضافة للريحة والطعم،

326
00:26:30,190 --> 00:26:33,610
ريحة

327
00:26:33,610 --> 00:26:38,890
تفاح، اللي هو ريحة ولا ما له؟ مش ريحة، ممتاز، لو ضليتكم

328
00:26:38,890 --> 00:26:41,630
ساكتين، بقول لكم كيف بندخلها بس، وما أنك أنت سألتني،

329
00:26:41,630 --> 00:26:46,810
خلصنا، فالآن هذه الـ characteristics الوصفية تبعت الـ

330
00:26:46,810 --> 00:26:51,750
data هي، هم، هروح نديها للـ algorithm، أو أختار

331
00:26:51,750 --> 00:26:55,290
algorithm، machine learning algorithm يقرأ الـ data

332
00:26:55,290 --> 00:27:03,870
set كلّها، يعملها تحليل، يِوجد علاقة ما بين الحجم و

333
00:27:03,870 --> 00:27:10,110
اللون والرائحة والطعم، كل الشغلات هذه، لما تديله

334
00:27:10,110 --> 00:27:14,570
الـ data set أو العناصر هذه، يكون قادر على أن يقول

335
00:27:14,570 --> 00:27:20,590
لي أن هذه تفاحة، الآن الـ model هذا أنا روحت اختبرته

336
00:27:20,590 --> 00:27:27,690
بتفاحة خضراء، تفاحة ولا لأ؟ تمام؟ اللون واحدة من الـ

337
00:27:27,690 --> 00:27:32,010
characteristics اللي كانت موجودة، بس مش كل شيء، الآن

338
00:27:32,010 --> 00:27:37,070
الـ model تبعي الأصل يقول إنه هذا تفاحة، لو أنا روحت

339
00:27:37,070 --> 00:27:45,770
أضفت هان مجموعة

340
00:27:45,770 --> 00:27:50,750
من الـ mango أو البرتقال، تمام؟ مجموعة من البرتقال،

341
00:27:50,750 --> 00:27:57,670
وصار في عندي two groups، في عندي هذه apple

342
00:27:57,670 --> 00:28:04,870
وهذه orange، الـ system اللي يتعرف على خصائص الـ

343
00:28:04,870 --> 00:28:08,890
apple هي المفهوم، التصنيف، أن أنا خلاص okay، هدول

344
00:28:08,890 --> 00:28:13,550
هي المصنف تبعي apple أو orange، فالـ system هيتعرف

345
00:28:13,550 --> 00:28:22,190
على خصائص الـ apple وخصائص التفاح ويبني model قادر

346
00:28:22,190 --> 00:28:28,050
على التفريق ما بين التنتين، فلما أنا بديّه تفاحة،

347
00:28:28,050 --> 00:28:30,750
هيقول لي تفاحة، أدّيته برتقالة، الأصل يقول لي

348
00:28:30,750 --> 00:28:37,430
برتقالة، طب لو أدّيته حبة مانجو، مش هيعرف، غلط، في

349
00:28:37,430 --> 00:28:41,490
الـ classification هان لأنه آلة، وما فيش مجال يا

350
00:28:41,490 --> 00:28:45,270
هذه يا هذه، ما فيش مجال، ما فيش خيار ثالث، أنت

351
00:28:45,270 --> 00:28:48,290
ما تركت له، في موضوع التصنيف، هي اللي أنا بوصلك

352
00:28:48,290 --> 00:28:53,020
إياها، في موضوع التصنيف، ما فيش مجال، عندك أربع فئات

353
00:28:53,020 --> 00:28:55,920
بدك تحط تحت واحدة من الأربع فئات، عندك two

354
00:28:55,920 --> 00:29:00,020
categories، بدك تضيفها لواحدة من الـ categories بس

355
00:29:00,020 --> 00:29:04,760
غالباً هيضيفها للأقرب، يعني تخيّل أنّه والله كان في الـ

356
00:29:04,760 --> 00:29:08,800
mango اللي بنتكلم عليها هي لونها أحمر مثلاً وما أخذة

357
00:29:08,800 --> 00:29:16,910
شكل كروي أكثر، تمام؟ فهتروح باتجاه التفاح، في الآخر

358
00:29:16,910 --> 00:29:21,570
هو صح صنّفها غلط في كل الأحوال، بس هو اجتهد.. اجتهد

359
00:29:21,570 --> 00:29:27,390
وراح ضافها للأقرب حسب الـ object اللي موجود، لكن في

360
00:29:27,390 --> 00:29:32,190
المقابل كان في حبة مانجو أخرى أكبر حجماً ولونها

361
00:29:32,190 --> 00:29:37,430
برتقالي، تمام؟ فمش ضروري أروح أصنّف لك إياها تفاح،

362
00:29:37,430 --> 00:29:42,030
بروح أصنّف لك إياها إيش؟ Orange، لأنّه فعلياً الـ

363
00:29:42,030 --> 00:29:49,070
characteristic تبعتها متشابهة، نعمل، مش ممكن عمرك

364
00:29:49,070 --> 00:29:54,310
مرة عليك برنامج أنّه بيبني فئة لوحده، ممكن يتعلّم

365
00:29:54,310 --> 00:29:57,650
يبني.. يبني الحالة، يبني الحالة، ده حالة يعني إذا

366
00:29:57,650 --> 00:30:01,890
تجي ده أول مرة، أول مرة تصنّفها لحالة، وممكن الـ human

367
00:30:01,890 --> 00:30:06,970
يقول لك شوف رجع لوين، بعدين الـ human يقول، الـ human هو

368
00:30:06,970 --> 00:30:12,520
صاحب القرار، عمرها ما قال غيرت حال تمام أو أخدت

369
00:30:12,520 --> 00:30:15,980
decision لوحدها، حتى كل اللي بنشوفه في الذكاء

370
00:30:15,980 --> 00:30:23,100
الاصطناعي مردّه لتخطيط صحيح من الـ human، وتصرف الآلة

371
00:30:23,100 --> 00:30:27,020
ما هو إلا من تصرف الـ human ضمن المسار اللي رسمه

372
00:30:27,020 --> 00:30:30,540
الآن سيبك من الأفلام اللي احنا بنشوفها أن الـ.. الـ

373
00:30:30,540 --> 00:30:34,620
.. اتطورت حتى تقطع.. تقطع.. تجيب البشر وتحتل

374
00:30:34,620 --> 00:30:39,060
الكون، ده ما فيش منه، تمام؟

375
00:30:40,540 --> 00:30:45,060
طيب، الآن فبالتالي يا محمد احنا بنتكلم، ما فيش مجال، ما فيش

376
00:30:45,060 --> 00:30:48,280
مجال أن أروح فئة، أضيف فئة جديدة، لأ، الفئات موجودة

377
00:30:48,280 --> 00:30:52,340
مسبقاً، وبناء عليه أنا هشتغل مع الفئات اللي موجودة

378
00:30:52,340 --> 00:30:56,060
عندي، فضل

379
00:30:59,640 --> 00:31:02,160
مية بالمئة، الفرق بين الـ regression والـ

380
00:31:02,160 --> 00:31:06,300
classification أن الـ classification categorical

381
00:31:06,300 --> 00:31:10,940
value، discrete values، واحدة من التنتين هدول، بينما

382
00:31:10,940 --> 00:31:15,960
بالـ regression بدّه يديني قيمة continuous value،

383
00:31:15,960 --> 00:31:26,380
number، بدها تكون موجودة عندي، طيب الآن الـ

384
00:31:26,380 --> 00:31:32,500
classification هي عبارة عن تكنيك أو خوارزمية أو تقنية

385
00:31:32,500 --> 00:31:36,440
من أجل التنبؤ

386
00:31:36,440 --> 00:31:43,340
to predict group membership، شو يعني group

387
00:31:43,340 --> 00:31:50,640
membership؟ عضوية المجموعات، هل هذا ملائم لعضوية

388
00:31:50,640 --> 00:31:54,240
المجموعة الفلانية ولا لأ؟ في عندي مجموعة اسمها الـ

389
00:31:54,240 --> 00:32:00,440
Smart Students في الـ IT، أنت ملائم إلها ولا غير

390
00:32:00,440 --> 00:32:05,860
ملائم؟ مش أنت اللي بتقرر، تمام؟ في لجنة هتروح

391
00:32:05,860 --> 00:32:11,460
تختبرك وبناء عليها تقول أنت تنصلح ولا ما تصلحش،

392
00:32:11,460 --> 00:32:14,380
ليش؟ لأنّه كمان مرة الـ prediction مش أنت صاحب

393
00:32:14,380 --> 00:32:19,160
قراره، عفواً، الـ classification أو التصنيف مش أنت

394
00:32:19,160 --> 00:32:23,980
صاحب قراره، في عندنا كل صنف إله rule أو خصائص

395
00:32:23,980 --> 0

445
00:36:27,350 --> 00:36:32,570
negative orange, not orange.  ما بنقولش تفاح لأن لو حط

446
00:36:32,570 --> 00:36:35,410
المانجا وحط الموز تحت التفاح،  في عندنا خطأ

447
00:36:35,410 --> 00:36:40,190
فبنقول إحنا orange و not orange، وهكذا الآن في

448
00:36:40,190 --> 00:36:46,670
مرحلة training زي ما قلنا إنه هيأخد كل ال data

449
00:36:46,670 --> 00:36:51,450
points اللي موجودة عندها، اللي هي ال samples، مع ال

450
00:36:51,450 --> 00:36:58,820
correct label المرتبط فيها، ويحاول يتعلم يصل لـ

451
00:36:58,820 --> 00:37:03,280
pattern معين، كيف ال label هذا مرتبط بالـ point، زي

452
00:37:03,280 --> 00:37:09,020
ما حكينا قبل لحظات، بمجرد إن ال system هذا تعلم، بدي

453
00:37:09,020 --> 00:37:13,300
يبدأ يتصرف الآن، فتصرفه هيكون عبارة عن function

454
00:37:13,300 --> 00:37:18,900
prediction function، هتأخد ال input تبع ال sample

455
00:37:18,900 --> 00:37:23,480
تبع ال data point بدون ال label، عشان تعمل هي

456
00:37:23,480 --> 00:37:27,500
prediction للـ label أو لل category اللي موجودة

457
00:37:27,500 --> 00:37:33,980
عندها. فال

458
00:37:33,980 --> 00:37:37,240
step الأولى بنسميها إحنا ال model construction

459
00:37:37,240 --> 00:37:43,040
بناء ال model في ال regression يا جماعة الخير، وحتى

460
00:37:43,040 --> 00:37:45,960
في ال classification، ممكن ال model تبعي يكون عبارة

461
00:37:45,960 --> 00:37:48,620
عن  binary classification، يكون عبارة عن linear

462
00:37:48,620 --> 00:37:53,740
line، linear equation، ال Y equal M

463
00:38:07,350 --> 00:38:13,660
معادلة خط مستقيم. ماهي الخط المستقيم مهمته؟ بيفصل

464
00:38:13,660 --> 00:38:17,020
بين شغلتين، اللي فوق الخط category، واللي تحت الخط

465
00:38:17,020 --> 00:38:20,800
category تانية. ففي لحظة ال binary classification،

466
00:38:20,800 --> 00:38:25,840
إذا قدرت أنا أصل لمعادلة الخط المستقيم اللي بيفصل

467
00:38:25,840 --> 00:38:31,160
ما بين ال two categories، خلاص هي ال model تبعي

468
00:38:31,160 --> 00:38:37,700
بصير باخد ال instances، تمام؟ وبقارنها، إذا كانت

469
00:38:37,700 --> 00:38:41,080
أكبر من كده فهي positive، أقل من كده فهي negative،

470
00:38:41,080 --> 00:38:44,860
true أو false، orange أو not orange، فهي ال model

471
00:38:44,860 --> 00:38:49,480
اللي أنا بدور عليه. في ال model construction، إحنا

472
00:38:49,480 --> 00:38:53,500
عادة بنفترض إن ال data set، كل sample في ال data

473
00:38:53,500 --> 00:39:00,070
set بتنتمي ل only one category، لأن لو نفس ال data

474
00:39:00,070 --> 00:39:03,030
set، أو عفوا نفس ال instance هذه تكررت مع different

475
00:39:03,030 --> 00:39:07,250
category، هيكون في عندي مشكلة. الشغل اللي بتعلمه قبل

476
00:39:07,250 --> 00:39:10,390
شوية، بدي أحاول أنفيها أو بدي أراجع عنها وأحط

477
00:39:10,390 --> 00:39:13,970
واحدة مضادة لها، وهذا الكلام ما بيصير تماما

478
00:39:13,970 --> 00:39:18,070
تماماً، مثل ما آجي أقول، أعلم الولد الصغير، أقول له 2

479
00:39:18,070 --> 00:39:23,850
ضرب 3 يساوي 6، وفي نفس الوقت أروح أقول له بعد فترة

480
00:39:23,850 --> 00:39:26,090
2 ضرب 3 يساوي 16.

481
00:39:29,010 --> 00:39:34,810
يحفظ مين فيهم؟ مين فيهم الصح؟ الأخيرة صح، اه؟

482
00:39:34,810 --> 00:39:37,850
ما بيعرفش ال system، ال computer ما بيعرفش، أنت في

483
00:39:37,850 --> 00:39:42,370
مرحلة التلقين، الإثنين صح، ولما يصير في عنده معلومة

484
00:39:42,370 --> 00:39:47,870
متضاربة، فعلياً مش هيقدر يأخذ decision في أي حالة

485
00:39:47,870 --> 00:39:52,140
فيها. اتنين ضرب تلاتة، هذا اللي بيصير، عشان هيك

486
00:39:52,140 --> 00:39:55,820
بنفترض إنه في موضوع ال learning، أو في مرحلة

487
00:39:55,820 --> 00:39:58,180
training أو ال learning في ال model construction،

488
00:39:58,180 --> 00:40:04,680
إن كل instance بتنتمي فقط ل only one category، one

489
00:40:04,680 --> 00:40:10,620
label. مجموعة ال data، ال 6 اللي أنا بدي أدرب عليها

490
00:40:10,620 --> 00:40:14,640
النظام، أو اللي بدي أحللها النظام، بحيث إنه يأخذ منها

491
00:40:14,640 --> 00:40:19,910
يستخلص ال model منها، بسميها ال training set، بسميها

492
00:40:19,910 --> 00:40:26,410
ال training set. دكتور، نعم. ال training set، كلمة

493
00:40:26,410 --> 00:40:30,110
بتعمل ال model، بنقل عليها، لأن كل واحد مثلاً في واجب

494
00:40:30,110 --> 00:40:33,350
مخل، تلقى ال training set من خمسين ألف دورة، مش

495
00:40:33,350 --> 00:40:36,170
هتبقى ال model مثلاً زي ما سيكت في سبوك أو أمازون،

496
00:40:36,170 --> 00:40:38,530
بتبني، أو ال training set دي ال model. طب ما إحنا

497
00:40:38,530 --> 00:40:40,970
قلنا، مين جابلنا هيك، هيقولنا، كل ما كبرت ال

498
00:40:40,970 --> 00:40:44,610
training data set تبعتي، بكون فرصة ال prediction

499
00:40:44,610 --> 00:40:48,570
تبعتي إنها تكون أدق، أعلى. كيف الاسم يعني؟ مثلاً خمسين

500
00:40:48,570 --> 00:40:53,690
ألف raw data. شوف لأ، لأ، شوية. أنت عندك ال data set كلها

501
00:40:53,690 --> 00:40:57,410
خمسين ألف raw data، وبدك تعمل training على تلاتين ألف raw data،

502
00:40:57,410 --> 00:41:01,370
مثلاً، مش كافي، لأن عادة جماعة الخبرة، ال rows

503
00:41:01,370 --> 00:41:04,990
المستخدمة، أو الحجم لل training set بيكون أكبر من

504
00:41:04,990 --> 00:41:08,320
ال testing set. يعني الآن، إذا بتقدر تعمل training

505
00:41:08,320 --> 00:41:11,160
على كل ال data، وتختبره في data مختلفة، بيكون ممتاز.

506
00:41:11,160 --> 00:41:15,060
عشان هيك كنا في ال data preparation، نأكد هل في

507
00:41:15,060 --> 00:41:19,160
مصادر أخرى للبيانات عندك، ولا مافيش؟ وجديش حجمها،

508
00:41:19,160 --> 00:41:22,540
طبعاً؟ الآن، إذا أنت لاحظت في أخر assignment، أو في

509
00:41:22,540 --> 00:41:25,720
ال assignment الأخير، مطلوب منك، آخر بند، اجسم ال

510
00:41:25,720 --> 00:41:31,500
data set اللي عندك، 70% لل training set، و 30% لل

511
00:41:31,500 --> 00:41:35,380
test set. مصبوط؟ وهذه التسأل ليش؟ لأنه ما بديش إياك

512
00:41:35,380 --> 00:41:38,980
تدرب كل... تدربه على نفس... يعني على نفس ال data، و

513
00:41:38,980 --> 00:41:42,820
بعدين آجي أحترمه، لأن كيف بدي أختبره أو بدي أفحص

514
00:41:42,820 --> 00:41:48,280
مدى دقة العنصر. كمان مرة يا جماعة الخير، بنأكد، كل ما

515
00:41:48,280 --> 00:41:53,800
كانت ال data set أكبر، ال training set أكبر، المفروض

516
00:41:53,800 --> 00:41:56,860
إن كل ما تكون ال data، أو خلّنا نقول ال knowledge

517
00:41:56,860 --> 00:42:02,120
تبعتي أدق، ال classification تبعتي بتصير أدق، لكن

518
00:42:02,120 --> 00:42:05,220
برضه مش منطق إن يكون أنا في عندي اتنين مليار

519
00:42:05,220 --> 00:42:10,800
record، تمام؟ وأنا بروح بتقبج عليهم كلهم، عملية ال

520
00:42:10,800 --> 00:42:13,940
training بحد ذاتها هذه، هتصير تأخذ مني أشهر لما

521
00:42:13,940 --> 00:42:17,360
تنتهي. فبتصير ممكن ال task اللي أنا بأشتغل عليها

522
00:42:17,360 --> 00:42:24,370
أساساً خلصت، بطلتلها قيمة. فأنت برضه بتوازن ما بين ال

523
00:42:24,370 --> 00:42:28,310
accuracy تبع النظام، وعامل الوقت أو ال performance

524
00:42:28,310 --> 00:42:34,610
تبع ال training، جديش بيحقق نتائج في

525
00:42:34,610 --> 00:42:40,110
ال data set اللي موجود عندنا. هان الآن، هاي عندي ال

526
00:42:40,110 --> 00:42:44,610
data set، ال name، ال rank، ال years، نرجع ولا

527
00:42:44,610 --> 00:42:48,830
ما نرجعش، نقعد

528
00:42:48,830 --> 00:42:54,450
ولا ما نقعدش، نريح ولا ما نريحش، لأن هاي ال class

529
00:42:54,450 --> 00:42:58,890
اللي عندي yes و no. فاروح أعمل التحليل لل data set

530
00:42:58,890 --> 00:43:04,410
اللي موجودة، وكان مفاده إنه ال algorithm راح أعطاني

531
00:43:04,410 --> 00:43:09,590
classifier model، prediction model لل class، لمية

532
00:43:09,590 --> 00:43:13,910
ممكن أختار؟ ل yes و no، بحيث إنه أنا لو زدت بال

533
00:43:13,910 --> 00:43:20,750
rank وعدد سنوات الخبرة، يدّيني ال label اللي موجود

534
00:43:20,750 --> 00:43:27,890
فقال ال model تبعي هو عبارة عن if then rule، لو كان

535
00:43:27,890 --> 00:43:31,890
ال rank professor، وال years أكبر أو يساوي 6، أكبر من

536
00:43:31,890 --> 00:43:42,910
6، معناته نرجع. تمام. المرحلة الثانية، ال model usage،

537
00:43:42,910 --> 00:43:48,060
بالملاحظة يا شباب، ال classification algorithm، أنا

538
00:43:48,060 --> 00:43:55,280
هان غالباً... غالباً بيشتغل فعلياً as a black box، يعني

539
00:43:55,280 --> 00:43:58,980
بدي ال input، وأخذ منه ال output، اللي هو ال model

540
00:43:58,980 --> 00:44:03,300
إيش اللي بيصير... إيش اللي بيصير؟ غالباً مش كل

541
00:44:03,300 --> 00:44:06,820
الناس المعنية فيه، بس أنا بالمساق هذا، هدخل بتفاصيل

542
00:44:06,820 --> 00:44:11,240
عشان أعرف فعلياً ال classifier كيف اشتغل، تمام؟ لكن

543
00:44:11,240 --> 00:44:15,730
في بعض ال classifiers، مش هنكون، أو مش هنتطرق لها

544
00:44:15,730 --> 00:44:22,230
بالشغل تبعتها. بمجرد إن ال classifier انبنى، بدّه

545
00:44:22,230 --> 00:44:25,630
أروح أطبقه، أو بدّه أروح أستخدمه، ال model هذا الآن

546
00:44:25,630 --> 00:44:32,150
بيصير قابل للاستخدام. فيش

547
00:44:32,150 --> 00:44:38,150
بدّه أستخدمه؟ يعمل classifying لمين؟ لل feature، لل

548
00:44:38,150 --> 00:44:41,810
future، أو ال unknown objects.

549
00:44:43,140 --> 00:44:46,840
بالمثال السابق هذا، أنا صار في عندي Jeff

550
00:44:46,840 --> 00:44:53,200
professor، و 4 سنوات. الاسم neglected، مش هعتبره، لأن

551
00:44:53,200 --> 00:44:58,660
ال role تبعي مبني على ال rank وال years، وبناءً

552
00:44:58,660 --> 00:45:03,480
عليه أنا بدي آخذ القرار. كان بيقول لي، if ال rank

553
00:45:03,480 --> 00:45:07,280
equal

554
00:45:07,280 --> 00:45:17,370
professor، or ال years أكبر من 6، then yes. مظبوط، هاي ال rule

555
00:45:17,370 --> 00:45:23,110
تبعي، هاي ال model تبعي. الآن، هاي ال data اللي عندي

556
00:45:23,110 --> 00:45:26,710
حققت عليها، بطبقها مباشرة، باخد ال instances وبطبق

557
00:45:26,710 --> 00:45:30,250
ال instance value، وبطبق عليها هان، وباخد القرار

558
00:45:30,250 --> 00:45:37,070
تبع لل rule اللي موجود عندي. طيب،

559
00:45:37,070 --> 00:45:40,690
لو ما كانش professor، كان assistant professor،

560
00:45:40,690 --> 00:45:47,550
و 5 سنوات، no، مع ال else مباشرة، مع ال else مباشرة،

561
00:45:47,550 --> 00:45:54,150
الارجل مع الخير. معناته أنا بحاجة في مرحلتين عشان

562
00:45:54,150 --> 00:45:56,690
أشتغل مع ال classifier، بحاجة أشتغل على مرحلتين،

563
00:45:56,690 --> 00:46:00,550
المرحلة الأولى اللي هي ال model construction،

564
00:46:00,550 --> 00:46:05,770
وبيلزمني data عشان أدرب ال model عليها، بين جثين

565
00:46:05,770 --> 00:46:08,710
بيلزمني data عشان ال system أو ال learning

566
00:46:08,710 --> 00:46:14,230
algorithm يحللها ويبني model بناءً عليها. الشغلة

567
00:46:14,230 --> 00:46:19,450
الثانية، إنه أنا بدي أفحص ال model، أو بدي أستخدم ال

568
00:46:19,450 --> 00:46:22,830
model في ال prediction، وهي بنسميها إحنا المرحلة

569
00:46:22,830 --> 00:46:26,630
مرحلة ال testing أو ال test. فأنا بدي اجسم ال data

570
00:46:26,630 --> 00:46:33,130
set تبعتي، ل training set، و

571
00:46:33,130 --> 00:46:40,340
test set. ليش؟ عشان لما أنا أحصل على model، عشان لما

572
00:46:40,340 --> 00:46:43,460
أحصل على model، كيف بدي أتعرف إن ال model هذا شغال

573
00:46:43,460 --> 00:46:48,200
كويس ولا لأ؟ بدي إنه النتيجة المطلوبة، ولا بشتغل من

574
00:46:48,200 --> 00:46:54,880
رأسه؟ فبدي أعمله evaluation. طيب، evaluation، how did

575
00:46:54,880 --> 00:47:00,380
we test that test set؟ هو الأصل هي unseen data، مصبوط؟

576
00:47:00,380 --> 00:47:05,760
فعلياً unseen، ما شفهاش، بس دي فيها label، بخبي ال

577
00:47:05,760 --> 00:47:10,620
label عنها، عشان أقدر إيش؟ أقارن بين النتيجة اللي هو

578
00:47:10,620 --> 00:47:16,080
هيعطيني إياها، والنتيجة اللي هحصل عليها، وأنا بدي أسأل

579
00:47:16,080 --> 00:47:25,980
سؤال: هل ال test set labelled set؟ في مرحلة ال

580
00:47:25,980 --> 00:47:33,160
evaluation، هل ال test set labelled set؟ طيب، الآن

581
00:47:33,160 --> 00:47:34,100
أنا جديد، كتبت

582
00:47:36,780 --> 00:47:43,060
الـ body mass index، point تلاتة سبعة، والـ chest

583
00:47:43,060 --> 00:47:52,020
pain yes، تصلب شرايين، Blocked Artery yes، قال لي هذا

584
00:47:52,020 --> 00:47:57,720
heart disease. هذا الأصل اللي نعملها prediction، صح؟

585
00:47:57,720 --> 00:48:06,090
أنا أخدتها على عليتها، هيك قال لي no. بتقدر تقول عن

586
00:48:06,090 --> 00:48:09,430
ال prediction بتاعته صح ولا غلط؟ بتقدر تعمل

587
00:48:09,430 --> 00:48:16,590
evaluation لإلها؟ بتقارنها بإيش؟ بال label الأصلي.

588
00:48:16,590 --> 00:48:21,930
فعشان هيك ال test set must be labelled. عشان هيك، بعد

589
00:48:21,930 --> 00:48:24,470
ما أنت خلصت، عملت processing في ال assignment،

590
00:48:24,470 --> 00:48:29,890
وقلت لك اجسم، اجسم ال data set لجزئين، جزء ال

591
00:48:29,890 --> 00:48:35,340
training، وجزء testing. بس اللي هيصير فعلياً، لما أصل

592
00:48:35,340 --> 00:48:40,820
لمرحلة ال evaluation، هخبّي ال test، أو هخبّي ال label

593
00:48:40,820 --> 00:48:45,780
تبعت مين؟ تبعت ال test set، عشان أقول، اتفضل، هاي

594
00:48:45,780 --> 00:48:49,640
unseen data، اعمل لهم prediction، فبيديني مجموعة ال

595
00:48:49,640 --> 00:48:53,160
labels اللي predicted، وعندي ال original أو ال true

596
00:48:53,160 --> 00:48:58,320
labelled، بصير أقارن، وبقدر أتكلم إنه جديش هذا ال

597
00:48:58,320 --> 00:48:59,180
model تبعي accurate.

598
00:49:03,990 --> 00:49:08,470
أه، الآن أحمد بيسأل، بيقول: هل بقدر أروح أرجع ال

599
00:49:08,470 --> 00:49:11,830
data test set هذه، وأوديها على ال training، عشان

600
00:49:11,830 --> 00:49:17,350
يتعلم من أخطائه؟ أنت already علمته، وكمان لو أنت

601
00:49:17,350 --> 00:49:21,270
روحت أخدته، يعني هيك، من وين بدك تختبره بعد هيك؟

602
00:49:21,270 --> 00:49:25,130
بدك تجيب له data set جديدة، طب ليش مش من نفس ال

603
00:49:25,130 --> 00:49:30,450
data set؟ لأن already هو شافها، تمام. من الشباب،

604
00:49:30,450 --> 00:49:37,330
بينفعش أنا آجي أديك الامتحان وأقول لك اتفضل، حلّ، تمام،

605
00:49:37,330 --> 00:49:42,530
وبكرا بدي أختبرك فيه، في الأسئلة هاي، ما أصبحش

606
00:49:42,530 --> 00:49:50,370
امتحان، ولا أصبح امتحان امتحان مسرّب، اه، فش يعني، عفواً،

607
00:49:50,370 --> 00:49:53,550
كلّكم هتنجحوا، مصبوط؟ الأصل كده، واللي ما بدهوش ينجح

608
00:49:53,550 --> 00:49:58,570
يتطخّد الساعة بيكون، بس فعلياً، هل النجاح هذا حقيقي؟

609
00:49:58,570 --> 00:50:04,890
لأ، الحاجات هذا fake، النجاح هذا fake. أما إحنا قلنا

610
00:50:04,890 --> 00:50:09,390
الفكرة وين؟ إن بعد ما أنا جسمت هان، في مرحلة ال

611
00:50:09,390 --> 00:50:14,890
evaluation، مش بدّه يشوف... بدّه يشوف ال... بيشوف هو

612
00:50:14,890 --> 00:50:19,370
اجتيش... لأ، بدّه يشوف ال... ال... ال... ال... ال

613
00:50:19,370 --> 00:50:24,670
result، دي، يقارن فوق، هيو... هذه... هذه... بدّه يقارن

614
00:50:24,670 --> 00:50:30,690
هذه. لأ، ومش قارنها مع اللي فوق، هو على ال model بناءً

615
00:50:30,690 --> 00:50:33,950
على ال equation اللي ان

667
00:55:02,060 --> 00:55:06,660
computational جديش أنا مهتم بسرعة النظام، يعني الآن

668
00:55:06,660 --> 00:55:12,010
مثلًا، بدنا نظام الآن.. محتاجين نظام سريع يحاول

669
00:55:12,010 --> 00:55:15,610
يتنبأ أن المريض هذا اللي مش.. منضيق في الصدر أو

670
00:55:15,610 --> 00:55:19,530
في صعوبة في التنفس، مصاب بـ Corona ولا لأ؟ أنت..

671
00:55:19,530 --> 00:55:22,550
أنت.. أنت خبير.. خبير الصين أصلًا.. أنت عشان إيه

672
00:55:22,550 --> 00:55:27,730
قلت Corona مباشرة، تمام؟ الآن الفكرة وين؟ أن أنا

673
00:55:27,730 --> 00:55:31,710
جديش بأقدر أعمل training لـ model.. a curated

674
00:55:31,710 --> 00:55:37,450
model بشكل سريع، بكون كويس إليّ، ليش؟ لأن أنا

675
00:55:37,450 --> 00:55:42,050
فعليًا.. الآن أنا محتاجه، يمكن بكرا ما محتاجوش، فالآن

676
00:55:42,050 --> 00:55:46,410
هذه بتفرج معايا الـ performance في مرحلة الـ

677
00:55:46,410 --> 00:55:52,490
generation، الـ using في الـ prediction، أن لما أزوده

678
00:55:52,490 --> 00:55:56,230
بالعينة اللي المفروض يعمل عليها prediction أو يقيم

679
00:55:56,230 --> 00:56:01,150
يعملها evaluation، جديش بده وقت؟ بده ثانية،

680
00:56:01,150 --> 00:56:06,630
ثنتين، ثلاث، عشر، كل ما كان أسرع يكون أحسن في الـ

681
00:56:06,630 --> 00:56:10,670
real-time system، الآن في عندنا جسم بيتحرك في الجو

682
00:56:10,670 --> 00:56:16,350
بسرعة 100 كيلومتر في الساعة، طيارة،

683
00:56:16,350 --> 00:56:23,350
صاروخ، قذيفة، غراب، مش عارفين، في الأنظمة الدفاعية

684
00:56:23,350 --> 00:56:26,710
بتفرج الآن هذا الجسم اللي بيتحرك في الـ real-time

685
00:56:26,710 --> 00:56:31,630
system، تمام؟ بناءً على سرعته وحجمه،

686
00:56:33,360 --> 00:56:36,620
بدهم ياخدوا قرار، اللي غالبًا ما بيبينش، بدهم ياخدوا

687
00:56:36,620 --> 00:56:41,160
قرار، شو هذا؟ بيكون إفعل صفرات الإنذار ولا لأ، الإنذار

688
00:56:41,160 --> 00:56:51,780
ولا لأ، إحنا

689
00:56:51,780 --> 00:56:57,200
قلنا حمامة، شكله زاد مع البس، خلاص وهي طايرة

690
00:56:58,620 --> 00:57:02,060
الفكرة يا جماعة الخير اللي أنا بدي أوصلك إياها هي إذا

691
00:57:02,060 --> 00:57:06,940
ما كانتش مرحلة الـ prediction سريعة، تفقدت الأهمية،

692
00:57:06,940 --> 00:57:11,060
تبعتها، فضل يا دكتور قبل لما راحيت على المرض، أكيد

693
00:57:11,060 --> 00:57:16,080
فعلاً مش هيكون مثلًا، بدنا نتنبأ أن فيه مثلًا.. لو

694
00:57:16,080 --> 00:57:19,800
مثلًا افتراض مثلًا، علشان هنا يعني محتمل يكون فيه

695
00:57:19,800 --> 00:57:23,100
نسبة خطأ، فإحنا على وجه السرعة مش هيكون بدنا نتنبأ،

696
00:57:23,100 --> 00:57:28,190
بدنا يعني.. طب أنت عملك بتقول أنا المرض هذا فعليًا

697
00:57:28,190 --> 00:57:34,070
مش قادر أشخصه أو في عندهم صعوبة في تشخيصه فقط،

698
00:57:34,070 --> 00:57:37,930
طب المريض العادي أو اللي عنده احتقان في زوره،

699
00:57:37,930 --> 00:57:41,890
ابرت في حرارته واحد زي حالتي بيكون قاعد،

700
00:57:41,890 --> 00:57:44,950
بيشرح وبيطلع واحد غبي بيقوله، بس طايرة، ابرِتْ فيه

701
00:57:44,950 --> 00:57:45,450
حرارته،

702
00:57:49,260 --> 00:57:53,380
تمام؟ بالفكرة يا جماعة، okay، أنا بدي.. بدي system

703
00:57:53,380 --> 00:57:57,500
يكون سريع، عفواً بدي أصل لـ model بشكل سريع، بعض الـ

704
00:57:57,500 --> 00:58:02,240
models بتاخد أيام وأشهر هي بتعمل الـ training، صح؟

705
00:58:02,240 --> 00:58:06,460
بيكون هذا دقيق الشغل، صحيح، لكن أنا برضه حسب الحالة

706
00:58:06,460 --> 00:58:11,480
اللي أنا بدي أشتغل عليها، نعم لأ،

707
00:58:11,480 --> 00:58:16,460
للأسف data preparation، هل تحسب ضمن الـ time cost؟ لأ،

708
00:58:17,850 --> 00:58:21,290
لأن هنا بنتكلم إحنا على الـ computational cost، كل

709
00:58:21,290 --> 00:58:27,670
اللي أنت سويتّه قبل، مجرد تجهيز لعملية الـ mining،

710
00:58:27,670 --> 00:58:33,330
أكيد كل ما زاد حجم الـ data زاد حجم الـ computation،

711
00:58:33,330 --> 00:58:37,790
بالـ training والـ testing، الآن الـ data set تبعتي

712
00:58:37,790 --> 00:58:42,870
مكونة من عشرة attributes، هل الـ computation تبعتها،

713
00:58:42,870 --> 00:58:49,260
زي ما يكون عندي 100 attributes؟ حتماً لأ، يعني عشر،

714
00:58:49,260 --> 00:58:54,620
متغيرات، زي مين؟ متغير، أكيد لأ، جديش الـ robustness أو

715
00:58:54,620 --> 00:58:58,200
الموثوقية، جديش الـ system هذا بيديني accurate

716
00:58:58,200 --> 00:59:03,680
result في حالة الـ noise data، الـ noise instance أو

717
00:59:03,680 --> 00:59:06,960
في حالة وجود الـ missing values، الآن إحنا قبل شوية،

718
00:59:06,960 --> 00:59:10,740
اتكلمت على ثلاث عناصر عشان الـ heart disease، الـ body

719
00:59:10,740 --> 00:59:16,000
mass index، والـ chest pain، وتصلب الشرايين، الآن لو

720
00:59:16,000 --> 00:59:18,880
عندي اثنتين منهم فقط، بيقدر الـ system يديني

721
00:59:18,880 --> 00:59:23,360
prediction؟ لأ، ما تقوليش لأ، أنت ما تشكشكش، لأ، الـ

722
00:59:23,360 --> 00:59:26,380
system هيديكي prediction، هيديكي prediction، بس اللي

723
00:59:26,380 --> 00:59:29,900
أنا بدور عليه، هل بيقدر يديني prediction صحيح؟ إذا

724
00:59:29,900 --> 00:59:33,360
بيديني prediction صحيح، معناته هذا more robust، أكثر

725
00:59:33,360 --> 00:59:38,300
موثوقية، ليش؟ لأن في حالة أن أنا فقدت واحد من الـ

726
00:59:38,300 --> 00:59:41,440
attributes اللي موجودة، بضل قادر أعتمد عليه عشان

727
00:59:41,440 --> 00:59:46,050
يعمل prediction، تمام؟ الآن في حالة كان في عندي

728
00:59:46,050 --> 00:59:49,710
noise data، نفس النظام، بالمناسبة يا حسن، إحنا عادةً

729
00:59:49,710 --> 00:59:53,490
اللي بنتكلم فعليًا، هذا المثال اللي ذكرته ثلاث، عشان

730
00:59:53,490 --> 00:59:57,870
بس نستوعب الشيء اللي بيصير، ونفهم فعليًا كل الـ

731
00:59:57,870 --> 01:00:02,730
concept بشكل واضح، لكن فعليًا لو أنا سألتك، أبسط

732
01:00:02,730 --> 01:00:05,710
اختبار ممكن يجريه الإنسان اللي له علاقة بصحته، الـ

733
01:00:05,710 --> 01:00:13,270
CBC، كم factor فيه؟ 15 أعتقد أو 14، يعني بتكلم

734
01:00:13,270 --> 01:00:16,450
على الأقل 14 attributes، اللي هو الـ test الـ

735
01:00:16,450 --> 01:00:21,870
complete blood test، تمام؟ فبتكلم على 14 attributes

736
01:00:21,870 --> 01:00:25,730
لكل عينة، الآن لو في واحدة عينة فيها مشكلة في الـ

737
01:00:25,730 --> 01:00:30,750
noise أو value معينة، لأ لأ، مش ضروري، فالآن لو جديش

738
01:00:30,750 --> 01:00:34,630
الآن الطبيب الحاذق ممكن بيقدر يقارن شغلات مع بعضها،

739
01:00:34,630 --> 01:00:38,210
ويقول لك لأ، في مشكلة، يعني واضح من الجهاز أن في مشكلة، هذه

740
01:00:38,210 --> 01:00:42,450
الفكرة وين؟ أن الـ system لو غاب في عندي value أو

741
01:00:42,450 --> 01:00:46,170
تشوشت value من الأربع عشر، يكون عنده القدرة على

742
01:00:46,170 --> 01:00:50,410
التنبؤ الصحيح، أي واحدة من الأربع عشر هذه ما بتعنّاش

743
01:00:50,410 --> 01:00:54,870
بس، في اللحظة اللي بيجيني الـ attribute، عفواً بيجيني

744
01:00:54,870 --> 01:00:58,610
الـ rows، الـ raw with missing value أو with noisy

745
01:00:58,610 --> 01:01:02,350
data، الأصل يعمل prediction، هيعمل prediction في كل

746
01:01:02,350 --> 01:01:07,320
الأحوال، كل مكان بيديني accurate الـ prediction في

747
01:01:07,320 --> 01:01:11,300
الـ such case هذه، معناته هذا مرة  أقدر أثق فيه

748
01:01:11,300 --> 01:01:18,880
أكثر، تمام، الـ scalability، الـ scalability طبعًا دائمًا

749
01:01:18,880 --> 01:01:23,740
إحنا مفهوم الـ scalability، بنتكلم على الـ large

750
01:01:23,740 --> 01:01:29,560
amount of data، فعليًا هل الـ algorithm هذا تبعه ممكن

751
01:01:29,560 --> 01:01:35,000
من السهل أن يتعامل معه مع large data، الـ data set

752
01:01:35,000 --> 01:01:37,760
اللي عندي مليون instances، هل الـ algorithm قادر على

753
01:01:37,760 --> 01:01:40,960
تحليل مليون instances مع عشر.. مع عشر attributes،

754
01:01:40,960 --> 01:01:44,100
أو مع مئة attributes، فهذا أنا بدي أسأله، كل ما كان

755
01:01:44,100 --> 01:01:48,780
الـ algorithm اللي هستخدمه more scalable، معناته

756
01:01:48,780 --> 01:01:54,420
بكون أفضل، interpretability، تفسير والـ

757
01:01:54,420 --> 01:02:01,500
understanding، وفهم محتوى أو ما وراء الـ Model أو

758
01:02:01,500 --> 01:02:04,840
الـ Algorithm اللي عندي، The level of understanding

759
01:02:04,840 --> 01:02:10,000
and insight، والمفهوم أو التوضيح أو المعنى الخفي من

760
01:02:10,000 --> 01:02:14,200
Provided by the classifier، إحنا قبل شوية لما شفنا

761
01:02:14,200 --> 01:02:18,000
الـ if then، كان بسهولة أن أفهم عليه، بدور إيش الـ

762
01:02:18,000 --> 01:02:21,720
factors الأساسية اللي كانت موجودة؟ لو هذا الـ if

763
01:02:21,720 --> 01:02:25,040
then ما كانتش موجودة، بقدر أستوعب ليش هو جداني yes وجداني no؟ أكيد لأ، لكن لما بيكون الـ algorithm قدامي

764
01:02:25,040 --> 01:02:29,140
قادر أو بقدر أو قادر على تفسيره، بكون أفضل، لكن

765
01:02:29,140 --> 01:02:34,820
الصحيح الموضوع برضه تفسيره هذا subjective للإنسان

766
01:02:34,820 --> 01:02:39,980
أو للشخص اللي بيشتغل عليه، لما أنا كتبنا، كتبنا

767
01:02:39,980 --> 01:02:42,780
المعادلة الرياضية، Y تساوي M1 في A1 زائد M2 في A2

768
01:02:42,780 --> 01:02:50,140
زائد B،

769
01:02:50,140 --> 01:02:51,440
زائد B،

770
01:02:55,220 --> 01:02:59,920
إيش رتبة.. إيش درجة المعادلة هي يا شباب؟ إيش رتبة

771
01:02:59,920 --> 01:03:07,980
المعادلة هي يا شباب؟ معادلة خطية، لأن الدرجة تقاس بأعلى

772
01:03:07,980 --> 01:03:12,840
أُس، الدرجة أو رتبة المعادلة تقاس بأعلى أُس،

773
01:03:12,840 --> 01:03:18,000
فالمعادلة هي خطية، بس فعليًا هذه multiple variable،

774
01:03:18,000 --> 01:03:25,480
متغيرات، اثنين مع الـ Y، يعني بين قوسين الـ 3D equation، مصبوط؟ هي.. هي الفكرة، الآن مش كل الناس

775
01:03:25,480 --> 01:03:30,840
قادرة على تفسير.. هذه، أعرضها على واحد خبير رياضيات

776
01:03:30,840 --> 01:03:35,740
مباشرة، بيقول لك هذه بتعني كذا، وواحد كذا، بيجي و

777
01:03:35,740 --> 01:03:38,580
بيقول لك أن هذا plane مائل، plane، مسطح مائل، الميل

778
01:03:38,580 --> 01:03:43,860
تبعه باتجاه X، ومثلًا X و Y كذا، X و Z كذا، هي الأبعاد

779
01:03:43,860 --> 01:03:51,450
تبعته، وهذه ارتفاعه أو التقاطع تبعته مع الـ Y axis،

780
01:03:51,450 --> 01:03:56,990
لكن أنا مش عارفني بالكلام هذا، فالموضوع الـ

781
01:04:02,270 --> 01:04:07,130
interpretability، أو موضوع تفسير الـ algorithm، و

782
01:04:07,130 --> 01:04:12,550
فهمه بيختلف من شخص لشخص، من

783
01:04:12,550 --> 01:04:17,410
الـ algorithms اللي هنتعرف عليها، K-nearest

784
01:04:17,410 --> 01:04:21,490
neighbor algorithm، وهذا البرنامج يعتمد على

785
01:04:21,490 --> 01:04:22,550
البرنامج، الوثيقة الوثيقة الوثيقة الوثيقة الوثيقة

786
01:04:22,550 --> 01:04:30,530
الوثيقة الوثيقة الوثيقة الوثيقة الوثيقة الوثيقة،

787
01:04:30,530 --> 01:04:35,310
الوثيقة الوثيقة الوثيقة الوثيقة الوثيقة الوثيقة،

788
01:04:35,310 --> 01:04:35,330
الوثيقة الوثيقة الوثيقة الوثيقة الوثيقة الوثيقة،

789
01:04:35,330 --> 01:04:41,850
الوثيقة الوثيقة الوثيقة الوثيقة الوثيقة،

790
01:04:41,850 --> 01:04:47,070
وفي عند الـ rule based induction، وفي عند الـ

791
01:04:47,070 --> 01:04:49,430
support vector machine، وفي عند الـ logistic

792
01:04:49,430 --> 01:04:53,610
regression، كل هذه الـ algorithms تستخدم في الـ

793
01:04:53,610 --> 01:04:55,990
classification، وفي عند الـ back propagation، الـ

794
01:04:55,990 --> 01:04:59,310
neural network، في الفصل هذا، في الشابتر هذا إن شاء

795
01:04:59,310 --> 01:05:02,350
الله تعالى، هشرح لك الـ k-nearest neighbor، والـ naive

796
01:05:02,350 --> 01:05:05,170
bayes، والـ decision tree، والـ back propagation، والـ

797
01:05:05,170 --> 01:05:09,650
propagation neural network، كـ classifiers خلال الفصل

798
01:05:09,650 --> 01:05:14,360
هذا، أنا محاضرة اليوم هي كاد أن تنتهي.