|
1 |
|
00:00:21,310 --> 00:00:23,570 |
|
بسم الله الرحمن الرحيم. اليوم، إن شاء الله، |
|
|
|
2 |
|
00:00:23,570 --> 00:00:28,510 |
|
نكمل الموضوع الذي كنا فيه، ونبقى معاً، ونبدأ الـ |
|
|
|
3 |
|
00:00:28,510 --> 00:00:33,510 |
|
chapter الجديد، الموضوع الجديد الذي كنا قد وصلنا |
|
|
|
4 |
|
00:00:33,510 --> 00:00:37,390 |
|
إليه في المحاضرة الماضية. طبعاً، حسب الترتيب الذي لدينا |
|
|
|
5 |
|
00:00:37,390 --> 00:00:42,510 |
|
هنا، كنا قد وصلنا إلى الـ forecast example. آه، هذا هو |
|
|
|
6 |
|
00:00:42,510 --> 00:00:46,950 |
|
عبارة عن rule-based expert system يعتمد على الـ |
|
|
|
7 |
|
00:00:46,950 --> 00:00:52,810 |
|
Bayesian reasoning. الآن، وقفنا في المحاضرة الماضية عند |
|
|
|
8 |
|
00:00:53,940 --> 00:00:57,260 |
|
الملاحظات، هؤلاء الذين هم الملاحظات على أداء الـ |
|
|
|
9 |
|
00:00:57,260 --> 00:01:01,120 |
|
Bayesian method، وعلى أيضاً مقارنة ما بينهما وبين الـ |
|
|
|
10 |
|
00:01:01,120 --> 00:01:04,620 |
|
certainty factor method. يعني، لأنَّ الذي هو bias of |
|
|
|
11 |
|
00:01:04,620 --> 00:01:07,680 |
|
the system of the Bayesian method. لأنه ثانياً، |
|
|
|
12 |
|
00:01:07,680 --> 00:01:11,320 |
|
comparison، مقارنة ما بين الـ Bayesian reasoning و الـ |
|
|
|
13 |
|
00:01:11,320 --> 00:01:15,900 |
|
certainty factor. فبدأنا نتحدث عن هذا الكلام، ولكن ليس من |
|
|
|
14 |
|
00:01:15,900 --> 00:01:22,570 |
|
هذه الشرائح، ليس من هذه الـ PowerPoint. PowerPoint |
|
|
|
15 |
|
00:01:22,570 --> 00:01:28,670 |
|
file أو شرائح مختلفة، وهي الشرائح التي أصلاً |
|
|
|
16 |
|
00:01:28,670 --> 00:01:33,070 |
|
موجودة عندكم مع الكتاب. تمام. فسننتقل على طول إلى الـ |
|
|
|
17 |
|
00:01:33,070 --> 00:01:35,790 |
|
bias of the Bayesian method و certainty factors |
|
|
|
18 |
|
00:01:35,790 --> 00:01:41,410 |
|
theory and evidential reasoning. الـ comparison. طيب، |
|
|
|
19 |
|
00:01:41,410 --> 00:01:42,010 |
|
الـ bias. |
|
|
|
20 |
|
00:01:50,970 --> 00:01:56,570 |
|
نحن كل الكلام الذي رأيناه، انتهينا منه. الـ bias هذا |
|
|
|
21 |
|
00:01:56,570 --> 00:02:00,110 |
|
في Bayesian method، المقصود به؟ ماذا تعني كلمة bias؟ |
|
|
|
22 |
|
00:02:00,110 --> 00:02:05,550 |
|
الـ bias يعني انحياز، أليس كذلك؟ يعني، عندما نقول إنسان |
|
|
|
23 |
|
00:02:05,550 --> 00:02:10,810 |
|
biased، يعني منحاز. فهنا، الـ bias المقصود به انحياز |
|
|
|
24 |
|
00:02:10,810 --> 00:02:17,410 |
|
أو تحيز. ما هو المقصود بالضبط بالـ bias هذا؟ أنه لو |
|
|
|
25 |
|
00:02:17,410 --> 00:02:23,230 |
|
أنا جئت قارنت ما بين الأرقام التي آخذها من خلال الـ |
|
|
|
26 |
|
00:02:23,230 --> 00:02:27,370 |
|
statistics، وجدتها غير مطابقة تماماً لما يعطيني إياه |
|
|
|
27 |
|
00:02:27,370 --> 00:02:30,480 |
|
الـ human expert. The human expert، قد يعطينا |
|
|
|
28 |
|
00:02:30,480 --> 00:02:35,040 |
|
تقديرات مختلفة عن التقديرات التي آخذها من الـ |
|
|
|
29 |
|
00:02:35,040 --> 00:02:37,940 |
|
بناءً على الـ statistics. تتذكرون لو قلنا كل الـ |
|
|
|
30 |
|
00:02:37,940 --> 00:02:41,860 |
|
probabilities التي تأتي في الـ Bayesian reasoning تأتي |
|
|
|
31 |
|
00:02:41,860 --> 00:02:45,200 |
|
بناءً على الـ statistics. أحياناً، يأتي فيه نقص في |
|
|
|
32 |
|
00:02:45,200 --> 00:02:50,780 |
|
هذا في هذه الـ probabilities، فيأتي الـ human expert |
|
|
|
33 |
|
00:02:50,780 --> 00:02:56,040 |
|
هو الذي يُوفي هذا النقص بناءً على خبرته. لو نحن |
|
|
|
34 |
|
00:02:56,040 --> 00:03:01,090 |
|
اطلعنا على البيانات التي يعطينا إياها الـ human |
|
|
|
35 |
|
00:03:01,090 --> 00:03:06,550 |
|
expert، قد نجدها غير مطابقة لما نستنتجه من خلال |
|
|
|
36 |
|
00:03:06,550 --> 00:03:10,250 |
|
الـ statistics. على سبيل المثال، أنا عندي هنا rule |
|
|
|
37 |
|
00:03:10,250 --> 00:03:14,210 |
|
تقول: if the symptom is odd noises, then the starter |
|
|
|
38 |
|
00:03:14,210 --> 00:03:18,810 |
|
is bad. يعني، أفتَرض أن في سيارة معطلة، والعرض الذي |
|
|
|
39 |
|
00:03:18,810 --> 00:03:22,910 |
|
أمامي أن السيارة هذه تطلق أصواتاً غريبة عندما آتي |
|
|
|
40 |
|
00:03:22,910 --> 00:03:27,150 |
|
لإشغالها، فهي لا تعمل. تماماً، عندما آتي لإشغالها تطلق صوتاً |
|
|
|
41 |
|
00:03:27,660 --> 00:03:33,780 |
|
أصوات غريبة. فالـ rule هنا تقول: إذا الـ symptom هو odd |
|
|
|
42 |
|
00:03:33,780 --> 00:03:36,680 |
|
noises, then the starter is bad. المشكلة تكون في |
|
|
|
43 |
|
00:03:36,680 --> 00:03:39,760 |
|
الـ starter. ما هو الـ starter؟ ما هو الـ |
|
|
|
44 |
|
00:03:39,760 --> 00:03:43,140 |
|
starter؟ أيضاً، الـ motor تبع السيارة. فيه الـ starter |
|
|
|
45 |
|
00:03:43,140 --> 00:03:48,320 |
|
motor يحرك المكابس لكي تبدأ دورة الـ cycle |
|
|
|
46 |
|
00:03:48,320 --> 00:03:53,360 |
|
تماماً. فالـ probability هنا، أو العلاقة السببية بين |
|
|
|
47 |
|
00:03:53,360 --> 00:04:00,250 |
|
الـ odd noises، وما بين أن الـ starter هو bad، 70 |
|
|
|
48 |
|
00:04:00,250 --> 00:04:08,790 |
|
%. صحيح، 70% أنه إذا العرض هو odd noises، فيكون السبب |
|
|
|
49 |
|
00:04:08,790 --> 00:04:15,770 |
|
bad starter. لأن بناءً على هذا الكلام، الـ 70% هذه |
|
|
|
50 |
|
00:04:15,770 --> 00:04:23,870 |
|
بإمكاني أيضاً استنتج أن الـ 30% الأخرى قد تكون في في |
|
|
|
51 |
|
00:04:23,870 --> 00:04:28,080 |
|
الـ odd noises، أو في الـ odd noises، ويبقى الـ starter غير |
|
|
|
52 |
|
00:04:28,080 --> 00:04:32,360 |
|
bad. أليس كذلك؟ كلامي صحيح أم لا؟ آه، يعني، إذا كان |
|
|
|
53 |
|
00:04:32,360 --> 00:04:36,620 |
|
70% من الحالات التي يكون فيها odd noises يكون الـ |
|
|
|
54 |
|
00:04:36,620 --> 00:04:39,880 |
|
starter معطلاً، فيبقى في حالات يكون فيها odd noises، و |
|
|
|
55 |
|
00:04:39,880 --> 00:04:43,700 |
|
يبقى الـ starter غير معطل، وهي الـ 30% الأخرى. okay. |
|
|
|
56 |
|
00:04:43,700 --> 00:04:50,000 |
|
تمام. فأنا، هذا الكلام، الـ probability of starter |
|
|
|
57 |
|
00:04:50,000 --> 00:04:55,460 |
|
is good، good، يعني not bad، عكس ذلك. حتى على الرغم من |
|
|
|
58 |
|
00:04:55,460 --> 00:04:58,940 |
|
وجود الـ event أو الـ evidence، وهو الـ odd noises، |
|
|
|
59 |
|
00:04:58,940 --> 00:05:04,020 |
|
فكيف حسبنا الـ probability هذه؟ ذهبنا إلى الـ probability |
|
|
|
60 |
|
00:05:04,020 --> 00:05:12,400 |
|
تبع الـ bad من الواحد، فطلع الذي هو 0.3، صحيح؟ |
|
|
|
61 |
|
00:05:12,400 --> 00:05:15,220 |
|
الآن، أفرض، الآن، أذكر هذا الكلام |
|
|
|
62 |
|
00:05:18,490 --> 00:05:23,090 |
|
النقطة الأخرى هنا، الـ rule هذه: if the starter is |
|
|
|
63 |
|
00:05:23,090 --> 00:05:29,030 |
|
bad, then the symptom is. أُعِيدُ هنا، الموضوع في الأول كنا |
|
|
|
64 |
|
00:05:29,030 --> 00:05:34,690 |
|
نقول: الـ symptom كذا، فالاستنتاج |
|
|
|
65 |
|
00:05:34,690 --> 00:05:38,910 |
|
أن الـ starter is bad. هنا، العكس، عندما يكون الـ |
|
|
|
66 |
|
00:05:38,910 --> 00:05:44,790 |
|
starter bad، فيصاحب هذا الأمر، يصاحب هذا |
|
|
|
67 |
|
00:05:44,790 --> 00:05:49,750 |
|
الخلل الذي هو starter bad، يصاحبه أصوات، أصوات |
|
|
|
68 |
|
00:05:49,750 --> 00:05:56,550 |
|
غريبة، أو أصوات غير طبيعية في 85% من الحالات، و الـ 15 |
|
|
|
69 |
|
00:05:56,550 --> 00:06:05,210 |
|
% أنه قد تصدر، يمكن أن يكون starter bad، ولا تطلع |
|
|
|
70 |
|
00:06:05,210 --> 00:06:08,930 |
|
أصوات، قد لا تطلع أصوات، حتى حين يكون starter bad. |
|
|
|
71 |
|
00:06:09,970 --> 00:06:15,490 |
|
هذا الكلام منطقي جداً، أن الـ starter is bad، وفي 85% |
|
|
|
72 |
|
00:06:15,490 --> 00:06:19,550 |
|
من الحالات، الـ starter يكون مصحوباً بأصوات غريبة، و |
|
|
|
73 |
|
00:06:19,550 --> 00:06:26,270 |
|
بالتالي، الـ 15% التي لم يظهر فيها، أخذنا الأرقام |
|
|
|
74 |
|
00:06:26,270 --> 00:06:30,290 |
|
منها. الـ 15% والـ 85%. لأن لو أنا جئت أريد أن أحسب |
|
|
|
75 |
|
00:06:30,290 --> 00:06:34,170 |
|
probability of أن الـ starter is bad، هاي الـ event |
|
|
|
76 |
|
00:06:34,170 --> 00:06:37,970 |
|
أي الـ hypothesis أن الـ starter is bad، |
|
|
|
77 |
|
00:06:41,000 --> 00:06:46,420 |
|
والـ evidence الآن، هي الـ odd noises. |
|
|
|
78 |
|
00:06:46,420 --> 00:06:51,000 |
|
لأن لو أنا أحسب ما هو الـ probability أن الـ starter |
|
|
|
79 |
|
00:06:51,000 --> 00:06:59,800 |
|
is bad في ظل الـ odd noises، ماذا أفعل؟ الـ probability |
|
|
|
80 |
|
00:06:59,800 --> 00:07:04,580 |
|
of odd noises عندما يكون الـ starter bad، أضرب الـ |
|
|
|
81 |
|
00:07:04,580 --> 00:07:09,500 |
|
probability of أن الـ starter is bad، على ماذا؟ |
|
|
|
82 |
|
00:07:12,440 --> 00:07:17,820 |
|
ماذا تحت في المقام؟ ماذا أجمع؟ |
|
|
|
83 |
|
00:07:17,820 --> 00:07:23,940 |
|
هذا يعني، قلنا، هذا لأ، the probability of |
|
|
|
84 |
|
00:07:47,410 --> 00:07:51,710 |
|
طبعاً، هذا الكلام، ماذا يقول؟ أنه probability |
|
|
|
85 |
|
00:07:51,710 --> 00:07:58,810 |
|
of أن يكون الـ starter bad، ومصحوباً بـ odd noises، و |
|
|
|
86 |
|
00:07:58,810 --> 00:08:02,430 |
|
هذه الـ probability of الـ starter not bad، ومصحوب |
|
|
|
87 |
|
00:08:02,430 --> 00:08:09,550 |
|
بـ odd noises. okay. starter is not bad. ليست هذه الـ |
|
|
|
88 |
|
00:08:09,550 --> 00:08:11,170 |
|
rules التي تعطيني هذا الكلام. |
|
|
|
89 |
|
00:08:15,240 --> 00:08:19,040 |
|
starter is bad، مصحوب بـ odd noises، و starter is |
|
|
|
90 |
|
00:08:19,040 --> 00:08:25,720 |
|
bad، مصحوب بـ not odd noises. فماذا يعني؟ يعني الـ |
|
|
|
91 |
|
00:08:25,720 --> 00:08:39,440 |
|
85 ضرب P of H، زائد الثانية التي هي 15 ضرب P of not |
|
|
|
92 |
|
00:08:39,440 --> 00:08:49,640 |
|
H. هذا المقام بالضبط فوق. the probability of 85 ضرب P |
|
|
|
93 |
|
00:08:49,640 --> 00:08:55,220 |
|
of H. طيب، P of H هذه من أين آخذها؟ من أين آخذها؟ |
|
|
|
94 |
|
00:08:55,220 --> 00:09:04,920 |
|
الـ rule هذه، الاثنتان لا تعطيني، صحيح، P of H. الـ rule |
|
|
|
95 |
|
00:09:04,920 --> 00:09:12,620 |
|
التي قبل أيضاً، هذه لا تعطيني P of H، صحيح؟ صحيح. هذه |
|
|
|
96 |
|
00:09:12,620 --> 00:09:21,450 |
|
تعطيني إذا، وهو الـ evidence، الـ P |
|
|
|
97 |
|
00:09:21,450 --> 00:09:27,830 |
|
of H، هو |
|
|
|
98 |
|
00:09:27,830 --> 00:09:32,000 |
|
الـ P of E، وكذلك الـ P of not H. يعني، إذا جئت إلى الـ P |
|
|
|
99 |
|
00:09:32,000 --> 00:09:38,200 |
|
of H، أحصل على الـ P of not H. هنا، إذا الـ statistics غير |
|
|
|
100 |
|
00:09:38,200 --> 00:09:41,620 |
|
معطيني هذا الكلام، ماذا أفعل؟ ما هو هذا الكلام؟ ماذا نفعل؟ |
|
|
|
101 |
|
00:09:41,620 --> 00:09:45,860 |
|
الـ starter. ما هي احتمالية أن يكون الـ starter معطلاً؟ يعني، |
|
|
|
102 |
|
00:09:45,860 --> 00:09:51,360 |
|
عندي سيارة معطلة، في كل حالات السيارات، السيارة تكون |
|
|
|
103 |
|
00:09:51,360 --> 00:09:57,230 |
|
معطلة هكذا. نسبة أن تكون معطلة بسبب الـ starter، هو |
|
|
|
104 |
|
00:09:57,230 --> 00:10:01,530 |
|
هذا الـ P of H. أليس هذا هو معنى الـ P of H؟ يأتي لأنه |
|
|
|
105 |
|
00:10:01,530 --> 00:10:04,870 |
|
الـ human expert هو الذي قد، إذا الـ statistics هذه غير |
|
|
|
106 |
|
00:10:04,870 --> 00:10:09,310 |
|
متوفرة، يأتي الـ human expert ويعطيني إياها. فمن الممكن أن الـ |
|
|
|
107 |
|
00:10:09,310 --> 00:10:14,050 |
|
human expert يأتي ويقول لي: 5%، 5% من الحالات أن السيارة |
|
|
|
108 |
|
00:10:14,050 --> 00:10:20,390 |
|
لا تعمل يكون بسبب الـ، بسبب الـ starter. فـ 5%، |
|
|
|
109 |
|
00:10:20,390 --> 00:10:26,800 |
|
ثم، ماذا أضع هنا؟ ماذا أضع هنا؟ أضع الـ |
|
|
|
110 |
|
00:10:26,800 --> 00:10:33,400 |
|
ماذا أضع؟ عكسها، لأ، عكسها. هنا أضع الـ |
|
|
|
111 |
|
00:10:33,400 --> 00:10:38,700 |
|
5%، وهنا، غير مرتبطة به، تقدر وتُسرّي أحوالها، غير |
|
|
|
112 |
|
00:10:38,700 --> 00:10:50,360 |
|
بسبب الـ starter، 95%. الباقي، أليس كذلك؟ أنا أضع… 5 |
|
|
|
113 |
|
00:10:50,360 --> 00:10:51,480 |
|
صحيح، صحيح. |
|
|
|
114 |
|
00:10:56,420 --> 00:11:01,700 |
|
هذا الكلام، ماذا يعطيني؟ يعطيني الـ parameter of H |
|
|
|
115 |
|
00:11:01,700 --> 00:11:11,700 |
|
given E، يساوي، ما هي الحسبة النهائية؟ 0.23، تقريباً 23%. ولكن هذا الكلام أجبناه على ماذا؟ ليس |
|
|
|
116 |
|
00:11:11,700 --> 00:11:19,880 |
|
كله statistics. أجبناه على statistics مع تقدير. طيب، |
|
|
|
117 |
|
00:11:19,880 --> 00:11:25,380 |
|
ماذا تقول؟ أن هذا الكلام يتعارض مع الـ rules التي |
|
|
|
118 |
|
00:11:25,380 --> 00:11:31,160 |
|
موجودة في الـ system. هذه الـ rules ليست |
|
|
|
119 |
|
00:11:31,160 --> 00:11:37,980 |
|
تفسيرها هو probability of H given E. الـ probability الـ |
|
|
|
120 |
|
00:11:37,980 --> 00:11:44,580 |
|
70% هذه هي احتمالية أن هذا الـ hypothesis، الـ |
|
|
|
121 |
|
00:11:44,580 --> 00:11:51,480 |
|
starter bad، بسبب، أو إذا ظهر في حالة الـ event هذا، odd |
|
|
|
122 |
|
00:11:51,480 --> 00:11:57,780 |
|
noises، يكون هذا الـ hypothesis صحيحاً، وهو ماذا؟ |
|
|
|
123 |
|
00:11:57,780 --> 00:12:01,700 |
|
starter is bad. وهي التي أنا كتبتها هنا. طيب، هي ليست هي |
|
|
|
124 |
|
00:12:05,720 --> 00:12:10,480 |
|
أيضاً، هذه التي حسبناها هنا، ولكن هنا هي سبعة، وهنا |
|
|
|
125 |
|
00:12:10,480 --> 00:12:18,300 |
|
ثلاثة وعشرون. اختلاف، هذا اختلاف كبير. هنا الـ rule هذه، الـ |
|
|
|
126 |
|
00:12:18,300 --> 00:12:21,770 |
|
rule هذه جاءت بناءً على الـ Bayesian reasoning، جاءت |
|
|
|
127 |
|
00:12:21,770 --> 00:12:27,250 |
|
بناءً على الـ statistics. قدرت لي الـ probability of الـ |
|
|
|
128 |
|
00:12:27,250 --> 00:12:31,530 |
|
hypothesis هذا في ظل الـ evidence هذا، بـ 70%. |
|
|
|
129 |
|
00:12:31,530 --> 00:12:36,610 |
|
بينما عندما جئنا حسبنا من الـ rules الأخرى، وهو الـ |
|
|
|
130 |
|
00:12:36,610 --> 00:12:41,070 |
|
rules الأخرى التي أيضاً صحيحة، ولكن دخل فيها ماذا؟ دخل |
|
|
|
131 |
|
00:12:41,070 --> 00:12:45,290 |
|
في حسابها تقدير الـ human expert لجزئية واحدة، وهي |
|
|
|
132 |
|
00:12:45,290 --> 00:12:51,210 |
|
الـ P of H، طلع عندي نتائج مختلفة. هنا، هذا الذي هو |
|
|
|
133 |
|
00:12:51,210 --> 00:12:55,930 |
|
الذي نقول عنه الـ bias تبع الـ، الـ، الـ Bayesian |
|
|
|
134 |
|
00:12:55,930 --> 00:13:01,150 |
|
reasoning. الـ Bayesian reasoning قد يختلف، يكون |
|
|
|
135 |
|
00:13:01,150 --> 00:13:04,870 |
|
فيه فرق ما بينه وما بين تقدير الـ، تقدير الـ |
|
|
|
136 |
|
00:13:04,870 --> 00:13:09,850 |
|
human expert. الـ human expert قدر هذا بناءً على |
|
|
|
137 |
|
00:13:09,850 --> 00:13:13,770 |
|
خبرته. المفروض هو يفحص أكثر، المفروض أن تكون أكثر من |
|
|
|
138 |
|
00:13:13,770 --> 00:13:18,450 |
|
ذلك لكي تقترب من الـ 70%، التي هي من statistics. |
|
|
|
139 |
|
00:13:18,450 --> 00:13:27,650 |
|
فهذه النقطة الأولى، التي هي الـ bias of the number |
|
|
|
140 |
|
00:13:27,650 --> 00:13:32,610 |
|
obtained. هذا الرقم is significantly lower than the |
|
|
|
141 |
|
00:13:32,610 --> 00:13:38,610 |
|
expert estimate of 70 given at the beginning of، في |
|
|
|
142 |
|
00:13:38,610 --> 00:13:39,730 |
|
المثال السابق. |
|
|
|
143 |
|
00:13:45,190 --> 00:13:48,090 |
|
فهذه هي النقطة الأولى، التي هي اختلاف ما بين |
|
|
|
144 |
|
00:13:48,090 --> 00:13:52,270 |
|
التقديرات التي تأتي من الـ based reasoning، وما بين |
|
|
|
145 |
|
00:13:52,270 --> 00:13:59,750 |
|
خبرة الـ expert. وقد |
|
|
|
146 |
|
00:13:59,750 --> 00:14:04,150 |
|
تكون، على فكرة، وقد تكون العكس، بمعنى أن هذا |
|
|
|
147 |
|
00:14:04,150 --> 00:14:07,870 |
|
الـ rule، هو أصلاً الـ human expert هو الذي وضع هذه النسبة |
|
|
|
148 |
|
00:14:07,870 --> 00:14:12,130 |
|
ووضعها أيضاً بناءً على تقديره، وكانت عالية كثيراً، أعلى |
|
|
|
149 |
|
00:14:12,130 --> 00:14:20,440 |
|
من تقديره نفسه. في هذه النقطة، الخمسة في المئة منخفضة |
|
|
|
150 |
|
00:14:20,440 --> 00:14:28,420 |
|
كثيراً عن تقديره للسبعين في المئة. طيب، |
|
|
|
151 |
|
00:14:28,420 --> 00:14:31,660 |
|
ماشي. هذه هي النقطة الأولى. النقطة الثانية التي هي |
|
|
|
152 |
|
00:14:31,660 --> 00:14:38,820 |
|
نحن الآن نريد أن ننظر إلى مقارنة سريعة ما بين الـ، الـ |
|
|
|
153 |
|
00:14:41,380 --> 00:14:43,680 |
|
Bayesian Reasoning، و الـ Certainty Factor |
|
|
|
154 |
|
00:14:43,680 --> 00:14:46,520 |
|
Reasoning. تذكرون الـ Certainty Factors؟ كنا |
|
|
|
155 |
|
00:14:46,520 --> 00:14:54,700 |
|
نضع Certainty Factors مع الـ rules. الـ |
|
|
|
156 |
|
00:14:54,700 --> 00:14:57,620 |
|
Bayesian Reasoning، نحن نعتمد على الـ statistical |
|
|
|
157 |
|
00:14:57,620 --> 00:15:05,020 |
|
data التي جمعناها، وعلى أساسها نحسب الـ hypothesis |
|
|
|
158 |
|
00:15:05,020 --> 00:15:10,280 |
|
المختلفة. لكل hypothesis، ما هي الـ probability الخاصة بها؟ |
|
|
|
159 |
|
00:15:10,830 --> 00:15:17,210 |
|
فالـ probability theory هي الأساس لمن؟ لـ Bayesian |
|
|
|
160 |
|
00:15:17,210 --> 00:15:23,690 |
|
reasoning. وبالتالي، الـ Bayesian reasoning يُحسّن، أو |
|
|
|
161 |
|
00:15:23,690 --> 00:15:29,390 |
|
works well، في المجالات التي يكون فيها، مثل، مثلاً، الـ |
|
|
|
162 |
|
00:15:29,390 --> 00:15:33,450 |
|
forecasting، و الـ planning، التي يكون فيها |
|
|
|
163 |
|
00:15:33,450 --> 00:15:36,910 |
|
statistical data usually available. ماذا يعني أن يكون |
|
|
|
164 |
|
00:15:36,910 --> 00:15:40,110 |
|
في الـ forecasting و الـ planning، يكون فيه |
|
|
|
165 |
|
00:15:40,110 --> 00:15:42,970 |
|
statistical data available؟ لأنه كل سنة، في الـ |
|
|
|
166 |
|
00:15:42,970 --> 00:15:46,510 |
|
forecasting، يعني، التنبؤ بالطقس، كل |
|
|
|
167 |
|
00:15:46,510 --> 00:15:49,850 |
|
سنة، نجمع البيانات. نسجل مقدار الأمطار، ونسجل |
|
|
|
168 |
|
00:15:49,850 --> 00:15:53,730 |
|
مقدار سرعة الرياح، ونسجل البيانات كلها، فيكون لدينا |
|
|
|
169 |
|
00:15:53,730 --> 00:15:58,650 |
|
historical data available. لكي نستطيع أن نتوقع ما هو |
|
|
|
170 |
|
00:15:58,650 --> 00:16:06,370 |
|
الـ… غداً، أو الأيام التي بعد ذلك. كيف؟ |
|
|
|
171 |
|
00:16:06,370 --> 00:16:11,610 |
|
حال كونها بيانات تاريخية. وبالتالي، عندما يكون لدينا |
|
|
|
172 |
|
00:16:11,610 --> 00:16:15,790 |
|
statistical data، أستطيع أن أعتمد على الـ Bayesian، ولكن |
|
|
|
173 |
|
00:16:15,790 --> 00:16:20,850 |
|
هذا الكلام ليس متوفراً دائماً. قلت هذه النقطة قبل قليل، أنه |
|
|
|
174 |
|
00 |
|
|
|
223 |
|
00:20:11,830 --> 00:20:15,670 |
|
بالكيفية هذه الأولي ثم الـ rule الثاني ثم الـ rule |
|
|
|
224 |
|
00:20:15,670 --> 00:20:18,110 |
|
الثالثة وبالتالي الـ approach of certain factors |
|
|
|
225 |
|
00:20:18,110 --> 00:20:24,350 |
|
بيقدر بيعطي better explanation of the control flow |
|
|
|
226 |
|
00:20:24,350 --> 00:20:28,690 |
|
الـ control flow يعني اللي هو تسلسل الـ rules اللي |
|
|
|
227 |
|
00:20:28,690 --> 00:20:33,130 |
|
على أساسها وصلنا لاستنتاجه |
|
|
|
228 |
|
00:20:37,290 --> 00:20:41,230 |
|
فخلص هذا الكلام أصبح بديهياً جداً أن الـ method is |
|
|
|
229 |
|
00:20:41,230 --> 00:20:47,010 |
|
likely to be most appropriate if الـ method more |
|
|
|
230 |
|
00:20:47,010 --> 00:20:52,530 |
|
appropriate إذا الـ data exist و الـ knowledge |
|
|
|
231 |
|
00:20:52,530 --> 00:20:55,230 |
|
engineer اللي هو الشخص اللي بيصمم الـ expert system |
|
|
|
232 |
|
00:20:55,230 --> 00:21:01,830 |
|
بيستطيع أن يأخذ هذه الـ statistical data ويصمم على |
|
|
|
233 |
|
00:21:01,830 --> 00:21:07,470 |
|
أساسها، يصمم على أساسها الـ system بينما in the |
|
|
|
234 |
|
00:21:07,470 --> 00:21:14,370 |
|
absence of في حالة غياب الـ statistical data |
|
|
|
235 |
|
00:21:14,370 --> 00:21:21,750 |
|
فبيكون الأفضل اللي هو الـ certainty |
|
|
|
236 |
|
00:21:21,750 --> 00:21:26,870 |
|
factor method بالإضافة إلى هذا كله أن الـ Bayesian |
|
|
|
237 |
|
00:21:26,870 --> 00:21:32,810 |
|
reasoning يحتاج إلى calculations أكثر بكثير من اللي |
|
|
|
238 |
|
00:21:32,810 --> 00:21:36,430 |
|
بتعمل في الـ certainty factor method، صح الكلام ولا |
|
|
|
239 |
|
00:21:36,430 --> 00:21:42,170 |
|
غلط؟ كـ true or false question. Bayesian reasoning |
|
|
|
240 |
|
00:21:42,170 --> 00:21:49,710 |
|
requires أو has a very high computational cost |
|
|
|
241 |
|
00:21:49,710 --> 00:21:53,810 |
|
compared to بالمقارنة مع الـ certainty factor |
|
|
|
242 |
|
00:21:53,810 --> 00:22:00,140 |
|
method، صح ولا غلط؟ صح، أنه في كثير... يعني شوفتي احنا |
|
|
|
243 |
|
00:22:00,140 --> 00:22:04,020 |
|
كنا بنضرب البسط والمقام والأمور هذه، عملية |
|
|
|
244 |
|
00:22:04,020 --> 00:22:08,380 |
|
calculations كثيرة، بالتبع هذا واحنا كنا بنحكي على |
|
|
|
245 |
|
00:22:08,380 --> 00:22:12,000 |
|
ثلاثة hypotheses وثلاثة evidences، تخيل أنت |
|
|
|
246 |
|
00:22:12,000 --> 00:22:18,620 |
|
knowledge base فيها statistics كثيرة وأنا ب... ب... |
|
|
|
247 |
|
00:22:18,620 --> 00:22:22,560 |
|
... بدي أختبر عشرة أو عشرين hypotheses أشوف مين |
|
|
|
248 |
|
00:22:22,560 --> 00:22:26,880 |
|
أكثر واحد فيهم، أعلى واحد probability و... و يمكن |
|
|
|
249 |
|
00:22:26,880 --> 00:22:29,780 |
|
في عندي عدة events كثيرة، عشرة أو عشرين event أنا |
|
|
|
250 |
|
00:22:29,780 --> 00:22:34,460 |
|
بدي أقيّم الـ hypotheses على أساسها، تخيلوا كمية الـ |
|
|
|
251 |
|
00:22:34,460 --> 00:22:40,380 |
|
calculations، فبتبقى الـ complexity، الـ computational |
|
|
|
252 |
|
00:22:40,380 --> 00:22:44,620 |
|
complexity بتبقى exponential، إيش يعني exponential؟ |
|
|
|
253 |
|
00:22:44,620 --> 00:22:48,620 |
|
يعني كل ما زدنا شوية في الـ hypotheses وفي الـ |
|
|
|
254 |
|
00:22:48,620 --> 00:22:54,480 |
|
events، بيزيد الزمن، الـ computational time بيزيد بشكل |
|
|
|
255 |
|
00:22:54,480 --> 00:23:01,190 |
|
عالي جداً، بالإضافة إلى ذلك، لازم الـ knowledge base تبقى |
|
|
|
256 |
|
00:23:01,190 --> 00:23:06,610 |
|
large، مليانة جداً، واللي هي statistical tables، تمام؟ |
|
|
|
257 |
|
00:23:06,610 --> 00:23:11,570 |
|
هذا هو نهاية النقطة الثانية، النقطة الأولى كانت الـ |
|
|
|
258 |
|
00:23:11,570 --> 00:23:21,670 |
|
bias of Bayesian reasoning، النقطة |
|
|
|
259 |
|
00:23:21,670 --> 00:23:27,390 |
|
الثانية كانت الـ comparison بين |
|
|
|
260 |
|
00:23:27,390 --> 00:23:28,410 |
|
الـ Bayesian |
|
|
|
261 |
|
00:23:32,240 --> 00:23:37,500 |
|
هذا نهاية كلامنا في هذا الموضوع، الموضوع الـ |
|
|
|
262 |
|
00:23:37,500 --> 00:23:43,600 |
|
uncertainty باستخدام الـ Bayesian و الـ certainty |
|
|
|
263 |
|
00:23:43,600 --> 00:23:47,890 |
|
factor، الموضوع الجاي اللي هو برضه uncertainty بس |
|
|
|
264 |
|
00:23:47,890 --> 00:23:51,210 |
|
باستخدام حاجة اسمها الـ fuzzy reasoning، الـ fuzzy |
|
|
|
265 |
|
00:23:51,210 --> 00:23:55,990 |
|
reasoning بنبدأ فيه الآن، إذا ما حدش عنده سؤال أو مش |
|
|
|
266 |
|
00:23:55,990 --> 00:23:58,670 |
|
عارف، إذا كان الـ homework الأولاني كان بدكوا تسألوا |
|
|
|
267 |
|
00:23:58,670 --> 00:24:06,890 |
|
فيه شيء تبع الـ alpha beta pruning، في سؤال محدد |
|
|
|
268 |
|
00:24:06,890 --> 00:24:11,010 |
|
لأنه مش هحل المسألة الآن كلها، إذا في سؤال محدد أنا |
|
|
|
269 |
|
00:24:11,010 --> 00:24:12,810 |
|
الحين بفتح الـ slide تبع |
|
|
|
270 |
|
00:24:16,140 --> 00:24:21,880 |
|
فَش سؤال محدد، فَش سؤال محدد، طيب خلاص، هي اللي طلع إنك |
|
|
|
271 |
|
00:24:21,880 --> 00:24:25,260 |
|
أشهر الـ form، كويس، طيب أنا دلوقتي بفهمك إياها بعدها |
|
|
|
272 |
|
00:24:25,260 --> 00:24:32,220 |
|
بيصير... بيصير ممكن تحلها، خليني نرجع وين؟ على |
|
|
|
273 |
|
00:24:32,220 --> 00:24:39,340 |
|
الكتاب الأولاني، صح؟ هاي الـ |
|
|
|
274 |
|
00:24:39,340 --> 00:24:47,600 |
|
extra، صح؟ adversarial search في آخره، مظبوط؟ هذه الـ |
|
|
|
275 |
|
00:24:47,600 --> 00:24:53,280 |
|
control and هذه الـ |
|
|
|
276 |
|
00:24:53,280 --> 00:25:00,840 |
|
shift، فقط آخر خمسة، طيب أنا بس أوضح أن المطلوب منها |
|
|
|
277 |
|
00:25:00,840 --> 00:25:05,560 |
|
كان المطلوب |
|
|
|
278 |
|
00:25:05,560 --> 00:25:08,960 |
|
كان أن أول شيء تعمل propagate للـ values، propagate |
|
|
|
279 |
|
00:25:08,960 --> 00:25:12,200 |
|
للـ values، يعني هي عندي أنا هذه الـ values محطوطة بس |
|
|
|
280 |
|
00:25:12,200 --> 00:25:17,240 |
|
لمين؟ للـ leaf nodes، مظبوط؟ أما الـ parent nodes ما عندناش |
|
|
|
281 |
|
00:25:17,240 --> 00:25:20,540 |
|
value، فهو ما عندناش values، فهو المطلوب منك في دقيقة |
|
|
|
282 |
|
00:25:20,540 --> 00:25:25,620 |
|
واحدة، أنه ترحل بناءً على إيش؟ بدك ترحل بناءً على كل |
|
|
|
283 |
|
00:25:25,620 --> 00:25:30,820 |
|
node، هي موجودة في الـ في الـ door تبع مين؟ تبع max |
|
|
|
284 |
|
00:25:30,820 --> 00:25:38,760 |
|
هذا max، فابتدى هذا من max، من max، فواضح جداً نبدأ |
|
|
|
285 |
|
00:25:38,760 --> 00:25:42,680 |
|
مثلاً من هنا الـ zero، السبعة هذا، بدأ تجه الـ zero هذا |
|
|
|
286 |
|
00:25:42,680 --> 00:25:46,280 |
|
بدون pruning، هذا بدون formal حتى الآن، سبعة وثمانية |
|
|
|
287 |
|
00:25:46,280 --> 00:25:50,380 |
|
هذه بتنتقل إيش؟ ثمانية |
|
|
|
288 |
|
00:25:50,380 --> 00:25:59,680 |
|
هذا ثلاثة وخمسة، الـ minimum ثلاثة هنا، هنا، هنا zero |
|
|
|
289 |
|
00:25:59,680 --> 00:26:05,900 |
|
وخمسة، إيش الـ max؟ خمسة، هنا أربعة وثمانية وخمسة |
|
|
|
290 |
|
00:26:05,900 --> 00:26:12,280 |
|
من الـ minimum أربعة، هنا أربعة وثلاثة، إيش الـ maximum؟ |
|
|
|
291 |
|
00:26:12,280 --> 00:26:15,900 |
|
أربعة، صح؟ هذا هو الجزء الأولاني من السؤال، الآن |
|
|
|
292 |
|
00:26:15,900 --> 00:26:18,640 |
|
الجزء الثاني اللي بدك تعمل pruning، يعني إنك أنت لو |
|
|
|
293 |
|
00:26:18,640 --> 00:26:23,500 |
|
بدك توفر على الـ system، الـ system إيش بده؟ كيف يوفر؟ |
|
|
|
294 |
|
00:26:23,500 --> 00:26:29,420 |
|
هو الآن هذه الثلاثة بعدين الخمسة، لازم يشوف الخمسة |
|
|
|
295 |
|
00:26:29,420 --> 00:26:32,940 |
|
صح؟ لازم يدخل على الخمسة، يعني هنا تبقى الثلاثة هي |
|
|
|
296 |
|
00:26:32,940 --> 00:26:36,960 |
|
beta، ماشي؟ |
|
|
|
297 |
|
00:26:36,960 --> 00:26:41,180 |
|
لسه هنا ما في ألفا، ما في alpha اللي أنا أقرب لزكان |
|
|
|
298 |
|
00:26:41,180 --> 00:26:46,360 |
|
الـ beta هذا أكبر ولا أمشي ولا لأ؟ فهذا لازم يشوف |
|
|
|
299 |
|
00:26:46,360 --> 00:26:51,720 |
|
الخمسة، الخمسة أكبر من ثلاثة، فثبتت الآن الثلاثة هي |
|
|
|
300 |
|
00:26:51,720 --> 00:26:57,740 |
|
alpha، تبقى هذا النوع الآن، هذه الثلاثة بتترحل على |
|
|
|
301 |
|
00:26:57,740 --> 00:27:05,080 |
|
أساس أنها alpha، لا، الـ A، نخش هيك الآن، الـ zero، الـ |
|
|
|
302 |
|
00:27:05,080 --> 00:27:07,560 |
|
zero بنتفجر على أنه الـ zero هو الـ minimum، فمن |
|
|
|
303 |
|
00:27:07,560 --> 00:27:12,100 |
|
الجانب اللي شفنا الـ zero فبدنا ما نضمنش أي أي |
|
|
|
304 |
|
00:27:12,100 --> 00:27:17,800 |
|
شيء ثاني، مش ممكن، خلاص مش هتشوفه مباشرةً على فرضية |
|
|
|
305 |
|
00:27:17,800 --> 00:27:22,060 |
|
إذا في السؤال معضلة أنه ما فيش أقل من الـ zero وهذا |
|
|
|
306 |
|
00:27:22,060 --> 00:27:26,800 |
|
مش معضلة السؤال، الآن حُلّ على هذا الأساس، إذا ما فيش |
|
|
|
307 |
|
00:27:26,800 --> 00:27:31,090 |
|
هذا الأساس معناته بدك تكمل الـ zero، إذا الـ zero |
|
|
|
308 |
|
00:27:31,090 --> 00:27:34,170 |
|
ممكن يكون فيه أقل من النمرة فلازم الـ algorithm |
|
|
|
309 |
|
00:27:34,170 --> 00:27:38,290 |
|
تكمل، فاحنا افترضنا إنه ما فيش أقل من الـ zero فحطينا |
|
|
|
310 |
|
00:27:38,290 --> 00:27:48,630 |
|
هنا، فحطينا صفر لأن الـ zero هذا الآن بدأ تترحل لـ |
|
|
|
311 |
|
00:27:48,630 --> 00:27:59,170 |
|
F على أساس أنها alpha، ألفا، لأن الـ alpha هذا من الـ |
|
|
|
312 |
|
00:27:59,170 --> 00:28:03,020 |
|
parent، الـ parent هذا الـ C، الـ C هذا مش معروف لسه |
|
|
|
313 |
|
00:28:03,020 --> 00:28:09,940 |
|
إيش الـ... الـ beta تبقى، تبقى كده مش عارفين، لما نعرف |
|
|
|
314 |
|
00:28:09,940 --> 00:28:14,600 |
|
هذا ونرحلها كـ beta لهذا، الآن هنا الخمسة هذه ممكن |
|
|
|
315 |
|
00:28:14,600 --> 00:28:20,480 |
|
أكمل أنا عشان أشوف، آه احنا كملنا؟ صح؟ لأ، لسه |
|
|
|
316 |
|
00:28:20,480 --> 00:28:25,540 |
|
ما كملناش، فالآن لازم أخش على هذه عشان أشوف إذا كان |
|
|
|
317 |
|
00:28:25,540 --> 00:28:31,980 |
|
ممكن أحصل على أكبر من الـ zero، بالطبع الخمسة أكبر ف... |
|
|
|
318 |
|
00:28:31,980 --> 00:28:37,860 |
|
فبتصير هي الـ alpha، ما فيش other children، يقول خلاص |
|
|
|
319 |
|
00:28:37,860 --> 00:28:42,940 |
|
فبتثبت الخمسة لأن أنا هنا الخمسة هذه بدأت ترحل |
|
|
|
320 |
|
00:28:42,940 --> 00:28:50,940 |
|
إلى هنا، على أساس إيش؟ أساس إيش؟ beta، الآن الـ beta هذه |
|
|
|
321 |
|
00:28:50,940 --> 00:28:57,380 |
|
أكبر من الـ alpha والـ parent تبعها، صح أو لا؟ معناته؟ |
|
|
|
322 |
|
00:29:00,220 --> 00:29:09,580 |
|
هذه مثال جديد، معناته إيش؟ بقدر أوقف؟ بقدر أسأل |
|
|
|
323 |
|
00:29:09,580 --> 00:29:12,780 |
|
مش مفروض غير مقارنة من فوق، مفروض غير مقارنة من |
|
|
|
324 |
|
00:29:12,780 --> 00:29:15,320 |
|
اللي بتحكم فيها، مفروض، صح؟ أكمل، أول مقارنة... ما لك |
|
|
|
325 |
|
00:29:15,320 --> 00:29:18,420 |
|
أنا الآن هنا مبدئيًا أن الـ node هي دي، قرفت واحدة من |
|
|
|
326 |
|
00:29:18,420 --> 00:29:24,060 |
|
الـ children تبعها هنا صح؟ و... وصار مرشح الخمسة |
|
|
|
327 |
|
00:29:24,060 --> 00:29:27,460 |
|
مرشحها اللي هتكون هي الـ value، فبقى هذا الـ node صح؟ |
|
|
|
328 |
|
00:29:27,460 --> 00:29:33,380 |
|
مش هي كمان الـ beta؟ طيب هلأ أكمل؟ أكمل... أكمل ليش؟ |
|
|
|
329 |
|
00:29:33,380 --> 00:29:36,960 |
|
ما بتطبقش الـ rule، الـ rule طبعاً بتتطبق لما نكون إجالي |
|
|
|
330 |
|
00:29:36,960 --> 00:29:39,400 |
|
إجالي عارفة، يعني إجالي يعني أنا اللي بدي أستمر |
|
|
|
331 |
|
00:29:39,400 --> 00:29:42,440 |
|
عشان أجيب إجالي، طب ليش أستمر أجيب إجالي إذا جال الـ |
|
|
|
332 |
|
00:29:42,440 --> 00:29:46,380 |
|
pruning تبقى هيك؟ بده أكثر فأنا هنا بكمل، بأخش على |
|
|
|
333 |
|
00:29:46,380 --> 00:29:50,880 |
|
الـ G، الـ G، المهم تلقائيًا لازم أشوف الـ K، صح؟ الـ K |
|
|
|
334 |
|
00:29:50,880 --> 00:29:57,310 |
|
سبعة، فهذه الـ alpha، بالسبعة، سبعة، okay، الآن الـ alpha |
|
|
|
335 |
|
00:29:57,310 --> 00:30:02,810 |
|
أكبر من الـ beta تبع الـ parent، إيش |
|
|
|
336 |
|
00:30:02,810 --> 00:30:08,170 |
|
أقول؟ بتقول لي مين معروف؟ وإذا أنا واقف على قدر من |
|
|
|
337 |
|
00:30:08,170 --> 00:30:13,570 |
|
node، والـ beta تبعته، آسف، أنا واقف هنا، أنا واقف على |
|
|
|
338 |
|
00:30:13,570 --> 00:30:17,530 |
|
max node، والـ alpha تبعته أكبر من الـ beta تبع |
|
|
|
339 |
|
00:30:17,530 --> 00:30:24,000 |
|
parent، أستمر؟ لا، ما أستمرش، أحط slash هنا، طبعاً حطيت الـ |
|
|
|
340 |
|
00:30:24,000 --> 00:30:27,260 |
|
slash هنا يعني ما جفتش، ممكن سبّت السبعة هنا، سبّت |
|
|
|
341 |
|
00:30:27,260 --> 00:30:34,040 |
|
ممكن بترحل هنا، صراحة ما برحلش |
|
|
|
342 |
|
00:30:34,040 --> 00:30:39,640 |
|
بس ما برحلش، ما برحلش، طيب ما جفتش هنا، الآن بده أخش هنا، آه |
|
|
|
343 |
|
00:30:39,640 --> 00:30:43,920 |
|
بده أخش هنا على أساس إيش عندي أنا؟ على أساس أنا |
|
|
|
344 |
|
00:30:43,920 --> 00:30:47,840 |
|
أشوف الـ node هذا، الـ node هذا أربعة طبعاً، فالـ أربعة |
|
|
|
345 |
|
00:30:47,840 --> 00:30:52,020 |
|
هذا ما بينها وما بين الخمسة والسبعة |
|
|
|
346 |
|
00:31:13,690 --> 00:31:17,330 |
|
القضية هي لو أنا جيت هوفر حاجة أكثر ولا لو جيت من |
|
|
|
347 |
|
00:31:17,330 --> 00:31:23,290 |
|
اليمين هوفر أُكثر، يعني في الـ calculations أكثر، خلاص؟ |
|
|
|
348 |
|
00:31:23,290 --> 00:31:27,090 |
|
هذا ببساطة اللي هو السؤال، خلينا الآن في الوقت اللي |
|
|
|
349 |
|
00:31:27,090 --> 00:31:31,550 |
|
ضايل عشر دقائق معانا نحكي فيهم في موضوع جديد |
|
|
|
350 |
|
00:31:31,550 --> 00:31:36,930 |
|
الموضوع الجديد اللي هو الـ fuzzy reasoning، الـ fuzzy |
|
|
|
351 |
|
00:31:36,930 --> 00:31:40,570 |
|
reasoning بيجي تحت نفس الإطار اللي احنا شغالين فيه |
|
|
|
352 |
|
00:31:40,570 --> 00:31:45,790 |
|
اللي هو expert systems بتشتغل في الـ uncertainty |
|
|
|
353 |
|
00:31:45,790 --> 00:31:51,490 |
|
بتتعامل مع مشكلة الـ uncertainty، مشكلة الـ |
|
|
|
354 |
|
00:31:51,490 --> 00:31:57,190 |
|
uncertainty اللي ببساطة هي عدم توفر معلومات دقيقة |
|
|
|
355 |
|
00:31:57,190 --> 00:32:02,830 |
|
فاحنا في عندنا شوية غموض، في عندنا شوية ضبابية، الـ |
|
|
|
356 |
|
00:32:02,830 --> 00:32:08,750 |
|
Bayesian rule والـ certainty factor method هدول |
|
|
|
357 |
|
00:32:08,750 --> 00:32:16,650 |
|
طرق لتعامل مع عدم دقة الـ data، فعندنا احنا عدم دقة |
|
|
|
358 |
|
00:32:17,320 --> 00:32:22,880 |
|
العلاقة ما بين المعطيات وبين الـ conclusion، يعني |
|
|
|
359 |
|
00:32:22,880 --> 00:32:28,760 |
|
احنا الـ fuzzy reasoning بيبدا |
|
|
|
360 |
|
00:32:28,760 --> 00:32:33,900 |
|
معنا من slide رقم أربعة في الكتاب، من slide رقم |
|
|
|
361 |
|
00:32:33,900 --> 00:32:39,440 |
|
أربعة طبعاً |
|
|
|
362 |
|
00:32:39,440 --> 00:32:41,760 |
|
الفايلين هدول |
|
|
|
363 |
|
00:32:48,800 --> 00:32:54,660 |
|
Lecture 4 و Lecture 5، Lecture 4 و Lecture 5 بتعامل |
|
|
|
364 |
|
00:32:54,660 --> 00:33:00,640 |
|
مع الموضوع الـ fuzzy، بس الـ fuzzy inference اللي هو |
|
|
|
365 |
|
00:33:00,640 --> 00:33:04,380 |
|
الآلية اللي بتتم فيها، أو أضيف الـ fuzzy concepts في |
|
|
|
366 |
|
00:33:04,380 --> 00:33:09,040 |
|
الـ rules، بيبدأ من خمسة، وهذا اللي أنا هأبدأ فيه |
|
|
|
367 |
|
00:33:09,040 --> 00:33:13,900 |
|
الآن، وبعد كده بنرجع نراجع المفاهيم الأساسية اللي |
|
|
|
368 |
|
00:33:13,900 --> 00:33:18,490 |
|
في الأول، اللي بدنا نطلع عليه الآن من هذه الـ slides |
|
|
|
369 |
|
00:33:18,490 --> 00:33:25,270 |
|
هو ببساطة شديدة، آلية الـ inference، آلية الـ |
|
|
|
370 |
|
00:33:25,270 --> 00:33:31,390 |
|
inference، آلية الـ inference في الـ fuzzy expert |
|
|
|
371 |
|
00:33:31,390 --> 00:33:34,390 |
|
systems، يعني الـ expert systems اللي بتوظف الـ |
|
|
|
372 |
|
00:33:34,390 --> 00:33:37,330 |
|
fuzzy logic أو fuzzy rules |
|
|
|
373 |
|
00:33:47,330 --> 00:33:49,850 |
|
ماذا يعني عندما يقول fuzzy expert systems؟ يعني |
|
|
|
374 |
|
00:33:49,850 --> 00:33:54,910 |
|
في expert systems بتستخدم rules، الـ rules هذه fuzzy |
|
|
|
375 |
|
00:33:54,910 --> 00:33:59,210 |
|
طب إيه يعني fuzzy rules؟ |
|
|
|
376 |
|
00:33:59,210 --> 00:34:06,250 |
|
هي عبارة عن rules زيها زي أي rule شفناها حتى الآن |
|
|
|
377 |
|
00:34:06,250 --> 00:34:10,950 |
|
بس هي ما إلا بدل ما نحط فيها probabilities أو ما |
|
|
|
378 |
|
00:34:10,950 --> 00:34:14,010 |
|
نحط فيها certainty factors، نحط فيها هذه اسمها |
|
|
|
379 |
|
00:34:14,010 --> 00:34:18,620 |
|
membership، أنا آخذ مثلاً على سبيل المثال rule هذه |
|
|
|
380 |
|
00:34:18,620 --> 00:34:24,220 |
|
بدون أي fuzzy values أو membership، الشرط بنقول إذا |
|
|
|
381 |
|
00:34:24,220 --> 00:34:31,120 |
|
x if x is a ثلاثة or y is بي واحد، يعني a ثلاثة و b |
|
|
|
382 |
|
00:34:31,120 --> 00:34:34,400 |
|
واحدة، تبقى لهم values زي ما كنا بنحكي، في عندي أنا |
|
|
|
383 |
|
00:34:34,400 --> 00:34:38,140 |
|
object، linguistic objects و linguistic variables |
|
|
|
384 |
|
00:34:38,140 --> 00:34:42,680 |
|
وكل variable أو object له عدة values مسموح بها |
|
|
|
385 |
|
00:34:42,680 --> 00:34:50,280 |
|
صح؟ وهنا نفس الشيء، فإذا X is A3 و Y is B1 ثم Z هو |
|
|
|
386 |
|
00:34:50,280 --> 00:34:56,700 |
|
C1، هذا الآن لا هو fuzzy ولا هو certainty factor ولا |
|
|
|
387 |
|
00:34:56,700 --> 00:35:02,860 |
|
هو Bayesian، الـ fuzzy في |
|
|
|
388 |
|
00:35:02,860 --> 00:35:08,780 |
|
يدي أنا الآن project funding is adequate |
|
|
|
389 |
|
00:35:12,510 --> 00:35:17,790 |
|
يعني C1 الآن صارت معناها low، و B1 معناها small، و |
|
|
|
390 |
|
00:35:17,790 --> 00:35:21,750 |
|
A3 معناها adequate، طيب إيش اللي بيخلّيني أحكم على |
|
|
|
391 |
|
00:35:21,750 --> 00:35:26,670 |
|
المتغير هذا إنه long ولا high ولا medium؟ إيش اللي |
|
|
|
392 |
|
00:35:26,670 --> 00:35:30,590 |
|
بيخلّيني أحكم على هذا إنه small ولا big؟ إيش اللي |
|
|
|
393 |
|
00:35:30,590 --> 00:35:34,830 |
|
بيخلّيني أحكم على هذا إنه adequate ولا مش adequate؟ |
|
|
|
394 |
|
00:35:34,830 --> 00:35:38,570 |
|
في هنا بيدخل حاجة اسمها اللي هو الـ fuzzy sets |
|
|
|
395 |
|
00:35:42,300 --> 00:35:47,820 |
|
فهمنا إيش يعني fuzzy sets، الحين هي rule، القيم ال |
|
|
|
445 |
|
00:40:37,720 --> 00:40:42,420 |
|
أكثر expert systems ال rules بتاعتها fuzzy و ال |
|
|
|
446 |
|
00:40:42,420 --> 00:40:47,260 |
|
fuzzyness اللي جاي من ال fuzzy sets و بكرا |
|
|
|
447 |
|
00:40:47,260 --> 00:40:50,080 |
|
المحاضرة الجاية إن شاء الله بنشوف القواعد ال |
|
|
|
448 |
|
00:40:50,080 --> 00:40:55,820 |
|
inference قواعد معالجة ال rules و ال data في ال |
|
|
|
449 |
|
00:40:55,820 --> 00:41:00,420 |
|
fuzzy expert systems ماشي أعطيكم العافية |
|
|
|
|