Marvin Minsky: Health, population and the human mind

62,517 views ・ 2008-09-29

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: TARIG AWAD AHMED المدقّق: Anwar Dafa-Alla
00:18
If you ask people about what part of psychology do they think is hard,
0
18330
6000
إذا وجهت سؤالا للناس عن أي جزء يعتقدون بأنه عسير في علم النفس،
00:24
and you say, "Well, what about thinking and emotions?"
1
24330
3000
وتستفسر، حسنا، ماذا عن التفكير والعواطف،
00:27
Most people will say, "Emotions are terribly hard.
2
27330
3000
سيقول معظمهم، بأن " العواطف في غاية الصعوبة.
00:30
They're incredibly complex. They can't -- I have no idea of how they work.
3
30330
6000
إنها معقدة للغاية ، ولا يمكنهم -- ليست لدي أية فكرة عن كيف تعمل.
00:36
But thinking is really very straightforward:
4
36330
2000
ولكن في الواقع التفكير بسيط جدًا:
00:38
it's just sort of some kind of logical reasoning, or something.
5
38330
4000
إنه مجرد نوع من الاستنتاج المنطقي أو شيء من هذا القبيل.
00:42
But that's not the hard part."
6
42330
3000
ولكنه ليس بالجزء العسير."
00:45
So here's a list of problems that come up.
7
45330
2000
ولذا هنا توجد قائمة من المشاكل التي ستواجهنا.
00:47
One nice problem is, what do we do about health?
8
47330
3000
إحدى هذه المشكلات اللطيفة : ماذا علينا فعله فيما يتعلق بالصحة؟
00:50
The other day, I was reading something, and the person said
9
50330
4000
اليوم الثاني بينما أنا أقرأ أمرا، والشخص قال
00:54
probably the largest single cause of disease is handshaking in the West.
10
54330
6000
ربما أن السبب الرئيسي لنقل المرض هو المصافحة بالأيدي في الغرب.
01:00
And there was a little study about people who don't handshake,
11
60330
4000
وكانت هناك دراسة بسيطة عن الأشخاص الذين لا يصافحون غيرهم،
01:04
and comparing them with ones who do handshake.
12
64330
3000
و مقارنتهم بأولئك الذين يصافحون بالأيدي،
01:07
And I haven't the foggiest idea of where you find the ones that don't handshake,
13
67330
5000
وليست لدي أدنى فكرة عن مكان لا يوجد فيه أولئك الذين لا يتصافحون بالأيدي،
01:12
because they must be hiding.
14
72330
3000
لأنهم يجب أن يكونوا مختبئين.
01:15
And the people who avoid that
15
75330
4000
والأشخاص الذين يتفادون المصافحة
01:19
have 30 percent less infectious disease or something.
16
79330
4000
يقل لديهم إنتقال العدوى بنسبة 30 بالمئة أو شيء من هذا القبيل.
01:23
Or maybe it was 31 and a quarter percent.
17
83330
3000
أو ربما كانت 31.25 بالمئة.
01:26
So if you really want to solve the problem of epidemics and so forth,
18
86330
4000
لذا إذا أردتم حقًا حل مشكلة الأوبئة وما يشابهها،
01:30
let's start with that. And since I got that idea,
19
90330
4000
فلنبدأ بتجنب المصافحة. ومنذ أن توصلت لتلك الفكرة،
01:34
I've had to shake hundreds of hands.
20
94330
4000
فإنه يستلزمني مصافحة مئات الأيدي.
01:38
And I think the only way to avoid it
21
98330
5000
وأعتقد بأن الوسيلة الوحيدة لتجنبها
01:43
is to have some horrible visible disease,
22
103330
2000
هي أن يكون لدي مرض خطير مرئي،
01:45
and then you don't have to explain.
23
105330
3000
ومن ثم لا يجب عليكم شرح ذلك.
01:48
Education: how do we improve education?
24
108330
4000
التعليم : كيف يمكننا تطوير التعليم؟
01:52
Well, the single best way is to get them to understand
25
112330
4000
حسنا، أفضل وسيلة لذلك هي حملهم لفهم
01:56
that what they're being told is a whole lot of nonsense.
26
116330
3000
بأن ما تم اخبارهم به ما هو إلا هراء.
01:59
And then, of course, you have to do something
27
119330
2000
ومن ثم، بالطبع، يجب عليكم فعل شيء
02:01
about how to moderate that, so that anybody can -- so they'll listen to you.
28
121330
5000
عن كيفية تعديل ذلك، وبالتالي يمكن أن يستمع إليكم أي شخص.
02:06
Pollution, energy shortage, environmental diversity, poverty.
29
126330
4000
التلوث، نقص الطاقة، التنوع البيئي، الفقر --
02:10
How do we make stable societies? Longevity.
30
130330
4000
كيف يمكننا بناء مجتمعات مستقرة؟ طول العمر.
02:14
Okay, there're lots of problems to worry about.
31
134330
3000
حسنا، هناك العديد من المشاكل التي تدعو للقلق.
02:17
Anyway, the question I think people should talk about --
32
137330
2000
على أي حال، أعتقد بأن السؤال الذي يجب أن يتحدث عنه الناس --
02:19
and it's absolutely taboo -- is, how many people should there be?
33
139330
5000
وأنه محظور تماما -- هو، كم ينبغي أن يكون تعداد البشر؟
02:24
And I think it should be about 100 million or maybe 500 million.
34
144330
7000
وأعتقد بأنه يجب أن يكونوا حوالي 100 مليون أو ربما 500 مليون.
02:31
And then notice that a great many of these problems disappear.
35
151330
5000
ومن ثم لاحظ إختفاء العديد من هذه المشاكل الكبيرة.
02:36
If you had 100 million people
36
156330
2000
إذا كان لديكم 100 مليون نسمة
02:38
properly spread out, then if there's some garbage,
37
158330
6000
منتشرين بصورة صحيحة، ثم، إذا كان هناك بعض القمامة،
02:44
you throw it away, preferably where you can't see it, and it will rot.
38
164330
7000
وقمت برميها بعيدا، حيث تفضل مكانا لايمكنك رؤيتها فيه، وأنها ستعفن.
02:51
Or you throw it into the ocean and some fish will benefit from it.
39
171330
5000
أو رميتها في المحيط وبعض الأسماك سوف تنتفع منها.
02:56
The problem is, how many people should there be?
40
176330
2000
المشكلة هي، كم ينبغي أن يكون تعداد البشر؟
02:58
And it's a sort of choice we have to make.
41
178330
3000
وأنه من الخيار الذي يجب أن نقوم به.
03:01
Most people are about 60 inches high or more,
42
181330
3000
يبلغ طول معظم السكان حوالي 60 بوصة أو أكثر،
03:04
and there's these cube laws. So if you make them this big,
43
184330
4000
وهناك هذا المكعب المفقود. لهذا إذا قمنا بوضعهم بهذا الكبر --
03:08
by using nanotechnology, I suppose --
44
188330
3000
باستخدام التقنية الدقيقة، أفترض --
03:11
(Laughter)
45
191330
1000
(ضحك)
03:12
-- then you could have a thousand times as many.
46
192330
2000
-- بالتالي يمكن أن تحصل على ما يصل إلى ألف ضعف.
03:14
That would solve the problem, but I don't see anybody
47
194330
2000
إن ذلك ربما يعالج المشكلة، لكنني لا أرى أي شخص
03:16
doing any research on making people smaller.
48
196330
3000
يقوم بعمل أي بحث حول تصغير مقياس الناس.
03:19
Now, it's nice to reduce the population, but a lot of people want to have children.
49
199330
5000
الآن أنه من الصعب خفض تعداد السكان، بل يريد الكثيرون إنجاب الأطفال.
03:24
And there's one solution that's probably only a few years off.
50
204330
3000
وهناك حل واحد وهو ربما العطلة لبضع سنوات فقط.
03:27
You know you have 46 chromosomes. If you're lucky, you've got 23
51
207330
5000
أتعلم بانه لديك 46 كروموزوما. إذا كنت محظوظا، يكون لديك 23
03:32
from each parent. Sometimes you get an extra one or drop one out,
52
212330
6000
من كل واحد من أبويك: أحيانا تحصل على زيادة أو نقصان في الكروموزوم،
03:38
but -- so you can skip the grandparent and great-grandparent stage
53
218330
4000
لكن -- بالتالي يمكن أن تتخطى مرحلة الجد أو جد الأب
03:42
and go right to the great-great-grandparent. And you have 46 people
54
222330
5000
وتذهب إلى الجد الأكبر. ولديك 46 شخصا
03:47
and you give them a scanner, or whatever you need,
55
227330
3000
وتقوم بإعطائهم شاشة، أو أيا كان مما تحتاجه،
03:50
and they look at their chromosomes and each of them says
56
230330
4000
ويقومون بمشاهدة الكروموزمات خاصتهم وكل واحد منهم يقول
03:54
which one he likes best, or she -- no reason to have just two sexes
57
234330
5000
أي واحدة منها يحبها أكثر -- ليس هناك سببا لإمتلاك فقط جنسين
03:59
any more, even. So each child has 46 parents,
58
239330
5000
لأكثر بالتساوي. لذا لدى كل طفل 46 كروموزما،
04:04
and I suppose you could let each group of 46 parents have 15 children.
59
244330
6000
وأفترض بأنك يجب أن تسمح لكل مجموعة من 46 من الوالدين أن يكون لديها 15 طفلا --
04:10
Wouldn't that be enough? And then the children
60
250330
2000
ربما لا يكون ذلك كافيا؟ وبالتالي الأطفال
04:12
would get plenty of support, and nurturing, and mentoring,
61
252330
4000
ربما يحصلون على الكثير من الدعم التنشئة والتوجيه
04:16
and the world population would decline very rapidly
62
256330
2000
وسكان العالم ربما يتراجعون بسرعة فائقة
04:18
and everybody would be totally happy.
63
258330
3000
وسيكون الجميع سعداء جداً.
04:21
Timesharing is a little further off in the future.
64
261330
3000
مشاركة الجميع في وقت واحد هي قليلة إلى حد بعيد في المستقبل.
04:24
And there's this great novel that Arthur Clarke wrote twice,
65
264330
3000
وهناك الرواية الرائعة التي كتبها آرثر كلارك مرتين،
04:27
called "Against the Fall of Night" and "The City and the Stars."
66
267330
4000
تعرف ب "مواجهة سقوط الليل" و"المدينة والنجوم".
04:31
They're both wonderful and largely the same,
67
271330
3000
كليهما رائعة ومتشابهة إلى حد كبير،
04:34
except that computers happened in between.
68
274330
2000
عدا الذي حدث فيما بين أجهزة الكمبيوتر.
04:36
And Arthur was looking at this old book, and he said, "Well, that was wrong.
69
276330
5000
وكان آرثر ينظر إلى هذا الكتاب القديم، وقال، حسنا، إن ذلك كان خطأ.
04:41
The future must have some computers."
70
281330
2000
المستقبل يجب أن يكون لديه أجهزة كمبيوتر.
04:43
So in the second version of it, there are 100 billion
71
283330
5000
لذا في الطبعة الثانية من الرواية، هناك 100 بليون،
04:48
or 1,000 billion people on Earth, but they're all stored on hard disks or floppies,
72
288330
8000
أو 1,000 بليون نسمة على الأرض، لكن تم تخزينهم جميعا في أقراص صلبة أو مرنه،
04:56
or whatever they have in the future.
73
296330
2000
أو أيا كان لديهم في المستقبل.
04:58
And you let a few million of them out at a time.
74
298330
4000
وأنت تسمح لبعض الملايين منهم بالخروج في وقت واحد.
05:02
A person comes out, they live for a thousand years
75
302330
4000
يخرج شخصا واحدا، وهم يعيشون لآلآف السنين
05:06
doing whatever they do, and then, when it's time to go back
76
306330
6000
يفعلون ما يفعلون، ومن ثم، حينما يأتي وقت عودتهم
05:12
for a billion years -- or a million, I forget, the numbers don't matter --
77
312330
4000
لبلايين السنين -- أو مليون، نسيتُ، الأرقام ليست مهمة --
05:16
but there really aren't very many people on Earth at a time.
78
316330
4000
لكن في الواقع ليس هناك العديد من السكان على الأرض في وقت واحد.
05:20
And you get to think about yourself and your memories,
79
320330
2000
وأنت تفكر في نفسك وذكرياتك،
05:22
and before you go back into suspension, you edit your memories
80
322330
5000
وقبل عودتك إلى التوقف تضيف ذكرياتك
05:27
and you change your personality and so forth.
81
327330
3000
وتغير شخصيتك وهكذا دوليك.
05:30
The plot of the book is that there's not enough diversity,
82
330330
6000
سير الأحداث في الكتاب هو عدم وجود تنوع بصورة كافية،
05:36
so that the people who designed the city
83
336330
3000
لهذا فإن الناس الذين قاموا بتصميم المدينة
05:39
make sure that every now and then an entirely new person is created.
84
339330
4000
أكدوا أنه بين الحين والآخر يخلق شخصا جديدا.
05:43
And in the novel, a particular one named Alvin is created. And he says,
85
343330
6000
وفي الرواية، خلق شخصا بعينه اسمه ألفين (Alvin). وهو يقول،
05:49
maybe this isn't the best way, and wrecks the whole system.
86
349330
4000
ربما أنها ليست الطريقة الأفضل، ويحطم النظام بأكمله.
05:53
I don't think the solutions that I proposed
87
353330
2000
لا أعتقد بأن الحلول التي إقترحتها
05:55
are good enough or smart enough.
88
355330
3000
جيدة أو ذكية بصورة كافية
05:58
I think the big problem is that we're not smart enough
89
358330
4000
أعتقد بأن المشكلة الكبيرة هي أننا ليسوا أذكياء بصورة كافية
06:02
to understand which of the problems we're facing are good enough.
90
362330
4000
لفهم أي المشاكل التي نواجهها جيدة بصورة كافية.
06:06
Therefore, we have to build super intelligent machines like HAL.
91
366330
4000
وبالتالي، يجب علينا إنشاء آليات فائقة الذكاء مثل هال(HAL)
06:10
As you remember, at some point in the book for "2001,"
92
370330
5000
كما تتذكرون، في بعض النقاط التي وردت في الكتاب لعام 2001م،
06:15
HAL realizes that the universe is too big, and grand, and profound
93
375330
5000
يُدرك هال(HAL) بأن الكون كبير جدا وضخم وعميق
06:20
for those really stupid astronauts. If you contrast HAL's behavior
94
380330
4000
بالنسبة لرواد الفضاء الأغبياء حقاً. إذا قارنت سلوك هال(HAL)
06:24
with the triviality of the people on the spaceship,
95
384330
4000
بسذاجة الناس على السفينة الفضائية،
06:28
you can see what's written between the lines.
96
388330
3000
يمكنك أن ترى ما كتب بين السطور.
06:31
Well, what are we going to do about that? We could get smarter.
97
391330
3000
حسنا، ماذا سنفعل حول ذلك؟ ربما نكون أكثر ذكاءً
06:34
I think that we're pretty smart, as compared to chimpanzees,
98
394330
5000
أعتقد بأننا أذكياء جداً، بالمقارنة مع الشمبانزي،
06:39
but we're not smart enough to deal with the colossal problems that we face,
99
399330
6000
لكننا ليست لدينا ذكاء كاف للتعامل مع المشاكل الهائلة التي تواجهنا،
06:45
either in abstract mathematics
100
405330
2000
إما في الرياضيات النظرية
06:47
or in figuring out economies, or balancing the world around.
101
407330
5000
أو في معرفة توجهات الاقتصادات أو التوازن حول العالم.
06:52
So one thing we can do is live longer.
102
412330
3000
لذا يمكننا عمل شيء واحد وهو أن نعيش لفترة أطول.
06:55
And nobody knows how hard that is,
103
415330
2000
ولا أحد يعرف كم صعبا هذا الأمر،
06:57
but we'll probably find out in a few years.
104
417330
3000
لكننا من المحتمل سنكتشفه في سنوات قليلة.
07:00
You see, there's two forks in the road. We know that people live
105
420330
3000
أ ترى، هناك فرعان في الشارع. نعلم بأن الناس تعيش
07:03
twice as long as chimpanzees almost,
106
423330
4000
حياة أطول بضعفين من الشمبانزي، تقريبا،
07:07
and nobody lives more than 120 years,
107
427330
4000
و لا أحد يعيش أكثر من 120 عاما.
07:11
for reasons that aren't very well understood.
108
431330
3000
لأسباب لم يتم فهمها جيدا.
07:14
But lots of people now live to 90 or 100,
109
434330
3000
لكن العديد من الناس الآن يعيشون نحو 90 أو 100 عاما،
07:17
unless they shake hands too much or something like that.
110
437330
4000
إلا إذا قاموا بمصافحة العديد من الأيدي أو شيء من هذا القبيل.
07:21
And so maybe if we lived 200 years, we could accumulate enough skills
111
441330
5000
وهكذا ربما إذا عشنا 200 عاما، يمكننا جمع مهارات كافية متراكمة
07:26
and knowledge to solve some problems.
112
446330
5000
ومعرفة لمعالجة بعض المشاكل.
07:31
So that's one way of going about it.
113
451330
2000
وبالتالي يعتبر هذا إحدى الطرق للمضي حوله.
07:33
And as I said, we don't know how hard that is. It might be --
114
453330
3000
وكما ذكرت، لا نعرف كم صعبا هذا الأمر. ربما يكون --
07:36
after all, most other mammals live half as long as the chimpanzee,
115
456330
6000
بعد كل ذلك، غالبية الثديات تعيش نصف العمر الذي تعيشه حيوانات الشمبانزي،
07:42
so we're sort of three and a half or four times, have four times
116
462330
3000
لذا نحن نوعا من ثلاثة ونصف أو أربعة أضعاف -- لدينا أربعة أضعاف
07:45
the longevity of most mammals. And in the case of the primates,
117
465330
6000
طول العمر من بين غالبية الثديات. وفي حالة الحيوانات الرئيسية،
07:51
we have almost the same genes. We only differ from chimpanzees,
118
471330
4000
لدينا تقريبا نفس الجينات. ونختلف فقط من الشمبانزي
07:55
in the present state of knowledge, which is absolute hogwash,
119
475330
6000
في الحالة الراهنة للمعرفة -- التي هي هراء مطلق --
08:01
maybe by just a few hundred genes.
120
481330
2000
ربما بحوالي مئات قليلة من الجينات.
08:03
What I think is that the gene counters don't know what they're doing yet.
121
483330
3000
ما أعتقده هو أن عدادات الجينات لا تعرف ماذا تفعل الآن.
08:06
And whatever you do, don't read anything about genetics
122
486330
3000
وأيا ما تفعله، لا يدل أي شيء عن علم الوراثة
08:09
that's published within your lifetime, or something.
123
489330
3000
الذي نشر خلال حياتك، أو شيء من هذا القبيل.
08:12
(Laughter)
124
492330
3000
(ضحك)
08:15
The stuff has a very short half-life, same with brain science.
125
495330
4000
الأشياء لديها نصف حياة قصيرة جدا، ونفس الشيء مع علوم الدماغ.
08:19
And so it might be that if we just fix four or five genes,
126
499330
6000
و لهذا ربما تكون كذلك إذا قمنا بمعالجة أربع أو خمس جينات،
08:25
we can live 200 years.
127
505330
2000
يمكننا أن نعيش 200 عاما.
08:27
Or it might be that it's just 30 or 40,
128
507330
3000
أو ربما تكون مجرد 30 أو 40،
08:30
and I doubt that it's several hundred.
129
510330
2000
وأشك بأنها عدة مئات.
08:32
So this is something that people will be discussing
130
512330
4000
وبالتالي هذا هو الشيء الذي سيناقشه الناس.
08:36
and lots of ethicists -- you know, an ethicist is somebody
131
516330
3000
والكثير من علماء الأخلاق -- أتعرف، أن عالم الأخلاق هو الشخص
08:39
who sees something wrong with whatever you have in mind.
132
519330
3000
الذي يرى شيئا خاطئا مع كل ما لديك من اعتبارات.
08:42
(Laughter)
133
522330
3000
(ضحك)
08:45
And it's very hard to find an ethicist who considers any change
134
525330
4000
وأنه في غاية الصعوبة أن تجد عالم الأخلاق الذي يضع اعتبارا لأي تغيير
08:49
worth making, because he says, what about the consequences?
135
529330
4000
ذا قيمة، لأنه يقول، ماذا عن النتائج؟
08:53
And, of course, we're not responsible for the consequences
136
533330
3000
وبالطبع، نحن لسنا مسئولين عن نتائج
08:56
of what we're doing now, are we? Like all this complaint about clones.
137
536330
6000
ما نفعله الآن، أليس كذلك؟ مثل كل هذه الشكاوى عن الإستنساخ.
09:02
And yet two random people will mate and have this child,
138
542330
3000
ومن بعد سيتزاوج شخصان بصورة عشوائية للحصول على هذا الطفل،
09:05
and both of them have some pretty rotten genes,
139
545330
4000
ولدى كليهما بعض الجينات الفاسدة،
09:09
and the child is likely to come out to be average.
140
549330
4000
ومن المحتمل أن يخرج الطفل ليصبح متوسطا.
09:13
Which, by chimpanzee standards, is very good indeed.
141
553330
6000
ووفقا لمعايير الشمبانزي، هو جيد حقا.
09:19
If we do have longevity, then we'll have to face the population growth
142
559330
3000
إذا كان لدينا عمرا طويلا، بالتالي يجب علينا أن نواجه مشكلة النمو السكاني
09:22
problem anyway. Because if people live 200 or 1,000 years,
143
562330
4000
بأية وسيلة كانت. لأنه إذا عاش الناس 200 أو 1,000 سنة،
09:26
then we can't let them have a child more than about once every 200 or 1,000 years.
144
566330
6000
لا يمكننا أن نسمح لهم بإنجاب أكثر من طفل واحد كل 200 أو 1,000 سنة.
09:32
And so there won't be any workforce.
145
572330
3000
وبالتالي سوف لن تكون هناك أي قوى عاملة.
09:35
And one of the things Laurie Garrett pointed out, and others have,
146
575330
4000
وأحد الأمور التي أشار إليها لوري غاريت، وآخرون،
09:39
is that a society that doesn't have people
147
579330
5000
هي أن المجتمع الذي ليس لديه أفراد
09:44
of working age is in real trouble. And things are going to get worse,
148
584330
3000
في سن العمل فإنه في مشكلة حقيقية. وأن الأمور ستزداد سوءاً،
09:47
because there's nobody to educate the children or to feed the old.
149
587330
6000
لانه لا يوجد أحد ليعلم الأطفال أو يقوم باطعام كبار سن.
09:53
And when I'm talking about a long lifetime, of course,
150
593330
2000
وعندما أتحدث عن طول العمر، بالطبع،
09:55
I don't want somebody who's 200 years old to be like our image
151
595330
6000
لا أريد شخصا يبلغ من العمر 200 سنة ليصبح مثل صورتنا
10:01
of what a 200-year-old is -- which is dead, actually.
152
601330
4000
ومما يعنيه عمر 200 سنة -- الذي مات فعليا.
10:05
You know, there's about 400 different parts of the brain
153
605330
2000
أتعلم، أن هناك حوالي 400 جزءا مختلفا من الدماغ/العقل
10:07
which seem to have different functions.
154
607330
2000
حيث يبدو بأن لديها وظائف مختلفة.
10:09
Nobody knows how most of them work in detail,
155
609330
3000
لا أحد يعرف كم منها يعمل بالتفصيل،
10:12
but we do know that there're lots of different things in there.
156
612330
4000
لكن نعلم بأن هناك فيها العديد من الأشياء المختلفة.
10:16
And they don't always work together. I like Freud's theory
157
616330
2000
وأنها لا تعمل معا بصورة دائمةً. أحب نظرية فرويد
10:18
that most of them are cancelling each other out.
158
618330
4000
التي تقوم غالبيتها بإلغاء بعضها البعض.
10:22
And so if you think of yourself as a sort of city
159
622330
4000
ولذا إذا كنت تعتقد بنفسك كنوع من المدينة
10:26
with a hundred resources, then, when you're afraid, for example,
160
626330
6000
بمئات الموارد، ثم، مع أنك خائف، مثلا،
10:32
you may discard your long-range goals, but you may think deeply
161
632330
4000
ربما تقوم برمي أهدافك طويلة المدى، لكن ربما تفكر بعمق
10:36
and focus on exactly how to achieve that particular goal.
162
636330
4000
وتركز بالضبط على كيف يمكنك إنجاز ذلك الهدف المحدد.
10:40
You throw everything else away. You become a monomaniac --
163
640330
3000
ترمي أي شيء آخر بعيدا. وتصبح مضطربا وغير قادر على التفاعل مع البيئة والطبيعة (المس الآحادي)--
10:43
all you care about is not stepping out on that platform.
164
643330
4000
وينصب كل إهتمامك في عدم الخروج من النظام الأساسي.
10:47
And when you're hungry, food becomes more attractive, and so forth.
165
647330
4000
وعندما تشعر بالجوع، يصبح الغذاء أكثر جاذبية، وهكذا دوليك.
10:51
So I see emotions as highly evolved subsets of your capability.
166
651330
6000
لهذا أرى أن العواطف مجموعات فرعية متطورة جدا من مقدراتك الخاصة.
10:57
Emotion is not something added to thought. An emotional state
167
657330
4000
العواطف ليست شيئا يضاف إلى الفكر. والحالة العاطفية
11:01
is what you get when you remove 100 or 200
168
661330
4000
هي ما تحصل عليه عندما تتخلص من 100 أو 200
11:05
of your normally available resources.
169
665330
3000
من مواردك المتاحة بشكل طبيعي.
11:08
So thinking of emotions as the opposite of -- as something
170
668330
3000
لذا التفكير في العواطف كنقيض لشئ
11:11
less than thinking is immensely productive. And I hope,
171
671330
4000
أقل من التفكير هو إنتاجية هائلة. وأنا آمل
11:15
in the next few years, to show that this will lead to smart machines.
172
675330
4000
في السنوات القليلة المقبلة، لإظهار أن هذا سيقود إلى آلآت ذكية.
11:19
And I guess I better skip all the rest of this, which are some details
173
679330
3000
وأعتقد بأنه من الأفضل تخطي جميع ما تبقى من هذا، الذي هو بعض التفاصيل
11:22
on how we might make those smart machines and --
174
682330
5000
عن كيف يمكننا صنع هذه الآلآت الذكية --
11:27
(Laughter)
175
687330
5000
(ضحك)
11:32
-- and the main idea is in fact that the core of a really smart machine
176
692330
5000
-- والفكرة الرئيسية هي في واقع الأمر أن جوهر الآلة الذكية
11:37
is one that recognizes that a certain kind of problem is facing you.
177
697330
5000
هو أن يعترف أحدا بأنك تواجه نوعا معينا من مشكلة ما.
11:42
This is a problem of such and such a type,
178
702330
3000
هذه هي مشكلة من نوع كذا وكذا،
11:45
and therefore there's a certain way or ways of thinking
179
705330
5000
وبالتالي هناك طريقة معينة أو طرق للتفكير
11:50
that are good for that problem.
180
710330
2000
بأنها جيدة لتلك المشكلة.
11:52
So I think the future, main problem of psychology is to classify
181
712330
4000
لذا أعنقد بأن المشكلة الرئيسية في مستقبل علم النفس هي تصنيف
11:56
types of predicaments, types of situations, types of obstacles
182
716330
4000
أنواع المآزق، أنواع الحالات، أنواع العقبات
12:00
and also to classify available and possible ways to think and pair them up.
183
720330
6000
وأيضا تصنيف الطرق المتاحة والممكنة للتفكير وإقترانهما معا.
12:06
So you see, it's almost like a Pavlovian --
184
726330
3000
لذلك ترى، بأنها تقريبا مثل نظرية بافلوف--
12:09
we lost the first hundred years of psychology
185
729330
2000
لقد أضعنا المئة سنة الأولى من علم النفس
12:11
by really trivial theories, where you say,
186
731330
3000
عبر نظريات عديمة الجدوى حقا حيث يقال،
12:14
how do people learn how to react to a situation? What I'm saying is,
187
734330
6000
كيف يتعلم الناس كيفية رد الفعل للحالة؟ وما أقوله هو،
12:20
after we go through a lot of levels, including designing
188
740330
5000
بعد أن نذهب عبر مستويات عديدة، بما في ذلك تصميم
12:25
a huge, messy system with thousands of ports,
189
745330
3000
نظام فوضوي ضخم بآلآف من الأجزاء،
12:28
we'll end up again with the central problem of psychology.
190
748330
4000
سننتهي مرة أخرى بالمشكلة المركزية لعلم النفس.
12:32
Saying, not what are the situations,
191
752330
3000
بالقول، ليس ما هي الحالات،
12:35
but what are the kinds of problems
192
755330
2000
لكن ما هي أنواع المشاكل
12:37
and what are the kinds of strategies, how do you learn them,
193
757330
3000
وما هي أنواع الاستراتيجيات، كيف تتعلمها،
12:40
how do you connect them up, how does a really creative person
194
760330
3000
كيف يمكنك ربطها ببعضها، كيف لشخص مبدع حقا
12:43
invent a new way of thinking out of the available resources and so forth.
195
763330
5000
أن يخترع طريقة تفكير جديدة خارج الموارد المتاحة وهكذا دوليك.
12:48
So, I think in the next 20 years,
196
768330
2000
لذا أعتقد في ال 20 عاما القادمة،
12:50
if we can get rid of all of the traditional approaches to artificial intelligence,
197
770330
5000
أذا تمكنا من التخلص من جميع المناهج التقليدية إلى الذكاء الاصطناعي،
12:55
like neural nets and genetic algorithms
198
775330
2000
مثل الشبكات العصبية والخوارزميات الجينية
12:57
and rule-based systems, and just turn our sights a little bit higher to say,
199
777330
6000
والأنظمة القائمة على القواعد ، وحولنا نظرنا أعلى قليلا لنقول،
13:03
can we make a system that can use all those things
200
783330
2000
أيمكننا وضع نظام يمكن أن يستخدم جميع هذه الاشياء
13:05
for the right kind of problem? Some problems are good for neural nets;
201
785330
4000
للنوع الصحيح من المشكلة؟ بعض المشاكل تعتبر جيدة للشبكات العصبية:
13:09
we know that others, neural nets are hopeless on them.
202
789330
3000
نعرف أن الآخرين، الشبكات العصبية لا أمل فيها.
13:12
Genetic algorithms are great for certain things;
203
792330
3000
الخوارزميات الجينية نبيلة لأشياء معينة:
13:15
I suspect I know what they're bad at, and I won't tell you.
204
795330
4000
وأظن بأنني أعرف بأنها سيئة في ماذا ولن أخبركم.
13:19
(Laughter)
205
799330
1000
(ضحك)
13:20
Thank you.
206
800330
2000
شكرا.
13:22
(Applause)
207
802330
6000
(تصفيق)
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7