Rodney Brooks: How robots will invade our lives

60,794 views ・ 2008-10-10

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: Anwar Dafa-Alla المدقّق: Mahmoud Aghiorly
00:18
What I want to tell you about today is how I see robots invading our lives
0
18330
5000
اليوم سأحدثكم عن كيفية رؤيتي لمستقبلنا الذي ستغزوه الروبوتات
00:23
at multiple levels, over multiple timescales.
1
23330
3000
على أصعدة متعددة وفي أوقات متعاقبة من الزمن
00:26
And when I look out in the future, I can't imagine a world, 500 years from now,
2
26330
4000
عندما أنظر إلى المستقبل, فإنني لا أستطيع تصور العالم بعد 500 عام من الآن ,
00:30
where we don't have robots everywhere.
3
30330
2000
في حالة لاتتواجد فيها الروبوتات في كل مكان
00:32
Assuming -- despite all the dire predictions from many people about our future --
4
32330
5000
وعلى الرغم من كل التوقعات عن المستقبل والتي يعتبرها البعض مخيفة
00:37
assuming we're still around, I can't imagine the world not being populated with robots.
5
37330
4000
وعلى فرض أننا سنبقى على قيد الحياة حتى ذلك الوقت, فإنني لا أزال غير قادر على تصور العالم إلا ومأهولاً بالروبوتات
00:41
And then the question is, well, if they're going to be here in 500 years,
6
41330
3000
وعندها سيكون السؤال هو التالي: إذاكانت الروبوتات متواجدة بعد 500 سنة,
00:44
are they going to be everywhere sooner than that?
7
44330
2000
فهل ستكون موجودة أيضاً قبل ذلك؟
00:46
Are they going to be around in 50 years?
8
46330
2000
هل ممكن أن تتواجد بعد 50 سنة؟
00:48
Yeah, I think that's pretty likely -- there's going to be lots of robots everywhere.
9
48330
3000
أجل, أعتقد أن هذا محتمل, وسيكون هناك الكثير من الروبوتات في كل مكان
00:51
And in fact I think that's going to be a lot sooner than that.
10
51330
3000
في الحقيقة, أنا أعتقد أن هذا سيحدث في وقت أقل من ذاك
00:54
I think we're sort of on the cusp of robots becoming common,
11
54330
4000
لأننا قاب قوسين من حالة الانتشار الواسع للروبوتات
00:58
and I think we're sort of around 1978 or 1980 in personal computer years,
12
58330
6000
إننا, وكمقاربة, بمايشبه سنين بدايات الحواسب الشخصية.
01:04
where the first few robots are starting to appear.
13
64330
3000
حيث أن القليل من الرويوتات قد بدأ بالظهور الأن
01:07
Computers sort of came around through games and toys.
14
67330
4000
في الوقت الذي أصبحت فيه الحواسيب متوافرة حولنا بسبب الألعاب
01:11
And you know, the first computer most people had in the house
15
71330
3000
وكما تعرفون فإن الحواسيب دخلت البيوت في البداية
01:14
may have been a computer to play Pong,
16
74330
2000
كوسيلة للعب "البونغ"
01:16
a little microprocessor embedded,
17
76330
2000
مع معالج صغير مرفق بالحاسوب
01:18
and then other games that came after that.
18
78330
3000
وبعدها جاءت ألعاب الحاسوب الأخرى
01:21
And we're starting to see that same sort of thing with robots:
19
81330
3000
وبالملاحظة فإننا نجد نفس النموذج يتكرر
01:24
LEGO Mindstorms, Furbies -- who here -- did anyone here have a Furby?
20
84330
4000
إن روبوتات شركة ليغو مايندستورمز LEGO Mindstorms و روبوت فيربي Furby, من منكم يملك فيربي؟؟
01:28
Yeah, there's 38 million of them sold worldwide.
21
88330
3000
قد باعت 38 مليون قطعة موجودة حالياً في العالم
01:31
They are pretty common. And they're a little tiny robot,
22
91330
2000
إن هذه الروبوتات الصغيرة شائعة جداً
01:33
a simple robot with some sensors,
23
93330
2000
والتي هي عبارة عن روبوت بسيط مع بضعة حساسات
01:35
a little bit of processing actuation.
24
95330
2000
والقليل من العمليات والمعالجة من أجل التفاعل
01:37
On the right there is another robot doll, who you could get a couple of years ago.
25
97330
3000
هنا على الجهة اليمنى, توجد لعبة روبوت أيضاّ ظهرت منذ بضع سنين
01:40
And just as in the early days,
26
100330
2000
إن الحالة الآن تتكرر كما في الأيام ألأولى
01:42
when there was a lot of sort of amateur interaction over computers,
27
102330
5000
حيث كان هناك الكثير من محاولات التفاعل مع الكمبيوتر من مبدأ الهواية والمتعة
01:47
you can now get various hacking kits, how-to-hack books.
28
107330
4000
حيث بإمكان أي شخص أن يحضر أدوات متعددة لاختراق البرامج بالإضافة للكتب التي تعلم الاختراق
01:51
And on the left there is a platform from Evolution Robotics,
29
111330
4000
وعلى الجهة اليسرى يوجد أدوات أساسية لتطوير الروبوتات
01:55
where you put a PC on, and you program this thing with a GUI
30
115330
3000
التي تستخدم مع الحواسب الشخصية من أجل برمجة روبوت باستخدام واجهات سهلة الاستخدام
01:58
to wander around your house and do various stuff.
31
118330
3000
والذي ستراه فيما بعد يجول في المنزل وينفذ مهاماً مختلفة
02:01
And then there's a higher price point sort of robot toys --
32
121330
3000
هناك أيضاً ماهو أغلى سعراً, والذي يصنف كروبوت لعبة
02:04
the Sony Aibo. And on the right there, is one that the NEC developed,
33
124330
4000
مثل روبوت سوني آيبو Aibo ,وعلى اليمين يوجد روبوت شركة NEC
02:08
the PaPeRo, which I don't think they're going to release.
34
128330
3000
وأسمته بابيرو PaPeRo, والذي لا أظن أنهم سيطلقونه في الأسواق
02:11
But nevertheless, those sorts of things are out there.
35
131330
3000
إلا أن هذا لا ينفي أن هذه الأشياء منتشرة في كل مكان
02:14
And we've seen, over the last two or three years, lawn-mowing robots,
36
134330
4000
كما أننا رأينا خلال السنوات الثلاثة الأخيرة روبوتات جز العشب
02:18
Husqvarna on the bottom, Friendly Robotics on top there, an Israeli company.
37
138330
6000
هوسكفاما في الأسفل, والروبوتات الصديقة في الأعلى من شركة إسرائيلية
02:24
And then in the last 12 months or so
38
144330
2000
في السنة الأخيرة
02:26
we've started to see a bunch of home-cleaning robots appear.
39
146330
4000
بدأنا نرى مجموعة روبوتات تنظيف المنزل
02:30
The top left one is a very nice home-cleaning robot
40
150330
3000
نرى في الجهة الاليسرى العليا روبوت تنظيف مميز
02:33
from a company called Dyson, in the U.K. Except it was so expensive --
41
153330
4000
من شركة دايسن في المملكة المتحدة. لكنه غال جداً
02:37
3,500 dollars -- they didn't release it.
42
157330
2000
3500 دولار ولذا لم يتم إطلاقه في السوق
02:39
But at the bottom left, you see Electrolux, which is on sale.
43
159330
3000
روبوت إلكتولكس Elctrolux في الجهة اليسرى السفلى مطروح للبيع مع حسم
02:42
Another one from Karcher.
44
162330
2000
وواحد آخر من كارتشر
02:44
At the bottom right is one that I built in my lab
45
164330
2000
في الجهة اليمنى السفلى نرى الروبوت الذي صنعته في مختبري
02:46
about 10 years ago, and we finally turned that into a product.
46
166330
3000
منذ حوالي 10 سنين, والآن وصلنا لهذا المنتج
02:49
And let me just show you that.
47
169330
2000
دعوني أريكم إياه
02:51
We're going to give this away I think, Chris said, after the talk.
48
171330
4000
قال كريس أننا سوف نقدم هذا الروبوت بالمجان بعد انتهاء العرض
02:55
This is a robot that you can go out and buy, and that will clean up your floor.
49
175330
6000
بإمكانكم شراء هذا الروبوت الذي سينظف الأرضيات
03:05
And it starts off sort of just going around in ever-increasing circles.
50
185330
5000
الذي يبدأ بالحركة بشكل دوائر متعاظمة القطر بالتدريج
03:10
If it hits something -- you people see that?
51
190330
4000
وإذا اصطدم بشيء ما - هل رأيتم ذلك؟
03:14
Now it's doing wall-following, it's following around my feet
52
194330
3000
فإنه يبدأ بالتحرك على خط التماس بالحاجز, إنه يدور حول قدمي الآن
03:17
to clean up around me. Let's see, let's --
53
197330
4000
حتى ينظف حولها, فلنرى ماسيحدث الآن
03:21
oh, who stole my Rice Krispies? They stole my Rice Krispies!
54
201330
5000
أوه, من سرق رقاقات الرز المحمص خاصتي؟ لقد سرقوا رقاقات الرز المحمص خاصتي
03:26
(Laughter)
55
206330
6000
(ضحك)
03:32
Don't worry, relax, no, relax, it's a robot, it's smart!
56
212330
3000
لا تجزعوا, إنه روبوت ذكي
03:35
(Laughter)
57
215330
3000
(ضحك)
03:38
See, the three-year-old kids, they don't worry about it.
58
218330
4000
إن الأطفال ذوي الثلاث سنوات لن يقلقوا في هذه الحالة
03:42
It's grown-ups that get really upset.
59
222330
2000
إنهم الكبار الذين يضطربون
03:44
(Laughter)
60
224330
1000
(ضحك)
03:45
We'll just put some crap here.
61
225330
2000
سوف أضع القليل من الأوساخ هنا
03:47
(Laughter)
62
227330
4000
(ضحك)
03:51
Okay.
63
231330
2000
حسناً
03:53
(Laughter)
64
233330
4000
(ضحك)
03:57
I don't know if you see -- so, I put a bunch of Rice Krispies there,
65
237330
3000
لست متأكداً من أنكم تستطيعون الرؤية, لذا فسأضع كمية من رقاقات الرز المحمص هناك
04:00
I put some pennies, let's just shoot it at that, see if it cleans up.
66
240330
7000
سأضع بعض قطع النقود,فلنكتفي بهذا الآن, ولنرى ماإذا كان سينضف جيداً أم لا
04:10
Yeah, OK. So --
67
250330
2000
حسناً ...
04:12
we'll leave that for later.
68
252330
4000
سوف نرجىء الأمر إلى مابعد
04:16
(Applause)
69
256330
5000
(تصفيق)
04:22
Part of the trick was building a better cleaning mechanism, actually;
70
262330
4000
الحيلة هنا أننا بنينا آلية تنظيف أفضل,
04:26
the intelligence on board was fairly simple.
71
266330
4000
في الحقيقة, إن نسبة الذكاء في هذا الروبوت قليلة وبسيطة.
04:30
And that's true with a lot of robots.
72
270330
2000
كما هي الحال في الكثير من الروبوتات.
04:32
We've all, I think, become, sort of computational chauvinists,
73
272330
4000
أعتقد أننا أصبحنا جميعنا منحازين للحوسبة,
04:36
and think that computation is everything,
74
276330
2000
حيث أننا نعتقد أن العمليات الحسابية هي الأهم,
04:38
but the mechanics still matter.
75
278330
2000
إلا أن الميكانيك لا زال مهماً أيضاً.
04:40
Here's another robot, the PackBot,
76
280330
3000
هذا روبوت آخر, اسمه باكبوت PackBot,
04:43
that we've been building for a bunch of years.
77
283330
2000
لقد بدأنا بصنعه قبل بضعة سنين.
04:45
It's a military surveillance robot, to go in ahead of troops --
78
285330
6000
إنه روبوت ترصد للجيش من أجل أن يسير في مقدمة الفرق العسكرية,
04:51
looking at caves, for instance.
79
291330
3000
ويتفقد الكهوف مثلاً.
04:54
But we had to make it fairly robust,
80
294330
2000
لقد توجب أن يكون هذا الروبوت فعالاً,
04:56
much more robust than the robots we build in our labs.
81
296330
7000
أكثر فعالية وتحملاً من الروبوتات التي نبنيها في مختبراتنا
05:03
(Laughter)
82
303330
3000
(ضحك)
05:12
On board that robot is a PC running Linux.
83
312330
4000
يتألف الروبوت من حاسوب شخصي يعمل على نظام لينوكس
05:16
It can withstand a 400G shock. The robot has local intelligence:
84
316330
6000
وباستطاعته تحمل قوة 400G من الصدمات. كما وأنه يملك ذكاءً مركزياً يمكنه من:
05:22
it can flip itself over, can get itself into communication range,
85
322330
6000
شقلبة جسم الروبوت,البحث والدخول ضمن نطاق التواصل,
05:28
can go upstairs by itself, et cetera.
86
328330
3000
يصعد الدرج, الخ.
05:38
Okay, so it's doing local navigation there.
87
338330
4000
حسناً, هنا يقوم الروبوت بالاستكشاف المحلي.
05:42
A soldier gives it a command to go upstairs, and it does.
88
342330
6000
عندما يعطيه الجندي الأمر بأن يصعد الدرج, فإنه ينفذ.
05:49
That was not a controlled descent.
89
349330
3000
لقد كان هذا انزلاقاً غير متحكم به.
05:52
(Laughter)
90
352330
2000
(ضحك)
05:54
Now it's going to head off.
91
354330
2000
سيكمل طريقه الآن.
05:56
And the big breakthrough for these robots, really, was September 11th.
92
356330
5000
كانت حادثة الحادي عشر من آيلول هي النقطة التي آحدثت تحولاً
06:01
We had the robots down at the World Trade Center late that evening.
93
361330
4000
حيث أنزلنا الروبوتات إلى مركز التجارة العالمي في وقت متأخر في ذلك المساء
06:06
Couldn't do a lot in the main rubble pile,
94
366330
2000
إلا أننا لم نستطع عمل الكثير في كومة الحطام،
06:08
things were just too -- there was nothing left to do.
95
368330
3000
لم يتبق الكثير لنعمله.
06:11
But we did go into all the surrounding buildings that had been evacuated,
96
371330
5000
لكننا جلنا قرب الأبنية المحيطة التي تم إخلاؤها،
06:16
and searched for possible survivors in the buildings
97
376330
3000
وبحثنا عن أي ناجين في الأبنية
06:19
that were too dangerous to go into.
98
379330
2000
لقد كان ذلك خطيراً جداً.
06:21
Let's run this video.
99
381330
2000
فلنشاهد الفيديو.
06:23
Reporter: ...battlefield companions are helping to reduce the combat risks.
100
383330
3000
المذيع: العاملين في حقل المعركة يساعدون في تخفيف مخاطر المكافحة.
06:26
Nick Robertson has that story.
101
386330
3000
سيخبرنا نيك روبرتسن عن التفاصيل.
06:31
Rodney Brooks: Can we have another one of these?
102
391330
2000
رودني بروكس: هل ممكن أن نحصل على واحد آخر من هؤلاء؟
06:38
Okay, good.
103
398330
2000
حسنا، جيد.
06:43
So, this is a corporal who had seen a robot two weeks previously.
104
403330
3000
إن هذا العريف قد رأى الروبوت لأول مرة من أسبوعين.
06:48
He's sending robots into caves, looking at what's going on.
105
408330
4000
إنه يرسل الروبوت إلى الكهوف، لمعرفة مايحدث.
06:52
The robot's being totally autonomous.
106
412330
2000
إن الروبوت يتصرف باستقلالية تامة.
06:54
The worst thing that's happened in the cave so far
107
414330
4000
إن أسوأ ماحدث في الكهف حتى الآن
06:58
was one of the robots fell down ten meters.
108
418330
3000
هو أن أحد الروبوتات قد سقط على ارتفاع عشرة أمتار.
07:08
So one year ago, the US military didn't have these robots.
109
428330
3000
قبل سنة، لم يملك الجيش الأميركي هذه الروبوتات.
07:11
Now they're on active duty in Afghanistan every day.
110
431330
2000
لكنهم الآن يقومون بواجبهم الفعلي في أفغانستان يومياً.
07:13
And that's one of the reasons they say a robot invasion is happening.
111
433330
3000
إن هذا هو أحد الأسباب الذي يدعو للقول بأن غزو الروبوتات يحدث حالياً.
07:16
There's a sea change happening in how -- where technology's going.
112
436330
4000
إن تغييراً كاملاً ومفاجئاً يحدث في كيفية تطور التكنولوجيا حالياً.
07:20
Thanks.
113
440330
2000
شكراً.
07:23
And over the next couple of months,
114
443330
2000
وخلال الأشهر المقبلة،
07:25
we're going to be sending robots in production
115
445330
3000
سنبدأ بإرسال الروبوتات إلى العمل الجدي
07:28
down producing oil wells to get that last few years of oil out of the ground.
116
448330
4000
إلى حقول إنتاج النفط من أجل إخراج نفط خلال سنواته الأخيرة
07:32
Very hostile environments, 150˚ C, 10,000 PSI.
117
452330
4000
حيث البيئة ضارية وغير معاتية، درجة الحرارة ١٥٠C، ١٠٠٠٠PSI
07:36
Autonomous robots going down, doing this sort of work.
118
456330
4000
هذه الروبوتات المستقلة تقوم بهذا النوع من الأعمال.
07:40
But robots like this, they're a little hard to program.
119
460330
3000
لكن هذا النوع من الروبوتات صعبة البرمجة بعض الشيء.
07:43
How, in the future, are we going to program our robots
120
463330
2000
كيف سنستطيع برمجة هذه الروبوتات في المستقبل
07:45
and make them easier to use?
121
465330
2000
من أجل أن يسهل استخدامها؟
07:47
And I want to actually use a robot here --
122
467330
3000
في الحقيقة أريد أن استخدم واحداً من الروبوتات هنا
07:50
a robot named Chris -- stand up. Yeah. Okay.
123
470330
5000
اسم هذا الروبوت كريس, رجاءً قف.
07:57
Come over here. Now notice, he thinks robots have to be a bit stiff.
124
477330
4000
تعال إلى هنا. لاحظوا أنه يعتقد أن الروبوتات يجب أن تكون حركتها جامدة وغير مرنة.
08:01
He sort of does that. But I'm going to --
125
481330
3000
إنه يقوم بذلك.
08:04
Chris Anderson: I'm just British. RB: Oh.
126
484330
2000
كريس أندرسون: أنا مواطن انجليزي .
08:06
(Laughter)
127
486330
2000
(ضحك)
08:08
(Applause)
128
488330
2000
(تصفيق)
08:10
I'm going to show this robot a task. It's a very complex task.
129
490330
3000
سوف أطلب من هذا الروبوت تنفيذ مهمة معقدة.
08:13
Now notice, he nodded there, he was giving me some indication
130
493330
3000
لاحظوا الآن، لقد أومىء برأسه، إنه يتجاوب معي
08:16
he was understanding the flow of communication.
131
496330
3000
لقد فهم سريان المعلومات التي أوصلها له.
08:19
And if I'd said something completely bizarre
132
499330
2000
أما إذا قلت شيئاً لامعنى له
08:21
he would have looked askance at me, and regulated the conversation.
133
501330
3000
فإنه سوف ينظر إلي باستغراب، وسوف يصحح الحديث وسياقه.
08:24
So now I brought this up in front of him.
134
504330
3000
وعندما وضعت هذه أمامه.
08:27
I'd looked at his eyes, and I saw his eyes looked at this bottle top.
135
507330
4000
ونظرت في عينيه, رأيته ينظر إلى أعلى القارورة.
08:31
And I'm doing this task here, and he's checking up.
136
511330
2000
الآن أنا أقوم بهذا الفعل, وهو يحدق متفحصاً.
08:33
His eyes are going back and forth up to me, to see what I'm looking at --
137
513330
3000
تتحرك عيناه إلى الأعلى والأسفل, لمعرفة إلام أنظر,
08:36
so we've got shared attention.
138
516330
2000
وبذا فإننا مشدودي الانتباه تجاه نفس الشيء.
08:38
And so I do this task, and he looks, and he looks to me
139
518330
3000
وهكذا فإني أقوم بالفعل على مرأى منه, ومن ثم ينظر إلي
08:41
to see what's happening next. And now I'll give him the bottle,
140
521330
4000
ليرى ماذا سيحصل. سأعطية القارورة,
08:45
and we'll see if he can do the task. Can you do that?
141
525330
2000
وسنرى فيما إذا كان بإمكانه أن ينجز نفس الفعل. هل تستطيع أن تقوم بذلك؟
08:47
(Laughter)
142
527330
3000
(ضحك)
08:50
Okay. He's pretty good. Yeah. Good, good, good.
143
530330
4000
حسناً, إنه جيد. نعم, جيد, جيد,جيد.
08:54
I didn't show you how to do that.
144
534330
2000
لم أعلمك كيف تقوم بهذا.
08:56
Now see if you can put it back together.
145
536330
2000
لنرى الآن إذا ماكان بإمكانك ان تعيدها كما كانت.
08:58
(Laughter)
146
538330
2000
(ضحك)
09:00
And he thinks a robot has to be really slow.
147
540330
1000
إنه يعتقد أن الروبوت يجب أن يكون بطيئاً بالفعل.
09:01
Good robot, that's good.
148
541330
2000
إنك روبوت جيد, هذا جيد.
09:03
So we saw a bunch of things there.
149
543330
2000
وهكذا رأينا مجموعة من الأشياء.
09:06
We saw when we're interacting,
150
546330
3000
رأينا أننا عندما نتواصل مع بعض,
09:09
we're trying to show someone how to do something, we direct their visual attention.
151
549330
4000
محاولين أن نري الآخر كيف ينفذ شيئاً ما, فأننا نحول انتباههم إلى ذلك الشيء.
09:13
The other thing communicates their internal state to us,
152
553330
4000
الطرف الآخر يعبر عن حالته الداخلية
09:17
whether he's understanding or not, regulates a social interaction.
153
557330
3000
سواء كان يستوعب مايجري أم لا, الذي بالتالي يؤدي إلى نوع من التواصل الاجتماعي.
09:20
There was shared attention looking at the same sort of thing,
154
560330
2000
كان هناك اهتماما مشتركا يبحث في نفس الشئ نوعا ما،
09:22
and recognizing socially communicated reinforcement at the end.
155
562330
4000
ويتعرف بتعزيزات تواصل إجتماعي في نهاية المطاف.
09:26
And we've been trying to put that into our lab robots
156
566330
3000
وقد كنا نحاول وضعها في روبوت المختبر خاصتنا
09:29
because we think this is how you're going to want to interact with robots in the future.
157
569330
4000
لأننا نعتقد بهذه الطريقة سنتفاعل مع الروبوتات في المستقبل.
09:33
I just want to show you one technical diagram here.
158
573330
2000
أرغب في عرض مخطط تقني هنا.
09:35
The most important thing for building a robot that you can interact with socially
159
575330
4000
إن أهم شئ في بناء الروبوت تستطيع التواصل معه إجتماعياً
09:39
is its visual attention system.
160
579330
2000
هو نظام الإنتباه البصري.
09:41
Because what it pays attention to is what it's seeing
161
581330
3000
لأن ما تهتم به هو ما تراه
09:44
and interacting with, and what you're understanding what it's doing.
162
584330
3000
وتتفاعل معه، وما تفهمه هو ما تفعله.
09:47
So in the videos I'm about to show you,
163
587330
3000
إذاً فالفيديو الذي سأعرضه عليكم،
09:50
you're going to see a visual attention system on a robot
164
590330
4000
ستشاهدون نظام الانتباه البصري على روبوت
09:54
which has -- it looks for skin tone in HSV space,
165
594330
4000
الذي لديه -- إنه ينظر لطبقة جلدية في فضاء هامبورغ،
09:58
so it works across all human colorings.
166
598330
4000
إنها تعمل على مختلف ألوان البشر.
10:02
It looks for highly saturated colors, from toys.
167
602330
2000
إنه ينظر لألوان مشبعة جداً، من اللعب.
10:04
And it looks for things that move around.
168
604330
2000
إنه ينظر للأشياء التي تتحرك في الجوار.
10:06
And it weights those together into an attention window,
169
606330
3000
ويقوم بتقييمها معاً في نافذة الإنتباه،
10:09
and it looks for the highest-scoring place --
170
609330
2000
وينظر لأكثر مناطق التركيز--
10:11
the stuff where the most interesting stuff is happening --
171
611330
2000
حيث تجري أكثر الأشياء إثارة للإهتمام.
10:13
and that is what its eyes then segue to.
172
613330
4000
وهذا ما سيعنيه حينئذ.
10:17
And it looks right at that.
173
617330
2000
وتنظر إليه مباشرة.
10:19
At the same time, some top-down sort of stuff:
174
619330
3000
في نفس الوقت، بعض الأمور من أعلى لأسفل
10:22
might decide that it's lonely and look for skin tone,
175
622330
3000
ربما يقرر أنه وحيد ويبحث عن طبقة جلدية،
10:25
or might decide that it's bored and look for a toy to play with.
176
625330
3000
أو ربما يقرر أنه يشعر بالملل ويبحث عن لعبة ليلعب بها.
10:28
And so these weights change.
177
628330
2000
وهكذا تتغير الأوزان.
10:30
And over here on the right,
178
630330
2000
وهاهنا على اليمين،
10:32
this is what we call the Steven Spielberg memorial module.
179
632330
3000
هذا ما نسميه بنموذج إستيفن سبيلبيرغ التذكاري.
10:35
Did people see the movie "AI"? (Audience: Yes.)
180
635330
2000
هل شاهد الجميع فلم الذكاء الإصطناعي؟ الجمهور: نعم.
10:37
RB: Yeah, it was really bad, but --
181
637330
2000
رودني: نعم ذلك سيئ، لكن --
10:39
remember, especially when Haley Joel Osment, the little robot,
182
639330
4000
تذكرون خصوصاً عندما نظر الروبوت الصغير هالي جول أومسنت
10:43
looked at the blue fairy for 2,000 years without taking his eyes off it?
183
643330
4000
للجنية الزرقاء طوال 2000 عام بدون أن يزيح نظره عنها؟
10:47
Well, this gets rid of that,
184
647330
2000
حسناً، هذا يتخلص من ذلك الشئ،
10:49
because this is a habituation Gaussian that gets negative,
185
649330
4000
بسبب التعوّد الغاوسوني الذي يأخذ السالب،
10:53
and more and more intense as it looks at one thing.
186
653330
3000
ويتكثّف أكثر وأكثر بينما ينظر لشئ واحد.
10:56
And it gets bored, so it will then look away at something else.
187
656330
3000
وعندما يملّ، حينها ينظر لشئ آخر.
10:59
So, once you've got that -- and here's a robot, here's Kismet,
188
659330
4000
لذا، بمجرد وصولكم لتلك النقطة-- هاهو الروبوت كيسمت،
11:03
looking around for a toy. You can tell what it's looking at.
189
663330
4000
يبحث عن لعبة. يمكنكم معرفة ما يبحث عنه.
11:07
You can estimate its gaze direction from those eyeballs covering its camera,
190
667330
5000
يمكنك تقدير إتجاه التحديث من تلك العيون الكروية التي تغطي الكاميرا خاصته،
11:12
and you can tell when it's actually seeing the toy.
191
672330
3000
وتعرف متى ما كانت تحديداً تنظر للعبة.
11:15
And it's got a little bit of an emotional response here.
192
675330
2000
ولديه القليل من الإستجابة العاطفية هنا.
11:17
(Laughter)
193
677330
1000
(ضحك)
11:18
But it's still going to pay attention
194
678330
2000
لكنه ما يزال منتبهاً
11:20
if something more significant comes into its field of view --
195
680330
4000
إذا ما لاحظ شئ أكثر أهمية في مستوى النظر--
11:24
such as Cynthia Breazeal, the builder of this robot, from the right.
196
684330
4000
مثل "كينيثيا برازيل"، صانعة هذا الروبوت -- على اليمين.
11:28
It sees her, pays attention to her.
197
688330
5000
إنه يراها، وينتبه لها.
11:33
Kismet has an underlying, three-dimensional emotional space,
198
693330
4000
لدى كيسمت مساحة عاطفية ثلاثية الأبعاد،
11:37
a vector space, of where it is emotionally.
199
697330
3000
ومتجه للمسافة، لمكان وجوده عاطفياً.
11:40
And at different places in that space, it expresses --
200
700330
5000
وفي أماكن مختلفة من ذلك الفراغ يقوم بالتعبير--
11:46
can we have the volume on here?
201
706330
2000
هل يمكن تشغيل الصوت هنا؟
11:48
Can you hear that now, out there? (Audience: Yeah.)
202
708330
2000
هل يمكنكم السماع؟ الجمهور: نعم.
11:50
Kismet: Do you really think so? Do you really think so?
203
710330
5000
كيمست: هل تعتقد ذلك حقاً؟ هل تعتقد ذلك حقاً؟
11:57
Do you really think so?
204
717330
2000
هل تعتقد ذلك حقاً؟
12:00
RB: So it's expressing its emotion through its face
205
720330
3000
رودني: إذاً فانه يعبّر عن مشاعره عبر وجهه
12:03
and the prosody in its voice.
206
723330
2000
و عبر نبرة الصوت في آن واحد.
12:05
And when I was dealing with my robot over here,
207
725330
4000
وعندما كنت أتعامل مع الروبوت خاصتي هنا،
12:09
Chris, the robot, was measuring the prosody in my voice,
208
729330
3000
الروبوت كريس، كان يقيس نبرة صوتي،
12:12
and so we have the robot measure prosody for four basic messages
209
732330
5000
ولذا فلدينا روبوت يقيس نبرة الصوت لأربع رسائل أساسية
12:17
that mothers give their children pre-linguistically.
210
737330
4000
التي تعلمها الأم للأطفال قبل تعلمهم للغة.
12:21
Here we've got naive subjects praising the robot:
211
741330
3000
هاهنا لدينا موضوعات ساذجة تسعد الروبوت،
12:26
Voice: Nice robot.
212
746330
2000
صوت: روبوت جميل.
12:29
You're such a cute little robot.
213
749330
2000
إنك روبوت صغير ولطيف.
12:31
(Laughter)
214
751330
2000
(ضحك)
12:33
RB: And the robot's reacting appropriately.
215
753330
2000
ويستجيب الروبوت بصورة صحيحة.
12:35
Voice: ...very good, Kismet.
216
755330
4000
صوت:...جيد جداً، كيمست.
12:40
(Laughter)
217
760330
2000
(ضحك)
12:42
Voice: Look at my smile.
218
762330
2000
صوت: أنظر لإبتسامتي.
12:46
RB: It smiles. She imitates the smile. This happens a lot.
219
766330
3000
رودني: إنه يبتسم. إنه يحاكي الإبتسامة. هذا يحدث كثيراً.
12:49
These are naive subjects.
220
769330
2000
هذه موضوعات ساذجة.
12:51
Here we asked them to get the robot's attention
221
771330
3000
هنا طلبنا منهم لفت إنتباه الروبوت
12:54
and indicate when they have the robot's attention.
222
774330
3000
ويشيروا لنا عندما يسترعوا إنتباهه.
12:57
Voice: Hey, Kismet, ah, there it is.
223
777330
4000
صوت: كيسمت، أه، ها هنا.
13:01
RB: So she realizes she has the robot's attention.
224
781330
4000
رودني: لذا فهي تدرك أنها أسترعت إنتباه الروبوت.
13:08
Voice: Kismet, do you like the toy? Oh.
225
788330
4000
صوت: كيمست، هل تحب الألعاب؟ أوه.
13:13
RB: Now, here they're asked to prohibit the robot,
226
793330
2000
رودني: الآن، هنا طُلب منهم منع الروبوت،
13:15
and this first woman really pushes the robot into an emotional corner.
227
795330
4000
والسيدة الأولى هنا تورط الروبوت في وضع عاطفي.
13:19
Voice: No. No. You're not to do that. No.
228
799330
5000
صوت: لا لا. لا تفعل ذلك. لا
13:24
(Laughter)
229
804330
3000
(ضحك)
13:27
Not appropriate. No. No.
230
807330
6000
صوت: ليس صحيحاً. لا لا.
13:33
(Laughter)
231
813330
3000
(ضحك)
13:36
RB: I'm going to leave it at that.
232
816330
2000
رودني: سأترك الموضوع هنا.
13:38
We put that together. Then we put in turn taking.
233
818330
2000
نحن نستجمع هذا . ثم نستبدله بالأخذ.
13:40
When we talk to someone, we talk.
234
820330
3000
حينما نتحدث لشخص ما، نحن نتحدث.
13:43
Then we sort of raise our eyebrows, move our eyes,
235
823330
4000
ثم نرفع حاجبينا، نحرّك أعيننا،
13:47
give the other person the idea it's their turn to talk.
236
827330
3000
ونومئ للشخص الآخر بأن هذا دوره للحديث.
13:50
And then they talk, and then we pass the baton back and forth between each other.
237
830330
4000
ثم يتحدث الآخر، ثم نتبادل الأدوار بين بعضنا البعض.
13:54
So we put this in the robot.
238
834330
2000
إذاً ننقل هذا للروبوت.
13:56
We got a bunch of naive subjects in,
239
836330
2000
ونتحدث عن مواضيع ساذجة،
13:58
we didn't tell them anything about the robot,
240
838330
2000
لم نخبرهم أي شئ عن الروبوت،
14:00
sat them down in front of the robot and said, talk to the robot.
241
840330
2000
أجلسناهم أمام الروبوت وقلنا لهم تحدثوا للروبوت.
14:02
Now what they didn't know was,
242
842330
2000
لكن مالم يعرفوه هو،
14:04
the robot wasn't understanding a word they said,
243
844330
2000
أن الروبوت لا يفهم اي كلمة مما يقولون،
14:06
and that the robot wasn't speaking English.
244
846330
3000
وأن ذلك الروبوت لا يتحدث اللغة الإنجليزية.
14:09
It was just saying random English phonemes.
245
849330
2000
كان يقول بعض الأصوات العشوائية باللغة الإنجليزية.
14:11
And I want you to watch carefully, at the beginning of this,
246
851330
2000
وما أريدكم أن تلاحظوه بإمعان، في البداية
14:13
where this person, Ritchie, who happened to talk to the robot for 25 minutes --
247
853330
4000
حيث يقول هذا الشخص، ريتشي الذي تحدّث للروبوت طوال 25 دقيقة --
14:17
(Laughter)
248
857330
2000
(ضحك)
14:19
-- says, "I want to show you something.
249
859330
2000
-- يقول" أريد أن أريك شيئاً.
14:21
I want to show you my watch."
250
861330
2000
أريد أن أريك ساعتي."
14:23
And he brings the watch center, into the robot's field of vision,
251
863330
5000
ويجلب محور الساعة، لمجال رؤية الروبوت،
14:28
points to it, gives it a motion cue,
252
868330
2000
يشير لها، ويعطيه إشارة عاطفية،
14:30
and the robot looks at the watch quite successfully.
253
870330
2000
فينظر الروبوت للساعة بكل نجاح.
14:32
We don't know whether he understood or not that the robot --
254
872330
3000
لا نعرف سواء فهم أن الروبوت قد
14:36
Notice the turn-taking.
255
876330
2000
فهم تبادل الأدوار.
14:38
Ritchie: OK, I want to show you something. OK, this is a watch
256
878330
3000
ريتشي: حسناً، أريد أن أريك شيئاً. حسناً، هاهي ساعتي
14:41
that my girlfriend gave me.
257
881330
3000
التي أهدتني إياها صديقتي.
14:44
Robot: Oh, cool.
258
884330
2000
روبوت: أوه، جيد.
14:46
Ritchie: Yeah, look, it's got a little blue light in it too. I almost lost it this week.
259
886330
4000
ريتشي: نعم، أنظر، عليها لون أزرق فاتح. كدت أفقدها هذا الأسبوع.
14:51
(Laughter)
260
891330
4000
(ضحك)
14:55
RB: So it's making eye contact with him, following his eyes.
261
895330
3000
رودني: يقوم بتواصل بصري معه، بمتابعة عينيه.
14:58
Ritchie: Can you do the same thing? Robot: Yeah, sure.
262
898330
2000
ريتشي: هل يمكنك فعل نفس الشئ؟ روبوت: نعم، بالتأكيد.
15:00
RB: And they successfully have that sort of communication.
263
900330
2000
رودني: وقد أتموا بنجاح ذلك التواصل.
15:02
And here's another aspect of the sorts of things that Chris and I were doing.
264
902330
4000
وهاهنا نوع آخر من الأشياء التي كنا نفعلها أنا وكريس
15:06
This is another robot, Cog.
265
906330
2000
هاهو روبوت آخر، كوغ.
15:08
They first make eye contact, and then, when Christie looks over at this toy,
266
908330
6000
يبدأون بتواصل عبر العيون، وحينما تنظر كريستي للعبة،
15:14
the robot estimates her gaze direction
267
914330
2000
يقدّر الروبوت إتجاه تحديق عينيها
15:16
and looks at the same thing that she's looking at.
268
916330
2000
وينظر لنفس الشئ الذي تنظر إليه.
15:18
(Laughter)
269
918330
1000
(ضحك)
15:19
So we're going to see more and more of this sort of robot
270
919330
3000
لذا فسنرى المزيد والمزيد من أنواع الروبوتات هذه
15:22
over the next few years in labs.
271
922330
2000
خلال السنوات القادمة في المختبرات.
15:24
But then the big questions, two big questions that people ask me are:
272
924330
5000
لكن حينها يطلّ السؤالان الكبيران الذين يطرحهما الناس عليّ:
15:29
if we make these robots more and more human-like,
273
929330
2000
إذا جعلنا هذه الروبوتات أكثر آدمية وأكثر،
15:31
will we accept them, will we -- will they need rights eventually?
274
931330
5000
فهل سنقبل بهم، هل سيحتاجوا للحقوق كالبشر في نهاية المطاف؟
15:36
And the other question people ask me is, will they want to take over?
275
936330
3000
والسؤال الثاني هو: هل سيرغبوا بالهيمنة علينا؟
15:39
(Laughter)
276
939330
1000
(ضحك)
15:40
And on the first -- you know, this has been a very Hollywood theme
277
940330
3000
والأول كما تعلمون، كان هذا شعار هوليود
15:43
with lots of movies. You probably recognize these characters here --
278
943330
3000
في كثير من الأفلام. على الأرجح أنكم تعرفون هذه الشخصيات هنا --
15:46
where in each of these cases, the robots want more respect.
279
946330
4000
حيث في كل حالة منها يريد الروبوت إحترام أكثر.
15:50
Well, do you ever need to give robots respect?
280
950330
3000
حسناً، هل أنتم بحاجة لبذل الإحترام للروبوت؟
15:54
They're just machines, after all.
281
954330
2000
إنها مجرد آلالات فوق كل شئ.
15:56
But I think, you know, we have to accept that we are just machines.
282
956330
4000
لكن أعتقد، ينبغي أن نقبل بأننا جميعاً آلالات.
16:00
After all, that's certainly what modern molecular biology says about us.
283
960330
5000
فوق كل شئ، ذلك تحديداً ما تقوله الأحياء الجزيئية الحديثة عنا.
16:05
You don't see a description of how, you know,
284
965330
3000
أنتم لا ترون توصيف كل أن
16:08
Molecule A, you know, comes up and docks with this other molecule.
285
968330
4000
الجزيء "أ" يأتي ويتحد مع بقية الجزيئات.
16:12
And it's moving forward, you know, propelled by various charges,
286
972330
3000
وهو يمضي قدماً، مدفوعاً بشحنات مختلفة،
16:15
and then the soul steps in and tweaks those molecules so that they connect.
287
975330
4000
ثم تأتي الروح وتقوم بتغيير الجزيئات بحيث تستطيع الإتحاد.
16:19
It's all mechanistic. We are mechanism.
288
979330
3000
الأمر كله ميكانيكا، نحن جميعاً آليات.
16:22
If we are machines, then in principle at least,
289
982330
3000
إذا كنا آلالات، إذاً في المبدأ على الأقل،
16:25
we should be able to build machines out of other stuff,
290
985330
4000
ينبغي أن نقدر على بناء آلالات من بقية الأشياء،
16:29
which are just as alive as we are.
291
989330
4000
تكون حية كما نحيا نحن.
16:33
But I think for us to admit that,
292
993330
2000
لكن أعتقد بالنسبة لنا أن نعترف
16:35
we have to give up on our special-ness, in a certain way.
293
995330
3000
أنه ينبغي علينا التخلي عن تميزنا وخصوصيتنا بطريقة ما.
16:38
And we've had the retreat from special-ness
294
998330
2000
وقد شهدنا التراجع عن "صفويتنا"
16:40
under the barrage of science and technology many times
295
1000330
3000
خصوصاً تحت وابل العلوم والتكنلوجيا عدة مرات
16:43
over the last few hundred years, at least.
296
1003330
2000
خلال مئات السنون الماضية على الأقل
16:45
500 years ago we had to give up the idea
297
1005330
2000
توجّب علينا قبل 500 عاما التخلي عن فكرة
16:47
that we are the center of the universe
298
1007330
3000
أننا مركز الكون
16:50
when the earth started to go around the sun;
299
1010330
2000
عندما بدأت الأرض تدور حول الشمس
16:52
150 years ago, with Darwin, we had to give up the idea we were different from animals.
300
1012330
5000
قبل 150 عاماً مع داروين، توجّب علينا التخلي عن فكرة أننا مختلفون عن الحيوانات
16:57
And to imagine -- you know, it's always hard for us.
301
1017330
3000
تخيلوا أن الأمر كان دائماً صعباً علينا
17:00
Recently we've been battered with the idea that maybe
302
1020330
3000
وقد واجهتنا مؤخراً فكرة أننا ربما
17:03
we didn't even have our own creation event, here on earth,
303
1023330
2000
لم يكن لدينا لحظة الخلق ("الإنفجار الكبير")، هنا على كوكب الأرض
17:05
which people didn't like much. And then the human genome said,
304
1025330
3000
الفكرة التي لا يحبذها الكثير من الناس. ثم قال الجينوم البشري
17:08
maybe we only have 35,000 genes. And that was really --
305
1028330
3000
أنه ربما لدينا فقط 35،000 من الجينات. وذلك حقاً...
17:11
people didn't like that, we've got more genes than that.
306
1031330
3000
لا يحبذ الناس ذلك، فلدينا جينات أكثر من ذلك بكثير.
17:14
We don't like to give up our special-ness, so, you know,
307
1034330
3000
نحن لا نحب التخلي عن "صفويتنا"، لذا
17:17
having the idea that robots could really have emotions,
308
1037330
2000
ففكرة إمكانية إكتساب الروبوتات للأحساس،
17:19
or that robots could be living creatures --
309
1039330
2000
أو أن الروبوتات قد تكون كائنات حية..
17:21
I think is going to be hard for us to accept.
310
1041330
2000
أعتقد أنها ستكون فكرة صعبة القبول لنا.
17:23
But we're going to come to accept it over the next 50 years or so.
311
1043330
4000
لكننا سنقبل بها خلال ال 50 عاماً المقبلة.
17:27
And the second question is, will the machines want to take over?
312
1047330
3000
والسؤال الثاني هو، هل سترغب الآلات بالهيمنة؟
17:30
And here the standard scenario is that we create these things,
313
1050330
5000
وهنا يكون السيناريو القياسي أننا نحن من صنعنا هذه الأشياء،
17:35
they grow, we nurture them, they learn a lot from us,
314
1055330
3000
إنها تتطور، ونحن نرعاها، وهي تتعلم منا،
17:38
and then they start to decide that we're pretty boring, slow.
315
1058330
4000
ثم تقرر الآلات بأننا مملون، وبطيئون.
17:42
They want to take over from us.
316
1062330
2000
وينبغي أن يهيمنوا علينا.
17:44
And for those of you that have teenagers, you know what that's like.
317
1064330
3000
ولمن لديه أبناء في عمر المراهقة، تعرفون كيف يكون الأمر
17:47
(Laughter)
318
1067330
1000
(ضحك)
17:48
But Hollywood extends it to the robots.
319
1068330
3000
لكن هوليود قامت بتمديد الفكرة للروبوتات.
17:51
And the question is, you know,
320
1071330
3000
والسؤال هو
17:54
will someone accidentally build a robot that takes over from us?
321
1074330
4000
هل سيحدث أن يبني شخص ما روبوتا يقوم بالهيمنة علينا؟
17:58
And that's sort of like this lone guy in the backyard,
322
1078330
3000
وذلك الشخص الوحيد في الفناء الخلفي،
18:01
you know -- "I accidentally built a 747."
323
1081330
3000
وكما تعلمون "فقد قمت ببناء 747 عن قصد"
18:04
I don't think that's going to happen.
324
1084330
2000
لا أعتقد أن ذلك سيحدث
18:06
And I don't think --
325
1086330
2000
ولا أعتقد...
18:08
(Laughter)
326
1088330
1000
(ضحك)
18:09
-- I don't think we're going to deliberately build robots
327
1089330
3000
... لا أعتقد أننا عن عمد سنقوم ببناء روبوتات
18:12
that we're uncomfortable with.
328
1092330
2000
لا نكون مرتاحون لها
18:14
We'll -- you know, they're not going to have a super bad robot.
329
1094330
2000
سنقوم ...كما تعلمون إنها لن تكون روبوتات سيئة للغاية
18:16
Before that has to come to be a mildly bad robot,
330
1096330
3000
قبل أن يحدث هذا، روبوت سيئ،
18:19
and before that a not so bad robot.
331
1099330
2000
وقبل ذلك الروبوت السيئ للغاية
18:21
(Laughter)
332
1101330
1000
(ضحك)
18:22
And we're just not going to let it go that way.
333
1102330
2000
ونحن سنواصل على ذات النهج
18:24
(Laughter)
334
1104330
1000
(ضحك)
18:25
So, I think I'm going to leave it at that: the robots are coming,
335
1105330
6000
لذا، سأترككم مع هذه الخلاصة: الروبوتات قادمة،
18:31
we don't have too much to worry about, it's going to be a lot of fun,
336
1111330
3000
لا ينبغي عليكم القلق كثيراً، ستكون متعة كبيرة جداً،
18:34
and I hope you all enjoy the journey over the next 50 years.
337
1114330
4000
وأرجو أن تستمتعوا بالرحلة خلال ال 50 عاماً القادمة.
18:38
(Applause)
338
1118330
2000
(تصفيق)
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7