Rodney Brooks: How robots will invade our lives

60,794 views ・ 2008-10-10

TED


אנא לחץ פעמיים על הכתוביות באנגלית למטה כדי להפעיל את הסרטון.

מתרגם: Ido Dekkers מבקר: Sigal Tifferet
00:18
What I want to tell you about today is how I see robots invading our lives
0
18330
5000
מה שאני רוצה לספר לכם היום הוא איך אני רואה את הרובוטים פולשים לחיינו
00:23
at multiple levels, over multiple timescales.
1
23330
3000
במגוון רמות, ובזמנים שונים.
00:26
And when I look out in the future, I can't imagine a world, 500 years from now,
2
26330
4000
וכשאני מביט לעתיד, אני לא יכול לדמיין עולם, 500 שנה מהיום,
00:30
where we don't have robots everywhere.
3
30330
2000
בו אין לנו רובוטים בכל מקום.
00:32
Assuming -- despite all the dire predictions from many people about our future --
4
32330
5000
בהנחה -- למרות כל התחזיות הקודרות של הרבה אנשים על העתיד שלנו --
00:37
assuming we're still around, I can't imagine the world not being populated with robots.
5
37330
4000
בהנחה ועדיין נהייה כאן, אני לא יכול לדמיין את העולם לא מאוכלס ברובוטים.
00:41
And then the question is, well, if they're going to be here in 500 years,
6
41330
3000
ואז השאלה היא, ובכן, אם הם עומדים להיות פה עוד 500 שנה,
00:44
are they going to be everywhere sooner than that?
7
44330
2000
האם הם עומדים להיות בכל מקום מוקדם יותר?
00:46
Are they going to be around in 50 years?
8
46330
2000
האם הם עומדים להיות בסביבה בעוד 50 שנה?
00:48
Yeah, I think that's pretty likely -- there's going to be lots of robots everywhere.
9
48330
3000
כן, אני חושב שזה מאוד אפשרי -- עומדים להיות המון רובוטים בכל מקום.
00:51
And in fact I think that's going to be a lot sooner than that.
10
51330
3000
ולמעשה אני חושב שזה עומד להיות הרבה יותר קרוב מזה.
00:54
I think we're sort of on the cusp of robots becoming common,
11
54330
4000
אני חושב שאנחנו ממש על הסף של הזמן בו הרובוטים יהיו נפוצים,
00:58
and I think we're sort of around 1978 or 1980 in personal computer years,
12
58330
6000
ואני חושב שאנחנו בסביבות 1978 או 1980 בשנות מחשבים אישיים,
01:04
where the first few robots are starting to appear.
13
64330
3000
בהם הרובוטים הראשונים מתחילים להופיע.
01:07
Computers sort of came around through games and toys.
14
67330
4000
מחשבים הגיעו דרך משחקים וצעצועים.
01:11
And you know, the first computer most people had in the house
15
71330
3000
ואתם יודעים, המחשב הראשון שלרוב האנשים היה בבית
01:14
may have been a computer to play Pong,
16
74330
2000
אולי היה מחשב כדי לשחק פונג,
01:16
a little microprocessor embedded,
17
76330
2000
מיקרו מעבד קטן מוטמע,
01:18
and then other games that came after that.
18
78330
3000
ואז משחקים אחרים שהגיעו אחריו.
01:21
And we're starting to see that same sort of thing with robots:
19
81330
3000
ואנחנו מתחילים לראות את אותו הדבר עם רובוטים:
01:24
LEGO Mindstorms, Furbies -- who here -- did anyone here have a Furby?
20
84330
4000
לגו מיינדסטורמס, פרבי -- מי פה -- למישהו היה פרבי?
01:28
Yeah, there's 38 million of them sold worldwide.
21
88330
3000
כן, נמכרו 38 מיליונים כאלה בעולם.
01:31
They are pretty common. And they're a little tiny robot,
22
91330
2000
הם מאוד נפוצים. והם רובוט קטנטן,
01:33
a simple robot with some sensors,
23
93330
2000
רובוט פשוט עם כמה סנסורים,
01:35
a little bit of processing actuation.
24
95330
2000
ומעט יכולת מחשוב.
01:37
On the right there is another robot doll, who you could get a couple of years ago.
25
97330
3000
מצד ימין שם יש עוד בובת רובוט, שיכולתם להשיג לפני כמה שנים.
01:40
And just as in the early days,
26
100330
2000
וכמו בימים המוקדמים,
01:42
when there was a lot of sort of amateur interaction over computers,
27
102330
5000
כשהיתה פעילות חובבנית בהקשר למחשבים,
01:47
you can now get various hacking kits, how-to-hack books.
28
107330
4000
אתם יכולים לקבל עכשיו כמה ערכות לפריצה, וספרים על איך לפרוץ.
01:51
And on the left there is a platform from Evolution Robotics,
29
111330
4000
ומשמאל יש פלטפורמה מאבולושיון רובוטיקה,
01:55
where you put a PC on, and you program this thing with a GUI
30
115330
3000
בו אתם שמים מחשב, ואתם מתכננים את הדבר הזה עם ממשק משתמש
01:58
to wander around your house and do various stuff.
31
118330
3000
כדי לטייל בבית ועושים דברים שונים.
02:01
And then there's a higher price point sort of robot toys --
32
121330
3000
ואז יש את נקודת המחיר הגבוהה יותר של צעצועי רובוטים --
02:04
the Sony Aibo. And on the right there, is one that the NEC developed,
33
124330
4000
האייבו של סוני. ומימין פה, זה אחד שNEC פיתחו,
02:08
the PaPeRo, which I don't think they're going to release.
34
128330
3000
ה PaPeRo, שאני לא חושב שהם ישחררו.
02:11
But nevertheless, those sorts of things are out there.
35
131330
3000
אבל עדיין, הדברים האלה נמצאים שם בחוץ.
02:14
And we've seen, over the last two or three years, lawn-mowing robots,
36
134330
4000
וראינו, במהלך השנתיים או שלוש האחרונות, רובוטים מכסחי דשא,
02:18
Husqvarna on the bottom, Friendly Robotics on top there, an Israeli company.
37
138330
6000
הוסקוורנה מלמטה, פרנדלי רובוטיקס מלמעלה שם, חברה ישראלית.
02:24
And then in the last 12 months or so
38
144330
2000
ואז ב12 החודשים האחרונים בערך
02:26
we've started to see a bunch of home-cleaning robots appear.
39
146330
4000
התחלנו לראות חבורה של רובוטים מנקי בתים מתחילה להופיע.
02:30
The top left one is a very nice home-cleaning robot
40
150330
3000
השמאלי העליון הוא רובוט ניקוי בתים נחמד
02:33
from a company called Dyson, in the U.K. Except it was so expensive --
41
153330
4000
מחברה שנקראת דייסון, מאנגליה. רק שהוא היה כל כך יקר --
02:37
3,500 dollars -- they didn't release it.
42
157330
2000
3,500 דולר -- הם לא שיחררו אותו.
02:39
But at the bottom left, you see Electrolux, which is on sale.
43
159330
3000
אבל למטה משמאל, אתם רואים את אלקטרולוקס, שנמכר עכשיו.
02:42
Another one from Karcher.
44
162330
2000
עוד אחד מקרצ'ר.
02:44
At the bottom right is one that I built in my lab
45
164330
2000
מימין למטה יש אחד שנבנה במעבדה שלי
02:46
about 10 years ago, and we finally turned that into a product.
46
166330
3000
בערך לפני 10 שנים, ולבסוף הפכנו אותו למוצר.
02:49
And let me just show you that.
47
169330
2000
ותנו לי רק להראות לכם את זה.
02:51
We're going to give this away I think, Chris said, after the talk.
48
171330
4000
אנחנו עומדים לתת את זה לדעתי, כריס אמר, אחרי ההרצאה.
02:55
This is a robot that you can go out and buy, and that will clean up your floor.
49
175330
6000
זה רובוט שאתם יכולים לצאת ולקנות, והוא ינקה לכם את הרצפה.
03:05
And it starts off sort of just going around in ever-increasing circles.
50
185330
5000
וזה מתחיל פשוט בתנועה בסיבובים הולכים ומתרחבים.
03:10
If it hits something -- you people see that?
51
190330
4000
אם הוא פוגע במשהו -- אתם רואים את זה?
03:14
Now it's doing wall-following, it's following around my feet
52
194330
3000
עכשיו הוא עושה עקיבת קירות, הוא עוקב אחר הרגליים שלי
03:17
to clean up around me. Let's see, let's --
53
197330
4000
כדי לנקות מסביבי. בואו נראה, בואו --
03:21
oh, who stole my Rice Krispies? They stole my Rice Krispies!
54
201330
5000
או, מי גנב לי את פצפוצי האורז? הם גנבו לי את פצפוצי האורז!
03:26
(Laughter)
55
206330
6000
(צחוק)
03:32
Don't worry, relax, no, relax, it's a robot, it's smart!
56
212330
3000
אל תדאגו, תרגעו, לא, תרגעו, זה רובוט, הוא חכם!
03:35
(Laughter)
57
215330
3000
(צחוק)
03:38
See, the three-year-old kids, they don't worry about it.
58
218330
4000
תראו, ילדים בני 3, הם לא דואגים מזה.
03:42
It's grown-ups that get really upset.
59
222330
2000
זה המבוגרים שמפחדים.
03:44
(Laughter)
60
224330
1000
(צחוק)
03:45
We'll just put some crap here.
61
225330
2000
אז בואו נלכלך כאן.
03:47
(Laughter)
62
227330
4000
(צחוק)
03:51
Okay.
63
231330
2000
אוקיי,
03:53
(Laughter)
64
233330
4000
(צחוק)
03:57
I don't know if you see -- so, I put a bunch of Rice Krispies there,
65
237330
3000
אני לא יודע אם אתם רואים -- אז, אני שם קצת פצפוצי אורז פה,
04:00
I put some pennies, let's just shoot it at that, see if it cleans up.
66
240330
7000
אני שם כמה מטבעות, בואו פשוט נזרוק את זה עליו, נראה אם הוא מנקה.
04:10
Yeah, OK. So --
67
250330
2000
יה, אוקיי. אז --
04:12
we'll leave that for later.
68
252330
4000
אני אשאיר את זה לאחר כך.
04:16
(Applause)
69
256330
5000
(מחיאות כפיים)
04:22
Part of the trick was building a better cleaning mechanism, actually;
70
262330
4000
חלק מהטריק היה לבנות מנגנון מנקה טוב יותר, למעשה;
04:26
the intelligence on board was fairly simple.
71
266330
4000
האינטליגנציה על הלוח היתה מאוד פשוטה.
04:30
And that's true with a lot of robots.
72
270330
2000
וזה נכון עם הרבה רובוטים.
04:32
We've all, I think, become, sort of computational chauvinists,
73
272330
4000
כולנו, אני חושב, הפכנו, למעין שוביניסטיים חישוביים,
04:36
and think that computation is everything,
74
276330
2000
וחושבים שמחשוב זה הכל,
04:38
but the mechanics still matter.
75
278330
2000
אבל המכאניקה עדיין חשובה.
04:40
Here's another robot, the PackBot,
76
280330
3000
הנה עוד רובוט, הפאקבוט,
04:43
that we've been building for a bunch of years.
77
283330
2000
שבנינו במשך כמה שנים.
04:45
It's a military surveillance robot, to go in ahead of troops --
78
285330
6000
זה רובוט תצפית צבאי, שילך לפני הכוחות --
04:51
looking at caves, for instance.
79
291330
3000
ויביט לתוך מערות, לדוגמה.
04:54
But we had to make it fairly robust,
80
294330
2000
אבל היינו צריכים לעשות אותו די חזק,
04:56
much more robust than the robots we build in our labs.
81
296330
7000
הרבה יותר עמיד מרובוטים שאנחנו בונים במעבדות שלנו.
05:03
(Laughter)
82
303330
3000
(צחוק)
05:12
On board that robot is a PC running Linux.
83
312330
4000
על הרובוט יש מחשב שמריץ לינוקס.
05:16
It can withstand a 400G shock. The robot has local intelligence:
84
316330
6000
הוא יכול לעמוד במכות של 400G. לרובוט יש אינטליגנציה מקומית:
05:22
it can flip itself over, can get itself into communication range,
85
322330
6000
הוא יכול להפוך את עצמו, יכול להכניס את עצמו לטווח התקשורת,
05:28
can go upstairs by itself, et cetera.
86
328330
3000
יכול לעלות במדרגות לבד, ועוד.
05:38
Okay, so it's doing local navigation there.
87
338330
4000
אוקיי, אז הוא עושה ניווט מקומי פה.
05:42
A soldier gives it a command to go upstairs, and it does.
88
342330
6000
חייל נותן לו פקודה לעלות במדרגות, והוא עולה.
05:49
That was not a controlled descent.
89
349330
3000
זו לא ירידה נשלטת.
05:52
(Laughter)
90
352330
2000
(צחוק)
05:54
Now it's going to head off.
91
354330
2000
עכשיו הוא עומד להמשיך הלאה.
05:56
And the big breakthrough for these robots, really, was September 11th.
92
356330
5000
והפריצה הגדולה לרובוטים האלה, באמת, היתה בספטמבר 11.
06:01
We had the robots down at the World Trade Center late that evening.
93
361330
4000
היו לנו רובוטים במרכז הסחר העולמי מאוחר באותו ערב.
06:06
Couldn't do a lot in the main rubble pile,
94
366330
2000
לא יכולנו לעשות הרבה בהריסות העיקריות,
06:08
things were just too -- there was nothing left to do.
95
368330
3000
הדברים היו פשוט יותר מדי -- לא נשאר מה לעשות.
06:11
But we did go into all the surrounding buildings that had been evacuated,
96
371330
5000
אבל כן נכנסנו לתוך כל הבניינים מסביב שפונו,
06:16
and searched for possible survivors in the buildings
97
376330
3000
וחיפשנו ניצולים בבניינים
06:19
that were too dangerous to go into.
98
379330
2000
שהיו מסוכנים מכדי להכנס אליהם.
06:21
Let's run this video.
99
381330
2000
בואו נריץ את הוידאו.
06:23
Reporter: ...battlefield companions are helping to reduce the combat risks.
100
383330
3000
כתב: עוזרים לשדה הקרב עוזרים להפחית את הסיכונים בקרב.
06:26
Nick Robertson has that story.
101
386330
3000
ניק רוברטסון מספר את הסיפור.
06:31
Rodney Brooks: Can we have another one of these?
102
391330
2000
רודני ברוקס: אנחנו יכולים להביא עוד אחד כזה?
06:38
Okay, good.
103
398330
2000
אוקיי, טוב.
06:43
So, this is a corporal who had seen a robot two weeks previously.
104
403330
3000
אז, זה רב"ט שלא ראה רובוט שבועיים קודם.
06:48
He's sending robots into caves, looking at what's going on.
105
408330
4000
הוא שולח רובוטים לתוך מערות, רואה מה קורה שם.
06:52
The robot's being totally autonomous.
106
412330
2000
הרובוטים עצמאיים לחלוטין.
06:54
The worst thing that's happened in the cave so far
107
414330
4000
הדבר הגרוע ביותר שקרה במערה עד עכשיו
06:58
was one of the robots fell down ten meters.
108
418330
3000
היה שאחד הרובוטים נפל מגובה עשרה מטרים.
07:08
So one year ago, the US military didn't have these robots.
109
428330
3000
אז לפני שנה, לצבא האמריקאי לא היו את הרובוטים האלה.
07:11
Now they're on active duty in Afghanistan every day.
110
431330
2000
עכשיו הם בשרות פעיל באפגניסטאן כל יום.
07:13
And that's one of the reasons they say a robot invasion is happening.
111
433330
3000
וזו אחת הסיבות שהם אומרים שיש פלישת רובוטים.
07:16
There's a sea change happening in how -- where technology's going.
112
436330
4000
יש שינוי עצום שקורה עכשיו -- במקום אליו טכנולוגיה הולכת.
07:20
Thanks.
113
440330
2000
תודה.
07:23
And over the next couple of months,
114
443330
2000
ובחודשים הקרובים,
07:25
we're going to be sending robots in production
115
445330
3000
אנחנו עומדים לשלוח רובוטים ביצור
07:28
down producing oil wells to get that last few years of oil out of the ground.
116
448330
4000
לבארות נפט פעילות כדי להוציא את שאריות הנפט האחרונות מהאדמה.
07:32
Very hostile environments, 150˚ C, 10,000 PSI.
117
452330
4000
סביבות מאוד עוינות, 150 מעלות צלזיוס, 10,000 PSI לחץ.
07:36
Autonomous robots going down, doing this sort of work.
118
456330
4000
רובוטים עצמאיים יורדים, ועושים את העבודה הזו.
07:40
But robots like this, they're a little hard to program.
119
460330
3000
אבל רובוטים כמו אלה, הם קצת קשים לתכנות.
07:43
How, in the future, are we going to program our robots
120
463330
2000
איך, בעתיד, אנחנו נתכנת רובוטים
07:45
and make them easier to use?
121
465330
2000
ונהפוך אותם לקלים יותר לשימוש?
07:47
And I want to actually use a robot here --
122
467330
3000
ואני רוצה להשתמש ברובוט למעשה --
07:50
a robot named Chris -- stand up. Yeah. Okay.
123
470330
5000
רובוט שנקרא כריס -- תעמוד. כן. אוקיי.
07:57
Come over here. Now notice, he thinks robots have to be a bit stiff.
124
477330
4000
בוא הנה. עכשיו שימו לב, הוא חושב שרובוטים צריכים להיות קצת קשיחים.
08:01
He sort of does that. But I'm going to --
125
481330
3000
הוא עושה כך. אבל אני עומד --
08:04
Chris Anderson: I'm just British. RB: Oh.
126
484330
2000
כריס אנדרסון: אני רק בריטי. ר.ב: אוה.
08:06
(Laughter)
127
486330
2000
(צחוק)
08:08
(Applause)
128
488330
2000
(מחיאות כפיים)
08:10
I'm going to show this robot a task. It's a very complex task.
129
490330
3000
אני עומד להראות לרובוט הזה משימה. זו משימה מאוד מסובכת.
08:13
Now notice, he nodded there, he was giving me some indication
130
493330
3000
שימו לב עכשיו, הוא הנהן פה, הוא נתן לי חיווי
08:16
he was understanding the flow of communication.
131
496330
3000
הוא הבין את תהליך התקשורת.
08:19
And if I'd said something completely bizarre
132
499330
2000
ואם הייתי אומר משהו ממש מוזר
08:21
he would have looked askance at me, and regulated the conversation.
133
501330
3000
הוא היה מביט בי בחשדנות, ומסדיר את השיחה.
08:24
So now I brought this up in front of him.
134
504330
3000
אז עכשיו הבאתי את זה לפניו.
08:27
I'd looked at his eyes, and I saw his eyes looked at this bottle top.
135
507330
4000
הבטתי בעיניו, וראיתי את עיניו מביטות בפקק הבקבוק הזה.
08:31
And I'm doing this task here, and he's checking up.
136
511330
2000
ואני עומד לעשות את המשימה הזו פה, והוא בודק.
08:33
His eyes are going back and forth up to me, to see what I'm looking at --
137
513330
3000
העייניים שלו זזות אחורה וקדימה בחזרה אלי, כדי לראות על מה אני מסתכל --
08:36
so we've got shared attention.
138
516330
2000
אז יש לנו תשומת לב משותפת.
08:38
And so I do this task, and he looks, and he looks to me
139
518330
3000
אז אני עושה את המשימה הזו, והוא מביט בי
08:41
to see what's happening next. And now I'll give him the bottle,
140
521330
4000
לראות מה יקרה עכשיו. ועכשיו אני אתן לו את הבקבוק,
08:45
and we'll see if he can do the task. Can you do that?
141
525330
2000
ונראה אם הוא יכול לעשות את המשימה הזאת. אתה יכול לעשות את זה?
08:47
(Laughter)
142
527330
3000
(צחוק)
08:50
Okay. He's pretty good. Yeah. Good, good, good.
143
530330
4000
אוקיי, הוא די טוב. כן. טוב, טוב , טוב.
08:54
I didn't show you how to do that.
144
534330
2000
לא הראיתי לך איך לעשות את זה.
08:56
Now see if you can put it back together.
145
536330
2000
עכשיו תראה אם תוכל להרכיב אותו בחזרה.
08:58
(Laughter)
146
538330
2000
(צחוק)
09:00
And he thinks a robot has to be really slow.
147
540330
1000
והוא חושב שרובוט צריך להיות ממש איטי.
09:01
Good robot, that's good.
148
541330
2000
רובוט, טוב, זה טוב.
09:03
So we saw a bunch of things there.
149
543330
2000
אז ראינו כמה דברים שם.
09:06
We saw when we're interacting,
150
546330
3000
ראינו שכשאנחנו מתקשרים,
09:09
we're trying to show someone how to do something, we direct their visual attention.
151
549330
4000
אנחנו מנסים להראות למישהו איך לעשות משהו, אנחנו מפנים את הקשב הויזואלי שלהם.
09:13
The other thing communicates their internal state to us,
152
553330
4000
הדבר השני מראה לנו את המצב הפנימי שלהם.
09:17
whether he's understanding or not, regulates a social interaction.
153
557330
3000
בין אם הוא מבין אותו לא, מנטר את התקשורת החברתית.
09:20
There was shared attention looking at the same sort of thing,
154
560330
2000
היתה תשומת לב משותפת בלהביט באותו סוג של דבר,
09:22
and recognizing socially communicated reinforcement at the end.
155
562330
4000
ולזהות חיזוק חברתי מתוקשר בסוף.
09:26
And we've been trying to put that into our lab robots
156
566330
3000
וניסינו לשלב את זה ברובוטי המעבדה שלנו
09:29
because we think this is how you're going to want to interact with robots in the future.
157
569330
4000
מפני שאנחנו חושבים שזה איך שתרצו לתקשר עם רובוטים בעתיד.
09:33
I just want to show you one technical diagram here.
158
573330
2000
אני רק רוצה להראות לכם דיאגרמה טכנית אחת פה.
09:35
The most important thing for building a robot that you can interact with socially
159
575330
4000
הדבר החשוב ביותר בבניית רובוט ביכולת לתקשר איתו חברתית
09:39
is its visual attention system.
160
579330
2000
הוא המערכת לקשב ויזואלי.
09:41
Because what it pays attention to is what it's seeing
161
581330
3000
מפני שמה שהוא קשוב אליו הוא מה שהוא רואה
09:44
and interacting with, and what you're understanding what it's doing.
162
584330
3000
ומתקשר איתו, ומה שאתם מבינים ממה שהוא עושה.
09:47
So in the videos I'm about to show you,
163
587330
3000
אז בסרטונים שאני עומד להראות לכם,
09:50
you're going to see a visual attention system on a robot
164
590330
4000
אנחנו עומדים לראות קשב ויזואלי של הרובוט
09:54
which has -- it looks for skin tone in HSV space,
165
594330
4000
שהוא -- הוא מחפש צבעים של עור בטווח הHSV (תחום בחירה של צבעים)
09:58
so it works across all human colorings.
166
598330
4000
כך שהוא עובר על כל גווני העור האנושיים.
10:02
It looks for highly saturated colors, from toys.
167
602330
2000
הוא מחפש צבעים מאוד רוויים, מצעצועים.
10:04
And it looks for things that move around.
168
604330
2000
והוא מחפש דברים שזזים.
10:06
And it weights those together into an attention window,
169
606330
3000
ומשקלל את כל אלה יחד לחלון קשב,
10:09
and it looks for the highest-scoring place --
170
609330
2000
והוא מחפש את האזור עם הניקוד הגבוה ביותר --
10:11
the stuff where the most interesting stuff is happening --
171
611330
2000
המקום בו הדברים המעניינים ביותר קורים --
10:13
and that is what its eyes then segue to.
172
613330
4000
וזה המקום אליו עיניו זזות לבסוף.
10:17
And it looks right at that.
173
617330
2000
והוא מביט ממש בזה.
10:19
At the same time, some top-down sort of stuff:
174
619330
3000
באותו הזמן, גם תהליכים של מלמעלה למטה:
10:22
might decide that it's lonely and look for skin tone,
175
622330
3000
הוא יכול להחליט שהוא בודד ולחפש גווני עור,
10:25
or might decide that it's bored and look for a toy to play with.
176
625330
3000
או להחליט שהוא משועמם ולחפש צעצוע לשחק איתו.
10:28
And so these weights change.
177
628330
2000
אז המשקלים האלה משתנים.
10:30
And over here on the right,
178
630330
2000
וכאן מימין,
10:32
this is what we call the Steven Spielberg memorial module.
179
632330
3000
זה מה שאנחנו קוראים לו הרכיב לזכר סטיבן ספילברג,
10:35
Did people see the movie "AI"? (Audience: Yes.)
180
635330
2000
האם אנשים ראו את הסרט "AI"?(קהל: "כן")
10:37
RB: Yeah, it was really bad, but --
181
637330
2000
ר.ב: כן, הוא היה ממש גרוע, אבל --
10:39
remember, especially when Haley Joel Osment, the little robot,
182
639330
4000
אתם זוכרים כשהיילי ג'ו אוסמט, הרובוט הקטן,
10:43
looked at the blue fairy for 2,000 years without taking his eyes off it?
183
643330
4000
הביט בפיה הכחולה במשך 2,000 שנה בלי להסיר ממנה את עיניו?
10:47
Well, this gets rid of that,
184
647330
2000
ובכן, זה נפתר מזה,
10:49
because this is a habituation Gaussian that gets negative,
185
649330
4000
מפני שזו עקומת הביטואציה גאוסייאנית שנעשית שלילית,
10:53
and more and more intense as it looks at one thing.
186
653330
3000
ויותר ויותר חזקה כשהוא מביט במשהו אחד.
10:56
And it gets bored, so it will then look away at something else.
187
656330
3000
והוא משתעמם, אז הוא יסתכל על משהו אחר.
10:59
So, once you've got that -- and here's a robot, here's Kismet,
188
659330
4000
אז, ברגע שהבנתם את זה -- והנה רובוט, הנה קיזמט,
11:03
looking around for a toy. You can tell what it's looking at.
189
663330
4000
מחפש בסביבה צעצוע.
11:07
You can estimate its gaze direction from those eyeballs covering its camera,
190
667330
5000
אתם יכולים להעריך את כיוון המבט שלו מגלגלי העין האלה שמכסים את המצלמה,
11:12
and you can tell when it's actually seeing the toy.
191
672330
3000
ואתם יכולים לראות מתי הוא בעצם רואה את הצעצוע.
11:15
And it's got a little bit of an emotional response here.
192
675330
2000
ויש לו תגובה קצת רגשית פה.
11:17
(Laughter)
193
677330
1000
(צחוק)
11:18
But it's still going to pay attention
194
678330
2000
אבל הוא עדיין עומד לשים לב
11:20
if something more significant comes into its field of view --
195
680330
4000
אם משהו יותר חשוב יכנס לשדה הראיה שלו --
11:24
such as Cynthia Breazeal, the builder of this robot, from the right.
196
684330
4000
כמו סינתיה ברזיל, הבונה של הרובוט, מימין.
11:28
It sees her, pays attention to her.
197
688330
5000
הוא רואה אותה, ותשומת הלב שלו פונה אליה.
11:33
Kismet has an underlying, three-dimensional emotional space,
198
693330
4000
לקיזמט יש מרחב רגשי תלת מימדי בבסיסו,
11:37
a vector space, of where it is emotionally.
199
697330
3000
מרחב וקטורי, של היכן הוא נמצא רגשית.
11:40
And at different places in that space, it expresses --
200
700330
5000
ובמקומות שונים במרחב הזה, הוא מביע --
11:46
can we have the volume on here?
201
706330
2000
אפשר להגביר את הווליום פה?
11:48
Can you hear that now, out there? (Audience: Yeah.)
202
708330
2000
אתם יכולים לשמוע את זה עכשיו, שם? (קהל: כן)
11:50
Kismet: Do you really think so? Do you really think so?
203
710330
5000
קיזמט: אתם באמת חושבים ככה? אתם באמת חושבים ככה?
11:57
Do you really think so?
204
717330
2000
אתם באמת חושבים ככה?
12:00
RB: So it's expressing its emotion through its face
205
720330
3000
ר.ב: אז הוא מבטא את רגשותיו דרך פניו
12:03
and the prosody in its voice.
206
723330
2000
ובמשקל קולו.
12:05
And when I was dealing with my robot over here,
207
725330
4000
וכשטיפלתי ברובוט שלי כאן,
12:09
Chris, the robot, was measuring the prosody in my voice,
208
729330
3000
כריס, הרובוט, מדד את הטון בקולי,
12:12
and so we have the robot measure prosody for four basic messages
209
732330
5000
אז יש לנו את הרובוט מודד טונים לארבעה מסרים בסיסיים
12:17
that mothers give their children pre-linguistically.
210
737330
4000
שאם נותנת לילדיה לפני שהם מדברים.
12:21
Here we've got naive subjects praising the robot:
211
741330
3000
כאן יש לנו נסיינים נאיבים שמשבחים את הרובוט:
12:26
Voice: Nice robot.
212
746330
2000
קול: רובוט נחמד.
12:29
You're such a cute little robot.
213
749330
2000
אתה כזה רובוט קטן וחמוד.
12:31
(Laughter)
214
751330
2000
(צחוק)
12:33
RB: And the robot's reacting appropriately.
215
753330
2000
ר.ב: והרובוט מגיב בהתאם.
12:35
Voice: ...very good, Kismet.
216
755330
4000
קול: ... טוב מאוד, קיזמט.
12:40
(Laughter)
217
760330
2000
(צחוק)
12:42
Voice: Look at my smile.
218
762330
2000
קול: תביט בחיוך שלי.
12:46
RB: It smiles. She imitates the smile. This happens a lot.
219
766330
3000
ר.ב: הוא מחייך. היא מחקה את החיוך. זה קורה הרבה.
12:49
These are naive subjects.
220
769330
2000
אלה נסיינים נאיביים.
12:51
Here we asked them to get the robot's attention
221
771330
3000
פה ביקשנו מהם לתפוש את תשומת הלב של הרובוט
12:54
and indicate when they have the robot's attention.
222
774330
3000
ולסמן מתי הם תפשו את תשומת ליבו.
12:57
Voice: Hey, Kismet, ah, there it is.
223
777330
4000
קול: הי, קיזמט, אה, הנה זה.
13:01
RB: So she realizes she has the robot's attention.
224
781330
4000
ר.ב: אז היא רואה שהיא קיבלה את תשומת הלב של הרובוט.
13:08
Voice: Kismet, do you like the toy? Oh.
225
788330
4000
קול: קיסמט, אתה אוהב את הצעצוע? אוה.
13:13
RB: Now, here they're asked to prohibit the robot,
226
793330
2000
ר.ב: עכשיו, הם מתבקשים לאסור על הרובוט,
13:15
and this first woman really pushes the robot into an emotional corner.
227
795330
4000
והאשה הראשונה ממש דוחקת את הרובוט לפינה הרגשית.
13:19
Voice: No. No. You're not to do that. No.
228
799330
5000
קול: לא. לא. אסור לך לעשות את זה. לא.
13:24
(Laughter)
229
804330
3000
(צחוק)
13:27
Not appropriate. No. No.
230
807330
6000
זה לא בסדר. לא. לא.
13:33
(Laughter)
231
813330
3000
(צחוק)
13:36
RB: I'm going to leave it at that.
232
816330
2000
ר.ב: אני אשאיר את זה ככה.
13:38
We put that together. Then we put in turn taking.
233
818330
2000
אנחנו מחברים את זה. אז אנחנו מוסיפים תקשורת לפי התור.
13:40
When we talk to someone, we talk.
234
820330
3000
כשאנחנו מדברים עם מישהו, אנחנו מדברים,
13:43
Then we sort of raise our eyebrows, move our eyes,
235
823330
4000
ואז אנחנו מרימים את גבותינו, מזיזים את עינינו,
13:47
give the other person the idea it's their turn to talk.
236
827330
3000
רומזים לאדם שתורו לדבר.
13:50
And then they talk, and then we pass the baton back and forth between each other.
237
830330
4000
ואז הם מדברים, ואז אנחנו מעבירים את המקל מהאחד לשני
13:54
So we put this in the robot.
238
834330
2000
אז אנחנו שמים את זה ברובוט.
13:56
We got a bunch of naive subjects in,
239
836330
2000
הכנסנו חבורת נסיינים נאיביים פנימה,
13:58
we didn't tell them anything about the robot,
240
838330
2000
לא אמרנו להם שום דבר על הרובוט,
14:00
sat them down in front of the robot and said, talk to the robot.
241
840330
2000
הושבנו אותם מול הרובוט ואמרנו, דברו לרובוט.
14:02
Now what they didn't know was,
242
842330
2000
עכשיו מה שהם לא ידעו היה,
14:04
the robot wasn't understanding a word they said,
243
844330
2000
הרובוט לא הבין מילה ממה שהם אמרו,
14:06
and that the robot wasn't speaking English.
244
846330
3000
וזה שהרובוט לא דיבר אנגלית.
14:09
It was just saying random English phonemes.
245
849330
2000
הוא רק אמר פונמות באנגלית.
14:11
And I want you to watch carefully, at the beginning of this,
246
851330
2000
ואני רוצה שתביטו היטב, בהתחלה של זה,
14:13
where this person, Ritchie, who happened to talk to the robot for 25 minutes --
247
853330
4000
פה האדם הזה, ריצ'י, שבמקרה דיבר עם הרובוט במשך 25 דקות --
14:17
(Laughter)
248
857330
2000
(צחוק)
14:19
-- says, "I want to show you something.
249
859330
2000
-- אמר, "אני רוצה להראות לך משהו.
14:21
I want to show you my watch."
250
861330
2000
אני רוצה להראות לך את השעון שלי."
14:23
And he brings the watch center, into the robot's field of vision,
251
863330
5000
והוא מביא את השעון למרכז, לטווח הראיה של הרובוט,
14:28
points to it, gives it a motion cue,
252
868330
2000
מצביע עליו, נותן לו רמז תנועה,
14:30
and the robot looks at the watch quite successfully.
253
870330
2000
והרובוט מביט בשעון די בהצלחה.
14:32
We don't know whether he understood or not that the robot --
254
872330
3000
אנחנו לא יודעים באמת אם הוא מבין או לא שהרובוט --
14:36
Notice the turn-taking.
255
876330
2000
מבחין בתורות.
14:38
Ritchie: OK, I want to show you something. OK, this is a watch
256
878330
3000
ריצ'י: אוקיי, אני רוצה להראות לך משהו. אוקיי, זה שעון
14:41
that my girlfriend gave me.
257
881330
3000
שחברה שלי נתנה לי.
14:44
Robot: Oh, cool.
258
884330
2000
רובוט: אוה, קול.
14:46
Ritchie: Yeah, look, it's got a little blue light in it too. I almost lost it this week.
259
886330
4000
ריצ'י" כן, תראה, יש לו גם אור כחול. כמעט איבדתי אותו השבוע.
14:51
(Laughter)
260
891330
4000
(צחוק)
14:55
RB: So it's making eye contact with him, following his eyes.
261
895330
3000
ר.ב: אז הוא יוצר קשר עין איתו, עוקב אחרי עיניו.
14:58
Ritchie: Can you do the same thing? Robot: Yeah, sure.
262
898330
2000
ריצ'י: אתה יכול לעשות אותו הדבר? רובוט: כן, בוודאי.
15:00
RB: And they successfully have that sort of communication.
263
900330
2000
ר.ב: והם מתקשרים ככה בהצלחה.
15:02
And here's another aspect of the sorts of things that Chris and I were doing.
264
902330
4000
ויש עוד פן לסוג הדברים האלה שכריס ואני עושים.
15:06
This is another robot, Cog.
265
906330
2000
זה עוד רובוט, קוג.
15:08
They first make eye contact, and then, when Christie looks over at this toy,
266
908330
6000
הם קודם יצרו קשר עין, ואז, כשכריסטי מביטה לעבר הצעצוע הזה,
15:14
the robot estimates her gaze direction
267
914330
2000
הרובוט מעריך את כיוון המבט שלה
15:16
and looks at the same thing that she's looking at.
268
916330
2000
ומביט באותו הדבר שהיא מביטה בו.
15:18
(Laughter)
269
918330
1000
(צחוק)
15:19
So we're going to see more and more of this sort of robot
270
919330
3000
אז אנחנו נראה עוד ועוד מהסוג הזה של רובוטים
15:22
over the next few years in labs.
271
922330
2000
במשך השנים הקרובות במעבדות.
15:24
But then the big questions, two big questions that people ask me are:
272
924330
5000
אבל אז השאלה הגדולה, שתי שאלות גדולות שאנשים שואלים אותי:
15:29
if we make these robots more and more human-like,
273
929330
2000
אם נעשה את הרובוטים האלה יותר ויותר דומים לאנשים,
15:31
will we accept them, will we -- will they need rights eventually?
274
931330
5000
האם נקבל אותם, האם -- האם הם יצטרכו זכויות בסופו של דבר?
15:36
And the other question people ask me is, will they want to take over?
275
936330
3000
והשאלה השניה שאנשים שואלים אותי היא, האם הם ירצו להשתלט?
15:39
(Laughter)
276
939330
1000
(צחוק)
15:40
And on the first -- you know, this has been a very Hollywood theme
277
940330
3000
ובנוגע לראשונה -- אתם יודעים, זה היה נושא מאוד הוליוודי
15:43
with lots of movies. You probably recognize these characters here --
278
943330
3000
עם הרבה סרטים. אתם בטח מזהים כמה מהדמויות האלה --
15:46
where in each of these cases, the robots want more respect.
279
946330
4000
שבכל אחד מהמקרים האלה, הרובוטים רצו יותר כבוד.
15:50
Well, do you ever need to give robots respect?
280
950330
3000
ובכן, האם אי פעם נצטרך לתת לרובוטים כבוד?
15:54
They're just machines, after all.
281
954330
2000
הם רק מכונות, אחרי הכל.
15:56
But I think, you know, we have to accept that we are just machines.
282
956330
4000
אבל אני חושב, אתם יודעים, אנחנו חייבים לקבל שאנחנו רק מכונות.
16:00
After all, that's certainly what modern molecular biology says about us.
283
960330
5000
אחרי הכל, זה בהחלט מה שביולוגיה מולקולרית מודרנית אומרת עלינו.
16:05
You don't see a description of how, you know,
284
965330
3000
אתם לא רואים תאור של איך, אתם יודעים,
16:08
Molecule A, you know, comes up and docks with this other molecule.
285
968330
4000
מולקולה א, אתם יודעים, באה ומתחברת עם מולקולה אחרת.
16:12
And it's moving forward, you know, propelled by various charges,
286
972330
3000
והיא זזה קדימה, אתם יודעים, מונעת על ידי מתחים שונים,
16:15
and then the soul steps in and tweaks those molecules so that they connect.
287
975330
4000
ואז הנשמה באה ומסדרת את המולקולות כך שהן יתחברו.
16:19
It's all mechanistic. We are mechanism.
288
979330
3000
זה הכל מכאניסטי. אנחנו מכונות.
16:22
If we are machines, then in principle at least,
289
982330
3000
אם אנחנו מכונות, אז בעיקרון לפחות,
16:25
we should be able to build machines out of other stuff,
290
985330
4000
אנחנו צריכים להיות מסוגלים לבנות מכונות מדברים אחרים,
16:29
which are just as alive as we are.
291
989330
4000
שהן לפחות חיות כמונו.
16:33
But I think for us to admit that,
292
993330
2000
אבל אני חושב שבשבילנו להודות בזה,
16:35
we have to give up on our special-ness, in a certain way.
293
995330
3000
אנחנו צריכים לוותר על המיוחדות שלנו, בצורה מסויימת.
16:38
And we've had the retreat from special-ness
294
998330
2000
והייתה לנו את הנסיגה ממיוחדות
16:40
under the barrage of science and technology many times
295
1000330
3000
תחת מתקפת המדע והטכנולוגיה הרבה פעמים
16:43
over the last few hundred years, at least.
296
1003330
2000
במהלך כמה מאות השנים האחרונות, לפחות.
16:45
500 years ago we had to give up the idea
297
1005330
2000
לפני 500 שנה היינו צריכים לוותר על הרעיון
16:47
that we are the center of the universe
298
1007330
3000
שאנחנו מרכז היקום
16:50
when the earth started to go around the sun;
299
1010330
2000
כשכדור הארץ התחיל להסתובב סביב השמש;
16:52
150 years ago, with Darwin, we had to give up the idea we were different from animals.
300
1012330
5000
לפני 150 שנה, עם דארווין, היינו צריכים לוותר על הרעיון שאנחנו שונים מהחיות.
16:57
And to imagine -- you know, it's always hard for us.
301
1017330
3000
ולדמיין -- אתם יודעים, זה תמיד קשה בשבילנו,
17:00
Recently we've been battered with the idea that maybe
302
1020330
3000
לאחרונה הועמדנו בפני הרעיון שאולי
17:03
we didn't even have our own creation event, here on earth,
303
1023330
2000
אפילו לא היה לנו את ארוע הבריאה שלנו, כאן על כדור הארץ,
17:05
which people didn't like much. And then the human genome said,
304
1025330
3000
שאנשים לא ממש אהבו. ואז הגנום האנושי אמר,
17:08
maybe we only have 35,000 genes. And that was really --
305
1028330
3000
אולי יש לנו רק 35,000 גנים. וזה היה ממש --
17:11
people didn't like that, we've got more genes than that.
306
1031330
3000
אנשים לא אהבו את זה, יש לנו יותר גנים מזה.
17:14
We don't like to give up our special-ness, so, you know,
307
1034330
3000
אנחנו לא אוהבים לוותר על המיוחדות שלנו, אז, אתם יודעים,
17:17
having the idea that robots could really have emotions,
308
1037330
2000
הרעיון שלרובוטים באמת יכולים להיות רגשות,
17:19
or that robots could be living creatures --
309
1039330
2000
או שרובוטים יכולים להיות יצורים חיים --
17:21
I think is going to be hard for us to accept.
310
1041330
2000
אני חושב שזה יהיה קשה לנו לקבל.
17:23
But we're going to come to accept it over the next 50 years or so.
311
1043330
4000
אבל אנחנו עומדים לקבל את זה במשך ה 50 שנים הבאות.
17:27
And the second question is, will the machines want to take over?
312
1047330
3000
והשאלה השניה היא, האם המכונות ירצו להשתלט?
17:30
And here the standard scenario is that we create these things,
313
1050330
5000
וכאן התסריט הסטנדרטי הוא שאנחנו יוצרים את הדברים האלה,
17:35
they grow, we nurture them, they learn a lot from us,
314
1055330
3000
הם גדלים, אנחנו מטפחים אותם, הם לומדים הרבה מאיתנו,
17:38
and then they start to decide that we're pretty boring, slow.
315
1058330
4000
ואז הם מתחילים להחליט שאנחנו די משעממים, איטיים.
17:42
They want to take over from us.
316
1062330
2000
הם רוצים להשתלט.
17:44
And for those of you that have teenagers, you know what that's like.
317
1064330
3000
ולאלה מכם שיש בני עשרה, אתם יודעים איך זה.
17:47
(Laughter)
318
1067330
1000
(צחוק)
17:48
But Hollywood extends it to the robots.
319
1068330
3000
אבל הוליווד מרחיבה את זה לרובוטים.
17:51
And the question is, you know,
320
1071330
3000
והשאלה היא, אתם יודעים,
17:54
will someone accidentally build a robot that takes over from us?
321
1074330
4000
האם מישהו בטעות יבנה רובוט שמשתלט עלינו?
17:58
And that's sort of like this lone guy in the backyard,
322
1078330
3000
וזה סוג האדם המתבודד בחצר האחורית,
18:01
you know -- "I accidentally built a 747."
323
1081330
3000
אתם יודעים -- "בטעות בניתי 747."
18:04
I don't think that's going to happen.
324
1084330
2000
אני לא חושב שזה יקרה.
18:06
And I don't think --
325
1086330
2000
ואני לא חושב --
18:08
(Laughter)
326
1088330
1000
(צחוק)
18:09
-- I don't think we're going to deliberately build robots
327
1089330
3000
-- אני לא חושב שאנחנו בכוונה הולכים לבנות רובוטים
18:12
that we're uncomfortable with.
328
1092330
2000
שלא נוח לנו איתם.
18:14
We'll -- you know, they're not going to have a super bad robot.
329
1094330
2000
ובכן -- אתם יודעים, לא עומד להיות להם רובוט סופר רע.
18:16
Before that has to come to be a mildly bad robot,
330
1096330
3000
לפני זה צריך להגיע הרובוט הקצת רע,
18:19
and before that a not so bad robot.
331
1099330
2000
ולפני זה רובוט לא כל כך נורא.
18:21
(Laughter)
332
1101330
1000
(צחוק)
18:22
And we're just not going to let it go that way.
333
1102330
2000
ואנחנו פשוט לא ניתן לזה להתפתח לכיוון הזה.
18:24
(Laughter)
334
1104330
1000
(צחוק)
18:25
So, I think I'm going to leave it at that: the robots are coming,
335
1105330
6000
אז, אני חושב שאני אסיים בזה: הרובוטים באים,
18:31
we don't have too much to worry about, it's going to be a lot of fun,
336
1111330
3000
אין לנו ממש סיבה לדאוג, זה יהיה כיף גדול,
18:34
and I hope you all enjoy the journey over the next 50 years.
337
1114330
4000
ואני מקווה שכולכם תהנו מהמסע ב50 השנים הבאות.
18:38
(Applause)
338
1118330
2000
(מחיאות כפיים)
על אתר זה

אתר זה יציג בפניכם סרטוני YouTube המועילים ללימוד אנגלית. תוכלו לראות שיעורי אנגלית המועברים על ידי מורים מהשורה הראשונה מרחבי העולם. לחץ פעמיים על הכתוביות באנגלית המוצגות בכל דף וידאו כדי להפעיל את הסרטון משם. הכתוביות גוללות בסנכרון עם הפעלת הווידאו. אם יש לך הערות או בקשות, אנא צור איתנו קשר באמצעות טופס יצירת קשר זה.

https://forms.gle/WvT1wiN1qDtmnspy7