The Rise of Personal Robots | Cynthia Breazeal | TED Talks

159,306 views ・ 2011-02-08

TED


אנא לחץ פעמיים על הכתוביות באנגלית למטה כדי להפעיל את הסרטון.

מתרגם: amir Goldstein מבקר: Sigal Tifferet
00:15
Ever since I was a little girl
0
15260
3000
מאז שהייתי ילדה קטנה
00:18
seeing "Star Wars" for the first time,
1
18260
2000
כשראיתי את "מלחמת הכוכבים" בפעם הראשונה
00:20
I've been fascinated by this idea
2
20260
2000
היתי מרותקת לרעיון
00:22
of personal robots.
3
22260
2000
של רובוטים אישיים
00:24
And as a little girl,
4
24260
2000
כילדה קטנה,
00:26
I loved the idea of a robot that interacted with us
5
26260
2000
אהבתי את הרעיון של רובוטים הפועלים איתנו
00:28
much more like a helpful, trusted sidekick --
6
28260
3000
יותר כמו עוזרים או שותפים נאמנים
00:31
something that would delight us, enrich our lives
7
31260
2000
כמשהו שיענג אותנו, יעשיר את חיינו
00:33
and help us save a galaxy or two.
8
33260
3000
ויעזור לנו להציל גלקסיה, או שתים.
00:37
I knew robots like that didn't really exist,
9
37260
3000
ידעתי שרובוטים כאלו לא באמת קיימים
00:40
but I knew I wanted to build them.
10
40260
2000
אבל ידעתי שאני רוצה לבנות אותם
00:42
So 20 years pass --
11
42260
2000
עשרים שנה חלפו --
00:44
I am now a graduate student at MIT
12
44260
2000
ואני תלמידת תואר שני בMIT
00:46
studying artificial intelligence,
13
46260
2000
למדתי בינה מלאכותית.
00:48
the year is 1997,
14
48260
2000
השנה היא 1997
00:50
and NASA has just landed the first robot on Mars.
15
50260
3000
ונאס"א הנחיתה את הרובוט הראשון על מאדים
00:53
But robots are still not in our home, ironically.
16
53260
3000
אבל עדין אין רובוטים בבתים שלנו, באופן אירוני.
00:56
And I remember thinking about
17
56260
2000
ואני זוכרת שחשבתי על
00:58
all the reasons why that was the case.
18
58260
2000
כל הסיבות מדוע זה כך
01:00
But one really struck me.
19
60260
2000
אבל סיבה אחת הכתה בי
01:02
Robotics had really been about interacting with things,
20
62260
3000
רובוטיקה עוסקת רבות באינטראקציה עם דברים
01:05
not with people --
21
65260
2000
לא עם אנשים --
01:07
certainly not in a social way that would be natural for us
22
67260
2000
ובודאי לא בצורה חברתית שתהיה טבעית לנו
01:09
and would really help people accept robots
23
69260
2000
ותעזור לאנשים לקבל רובוטים
01:11
into our daily lives.
24
71260
2000
לחיי היום יום שלנו.
01:13
For me, that was the white space; that's what robots could not do yet.
25
73260
3000
עבורי, זה היה החלל, זה היה הדבר שרובוטים לא יכולים לעשות, עדין.
01:16
And so that year, I started to build this robot, Kismet,
26
76260
3000
ולכן, באותה שנה, התחלתי לבנות את הרובוט הזה, קיזמט
01:19
the world's first social robot.
27
79260
3000
הרובוט החברתי הראשון בעולם
01:22
Three years later --
28
82260
2000
ושלוש שנים לאחר מכן--
01:24
a lot of programming,
29
84260
2000
אחרי הרבה תכנות
01:26
working with other graduate students in the lab --
30
86260
2000
ועבודה עם עוד סטודנטים במעבדה
01:28
Kismet was ready to start interacting with people.
31
88260
2000
קיזמט היה מוכן להתחיל להגיב לאנשים
01:30
(Video) Scientist: I want to show you something.
32
90260
2000
(וידאו) מדען: אני רוצה להראות לך משהו.
01:32
Kismet: (Nonsense)
33
92260
2000
קיזמט (עושה פרצוף)
01:34
Scientist: This is a watch that my girlfriend gave me.
34
94260
3000
מדען: זה שעון שהחברה שלי נתנה לי
01:37
Kismet: (Nonsense)
35
97260
2000
קיזמט (פרצוף אחר)
01:39
Scientist: Yeah, look, it's got a little blue light in it too.
36
99260
2000
מדען: כן, תסתכל יש בו גם אור כחול קטן.
01:41
I almost lost it this week.
37
101260
3000
כמעט איבדתי אותו השבוע
01:44
Cynthia Breazeal: So Kismet interacted with people
38
104260
3000
סינטיה: אז קיזמט מגיב לבני אדם
01:47
like kind of a non-verbal child or pre-verbal child,
39
107260
3000
כמו ילד ללא-שפה, או ילד לפני שלמד שפה מילולית
01:50
which I assume was fitting because it was really the first of its kind.
40
110260
3000
ואני מניחה שזה מתאים כי זה באמת היה הראשון מסוגו
01:53
It didn't speak language, but it didn't matter.
41
113260
2000
זה לא דיבר שפה, אבל זה לא שינה כלום.
01:55
This little robot was somehow able
42
115260
2000
הרובוט הקטן הזה הצליח, איכשהו
01:57
to tap into something deeply social within us --
43
117260
3000
להתחבר למשהו חברתי עמוק בתוכנו
02:00
and with that, the promise of an entirely new way
44
120260
2000
וכך, פתח דרך חדשה לחלוטין
02:02
we could interact with robots.
45
122260
2000
שבה אנחנו יכולים להגיב עם רובוטים
02:04
So over the past several years
46
124260
2000
וכך, במשך השנים האחרונות
02:06
I've been continuing to explore this interpersonal dimension of robots,
47
126260
2000
המשכתי לחקור את ההיבט הבין-אישי ברובוטים
02:08
now at the media lab
48
128260
2000
ועכשיו במעבדת המדיה
02:10
with my own team of incredibly talented students.
49
130260
2000
עם הצות שלי של סטודנטים מאוד מוכשרים
02:12
And one of my favorite robots is Leonardo.
50
132260
3000
ואחד מהרובוטים החביבים עלי - ליאונרדו
02:15
We developed Leonardo in collaboration with Stan Winston Studio.
51
135260
3000
פיתחנו את ליאונרדו בשיתוף עם אולפני סטאן וינסטון
02:18
And so I want to show you a special moment for me of Leo.
52
138260
3000
ואני רוצה להראות לכם רגע מיוחד בעבורי מליאו
02:21
This is Matt Berlin interacting with Leo,
53
141260
2000
זה הוא מאט ברלין מתקשר עם ליאו,
02:23
introducing Leo to a new object.
54
143260
2000
מציג לליאו חפץ חדש
02:25
And because it's new, Leo doesn't really know what to make of it.
55
145260
3000
ובגלל שהחפץ חדש, ליאו לא כל כך יודע מה לעשות עם זה
02:28
But sort of like us, he can actually learn about it
56
148260
2000
אבל, בערך כמונו, הוא יכול ללמוד על זה
02:30
from watching Matt's reaction.
57
150260
3000
מצפייה בתגובות של מאט
02:33
(Video) Matt Berlin: Hello, Leo.
58
153260
2000
(וידאו) מאט ברלין: שלום ליאו
02:38
Leo, this is Cookie Monster.
59
158260
3000
ליאו, זה עוגיפלצת
02:44
Can you find Cookie Monster?
60
164260
3000
אתה יכול לראות את עוגיפלצת?
02:52
Leo, Cookie Monster is very bad.
61
172260
3000
ליאו, עוגיפלצת הוא מאוד רע
02:56
He's very bad, Leo.
62
176260
2000
מאוד רע, ליאו
03:00
Cookie Monster is very, very bad.
63
180260
3000
מאוד מאוד רע
03:07
He's a scary monster.
64
187260
2000
עוגיפלצת הוא מפלצת מפחידה
03:09
He wants to get your cookies.
65
189260
2000
הוא רוצה לקחת את העוגיות שלך
03:12
(Laughter)
66
192260
2000
(צחוק)
03:14
CB: All right, so Leo and Cookie
67
194260
3000
טוב, אז ליאו ועוגיפלצת
03:17
might have gotten off to a little bit of a rough start,
68
197260
2000
אולי היתה להם התחלה קשה קצת
03:19
but they get along great now.
69
199260
3000
אבל הם מסתדרים היטב עכשיו
03:22
So what I've learned
70
202260
2000
אז מה שלמדתי
03:24
through building these systems
71
204260
2000
כשבניתי את המערכות הללו
03:26
is that robots are actually
72
206260
2000
הוא שרובוטים הם בעצם
03:28
a really intriguing social technology,
73
208260
2000
טכנולוגיה חברתית מאוד מעניינת
03:30
where it's actually their ability
74
210260
2000
כשבעצם ביכולתם
03:32
to push our social buttons
75
212260
2000
ללחוץ על הכפתורים החברתיים שלנו
03:34
and to interact with us like a partner
76
214260
2000
ולהגיב איתנו כמו שותפים
03:36
that is a core part of their functionality.
77
216260
3000
וזהו מצב בסיסי בתפקוד שלהם
03:39
And with that shift in thinking, we can now start to imagine
78
219260
2000
ולאחר שעברנו את שינוי החשיבה הזה, אנחנו יכולים להתחיל לדמיין
03:41
new questions, new possibilities for robots
79
221260
3000
שאלות חדשות, אפשרויות חדשות, בעבור רובוטים
03:44
that we might not have thought about otherwise.
80
224260
3000
שאולי לא נחשוב עליהם במצב אחר.
03:47
But what do I mean when I say "push our social buttons?"
81
227260
2000
אך למה אני מתכוונת כשאני אומרת "ללחוץ על כפתורים חברתיים"?
03:49
Well, one of the things that we've learned
82
229260
2000
ובכן, אחד הדברים שלמדנו
03:51
is that, if we design these robots to communicate with us
83
231260
2000
הוא שאם נעצב את הרבוטים לתקשר איתנו
03:53
using the same body language,
84
233260
2000
באמצעות אותה שפת-גוף
03:55
the same sort of non-verbal cues that people use --
85
235260
2000
אותם סוגים של רמזים לא-מילוליים שבהם אנשים משתמשים --
03:57
like Nexi, our humanoid robot, is doing here --
86
237260
3000
כמו ש"נקסי", הרובוט דמוי האנוש מבצע כאן
04:00
what we find is that people respond to robots
87
240260
2000
מצאנו שאנשים מגיבים לרובוטים
04:02
a lot like they respond to people.
88
242260
2000
באופן דומה לתגובתם לאנשים
04:04
People use these cues to determine things like how persuasive someone is,
89
244260
3000
אנשים משתמשים ברמזים הללו כדי לקבוע דברים כמו כמה משכנע מישהו
04:07
how likable, how engaging,
90
247260
2000
כמה אהוד, כמה מקסים,
04:09
how trustworthy.
91
249260
2000
כמה אמין.
04:11
It turns out it's the same for robots.
92
251260
2000
התברר שכך זה גם עם רובוטים
04:13
It's turning out now
93
253260
2000
מתברר עכשיו
04:15
that robots are actually becoming a really interesting new scientific tool
94
255260
3000
שרובוטים מתחילים להיות כלי מדעי חדש ומעניין
04:18
to understand human behavior.
95
258260
2000
להבנת ההתנהגות האנושית.
04:20
To answer questions like, how is it that, from a brief encounter,
96
260260
3000
למציאת תשובות לשאלות כגון, איך יתכן, שממפגש קצר
04:23
we're able to make an estimate of how trustworthy another person is?
97
263260
3000
אנחנו מסוגלים להעריך כמה מהימן אדם אחר?
04:26
Mimicry's believed to play a role, but how?
98
266260
3000
מאמינים שחיקוי משחק תפקיד, אך איך?
04:29
Is it the mimicking of particular gestures that matters?
99
269260
3000
האם מדובר בחיקוי של מחוות מסוימות?
04:32
It turns out it's really hard
100
272260
2000
מתברר שזה באמת קשה
04:34
to learn this or understand this from watching people
101
274260
2000
ללמוד על זה או להבין את זה מצפייה באנשים
04:36
because when we interact we do all of these cues automatically.
102
276260
3000
כי כשאנחנו מתקשרים אנחנו מעבירים את כל הרמזים האלו בצורה אוטומטית
04:39
We can't carefully control them because they're subconscious for us.
103
279260
2000
אנחנו לא יכולים לשלוט בהם בעדינות כי מקורם בתת-מודע שלנו
04:41
But with the robot, you can.
104
281260
2000
אך באמצעות רובוטים אנחנו יכולים.
04:43
And so in this video here --
105
283260
2000
וכך בוידאו הזה --
04:45
this is a video taken from David DeSteno's lab at Northeastern University.
106
285260
3000
הוידאו נלקח מהמעבדה של דויד דה-סטאנו באוניברסיטת נורסטאיסטרן.
04:48
He's a psychologist we've been collaborating with.
107
288260
2000
הוא פסיכולוג שאיתו שיתפנו פעולה
04:50
There's actually a scientist carefully controlling Nexi's cues
108
290260
3000
מוצג מדען השולט ברמזים ש"נקסי" מעביר
04:53
to be able to study this question.
109
293260
3000
על מנת ללמוד את השאלה הזו
04:56
And the bottom line is -- the reason why this works is
110
296260
2000
והשורה התחתונה היא -- הסיבה לכך שזה עובד היא --
04:58
because it turns out people just behave like people
111
298260
2000
כי מסתבר שאנשים מתנהגים כמו אנשים
05:00
even when interacting with a robot.
112
300260
3000
אפילו כשמתקשרים עם רובוט.
05:03
So given that key insight,
113
303260
2000
אז, מצויידים בתובנה מרכזית זו,
05:05
we can now start to imagine
114
305260
2000
אנחנו יכולים להתחיל לדמיין
05:07
new kinds of applications for robots.
115
307260
3000
שימושים חדשים עבור רובוטים.
05:10
For instance, if robots do respond to our non-verbal cues,
116
310260
3000
לדוגמה, אם רובוט אכן מגיב לרמזים הלא-מילוליים שלנו,
05:13
maybe they would be a cool, new communication technology.
117
313260
4000
אולי הם יוכלו להיות טכנולוגית תקשורת חדשה ומגניבה
05:17
So imagine this:
118
317260
2000
דמיינו את זה:
05:19
What about a robot accessory for your cellphone?
119
319260
2000
מה בדבר אביזר-רובוטי לטלפון סלולרי?
05:21
You call your friend, she puts her handset in a robot,
120
321260
2000
אתה מתקשר לחברה שלך, היא שמה את השפופרת ברובוט
05:23
and, bam! You're a MeBot --
121
323260
2000
ובאם! אתה מדבר עם רובוט-אני
05:25
you can make eye contact, you can talk with your friends,
122
325260
3000
אתה יכול ליצור קשר-עין, לדבר עם החברים שלך
05:28
you can move around, you can gesture --
123
328260
2000
לנוע בסביבה, להחוות מחוות --
05:30
maybe the next best thing to really being there, or is it?
124
330260
3000
אולי הכי קרוב ללהיות שם בעצמך? או שלא?
05:33
To explore this question,
125
333260
2000
כדי לחקור את השאלה הזו
05:35
my student, Siggy Adalgeirsson, did a study
126
335260
3000
הסטודנט שלי, סיגי אדאלגריסון, ביצע מחקר
05:38
where we brought human participants, people, into our lab
127
338260
3000
שבו הבאנו משתתפים אנושים, אנשים, למעבדה שלנו
05:41
to do a collaborative task
128
341260
2000
כדי לבצע משימה הדורשת לשתף פעולה
05:43
with a remote collaborator.
129
343260
2000
עם שותף מרוחק
05:45
The task involved things
130
345260
2000
המשימה עסקה בדברים
05:47
like looking at a set of objects on the table,
131
347260
2000
כגון להתבונן במספר עצמים על השולחן
05:49
discussing them in terms of their importance and relevance to performing a certain task --
132
349260
3000
ולהתדיין בהם במונחים של חשיבותם והשייכות שלהם לביצוע משימה מסויימת
05:52
this ended up being a survival task --
133
352260
2000
שבסופו של דבר התברר שהיתה משימת שרידה --
05:54
and then rating them in terms
134
354260
2000
ואז לדרג אותם במונחים של
05:56
of how valuable and important they thought they were.
135
356260
2000
של כמה בעלי ערך וחשובים החפצים
05:58
The remote collaborator was an experimenter from our group
136
358260
3000
השותף המרוחק היה נסיין מהקבוצה שלנו
06:01
who used one of three different technologies
137
361260
2000
הם השתמשו באחת משלוש טכנולוגיות שונות
06:03
to interact with the participants.
138
363260
2000
לתקשר עם המשתתפים.
06:05
The first was just the screen.
139
365260
2000
הראשונה היתה מסך בלבד
06:07
This is just like video conferencing today.
140
367260
3000
כך שזה בדיוק כמו ועידת-וידאו היום.
06:10
The next was to add mobility -- so, have the screen on a mobile base.
141
370260
3000
בשניה הוספנו יכולת תנועה, כך שהיה לנו מסך מוצב על בסיס מתנייע
06:13
This is like, if you're familiar with any of the telepresence robots today --
142
373260
3000
זה כמו, אם אתם מכירים את טכנולוגית המציאות-מרחוק של היום
06:16
this is mirroring that situation.
143
376260
3000
חיקינו את המצב הזה
06:19
And then the fully expressive MeBot.
144
379260
2000
ולבסוף, בוט-אני עם יכולות ההבעה המלאות שלו
06:21
So after the interaction,
145
381260
2000
וכך, לאחר האינטראקציה
06:23
we asked people to rate their quality of interaction
146
383260
3000
ביקשנו מהאנשים לדרג את חווית התקשורת
06:26
with the technology, with a remote collaborator
147
386260
2000
בעזרת הטכנולוגיה, עם המשתתף המרוחק
06:28
through this technology, in a number of different ways.
148
388260
3000
דרך טכנולוגיה מסוימת זו, במספר דרכים שונות.
06:31
We looked at psychological involvement --
149
391260
2000
בדקנו מעורבות פסיכולוגית --
06:33
how much empathy did you feel for the other person?
150
393260
2000
כמה אמפתיה הורגשה כלפי האדם השני?
06:35
We looked at overall engagement.
151
395260
2000
בדקנו מחויבות כוללת
06:37
We looked at their desire to cooperate.
152
397260
2000
בדקנו את הרצון שלהם לשתף פעולה
06:39
And this is what we see when they use just the screen.
153
399260
3000
וזה מה שראינו כשהמשתתפים השתמשו במסך בלבד.
06:42
It turns out, when you add mobility -- the ability to roll around the table --
154
402260
3000
מסתבר, כאשר אתה מוסיף יכולת תנועה - היכולת להתגלגל סביב לשולחן --
06:45
you get a little more of a boost.
155
405260
2000
מתקבלות תוצאות יותר גבוהות
06:47
And you get even more of a boost when you add the full expression.
156
407260
3000
והתוצאות עוד יותר גבוהות אם מוסיפים יכולת הבעה מלאה
06:50
So it seems like this physical, social embodiment
157
410260
2000
כך שנראה שהגילום הפיזי-חברתי הזה
06:52
actually really makes a difference.
158
412260
2000
באמת עושה הבדל
06:54
Now let's try to put this into a little bit of context.
159
414260
3000
עכשיו בואו ננסה לתת לזה הקשר
06:57
Today we know that families are living further and further apart,
160
417260
3000
אנחנו יודעים שכיום בני המשפחה יכולים לגור במרחק גדול אחד מהשני
07:00
and that definitely takes a toll on family relationships
161
420260
2000
וזה בהחלט גובה מחיר ממערכת היחסים המשפחתית
07:02
and family bonds over distance.
162
422260
2000
והקשר המשפחתי מעבר למרחק גדול
07:04
For me, I have three young boys,
163
424260
2000
לי לדוגמא, יש שלושה בנים צעירים,
07:06
and I want them to have a really good relationship
164
426260
2000
ואני רוצה שיהיה להם קשר טוב מאוד
07:08
with their grandparents.
165
428260
2000
עם הסבים והסבתות שלהם
07:10
But my parents live thousands of miles away,
166
430260
2000
אבל הורי גרים במרחק אלפי קילומטרים
07:12
so they just don't get to see each other that often.
167
432260
2000
כך שאין להם הרבה הזדמנויות להפגש בתדירות גבוהה
07:14
We try Skype, we try phone calls,
168
434260
2000
ניסינו סקייפ, ניסינו שיחות טלפון,
07:16
but my boys are little -- they don't really want to talk;
169
436260
2000
אבל הבנים שלי קטנים, הם לא רוצים לדבר
07:18
they want to play.
170
438260
2000
הם רוצים לשחק.
07:20
So I love the idea of thinking about robots
171
440260
2000
לכן אני אוהבת את הרעיון של לחשוב על רובוטים
07:22
as a new kind of distance-play technology.
172
442260
3000
כטכנולוגיה חדשה למשחק-מרחוק
07:25
I imagine a time not too far from now --
173
445260
3000
אני מדמיינת שלא כך כך רחוק בעתיד --
07:28
my mom can go to her computer,
174
448260
2000
אמא שלי תוכל לגשת למחשב שלה,
07:30
open up a browser and jack into a little robot.
175
450260
2000
לפתוח דפדפן אינטרנט, ולהתחבר לרובוט קטן
07:32
And as grandma-bot,
176
452260
3000
ואז, כ"סבתא-בוט"
07:35
she can now play, really play,
177
455260
2000
היא יכולה לשחק, באמת לשחק
07:37
with my sons, with her grandsons,
178
457260
2000
עם הבנים שלי, הנכדים שלה.
07:39
in the real world with his real toys.
179
459260
3000
בעולם האמיתי, עם הצעצועים האמיתיים שלו
07:42
I could imagine grandmothers being able to do social-plays
180
462260
2000
אני יכולה לדמיין סבתות יכולת לשחק משחקי חברה
07:44
with their granddaughters, with their friends,
181
464260
2000
עם הנכדות שלהן, עם החברות שלהן,
07:46
and to be able to share all kinds of other activities around the house,
182
466260
2000
ולחלוק כל מיני סוגים של פעילויות אחרות בבית
07:48
like sharing a bedtime story.
183
468260
2000
כגון לחלוק סיפור-לפני-השינה
07:50
And through this technology,
184
470260
2000
ובאמצעות הטכנולוגיה הזו,
07:52
being able to be an active participant
185
472260
2000
להיות מסוגלים לקחת חלק פעיל
07:54
in their grandchildren's lives
186
474260
2000
בחיי הנכדים שלהם
07:56
in a way that's not possible today.
187
476260
2000
בדרכים שלא אפשריות כיום
07:58
Let's think about some other domains,
188
478260
2000
בואו נחשוב על תחומים אחרים
08:00
like maybe health.
189
480260
2000
כמו למשל, בריאות.
08:02
So in the United States today,
190
482260
2000
כיום, בארה"ב,
08:04
over 65 percent of people are either overweight or obese,
191
484260
3000
מעל 65% מהאנשים סובלים מעודף משקל או השמנת יתר
08:07
and now it's a big problem with our children as well.
192
487260
2000
וכעת זו בעייה גדולה גם עבור ילדינו.
08:09
And we know that as you get older in life,
193
489260
2000
ואנחנו יודעים שככל שאתה מתבגר
08:11
if you're obese when you're younger, that can lead to chronic diseases
194
491260
3000
אם היית בעל משקל עודף בילדותך, אתה חשוף למחלות כרוניות
08:14
that not only reduce your quality of life,
195
494260
2000
שלא רק מפחיתות מרמת החיים
08:16
but are a tremendous economic burden on our health care system.
196
496260
3000
אלא גורמות לנטל כלכלי עצום על מערכות הבריאות שלנו
08:19
But if robots can be engaging,
197
499260
2000
אבל אם רובוטים יוכלו להיות מקסימים,
08:21
if we like to cooperate with robots,
198
501260
2000
אם נרצה לשתף פעולה עם רובוטים,
08:23
if robots are persuasive,
199
503260
2000
אם רובוטים יהיו משכנעים,
08:25
maybe a robot can help you
200
505260
2000
אולי רובוט יוכל לעזור לך
08:27
maintain a diet and exercise program,
201
507260
2000
לשמור על דיאטה ותוכנית אימון,
08:29
maybe they can help you manage your weight.
202
509260
3000
אולי הם יוכלו לעזור לך לשמור על משקלך.
08:32
Sort of like a digital Jiminy --
203
512260
2000
הם יהיו כמו "ג'ימיני הצרצר" דיגיטאלי --
08:34
as in the well-known fairy tale --
204
514260
2000
כמו בפינוקיו --
08:36
a kind of friendly, supportive presence that's always there
205
516260
2000
סוג של חבר תומך שתמיד נמצא שם
08:38
to be able to help you make the right decision
206
518260
2000
לעזור לך לקבל את ההחלטה הנכונה
08:40
in the right way at the right time
207
520260
2000
בדרך הנכונה, בזמן הנכון,
08:42
to help you form healthy habits.
208
522260
2000
לעזור לך ליצור הרגלים בריאים.
08:44
So we actually explored this idea in our lab.
209
524260
2000
אנחנו יכולים לחקור רעיונות אלו במעבדה.
08:46
This is a robot, Autom.
210
526260
2000
זהו הרובוט "אוטום" (סתיו)
08:48
Cory Kidd developed this robot for his doctoral work.
211
528260
3000
קורי קיד פיתח את הרובוט הזה במהלך עבודת הדוקטורט שלו
08:51
And it was designed to be a robot diet-and-exercise coach.
212
531260
3000
וזה תוכנן להיות רובוט-מאמן לדיאטה ותירגול
08:54
It had a couple of simple non-verbal skills it could do.
213
534260
2000
יש לזה מספר מיומנויות לא-מילוליות שביכולתו לבצע.
08:56
It could make eye contact with you.
214
536260
2000
זה יוצר קשר עין אתך.
08:58
It could share information looking down at a screen.
215
538260
2000
זה יכול לחלוק מידע באמצעות מסך.
09:00
You'd use a screen interface to enter information,
216
540260
2000
אתה יכול להשתמש במסך ממשק על מנת להזין אינפורמציה
09:02
like how many calories you ate that day,
217
542260
2000
כגון כמה קלוריות אכלת היום,
09:04
how much exercise you got.
218
544260
2000
כמה תרגילי כושר ביצעת.
09:06
And then it could help track that for you.
219
546260
2000
וזה יכול לעזור לעקוב אחרי זה בעבורך.
09:08
And the robot spoke with a synthetic voice
220
548260
2000
והרובוט מדבר באמצעות קול סינטטי
09:10
to engage you in a coaching dialogue
221
550260
2000
ויוצר דיאלוג של אימון (קואצ'ינג)
09:12
modeled after trainers
222
552260
2000
שעוצב על ידי מאמנים
09:14
and patients and so forth.
223
554260
2000
ופציינטים וכולי.
09:16
And it would build a working alliance with you
224
556260
2000
והוא יבנה יחסי עבודה איתך
09:18
through that dialogue.
225
558260
2000
דרך הדיאלוג הזה
09:20
It could help you set goals and track your progress,
226
560260
2000
הוא יכול לעזור לך להשיג מטרות ולעקוב אחרי התקדמותך
09:22
and it would help motivate you.
227
562260
2000
והוא יכול לדרבן אותך
09:24
So an interesting question is,
228
564260
2000
וכך, שאלה מעניינת היא
09:26
does the social embodiment really matter? Does it matter that it's a robot?
229
566260
3000
האם ההתחברות החברתית באמת משנה? האם זה משנה שמדובר ברובוט?
09:29
Is it really just the quality of advice and information that matters?
230
569260
3000
האם מדובר רק באיכות היעוץ והמידע שמשנה?
09:32
To explore that question,
231
572260
2000
כדי לפתור את השאלה הזו
09:34
we did a study in the Boston area
232
574260
2000
ביצענו מחקר באיזור בוסטון
09:36
where we put one of three interventions in people's homes
233
576260
3000
שמנו אחת משלוש שיטות אימון בבתים של אנשים
09:39
for a period of several weeks.
234
579260
2000
לתקופה של מספר שבועות
09:41
One case was the robot you saw there, Autom.
235
581260
3000
במקרה הראשון השארנו את הרובוט שראיתם, "אוטום".
09:44
Another was a computer that ran the same touch-screen interface,
236
584260
3000
במקרה אחר שמנו מחשב שהריץ בדיוק את אותה תוכנת ממשק של מסך-מגע
09:47
ran exactly the same dialogues.
237
587260
2000
הריץ בדיוק את אותם דיאלוגים
09:49
The quality of advice was identical.
238
589260
2000
האיכות של היעוץ היתה זהה
09:51
And the third was just a pen and paper log,
239
591260
2000
והשלישית היתה יומן רגיל, מנייר, ועפרון
09:53
because that's the standard intervention you typically get
240
593260
2000
מכיוון שזו השיטה הרגילה שבה משתמשים
09:55
when you start a diet-and-exercise program.
241
595260
3000
כשאתה מתחיל דיאטה ותוכנית אימונים
09:58
So one of the things we really wanted to look at
242
598260
3000
אחד הדברים שבאמת רצינו להבין
10:01
was not how much weight people lost,
243
601260
3000
לא היה כמה משקל אנשים איבדו
10:04
but really how long they interacted with the robot.
244
604260
3000
אלא למשך כמה זמן הם תיקשרו עם הרובוט
10:07
Because the challenge is not losing weight, it's actually keeping it off.
245
607260
3000
מכיוון שהאתגר הוא לא לרדת במשקל, אלא לשמור את המשקל נמוך.
10:10
And the longer you could interact with one of these interventions,
246
610260
3000
וככל שאתה ממשיך להשתמש באחת השיטות הללו
10:13
well that's indicative, potentially, of longer-term success.
247
613260
3000
זו אינדיקציה, באופן פוטנציאלי, להצלחה לטווח ארוך יותר
10:16
So the first thing I want to look at is how long,
248
616260
2000
כך שהדבר הראשון שרצינו לדעת הוא לכמה זמן
10:18
how long did people interact with these systems.
249
618260
2000
כמה זמן, אנשים השתמשו במערכות הללו.
10:20
It turns out that people interacted with the robot
250
620260
2000
התברר שאנשים תקשרו עם הרובוט
10:22
significantly more,
251
622260
2000
יותר, באופן משמעותי
10:24
even though the quality of the advice was identical to the computer.
252
624260
3000
למרות שהאיכות של היעוץ היתה זהה לאיכות שהמחשב סיפק
10:28
When it asked people to rate it on terms of the quality of the working alliance,
253
628260
3000
כשהתבקשו לדרג את השיטה במונחים של איכות קשר העבודה
10:31
people rated the robot higher
254
631260
2000
אנשים דירגו את הרובוט גבוה יותר
10:33
and they trusted the robot more.
255
633260
2000
והם בטחו ברובוט יותר
10:35
(Laughter)
256
635260
2000
(צחוק)
10:37
And when you look at emotional engagement,
257
637260
2000
וכשבודקים מעורבות רגשית
10:39
it was completely different.
258
639260
2000
זה היה שונה לגמרי
10:41
People would name the robots.
259
641260
2000
אנשים נתנו לרובוט שם
10:43
They would dress the robots.
260
643260
2000
הלבישו את הרובוט
10:45
(Laughter)
261
645260
2000
(צחוק)
10:47
And even when we would come up to pick up the robots at the end of the study,
262
647260
3000
ולפעמים, כשבאנו לאסוף את הרובוט בסוף המחקר,
10:50
they would come out to the car and say good-bye to the robots.
263
650260
2000
אנשים יצאו איתנו לרכב ואמרו שלום לרובוטים.
10:52
They didn't do this with a computer.
264
652260
2000
הם לא עשו את זה במקרה של המחשב.
10:54
The last thing I want to talk about today
265
654260
2000
הדבר האחרון שעליו אני רוצה לדבר היום
10:56
is the future of children's media.
266
656260
2000
הוא עתיד תקשורת ההמונים לילדים
10:58
We know that kids spend a lot of time behind screens today,
267
658260
3000
אנחנו יודעים שהיום ילדים מבלים זמן רב מאחורי מסכים
11:01
whether it's television or computer games or whatnot.
268
661260
3000
בין אם מדובר בטלויזיה או משחקי מחשב ומה לא.
11:04
My sons, they love the screen. They love the screen.
269
664260
3000
הבנים שלי אוהבים את המסך. אוהבים את המסך
11:07
But I want them to play; as a mom, I want them to play,
270
667260
3000
אבל אני רוצה שהם ישחקו, כאמא אני רוצה שהם ישחקו
11:10
like, real-world play.
271
670260
2000
במשחקים בעולם האמיתי
11:12
And so I have a new project in my group I wanted to present to you today
272
672260
3000
וכך יש לנו בקבוצה מיזם חדש שאותו אני רוצה להציג בפניכם היום
11:15
called Playtime Computing
273
675260
2000
שנקרא מחשב למשחק
11:17
that's really trying to think about how we can take
274
677260
2000
זהו נסיון לחשוב באמת
11:19
what's so engaging about digital media
275
679260
2000
מה כל כך מושך במדיה הדיגיאלית
11:21
and literally bring it off the screen
276
681260
2000
ובאופן מילולי "להוציא את זה מהמסך",
11:23
into the real world of the child,
277
683260
2000
ולהביא את זה לעולם האמיתי של הילד.
11:25
where it can take on many of the properties of real-world play.
278
685260
3000
שבו זה יוכל לקחת הרבה מהתכונות של משחק אמיתי בעולם האמיתי
11:29
So here's the first exploration of this idea,
279
689260
4000
וכך, הנה הנסיון הראשון לחקור רעיון זה
11:33
where characters can be physical or virtual,
280
693260
3000
בו הדמויות יכולות להיות פיזיות או וירטואליות
11:36
and where the digital content
281
696260
2000
ובו התוכן הדיגיטאלי
11:38
can literally come off the screen
282
698260
2000
יכול, באופן מילולי, לצאת מהמסך
11:40
into the world and back.
283
700260
2000
לעולם ובחזרה
11:42
I like to think of this
284
702260
2000
אני אוהבת לחשוב על זה
11:44
as the Atari Pong
285
704260
2000
כ"אטארי פונג"
11:46
of this blended-reality play.
286
706260
2000
של המשחק מערב המציאות הזה
11:48
But we can push this idea further.
287
708260
2000
אבל אנחנו יכולים לדחוף את הרעיון הזה יותר רחוק
11:50
What if --
288
710260
2000
מה אם ---
11:52
(Game) Nathan: Here it comes. Yay!
289
712260
3000
(משחק) נתן: הנה זה בא... ואי!
11:55
CB: -- the character itself could come into your world?
290
715260
3000
סינתיה: -- הדמות עצמה יכולה לבוא לעולם שלך?
11:58
It turns out that kids love it
291
718260
2000
מתברר שהילדים אוהבים את זה
12:00
when the character becomes real and enters into their world.
292
720260
3000
כשהדמות הופכת להיות אמיתית ונכנסת לעולם שלהם
12:03
And when it's in their world,
293
723260
2000
וכאשר הדמות בעולם שלהם
12:05
they can relate to it and play with it in a way
294
725260
2000
הם יכולים להתיחס אליה ולשחק איתה בדרך
12:07
that's fundamentally different from how they play with it on the screen.
295
727260
2000
שהיא שונה באופן מהותי מדרך המשחק איתה כשהיא במסך
12:09
Another important idea is this notion
296
729260
2000
עוד רעיון חשוב הוא העניין
12:11
of persistence of character across realities.
297
731260
3000
של קיום דמות בכמה מציאויות.
12:14
So changes that children make in the real world
298
734260
2000
כך ששינוים שהילד מבצע בעולם האמיתי
12:16
need to translate to the virtual world.
299
736260
2000
מתורגמים לעולם הוירטואלי.
12:18
So here, Nathan has changed the letter A to the number 2.
300
738260
3000
כאן, נתן שינה את האות A למספר 2
12:21
You can imagine maybe these symbols
301
741260
2000
אתם יכולים לדמיין שאולי הסמלים הללו
12:23
give the characters special powers when it goes into the virtual world.
302
743260
3000
מעניקים לדמויות כוחות מיוחדים כאשר הם נמצאים בעולם הוירטואלי
12:26
So they are now sending the character back into that world.
303
746260
3000
כך שעכשיו הם שולחים את הדמות חזרה לעולם הזה
12:29
And now it's got number power.
304
749260
3000
וכעת יש לה כוח של מספר.
12:32
And then finally, what I've been trying to do here
305
752260
2000
ולבסוף, מה שניסיתי לעשות כאן
12:34
is create a really immersive experience for kids,
306
754260
3000
זה להעניק לילדים התנסות שאפשר ממש לשקוע בה
12:37
where they really feel like they are part of that story,
307
757260
3000
כך שהם ממש מרגישים כאילו הם חלק מהסיפור
12:40
a part of that experience.
308
760260
2000
חלק מההתנסות.
12:42
And I really want to spark their imaginations
309
762260
2000
ואני ממש רוצה להצית את הדמיון שלהם
12:44
the way mine was sparked as a little girl watching "Star Wars."
310
764260
3000
כמו שהדמיון שלי ניצת כשהיתי ילדה קטנה וצפיתי ב"מלחמת הכוכבים."
12:47
But I want to do more than that.
311
767260
2000
אבל אני רוצה לעשות יותר מכך
12:49
I actually want them to create those experiences.
312
769260
3000
אני רוצה שהם ייצרו את ההתנסויות האלו
12:52
I want them to be able to literally build their imagination
313
772260
2000
אני רוצה שהם יוכלו ממש לבנות את הדמיון שלהם
12:54
into these experiences and make them their own.
314
774260
2000
לתוך ההתנסויות האלו, להפוך אותם לשלהם.
12:56
So we've been exploring a lot of ideas
315
776260
2000
כך שאחנו חקרנו רעיונות רבים
12:58
in telepresence and mixed reality
316
778260
2000
בנוכחות-מרחוק וערבוב מציאויות
13:00
to literally allow kids to project their ideas into this space
317
780260
3000
כדי לאפשר לילדים להקרין את הרעיונות שלהם לתוך החלל הזה
13:03
where other kids can interact with them
318
783260
2000
שבו ילדים אחרים יוכלו להגיב איתם
13:05
and build upon them.
319
785260
2000
ולבנות עליהם.
13:07
I really want to come up with new ways of children's media
320
787260
3000
אני ממש רוצה לבוא עם רעיונות שונים למדיה לילדים
13:10
that foster creativity and learning and innovation.
321
790260
3000
שמעודדת יצירתיות, למידה וחדשנות
13:13
I think that's very, very important.
322
793260
3000
אני חושבת שזה מאוד, מאוד חשוב
13:16
So this is a new project.
323
796260
2000
כך שזה מיזם חדש.
13:18
We've invited a lot of kids into this space,
324
798260
2000
הזמנו הרבה ילדים לחלל הזה
13:20
and they think it's pretty cool.
325
800260
3000
והם חושבים שזה די "קול"
13:23
But I can tell you, the thing that they love the most
326
803260
2000
אבל אני יכולה להגיד לכם, שהדבר שהם הכי אוהבים
13:25
is the robot.
327
805260
2000
הוא הרובוט
13:27
What they care about is the robot.
328
807260
3000
מה שאכפת להם ממנו הוא הרובוט.
13:30
Robots touch something deeply human within us.
329
810260
3000
רובוטים נוגעים במשהו עמוק באנושיות שלנו
13:33
And so whether they're helping us
330
813260
2000
וכך, בין שהם עוזרים לנו
13:35
to become creative and innovative,
331
815260
2000
להיות יצירתיים וחדשניים,
13:37
or whether they're helping us
332
817260
2000
או שהם עוזרים לנו
13:39
to feel more deeply connected despite distance,
333
819260
2000
להרגיש מחוברים יותר למרות המרחק,
13:41
or whether they are our trusted sidekick
334
821260
2000
או שהם עוזרים נאמנים
13:43
who's helping us attain our personal goals
335
823260
2000
שעוזרים לנו להשיג את מטרותינו האישיות
13:45
in becoming our highest and best selves,
336
825260
2000
להיות הכי טובים שאפשר,
13:47
for me, robots are all about people.
337
827260
3000
עבורי, רובוטים קשורים לאנשים.
13:50
Thank you.
338
830260
2000
תודה.
13:52
(Applause)
339
832260
5000
(מחיאות כפיים)
על אתר זה

אתר זה יציג בפניכם סרטוני YouTube המועילים ללימוד אנגלית. תוכלו לראות שיעורי אנגלית המועברים על ידי מורים מהשורה הראשונה מרחבי העולם. לחץ פעמיים על הכתוביות באנגלית המוצגות בכל דף וידאו כדי להפעיל את הסרטון משם. הכתוביות גוללות בסנכרון עם הפעלת הווידאו. אם יש לך הערות או בקשות, אנא צור איתנו קשר באמצעות טופס יצירת קשר זה.

https://forms.gle/WvT1wiN1qDtmnspy7