The Rise of Personal Robots | Cynthia Breazeal | TED Talks

Cynthia Breazeal: Der Aufstieg der persönlichen Roboter

159,450 views

2011-02-08 ・ TED


New videos

The Rise of Personal Robots | Cynthia Breazeal | TED Talks

Cynthia Breazeal: Der Aufstieg der persönlichen Roboter

159,450 views ・ 2011-02-08

TED


Bitte doppelklicken Sie auf die englischen Untertitel unten, um das Video abzuspielen.

Übersetzung: Simone Lackerbauer Lektorat: Alex Boos
00:15
Ever since I was a little girl
0
15260
3000
Schon als ich noch ein kleines Mädchen war
00:18
seeing "Star Wars" for the first time,
1
18260
2000
und zum ersten Mal „Star Wars“ sah,
00:20
I've been fascinated by this idea
2
20260
2000
war ich von einer Idee fasziniert,
00:22
of personal robots.
3
22260
2000
nämlich von den persönlichen Robotern.
00:24
And as a little girl,
4
24260
2000
Und als ein kleines Mädchen
00:26
I loved the idea of a robot that interacted with us
5
26260
2000
gefiel mir die Idee eines Roboters, der mit uns interagieren würde,
00:28
much more like a helpful, trusted sidekick --
6
28260
3000
vielmehr wie ein hilfreicher, vertrauter Kumpel –
00:31
something that would delight us, enrich our lives
7
31260
2000
etwas, das uns entzücken würde, unser Leben bereichern würde
00:33
and help us save a galaxy or two.
8
33260
3000
und uns dabei helfen würde, die eine oder andere Galaxie zu retten.
00:37
I knew robots like that didn't really exist,
9
37260
3000
Ich wusste also, dass solche Roboter nicht wirklich existierten,
00:40
but I knew I wanted to build them.
10
40260
2000
aber ich wusste, dass ich sie bauen wollte.
00:42
So 20 years pass --
11
42260
2000
Und so vergehen 20 Jahre –
00:44
I am now a graduate student at MIT
12
44260
2000
ich bin nun Studentin im Aufbaustudium am MIT,
00:46
studying artificial intelligence,
13
46260
2000
studiere künstliche Intelligenz,
00:48
the year is 1997,
14
48260
2000
wir schreiben das Jahr 1997
00:50
and NASA has just landed the first robot on Mars.
15
50260
3000
und die Nasa hat gerade den ersten Roboter auf den Mars gebracht.
00:53
But robots are still not in our home, ironically.
16
53260
3000
Aber ironischerweise gibt es in unserem Zuhause immer noch keine Roboter.
00:56
And I remember thinking about
17
56260
2000
Und ich erinnere mich daran, über all die Gründe
00:58
all the reasons why that was the case.
18
58260
2000
nachgedacht zu haben, warum das der Fall war.
01:00
But one really struck me.
19
60260
2000
Aber einer davon ist mir sofort aufgefallen.
01:02
Robotics had really been about interacting with things,
20
62260
3000
Bei der Robotertechnik war es immer darum gegangen, mit Dingen zu interagieren,
01:05
not with people --
21
65260
2000
nicht mit Menschen –
01:07
certainly not in a social way that would be natural for us
22
67260
2000
mit Sicherheit nicht auf eine soziale Art, die natürlich für uns wäre
01:09
and would really help people accept robots
23
69260
2000
und den Menschen wirklich dabei helfen würde, Roboter zu akzeptieren
01:11
into our daily lives.
24
71260
2000
als Bestandteil unseres täglichen Lebens.
01:13
For me, that was the white space; that's what robots could not do yet.
25
73260
3000
Für mich war das der Leerraum, das war es, was Roboter noch nicht tun konnten.
01:16
And so that year, I started to build this robot, Kismet,
26
76260
3000
In diesem Jahr also begann ich diesen Roboter zu bauen, Kismet,
01:19
the world's first social robot.
27
79260
3000
den ersten sozialen Roboter der Welt
01:22
Three years later --
28
82260
2000
Drei Jahre später also –
01:24
a lot of programming,
29
84260
2000
nach viel Programmierarbeit,
01:26
working with other graduate students in the lab --
30
86260
2000
während der ich mit anderen Studenden im Labor zusammenarbeitete –
01:28
Kismet was ready to start interacting with people.
31
88260
2000
war Kismet dazu bereit, mit Menschen zu interagieren.
01:30
(Video) Scientist: I want to show you something.
32
90260
2000
(Video) Wissenschaftler: Ich möchte dir etwas zeigen.
01:32
Kismet: (Nonsense)
33
92260
2000
Kismet: (Unsinn).
01:34
Scientist: This is a watch that my girlfriend gave me.
34
94260
3000
Wissenschaftler: Das ist die Uhr, die meine Freundin mir geschenkt hat.
01:37
Kismet: (Nonsense)
35
97260
2000
Kismet: (Unsinn).
01:39
Scientist: Yeah, look, it's got a little blue light in it too.
36
99260
2000
Wissenschaftler: Hier, sieh mal, da leuchtet auch ein kleines blaues Licht.
01:41
I almost lost it this week.
37
101260
3000
Ich habe sie diese Woche beinahe verloren.
01:44
Cynthia Breazeal: So Kismet interacted with people
38
104260
3000
Cynthia Breazeal: Kismet interagierte also mit Menschen,
01:47
like kind of a non-verbal child or pre-verbal child,
39
107260
3000
wie ein Kind ohne Worte, oder bevor es Worte lernt
01:50
which I assume was fitting because it was really the first of its kind.
40
110260
3000
und ich denke, dass das gut passte, denn er war wirklich der erste seiner Art.
01:53
It didn't speak language, but it didn't matter.
41
113260
2000
Er beherrschte keine Sprache, aber das machte nichts.
01:55
This little robot was somehow able
42
115260
2000
Irgendwie gelang es diesem kleinen Roboter
01:57
to tap into something deeply social within us --
43
117260
3000
Eine tief in uns verwurzelte, soziale Ebene anzuzapfen.
02:00
and with that, the promise of an entirely new way
44
120260
2000
Und damit das Versprechen einer ganz neuen Art und Weise,
02:02
we could interact with robots.
45
122260
2000
wie wir mit Robotern interagieren könnten.
02:04
So over the past several years
46
124260
2000
Während der letzten sieben Jahre
02:06
I've been continuing to explore this interpersonal dimension of robots,
47
126260
2000
fuhr ich damit fort, diese zwischenmenschliche Dimension der Roboter zu erforschen,
02:08
now at the media lab
48
128260
2000
nun im Media Lab
02:10
with my own team of incredibly talented students.
49
130260
2000
mit meinem eigenen Team unglaublich talentierter Studenten.
02:12
And one of my favorite robots is Leonardo.
50
132260
3000
Und einer meiner liebsten Roboter ist Leonardo.
02:15
We developed Leonardo in collaboration with Stan Winston Studio.
51
135260
3000
Wir haben Leonardo in Zusammenarbeit mit dem Stan Winston Studio entwickelt.
02:18
And so I want to show you a special moment for me of Leo.
52
138260
3000
Und ich möchte Ihnen einen für mich ganz besonderen Moment von Leo zeigen.
02:21
This is Matt Berlin interacting with Leo,
53
141260
2000
Das ist Matt Berlin, der mit Leo interagiert,
02:23
introducing Leo to a new object.
54
143260
2000
Leo mit einem neuen Objekt vertraut macht.
02:25
And because it's new, Leo doesn't really know what to make of it.
55
145260
3000
Und weil es neu ist, weiß Leo noch nichts Rechtes damit anzufangen.
02:28
But sort of like us, he can actually learn about it
56
148260
2000
Aber so wie wir, kann er in gewisser Weise etwas darüber lernen,
02:30
from watching Matt's reaction.
57
150260
3000
indem er Matts Reaktion beobachtet.
02:33
(Video) Matt Berlin: Hello, Leo.
58
153260
2000
(Video) Matt Berlin: Hallo Leo.
02:38
Leo, this is Cookie Monster.
59
158260
3000
Leo, das ist das Krümelmonster.
02:44
Can you find Cookie Monster?
60
164260
3000
Kannst du das Krümelmonster finden?
02:52
Leo, Cookie Monster is very bad.
61
172260
3000
Leo, das Krümelmonster ist ganz böse.
02:56
He's very bad, Leo.
62
176260
2000
Es ist ganz böse, Leo.
03:00
Cookie Monster is very, very bad.
63
180260
3000
Das Krümelmonster ist ganz, ganz böse.
03:07
He's a scary monster.
64
187260
2000
Es ist ein gruseliges Monster.
03:09
He wants to get your cookies.
65
189260
2000
Es will deine Kekse stibitzen.
03:12
(Laughter)
66
192260
2000
(Gelächter)
03:14
CB: All right, so Leo and Cookie
67
194260
3000
CB: In Ordnung, also Leo und Krümelmonster
03:17
might have gotten off to a little bit of a rough start,
68
197260
2000
hatten wahrscheinlich einen schweren Start,
03:19
but they get along great now.
69
199260
3000
aber mittlerweile verstehen sie sich bestens.
03:22
So what I've learned
70
202260
2000
Was ich also gelernt habe,
03:24
through building these systems
71
204260
2000
indem ich diese Systeme konstruiert habe,
03:26
is that robots are actually
72
206260
2000
ist, dass Roboter tatsächlich
03:28
a really intriguing social technology,
73
208260
2000
eine wirklich verblüffende soziale Technologie sind.
03:30
where it's actually their ability
74
210260
2000
Dass sie tatsächlich die Fähigkeit besitzen,
03:32
to push our social buttons
75
212260
2000
uns auf einer sozialen Ebene anzusprechen
03:34
and to interact with us like a partner
76
214260
2000
und mit uns wie ein Partner zu interagieren;
03:36
that is a core part of their functionality.
77
216260
3000
all das ist Kernbestandteil ihrer Funktionalität.
03:39
And with that shift in thinking, we can now start to imagine
78
219260
2000
Und mit dieser Veränderung unserer Denkweise können wir nun damit beginnen,
03:41
new questions, new possibilities for robots
79
221260
3000
uns neue Fragen und neue Möglichkeiten für Roboter vorzustellen,
03:44
that we might not have thought about otherwise.
80
224260
3000
über die wir sonst nicht nachgedacht hätten.
03:47
But what do I mean when I say "push our social buttons?"
81
227260
2000
Aber was meine ich damit, wenn ich sage, dass sie „uns auf einer sozialen Ebene ansprechen“?
03:49
Well, one of the things that we've learned
82
229260
2000
Nun, eines der Dinge, die wir gelernt haben
03:51
is that, if we design these robots to communicate with us
83
231260
2000
ist, dass wenn wir diese Roboter so designen, dass sie mit uns kommunizieren,
03:53
using the same body language,
84
233260
2000
indem sie dieselbe Körpersprache verwenden,
03:55
the same sort of non-verbal cues that people use --
85
235260
2000
dieselbe Art von nonverbalen Zeichen, die Menschen verwenden –
03:57
like Nexi, our humanoid robot, is doing here --
86
237260
3000
wie es unser humanoider Roboter Nexi hier zeigt –
04:00
what we find is that people respond to robots
87
240260
2000
dass wir dann sehen, dass die Menschen ähnlich auf Roboter reagieren,
04:02
a lot like they respond to people.
88
242260
2000
wie sie auf andere Menschen reagieren.
04:04
People use these cues to determine things like how persuasive someone is,
89
244260
3000
Menschen verwenden diese Zeichen, um beispielsweise zu bestimmen, wie überzeugend jemand ist,
04:07
how likable, how engaging,
90
247260
2000
wie sympathisch, wie einnehmend,
04:09
how trustworthy.
91
249260
2000
wie vertrauenswürdig.
04:11
It turns out it's the same for robots.
92
251260
2000
Es hat sich herausgestellt, dass das auch für Roboter gilt.
04:13
It's turning out now
93
253260
2000
Es stellt sich jetzt heraus,
04:15
that robots are actually becoming a really interesting new scientific tool
94
255260
3000
dass Roboter in der Tat zu einem wirklich interessanten neuen wissenschaftlichen Werkzeug werden,
04:18
to understand human behavior.
95
258260
2000
um menschliches Verhalten zu verstehen.
04:20
To answer questions like, how is it that, from a brief encounter,
96
260260
3000
Um Fragen zu beantworten, bespielsweise wie es sein kann, dass wir auf Basis einer kurzen Begegnung
04:23
we're able to make an estimate of how trustworthy another person is?
97
263260
3000
in der Lage dazu sind, einzuschätzen, wie vertrauenswürdig eine andere Person ist?
04:26
Mimicry's believed to play a role, but how?
98
266260
3000
Wir glauben, dass Mimikry dabei eine Rolle spielt, aber in welcher Form?
04:29
Is it the mimicking of particular gestures that matters?
99
269260
3000
Ist es das Nachahmen bestimmter Gesten, das den Ausschlag gibt?
04:32
It turns out it's really hard
100
272260
2000
Es stellt sich heraus, dass es wirklich schwer ist,
04:34
to learn this or understand this from watching people
101
274260
2000
das zu erlernen oder zu verstehen, wenn man Menschen beobachtet,
04:36
because when we interact we do all of these cues automatically.
102
276260
3000
denn wenn wir interagieren, dann verwenden wir all diese Zeichen automatisch.
04:39
We can't carefully control them because they're subconscious for us.
103
279260
2000
Wir können sie nicht zuverlässig kontrolleren, denn sie geschehen unbewusst für uns.
04:41
But with the robot, you can.
104
281260
2000
Aber mit einem Roboter ist das möglich.
04:43
And so in this video here --
105
283260
2000
In diesem Video hier also –
04:45
this is a video taken from David DeSteno's lab at Northeastern University.
106
285260
3000
dieses Video wurde in David DeStenos Labor an der Northeastern University aufgenommen.
04:48
He's a psychologist we've been collaborating with.
107
288260
2000
Er ist ein Psychologe, mit dem wir zusammengearbeitet haben.
04:50
There's actually a scientist carefully controlling Nexi's cues
108
290260
3000
Es gibt hier einen Wissenschaftler, der Nexis Zeichensprache sorgfältig kontrolliert,
04:53
to be able to study this question.
109
293260
3000
um diese Problematik untersuchen zu können.
04:56
And the bottom line is -- the reason why this works is
110
296260
2000
Und das Resultat lautet – der Grund, warum das funktioniert, ist –
04:58
because it turns out people just behave like people
111
298260
2000
weil es sich herausstellt, dass Menschen sich einfach wie Menschne verhalten,
05:00
even when interacting with a robot.
112
300260
3000
auch wenn sie mit einem Roboter interagieren.
05:03
So given that key insight,
113
303260
2000
Mit dieser Ausschlag gebenden Einsicht
05:05
we can now start to imagine
114
305260
2000
können wir jetzt damit beginnen,
05:07
new kinds of applications for robots.
115
307260
3000
uns neue Arten von Anwendungsgebieten für Roboter vorzustellen.
05:10
For instance, if robots do respond to our non-verbal cues,
116
310260
3000
Zum Beispiel, wenn Roboter auf unsere nonverbalen Zeichen reagieren,
05:13
maybe they would be a cool, new communication technology.
117
313260
4000
dann wären sie vielleicht eine coole, neue Kommunikationstechnologie.
05:17
So imagine this:
118
317260
2000
Stellen Sie sich also vor:
05:19
What about a robot accessory for your cellphone?
119
319260
2000
Wie wäre es mit einem Roboter-Accessoire für Ihr Handy?
05:21
You call your friend, she puts her handset in a robot,
120
321260
2000
Sie rufen Ihre Freundin an, sie platziert ihren Hörer in einem Roboter
05:23
and, bam! You're a MeBot --
121
323260
2000
und zack!, sind Sie ein MeBot –
05:25
you can make eye contact, you can talk with your friends,
122
325260
3000
Sie können Augenkontakt aufnehmen, Sie können mit Ihren Freunden sprechen
05:28
you can move around, you can gesture --
123
328260
2000
Sie können sich bewegen, Sie können gestikulieren –
05:30
maybe the next best thing to really being there, or is it?
124
330260
3000
vielleicht das Zweitbeste nach tatsächlicher Anwesenheit, oder?
05:33
To explore this question,
125
333260
2000
Um diese Problematik zu erforschen
05:35
my student, Siggy Adalgeirsson, did a study
126
335260
3000
hat mein Student Siggy Adalgeirsson eine Studie angefertigt,
05:38
where we brought human participants, people, into our lab
127
338260
3000
in der wir menschliche Teilnehmer, Leute, in unser Labor brachten,
05:41
to do a collaborative task
128
341260
2000
um eine gemeinschaftliche Aufgabe zu erledigen
05:43
with a remote collaborator.
129
343260
2000
mit einem Remote-Projektmitarbeiter.
05:45
The task involved things
130
345260
2000
Die Aufgabe beinhaltete Punkte
05:47
like looking at a set of objects on the table,
131
347260
2000
wie die Betrachtung einer Reihe an Gegenständen auf dem Tisch,
05:49
discussing them in terms of their importance and relevance to performing a certain task --
132
349260
3000
über die im Hinblick auf ihre Wichtigkeit und Relevanz zum Ausführen einer bestimmten Aufgabe diskutiert wurde –
05:52
this ended up being a survival task --
133
352260
2000
schlussendlich wurde das zu einer Überlebensaufgabe –
05:54
and then rating them in terms
134
354260
2000
und die sie dann bewerten sollten im Hinblick darauf,
05:56
of how valuable and important they thought they were.
135
356260
2000
wie wertvoll und wichtig sie ihrer Meinung nach waren.
05:58
The remote collaborator was an experimenter from our group
136
358260
3000
Der Remote-Projektmitarbeiter war ein Experimentator aus unserer Gruppe,
06:01
who used one of three different technologies
137
361260
2000
in der sie drei eine von drei verschiedenen Technologien verwendeten,
06:03
to interact with the participants.
138
363260
2000
um mit den Teilnehmern zu interagieren.
06:05
The first was just the screen.
139
365260
2000
Die erste war einfach nur der Bildschirm.
06:07
This is just like video conferencing today.
140
367260
3000
Ganz so wie die heutigen Videokonferenzen.
06:10
The next was to add mobility -- so, have the screen on a mobile base.
141
370260
3000
Im zweiten Schritt wurde Mobilität hinzugefügt, dabei befand sich der Bildschirm auf einer beweglichen Basis.
06:13
This is like, if you're familiar with any of the telepresence robots today --
142
373260
3000
Das ist so wie diese Telepräsenz-Roboter heute, wenn Sie die kennen –
06:16
this is mirroring that situation.
143
376260
3000
damit wurde so eine Situation widergespiegelt.
06:19
And then the fully expressive MeBot.
144
379260
2000
Und dann der vollständig ausdrucksfähige MeBot.
06:21
So after the interaction,
145
381260
2000
Nach diesem Experiment
06:23
we asked people to rate their quality of interaction
146
383260
3000
baten wir die Menschen, ihre Qualität der Interaktion zu bewerten
06:26
with the technology, with a remote collaborator
147
386260
2000
mit der Technologie, mit einem Remote-Projektmitarbeiter,
06:28
through this technology, in a number of different ways.
148
388260
3000
über diese Technologie auf verschiedene Arten.
06:31
We looked at psychological involvement --
149
391260
2000
Wir haben uns die psychologische Einbindung angesehen –
06:33
how much empathy did you feel for the other person?
150
393260
2000
wie viel Empathie haben Sie für die andere Person gefühlt?
06:35
We looked at overall engagement.
151
395260
2000
Wir haben uns das allgemeine Engagement angesehen.
06:37
We looked at their desire to cooperate.
152
397260
2000
Wir haben uns ihren Willen zu kooperieren angesehen.
06:39
And this is what we see when they use just the screen.
153
399260
3000
So sieht das aus, wenn sie nur den Bildschirm verwenden.
06:42
It turns out, when you add mobility -- the ability to roll around the table --
154
402260
3000
Es stellt sich heraus, dass wenn man Mobilität hinzufügt – die Fähigkeit, um den Tisch herum zu rollen –
06:45
you get a little more of a boost.
155
405260
2000
dass man dann einen etwas höheren Anstieg sieht.
06:47
And you get even more of a boost when you add the full expression.
156
407260
3000
Und man sieht sogar noch einen höheren Anstieg, wenn man die volle Ausdrucksstärke hinzufügt.
06:50
So it seems like this physical, social embodiment
157
410260
2000
Es scheint also, dass diese physische soziale Verkörperung
06:52
actually really makes a difference.
158
412260
2000
tatsächlich wirklich einen Unterschied macht.
06:54
Now let's try to put this into a little bit of context.
159
414260
3000
Versuchen wir nun also, das in einen gewissen Kontext einzubinden.
06:57
Today we know that families are living further and further apart,
160
417260
3000
Heute wissen wir, dass Familien immer weiter von einander entfernt leben
07:00
and that definitely takes a toll on family relationships
161
420260
2000
und das fordert definitiv seinen Tribut in Bezug auf die Beziehungen innerhalb der Familie
07:02
and family bonds over distance.
162
422260
2000
und die Zusammengehörigkeit der Familie über Distanz.
07:04
For me, I have three young boys,
163
424260
2000
Was mich angeht, ich habe drei Jungs
07:06
and I want them to have a really good relationship
164
426260
2000
und ich möchte, dass sie ein wirklich gutes Verhältnis
07:08
with their grandparents.
165
428260
2000
zu ihren Großeltern haben.
07:10
But my parents live thousands of miles away,
166
430260
2000
Aber meine Eltern leben Tausende von Meilen entfernt,
07:12
so they just don't get to see each other that often.
167
432260
2000
also sehen sie einander einfach nicht so oft.
07:14
We try Skype, we try phone calls,
168
434260
2000
Wir probieren es mit Skype, wir probieren es mit Telefonaten,
07:16
but my boys are little -- they don't really want to talk;
169
436260
2000
aber meine Jungs sind ein bisschen – sie wollen nicht wirklich reden,
07:18
they want to play.
170
438260
2000
sie wollen spielen.
07:20
So I love the idea of thinking about robots
171
440260
2000
Sie mögen diesen Gedanken, dass Roboter
07:22
as a new kind of distance-play technology.
172
442260
3000
eine neue Art von Spieletechnologie auf Distanz sind.
07:25
I imagine a time not too far from now --
173
445260
3000
Ich stelle mir also einen Moment vor, gar nicht so weit in der Zukunft –
07:28
my mom can go to her computer,
174
448260
2000
meine Mutter kann an ihren Computer gehen,
07:30
open up a browser and jack into a little robot.
175
450260
2000
einen Browser öffnen und sich in einen kleinen Roboter einklinken.
07:32
And as grandma-bot,
176
452260
3000
Und als Oma-Bot
07:35
she can now play, really play,
177
455260
2000
kann sie jetzt spielen, wirklich spielen
07:37
with my sons, with her grandsons,
178
457260
2000
mit meinen Söhnen, mit ihren Enkelsöhnen,
07:39
in the real world with his real toys.
179
459260
3000
in der realen Welt mit echtem Spielzeug.
07:42
I could imagine grandmothers being able to do social-plays
180
462260
2000
Ich kann mir vorstellen, dass Großmütter soziale Aktivitäten unternehmen können
07:44
with their granddaughters, with their friends,
181
464260
2000
mit ihren Enkeltöchtern, mit deren Freunden
07:46
and to be able to share all kinds of other activities around the house,
182
466260
2000
und alle möglichen Aktivitäten im Haus gemeinsam erleben können,
07:48
like sharing a bedtime story.
183
468260
2000
so als würde man eine Gutenachtgeschichte gemeinsam lesen.
07:50
And through this technology,
184
470260
2000
Und mit dieser Technologie
07:52
being able to be an active participant
185
472260
2000
können sie so zum aktiven Teilnehmer
07:54
in their grandchildren's lives
186
474260
2000
im Leben ihrer Enkelkinder werden,
07:56
in a way that's not possible today.
187
476260
2000
auf eine Weise, wie es heute nicht möglich ist.
07:58
Let's think about some other domains,
188
478260
2000
Denken wir einmal an ein paar andere Gebiete,
08:00
like maybe health.
189
480260
2000
Gesundheit zum Beispiel.
08:02
So in the United States today,
190
482260
2000
In den Vereinigten Staaten sind heute
08:04
over 65 percent of people are either overweight or obese,
191
484260
3000
über 65 Prozent der Menschen entweder übergewichtig oder fettleibig
08:07
and now it's a big problem with our children as well.
192
487260
2000
und das ist jetzt auch ein großes Problem bei unseren Kindern.
08:09
And we know that as you get older in life,
193
489260
2000
Und wir wissen, dass mit zunehmendem Alter
08:11
if you're obese when you're younger, that can lead to chronic diseases
194
491260
3000
die Tatsache, dass man als junger Mensch fettleibig war, zu chronischen Krankheiten führen kann,
08:14
that not only reduce your quality of life,
195
494260
2000
die nicht nur die Lebensqualität verringern,
08:16
but are a tremendous economic burden on our health care system.
196
496260
3000
sondern auch eine unvorstellbare wirtschaftliche Belastung unseres Gesundheitssystems darstellen.
08:19
But if robots can be engaging,
197
499260
2000
Aber wenn Roboter zum Mitmachen anregen,
08:21
if we like to cooperate with robots,
198
501260
2000
wenn wir gern mit Robotern zusammenarbeiten,
08:23
if robots are persuasive,
199
503260
2000
wenn Roboter überzeugend sind,
08:25
maybe a robot can help you
200
505260
2000
dann kann ein Roboter einem vielleicht dabei helfen,
08:27
maintain a diet and exercise program,
201
507260
2000
eine Diät und ein Sportprogramm aufrechtzuerhalten,
08:29
maybe they can help you manage your weight.
202
509260
3000
vielleicht kann er einem dabei helfen, sein Gewicht zu managen.
08:32
Sort of like a digital Jiminy --
203
512260
2000
So in etwa wie ein digitaler Jiminy Grille –
08:34
as in the well-known fairy tale --
204
514260
2000
aus dem allseits bekannten Märchen –
08:36
a kind of friendly, supportive presence that's always there
205
516260
2000
eine Art freundlicher Unterstützer, der stets da ist,
08:38
to be able to help you make the right decision
206
518260
2000
um einem dabei zu helfen, die richtige Entscheidung zu treffen,
08:40
in the right way at the right time
207
520260
2000
auf die richtige Art, zur richtigen Zeit,
08:42
to help you form healthy habits.
208
522260
2000
um einem dabei zu helfen, sich gesunde Gewohnheiten zuzulegen.
08:44
So we actually explored this idea in our lab.
209
524260
2000
Wir haben diese Idee dann tatsächlich in unserem Labor erforscht.
08:46
This is a robot, Autom.
210
526260
2000
Das ist ein Roboter namens Autom.
08:48
Cory Kidd developed this robot for his doctoral work.
211
528260
3000
Cory Kidd hat diesen Roboter für seine Doktorarbeit entwickelt.
08:51
And it was designed to be a robot diet-and-exercise coach.
212
531260
3000
Und er war als Roboter-Coach für Diät und Sport erschaffen worden.
08:54
It had a couple of simple non-verbal skills it could do.
213
534260
2000
Er hatte ein paar einfache, nonverbale Fähigkeiten, die er ausführen konnte.
08:56
It could make eye contact with you.
214
536260
2000
Er konnte Augenkontakt mit einem aufnehmen.
08:58
It could share information looking down at a screen.
215
538260
2000
Er konnte Informationen mitteilen, indem er auf einen Bildschirm sah.
09:00
You'd use a screen interface to enter information,
216
540260
2000
Man konnte ein Bildschirm-Interface verwenden, um Informationen einzugeben,
09:02
like how many calories you ate that day,
217
542260
2000
wie viele Kalorien man beispielsweise an diesem Tag gegessen hatte,
09:04
how much exercise you got.
218
544260
2000
wie viel Sport man getrieben hatte.
09:06
And then it could help track that for you.
219
546260
2000
Und dann konnte er einem dabei helfen, das für einen nachzuverfolgen.
09:08
And the robot spoke with a synthetic voice
220
548260
2000
Der Roboter sprach mit einer künstlichen Stimme,
09:10
to engage you in a coaching dialogue
221
550260
2000
um einen in ein Beratungsgespräch zu verwickeln,
09:12
modeled after trainers
222
552260
2000
entwickelt auf Basis von Trainern
09:14
and patients and so forth.
223
554260
2000
und Patienten undsoweiter.
09:16
And it would build a working alliance with you
224
556260
2000
Und er konnte eine stabile Verbindung mit einemeingehen
09:18
through that dialogue.
225
558260
2000
über diesen Dialog.
09:20
It could help you set goals and track your progress,
226
560260
2000
Er konnte einem dabei Helfen, Ziele zu setzen und den Fortschritt nachzuverfolgen
09:22
and it would help motivate you.
227
562260
2000
und würde dabei helfen, einen zu motivieren.
09:24
So an interesting question is,
228
564260
2000
Eine interessante Frage ist also,
09:26
does the social embodiment really matter? Does it matter that it's a robot?
229
566260
3000
ob die soziale Verkörperung wirklich von Bedeutung ist. Ist es von Bedeutung, dass es sich um einen Roboter handelt?
09:29
Is it really just the quality of advice and information that matters?
230
569260
3000
Ist es wirklich nur die Qualität der Beratung und Information, die von Bedeutung ist?
09:32
To explore that question,
231
572260
2000
Um diese Frage zu beantworten,
09:34
we did a study in the Boston area
232
574260
2000
haben wir eine Studie in Boston durchgeführt,
09:36
where we put one of three interventions in people's homes
233
576260
3000
bei der wir eine von drei Vermittlungstechniken in den Wohnräumen der Menschen
09:39
for a period of several weeks.
234
579260
2000
über einen Zeitraum von mehreren Wochen installierten.
09:41
One case was the robot you saw there, Autom.
235
581260
3000
Einerseits handelte es sich dabei um den Roboter Autom, den sie hier gesehen haben.
09:44
Another was a computer that ran the same touch-screen interface,
236
584260
3000
Andererseits gab es einen Computer, der dasselbe Touchscreen-Interface hatte
09:47
ran exactly the same dialogues.
237
587260
2000
und bei dem genau dieselben Dialoge abliefen.
09:49
The quality of advice was identical.
238
589260
2000
Die Qualität der Beratung war identisch.
09:51
And the third was just a pen and paper log,
239
591260
2000
Und die dritte Möglichkeit war ein einfaches Tagebuch mit Zettel und Stift,
09:53
because that's the standard intervention you typically get
240
593260
2000
denn das ist die Standard-Methode, die man normalerweise verwendet,
09:55
when you start a diet-and-exercise program.
241
595260
3000
wenn man ein Diät- und Sportprogramm beginnt.
09:58
So one of the things we really wanted to look at
242
598260
3000
Eine der Sachen, die wir uns wirklich ansehen wollten,
10:01
was not how much weight people lost,
243
601260
3000
war nicht, wie viel Gewicht die Menschen verlieren würden,
10:04
but really how long they interacted with the robot.
244
604260
3000
sondern wie lange sie mit dem Roboter interagieren würden.
10:07
Because the challenge is not losing weight, it's actually keeping it off.
245
607260
3000
Denn die Herausforderung besteht nicht darin, Gewicht zu verlieren, sondern eher darin, diesen Status dann zu halten.
10:10
And the longer you could interact with one of these interventions,
246
610260
3000
Und je nachdem, ob man sich länger mit einem dieser Vermittler beschäftigen konnte,
10:13
well that's indicative, potentially, of longer-term success.
247
613260
3000
war das ein potenzielles Indiz für einen Langzeiterfolg.
10:16
So the first thing I want to look at is how long,
248
616260
2000
Die erste Sache, die ich untersuchen wollte, war wie lange
10:18
how long did people interact with these systems.
249
618260
2000
die Menschen mit diesen Systemen interagierten.
10:20
It turns out that people interacted with the robot
250
620260
2000
Es stellte sich heraus, dass die Leute mit dem Roboter
10:22
significantly more,
251
622260
2000
deutlich länger agierten,
10:24
even though the quality of the advice was identical to the computer.
252
624260
3000
obwohl die Qualität der Beratung identisch mit der des Computers war.
10:28
When it asked people to rate it on terms of the quality of the working alliance,
253
628260
3000
Als es die Menschen bat, es im Hinblick auf die Qualität der stabilen Verbindung,
10:31
people rated the robot higher
254
631260
2000
dann wurde der Roboter besser bewertet
10:33
and they trusted the robot more.
255
633260
2000
und sie vertrautem dem Roboter mehr.
10:35
(Laughter)
256
635260
2000
(Gelächter)
10:37
And when you look at emotional engagement,
257
637260
2000
Und wenn man sich die emotionale Bindung ansieht,
10:39
it was completely different.
258
639260
2000
war es komplett anders.
10:41
People would name the robots.
259
641260
2000
Die Menschen gaben den Robotern Namen.
10:43
They would dress the robots.
260
643260
2000
Sie haben sie angekleidet.
10:45
(Laughter)
261
645260
2000
(Gelächter)
10:47
And even when we would come up to pick up the robots at the end of the study,
262
647260
3000
Und als wir kamen, um die Roboter am Ender der Studie abzuholen,
10:50
they would come out to the car and say good-bye to the robots.
263
650260
2000
kamen sie sogar mit zum Auto und verabschiedeten sich von den Robotern
10:52
They didn't do this with a computer.
264
652260
2000
Mit einem Computer haben sie das nicht gemacht.
10:54
The last thing I want to talk about today
265
654260
2000
Die letzte Sache, über die ich heute sprechen möchte,
10:56
is the future of children's media.
266
656260
2000
ist die Zukunft der Medien für Kinder.
10:58
We know that kids spend a lot of time behind screens today,
267
658260
3000
Wir wissen, dass Kinder heutzutage eine Menge Zeit vor Bildschirmen verbringen,
11:01
whether it's television or computer games or whatnot.
268
661260
3000
ob das nun der Fernseher, oder ein Computerspiel, oder was auch immer sonst ist.
11:04
My sons, they love the screen. They love the screen.
269
664260
3000
Meine Söhne lieben den Bildschirm. Sie lieben den Bildschirm.
11:07
But I want them to play; as a mom, I want them to play,
270
667260
3000
Aber ich möchte, dass sie spielen; als ihre Mutter möchte ich, dass sie spielen,
11:10
like, real-world play.
271
670260
2000
in der realen Welt spielen.
11:12
And so I have a new project in my group I wanted to present to you today
272
672260
3000
Und deshalb gibt es in meiner Gruppe ein neues Projekt, das ich Ihnen heute präsentieren möchte,
11:15
called Playtime Computing
273
675260
2000
es heißt Playtime Computing,
11:17
that's really trying to think about how we can take
274
677260
2000
bei dem es darum geht, zu versuchen darüber nachzudenken,
11:19
what's so engaging about digital media
275
679260
2000
was an digitalen Medien so vereinnahmend ist
11:21
and literally bring it off the screen
276
681260
2000
und es sprichwörtlich vom Bildschirm wegzunehmen,
11:23
into the real world of the child,
277
683260
2000
in die reale Welt des Kindes zu integrieren,
11:25
where it can take on many of the properties of real-world play.
278
685260
3000
wo es viele Eigenschaften des Spielens in der echten Welt übernehmen kann.
11:29
So here's the first exploration of this idea,
279
689260
4000
Hier sehen wir also die erste Herangehensweise an diese Idee,
11:33
where characters can be physical or virtual,
280
693260
3000
bei der Charaktere physisch oder virtuell anwesend sein können
11:36
and where the digital content
281
696260
2000
und bei der digitale Inhalte
11:38
can literally come off the screen
282
698260
2000
sprichwörtlich aus dem Bildschirm herauskommen,
11:40
into the world and back.
283
700260
2000
in die reale Welt und wieder zurück.
11:42
I like to think of this
284
702260
2000
Ich sehe das gern
11:44
as the Atari Pong
285
704260
2000
wie das Pong von Atari
11:46
of this blended-reality play.
286
706260
2000
dieses Spiels mit überschneidenden Realitäten.
11:48
But we can push this idea further.
287
708260
2000
Aber wir können diese Idee noch weiter vorantreiben
11:50
What if --
288
710260
2000
Was wäre, wenn –
11:52
(Game) Nathan: Here it comes. Yay!
289
712260
3000
(Spiel) Nathan: Da kommt er. Juhu!
11:55
CB: -- the character itself could come into your world?
290
715260
3000
CB: – der Charakter selbst in unsere Welt kommen könnte?
11:58
It turns out that kids love it
291
718260
2000
Es stellt sich heraus, dass Kinder es lieben
12:00
when the character becomes real and enters into their world.
292
720260
3000
wenn ein Charakter real wird und ihre Welt betritt.
12:03
And when it's in their world,
293
723260
2000
Und wenn er in ihrer Welt ist,
12:05
they can relate to it and play with it in a way
294
725260
2000
dann können sie eine Beziehung mit ihm aufbauen und mit ihm ganz anders spielen,
12:07
that's fundamentally different from how they play with it on the screen.
295
727260
2000
als sie mit ihm auf dem Bildschirm spielen würden.
12:09
Another important idea is this notion
296
729260
2000
Eine andere wichtige Idee ist diese Vorstellung
12:11
of persistence of character across realities.
297
731260
3000
der realitätsübergreifenden Persistenz des Charakters.
12:14
So changes that children make in the real world
298
734260
2000
Also müssen Änderungen, welche die Kinder in der realen Welt vornehmen,
12:16
need to translate to the virtual world.
299
736260
2000
in die virtuelle Welt übersetzt werden.
12:18
So here, Nathan has changed the letter A to the number 2.
300
738260
3000
Hier also ändert Nathan den Buchstaben A in die Ziffer 2.
12:21
You can imagine maybe these symbols
301
741260
2000
Man kann sich vorstellen, dass diese Symbole
12:23
give the characters special powers when it goes into the virtual world.
302
743260
3000
den Charakteren besondere Fähigkeiten in der virtuellen Welt geben.
12:26
So they are now sending the character back into that world.
303
746260
3000
Jetzt schicken sie also den Charakter zurück in diese Welt.
12:29
And now it's got number power.
304
749260
3000
Und jetzt hat er die besondere Fähigkeit dieser Ziffer.
12:32
And then finally, what I've been trying to do here
305
752260
2000
Was ich hier schlussendlich versucht habe zu tun,
12:34
is create a really immersive experience for kids,
306
754260
3000
das ist die Erschaffung einer wirklich einbindenden Erfahrung für Kinder,
12:37
where they really feel like they are part of that story,
307
757260
3000
bei der sie sich wirklich wie ein Teil der Geschichte fühlen können,
12:40
a part of that experience.
308
760260
2000
ein Teil dieser Erfahrung.
12:42
And I really want to spark their imaginations
309
762260
2000
Und ich möchte dabei ihre Fantasie so anregen,
12:44
the way mine was sparked as a little girl watching "Star Wars."
310
764260
3000
so wie meine als kleines Mädchen angeregt wurde, als ich „Star Wars“ sah.
12:47
But I want to do more than that.
311
767260
2000
Aber ich möchte mehr tun als das.
12:49
I actually want them to create those experiences.
312
769260
3000
Ich möchte, dass sie ihre Erfahrungen selbst erschaffen.
12:52
I want them to be able to literally build their imagination
313
772260
2000
Ich möchte, dass sie sprichwörtlich dazu in der Lage sind, ihrer Fantasie freien Lauf zu lassen
12:54
into these experiences and make them their own.
314
774260
2000
in diesen Erfahrungen und sie so zu ihren eigenen zu machen.
12:56
So we've been exploring a lot of ideas
315
776260
2000
Wir haben verschiedene Ideen dazu erforscht,
12:58
in telepresence and mixed reality
316
778260
2000
mit Telepräsenz und in einander greifenden Realitäten,
13:00
to literally allow kids to project their ideas into this space
317
780260
3000
um Kindern sprichwörtlich zu erlauben, ihre Ideen in diesen Raum zu projektieren,
13:03
where other kids can interact with them
318
783260
2000
in dem andere Kinder mit ihnen interagieren können
13:05
and build upon them.
319
785260
2000
und darauf aufbauen können.
13:07
I really want to come up with new ways of children's media
320
787260
3000
Ich möchte wirklich neue Wege erschließen mit Medien für Kinder,
13:10
that foster creativity and learning and innovation.
321
790260
3000
die Kreativität, Lernprozesse und Innovation fördern.
13:13
I think that's very, very important.
322
793260
3000
Ich denke, dass das sehr, sehr wichtig ist.
13:16
So this is a new project.
323
796260
2000
Das ist also ein neues Projekt
13:18
We've invited a lot of kids into this space,
324
798260
2000
Wir haben viele Kinder in diesen Raum eingeladen
13:20
and they think it's pretty cool.
325
800260
3000
und sie denken, dass das ziemlich cool ist.
13:23
But I can tell you, the thing that they love the most
326
803260
2000
Aber ich kann Ihnen sagen, dass das, was sie am besten fanden,
13:25
is the robot.
327
805260
2000
der Roboter war.
13:27
What they care about is the robot.
328
807260
3000
Es ist der Roboter, für den sie sich interessieren.
13:30
Robots touch something deeply human within us.
329
810260
3000
Roboter berühren etwas zutiefst Menschliches in uns.
13:33
And so whether they're helping us
330
813260
2000
Ob sie uns dabei helfen,
13:35
to become creative and innovative,
331
815260
2000
kreativ und innovativ zu sein,
13:37
or whether they're helping us
332
817260
2000
oder ob sie uns dabei helfen,
13:39
to feel more deeply connected despite distance,
333
819260
2000
dass wir uns trotz Distanz stärker verbunden fühlen,
13:41
or whether they are our trusted sidekick
334
821260
2000
oder ob sie unser vertrauter Kumpel sind,
13:43
who's helping us attain our personal goals
335
823260
2000
der uns dabei hilft, unsere persönlichen Ziele zu erreichen,
13:45
in becoming our highest and best selves,
336
825260
2000
das Beste aus unserem Selbst zu machen;
13:47
for me, robots are all about people.
337
827260
3000
für mich geht es bei Robotern vor allem um Menschen.
13:50
Thank you.
338
830260
2000
Vielen Dank.
13:52
(Applause)
339
832260
5000
(Applaus)
Über diese Website

Auf dieser Seite finden Sie YouTube-Videos, die zum Englischlernen nützlich sind. Sie sehen Englischlektionen, die von hochkarätigen Lehrern aus der ganzen Welt unterrichtet werden. Doppelklicken Sie auf die englischen Untertitel, die auf jeder Videoseite angezeigt werden, um das Video von dort aus abzuspielen. Die Untertitel laufen synchron mit der Videowiedergabe. Wenn Sie irgendwelche Kommentare oder Wünsche haben, kontaktieren Sie uns bitte über dieses Kontaktformular.

https://forms.gle/WvT1wiN1qDtmnspy7