Why we have an emotional connection to robots | Kate Darling

138,301 views ・ 2018-11-06

TED


Bitte doppelklicken Sie auf die englischen Untertitel unten, um das Video abzuspielen.

00:00
Translator: Joseph Geni Reviewer: Krystian Aparta
0
0
7000
Übersetzung: Max Hohenschutz Lektorat: Angelika Lueckert Leon
An einem Tag vor etwa zehn Jahren
00:13
There was a day, about 10 years ago,
1
13047
2508
00:15
when I asked a friend to hold a baby dinosaur robot upside down.
2
15579
3944
ließ ich einen Freund einen Baby-Dino-Roboter kopfüber halten.
00:21
It was this toy called a Pleo that I had ordered,
3
21889
3446
Es war ein Spielzeug namens Pleo, das ich mir bestellt hatte.
00:25
and I was really excited about it because I've always loved robots.
4
25359
4401
Ich freute mich sehr darauf, denn ich liebe Roboter.
00:29
And this one has really cool technical features.
5
29784
2279
Dieser hatte echt coole technische Features.
00:32
It had motors and touch sensors
6
32087
2119
Er hatte Motoren, Tastsensoren und eine Infrarotkamera
00:34
and it had an infrared camera.
7
34230
2244
00:36
And one of the things it had was a tilt sensor,
8
36498
2763
und dann besaß er einen Neigungssensor.
00:39
so it knew what direction it was facing.
9
39285
2318
Er kannte also seine Ausrichtung im Raum.
00:42
And when you held it upside down,
10
42095
2134
Wenn man ihn kopfüber hielt,
00:44
it would start to cry.
11
44253
1572
würde er anfangen zu heulen.
00:46
And I thought this was super cool, so I was showing it off to my friend,
12
46527
3496
Das fand ich supercool und zeigte ich ihn daher einer Freundin,
00:50
and I said, "Oh, hold it up by the tail. See what it does."
13
50047
2805
ich sagte: "Hey, heb ihn am Schwanz hoch. Schau was er macht."
00:55
So we're watching the theatrics of this robot
14
55268
3625
Wir schauten uns also das Agieren des Roboters an,
00:58
struggle and cry out.
15
58917
2199
wie er leidet und heult.
01:02
And after a few seconds,
16
62767
2047
Nach ein paar Sekunden
01:04
it starts to bother me a little,
17
64838
1972
fing es an mich ein wenig zu stören,
01:07
and I said, "OK, that's enough now.
18
67744
3424
und ich sagte: "Okay, das reicht.
01:11
Let's put him back down."
19
71930
2305
Lassen wir ihn wieder runter."
01:14
And then I pet the robot to make it stop crying.
20
74259
2555
Dann streichelte ich den Roboter, damit er zu heulen aufhörte.
01:18
And that was kind of a weird experience for me.
21
78973
2452
Das war eine etwas seltsame Erfahrung für mich.
01:22
For one thing, I wasn't the most maternal person at the time.
22
82084
4569
Ich war nämlich zu dieser Zeit nicht besonders mütterlich.
01:26
Although since then I've become a mother, nine months ago,
23
86677
2731
Wobei ich vor 9 Monaten Mutter geworden bin,
01:29
and I've learned that babies also squirm when you hold them upside down.
24
89432
3433
und jetzt weiß, dass kopfüber gehaltene Babies sich auch wehren.
01:32
(Laughter)
25
92889
1563
(Gelächter)
01:35
But my response to this robot was also interesting
26
95023
2358
Aber meine Reaktion auf den Roboter war auch interessant,
01:37
because I knew exactly how this machine worked,
27
97405
4101
da ich genau wusste, wie diese Maschine funktioniert,
01:41
and yet I still felt compelled to be kind to it.
28
101530
3262
und dennoch fühlte ich mich veranlasst, lieb zu ihr zu sein.
01:46
And that observation sparked a curiosity
29
106450
2707
Diese Erkenntnis entfachte eine Neugier,
01:49
that I've spent the past decade pursuing.
30
109181
2832
der ich die letzten Jahre nachgegangen bin.
01:52
Why did I comfort this robot?
31
112911
1793
Warum tröstete ich diesen Roboter?
01:56
And one of the things I discovered was that my treatment of this machine
32
116228
3579
Eine Erkenntnis war, dass mein Umgang mit dieser Maschine
01:59
was more than just an awkward moment in my living room,
33
119831
3701
mehr als nur ein verlegener Moment in meinem Wohnzimmer war
02:03
that in a world where we're increasingly integrating robots into our lives,
34
123556
5420
und dass in einer Welt, in die wir immer mehr Roboter integrieren,
02:09
an instinct like that might actually have consequences,
35
129000
3126
ein solcher Instinkt Konsequenzen haben könnte.
02:13
because the first thing that I discovered is that it's not just me.
36
133452
3749
Denn meine erste Entdeckung war, dass das nicht nur mich betrifft.
02:19
In 2007, the Washington Post reported that the United States military
37
139249
4802
Im Jahr 2007 meldete The Washington Post, dass das US-amerikanische Militär
02:24
was testing this robot that defused land mines.
38
144075
3230
einen Roboter testete, der Landminen entschärfen sollte.
02:27
And the way it worked was it was shaped like a stick insect
39
147329
2912
Gebaut wie eine Stabheuschrecke, funktionierte er so,
02:30
and it would walk around a minefield on its legs,
40
150265
2651
dass er in einem Minenfeld auf seinen Beinen herumlief
02:32
and every time it stepped on a mine, one of the legs would blow up,
41
152940
3206
und jedes Mal, wenn er auf eine Mine trat und ein Bein explodierte,
02:36
and it would continue on the other legs to blow up more mines.
42
156170
3057
lief er auf den übrigen Beinen weiter, um mehr Minen zu finden.
02:39
And the colonel who was in charge of this testing exercise
43
159251
3786
Der zuständige Oberst dieses Tests beschloss ihn abzublasen,
02:43
ends up calling it off,
44
163061
2118
02:45
because, he says, it's too inhumane
45
165203
2435
weil es zu unmenschlich wäre,
02:47
to watch this damaged robot drag itself along the minefield.
46
167662
4516
den beschädigten Roboter zu beobachten wie er sich über das Feld schleppt.
02:54
Now, what would cause a hardened military officer
47
174978
3897
Was veranlasst einen abgehärteten Militäroffizier
02:58
and someone like myself
48
178899
2043
und jemanden wie mich,
03:00
to have this response to robots?
49
180966
1857
so auf einen Roboter zu reagieren?
03:03
Well, of course, we're primed by science fiction and pop culture
50
183537
3310
Natürlich sind wir durch Science-Fiction und Popkultur geprägt
03:06
to really want to personify these things,
51
186871
2579
und möchten diese Dinge vermenschlichen,
03:09
but it goes a little bit deeper than that.
52
189474
2789
aber es ist etwas tiefgehender als das.
03:12
It turns out that we're biologically hardwired to project intent and life
53
192287
5309
Wir sind nämlich genetisch programmiert Absicht und Leben
03:17
onto any movement in our physical space that seems autonomous to us.
54
197620
4766
auf jede selbstständige Bewegung unserer Umgebung zu projizieren.
03:23
So people will treat all sorts of robots like they're alive.
55
203214
3465
Deswegen behandeln Menschen alle Arten von Robotern wie Lebewesen.
03:26
These bomb-disposal units get names.
56
206703
2683
Diese Bombenentschärfungsroboter erhalten Namen.
03:29
They get medals of honor.
57
209410
1682
Sie erhalten Ehrenmedaillen.
03:31
They've had funerals for them with gun salutes.
58
211116
2325
Sie hatten Beerdigungen mit Salutschüssen.
03:34
And research shows that we do this even with very simple household robots,
59
214380
3833
Studien zeigen, dass wir das sogar mit einfachen Hausrobotern machen,
03:38
like the Roomba vacuum cleaner.
60
218237
2135
wie dem Roomba-Staubsauger.
03:40
(Laughter)
61
220396
1291
(Gelächter)
03:41
It's just a disc that roams around your floor to clean it,
62
221711
3089
Das ist nur eine fahrende Scheibe, die unseren Boden säubert,
03:44
but just the fact it's moving around on its own
63
224824
2306
aber allein, dass sie sich frei bewegt,
03:47
will cause people to name the Roomba
64
227154
2167
veranlasst Leute, ihr einen Namen zu geben
03:49
and feel bad for the Roomba when it gets stuck under the couch.
65
229345
3182
und Mitleid zu empfinden, wenn sie unter dem Sofa feststeckt.
03:52
(Laughter)
66
232551
1865
(Gelächter)
03:54
And we can design robots specifically to evoke this response,
67
234440
3340
Wir können Roboter entwickeln, um genau diese Reaktionen herbeizurufen
03:57
using eyes and faces or movements
68
237804
3461
durch Integrierung von Augen, Gesichtern und Bewegungen,
04:01
that people automatically, subconsciously associate
69
241289
3259
die automatisch unterbewusst als Gemütszustand verstanden werden.
04:04
with states of mind.
70
244572
2020
04:06
And there's an entire body of research called human-robot interaction
71
246616
3293
Es gibt ein ganzes Forschungsgebiet, genannt Mensch-Roboter-Interaktion,
04:09
that really shows how well this works.
72
249933
1826
das zeigt, wie gut das funktioniert.
04:11
So for example, researchers at Stanford University found out
73
251783
3126
So fanden Forscher an der Stanford-Universität heraus,
04:14
that it makes people really uncomfortable
74
254933
2001
dass es für Probanden unangenehm ist,
04:16
when you ask them to touch a robot's private parts.
75
256958
2472
den Intimbereich eines Roboters berühren zu müssen.
04:19
(Laughter)
76
259454
2120
(Gelächter)
04:21
So from this, but from many other studies,
77
261598
2023
Von dieser und vielen anderen Studien
04:23
we know, we know that people respond to the cues given to them
78
263645
4223
wissen wir, dass Menschen auf die Signale
04:27
by these lifelike machines,
79
267892
2022
dieser lebendig erscheinenden Maschinen reagieren,
04:29
even if they know that they're not real.
80
269938
2017
auch im Wissen, dass sie nicht echt sind.
04:33
Now, we're headed towards a world where robots are everywhere.
81
273654
4056
Nun rücken wir näher an eine Welt, wo Roboter überall sind.
04:37
Robotic technology is moving out from behind factory walls.
82
277734
3065
Robotertechnik verlässt die Fabrikhallen
04:40
It's entering workplaces, households.
83
280823
3013
und kommt im Arbeitsalltag und unseren Haushalten an.
04:43
And as these machines that can sense and make autonomous decisions and learn
84
283860
6209
Da diese Maschinen, die fühlen können,
selbständig Entscheidungen treffen und lernen können,
nun in diese gemeinsamen Räume eintreten,
04:50
enter into these shared spaces,
85
290093
2552
04:52
I think that maybe the best analogy we have for this
86
292669
2496
ist die beste Analogie dafür
04:55
is our relationship with animals.
87
295189
1935
vielleicht unsere Beziehung mit Haustieren.
04:57
Thousands of years ago, we started to domesticate animals,
88
297523
3888
Vor Tausenden von Jahren begannen wir Haustiere zu halten,
05:01
and we trained them for work and weaponry and companionship.
89
301435
4045
wir trainierten sie als Arbeiter, Waffen oder Begleiter.
05:05
And throughout history, we've treated some animals like tools or like products,
90
305504
4985
Wir behandelten manche Tiere wie Werkzeug oder Ware,
05:10
and other animals, we've treated with kindness
91
310513
2174
während wir andere liebevoll behandelten
05:12
and we've given a place in society as our companions.
92
312711
3078
und sie als Begleiter in unserer Gesellschaft aufnahmen.
05:15
I think it's plausible we might start to integrate robots in similar ways.
93
315813
3849
Es ist möglich, dass wir anfangen, Roboter gleichermaßen zu integrieren.
05:21
And sure, animals are alive.
94
321484
3096
Natürlich, Tiere sind lebendig,
05:24
Robots are not.
95
324604
1150
Roboter sind es nicht.
05:27
And I can tell you, from working with roboticists,
96
327626
2580
Durch die Zusammenarbeit mit Roboteringenieuren weiß ich,
05:30
that we're pretty far away from developing robots that can feel anything.
97
330230
3522
dass wir noch weit davon entfernt sind, empfindungsfähige Roboter zu bauen.
05:35
But we feel for them,
98
335072
1460
Aber wir empfinden etwas für sie und das zählt,
05:37
and that matters,
99
337835
1207
05:39
because if we're trying to integrate robots into these shared spaces,
100
339066
3627
denn wenn wir versuchen, Roboter in unseren Alltag zu integrieren,
05:42
we need to understand that people will treat them differently than other devices,
101
342717
4628
müssen wir verstehen, dass wir sie anders als normale Geräte behandeln werden,
05:47
and that in some cases,
102
347369
1844
und dass in manchen Fällen,
05:49
for example, the case of a soldier who becomes emotionally attached
103
349237
3172
wie beim Soldaten, der sich emotional an seinen Roboterkollegen bindet,
05:52
to the robot that they work with,
104
352433
2047
05:54
that can be anything from inefficient to dangerous.
105
354504
2504
das ineffizient bis gefährlich sein kann.
05:58
But in other cases, it can actually be useful
106
358551
2138
Andererseits kann es auch nützlich sein,
06:00
to foster this emotional connection to robots.
107
360713
2623
diese emotionale Verbindung zu Robotern zu fördern.
06:04
We're already seeing some great use cases,
108
364184
2134
Wir kennen schon einige tolle Anwendungen,
06:06
for example, robots working with autistic children
109
366342
2604
beispielsweise Roboter für autistische Kinder,
06:08
to engage them in ways that we haven't seen previously,
110
368970
3634
die sie auf eine noch nie gesehene Art und Weise beschäftigen,
06:12
or robots working with teachers to engage kids in learning with new results.
111
372628
4000
oder Roboter, die mit Lehrern arbeiten, um Kinder beim Lernen zu unterstützen.
06:17
And it's not just for kids.
112
377433
1381
Das gilt nicht nur für Kinder.
06:19
Early studies show that robots can help doctors and patients
113
379750
3223
Erste Studien zeigen, Roboter können im Gesundheitswesen
06:22
in health care settings.
114
382997
1427
für Ärzte und Patienten nützlich sein.
06:25
This is the PARO baby seal robot.
115
385535
1810
Das ist der Baby-Robben-Roboter PARO.
06:27
It's used in nursing homes and with dementia patients.
116
387369
3285
Er wird in Pflegeheimen und bei dementen Patienten verwendet.
06:30
It's been around for a while.
117
390678
1570
Es gibt ihn schon länger.
06:32
And I remember, years ago, being at a party
118
392272
3325
Vor ein paar Jahren auf einer Party
06:35
and telling someone about this robot,
119
395621
2571
sprach ich mit jemandem über diesen Roboter
06:38
and her response was,
120
398216
2126
und ihre Reaktion war:
06:40
"Oh my gosh.
121
400366
1262
"Meine Güte.
06:42
That's horrible.
122
402508
1188
Das ist ja entsetzlich.
06:45
I can't believe we're giving people robots instead of human care."
123
405056
3397
Kaum zu glauben, dass wir Leuten Roboter statt Menschen als Pfleger geben."
06:50
And this is a really common response,
124
410540
1875
Das ist eine ziemlich häufige Reaktion,
06:52
and I think it's absolutely correct,
125
412439
2499
und meiner Ansicht nach ist sie komplett richtig,
06:54
because that would be terrible.
126
414962
2040
denn das wäre schrecklich.
06:57
But in this case, it's not what this robot replaces.
127
417795
2484
Aber der Roboter ersetzt hier etwas anderes.
07:00
What this robot replaces is animal therapy
128
420858
3120
Er ersetzt die Tier-Therapie
07:04
in contexts where we can't use real animals
129
424002
3198
in Situationen, wo wir keine echten Tiere verwenden können,
07:07
but we can use robots,
130
427224
1168
aber Roboter eben schon,
07:08
because people will consistently treat them more like an animal than a device.
131
428416
5230
da Menschen sie konsequent eher wie ein Tier als ein Gerät behandeln.
07:15
Acknowledging this emotional connection to robots
132
435502
2380
Diese emotionale Bindung zu Robotern anzuerkennen,
07:17
can also help us anticipate challenges
133
437906
1969
kann uns helfen, Probleme vorauszuahnen,
07:19
as these devices move into more intimate areas of people's lives.
134
439899
3451
da diese Maschinen Teil des persönlichen Lebens werden.
07:24
For example, is it OK if your child's teddy bear robot
135
444111
3404
Ist es zum Beispiel okay, wenn der Teddybär Ihres Kindes
07:27
records private conversations?
136
447539
2237
private Gespräche aufzeichnet?
07:29
Is it OK if your sex robot has compelling in-app purchases?
137
449800
4063
Ist es okay, wenn ihr Sexroboter verlockende in-App-Angebote hat?
07:33
(Laughter)
138
453887
1396
(Gelächter)
07:35
Because robots plus capitalism
139
455307
2501
Denn Roboter plus Kapitalismus
07:37
equals questions around consumer protection and privacy.
140
457832
3705
bedingt Fragen über Privatsphäre und Verbraucherschutz.
07:42
And those aren't the only reasons
141
462549
1612
Nicht nur deswegen ist unser Umgang mit diesen Maschinen bedeutend.
07:44
that our behavior around these machines could matter.
142
464185
2570
07:48
A few years after that first initial experience I had
143
468747
3270
Ein paar Jahre nach diesem ersten Erlebnis
07:52
with this baby dinosaur robot,
144
472041
2311
mit dem Baby-Dino-Roboter,
07:54
I did a workshop with my friend Hannes Gassert.
145
474376
2501
hielt ich ein Seminar mit meinem Freund Hannes Gassert.
07:56
And we took five of these baby dinosaur robots
146
476901
2897
Dort nahmen wir 5 dieser Baby-Dino-Roboter
07:59
and we gave them to five teams of people.
147
479822
2453
und gaben sie an fünf Gruppen.
08:02
And we had them name them
148
482299
1697
Wir ließen sie ihnen Namen geben
08:04
and play with them and interact with them for about an hour.
149
484020
3809
und für eine Stunde mit ihnen spielen und interagieren.
08:08
And then we unveiled a hammer and a hatchet
150
488707
2206
Dann enthüllten wir einen Hammer und ein Beil
08:10
and we told them to torture and kill the robots.
151
490937
2278
und riefen sie auf die Roboter zu quälen und zu töten.
08:13
(Laughter)
152
493239
3007
(Gelächter)
08:16
And this turned out to be a little more dramatic
153
496857
2294
Das erwies sich als dramatischer als erwartet,
08:19
than we expected it to be,
154
499175
1278
08:20
because none of the participants would even so much as strike
155
500477
3072
da keiner der Teilnehmer es über das Herz brachte
08:23
these baby dinosaur robots,
156
503573
1307
ihren Babydino zu schlagen.
08:24
so we had to improvise a little, and at some point, we said,
157
504904
5150
Also improvisierten wir und schlugen vor:
"Okay, ihr könnt euren Roboter retten, wenn ihr den eines anderen Teams zerstört."
08:30
"OK, you can save your team's robot if you destroy another team's robot."
158
510078
4437
08:34
(Laughter)
159
514539
1855
(Gelächter)
08:36
And even that didn't work. They couldn't do it.
160
516839
2195
Auch das brachte keiner übers Herz.
08:39
So finally, we said,
161
519058
1151
Als letztes drohten wir:
08:40
"We're going to destroy all of the robots
162
520233
2032
"Wir zerstören alle eure Roboter,
08:42
unless someone takes a hatchet to one of them."
163
522289
2285
es sei denn jemand schlägt mit dem Beil auf einen."
08:45
And this guy stood up, and he took the hatchet,
164
525586
3579
Dieser eine Kerl stand auf, nahm das Beil
08:49
and the whole room winced as he brought the hatchet down
165
529189
2706
und der ganze Raum zuckte zusammen als er das Beil
08:51
on the robot's neck,
166
531919
1780
auf das Genick des Roboters hämmerte.
08:53
and there was this half-joking, half-serious moment of silence in the room
167
533723
6338
Es entstand diese halb scherzhafte, halb ernste Stille im Raum
09:00
for this fallen robot.
168
540085
1698
wegen des kaputten Roboters.
09:01
(Laughter)
169
541807
1406
(Gelächter)
09:03
So that was a really interesting experience.
170
543237
3694
Das war ein echt interessantes Erlebnis.
09:06
Now, it wasn't a controlled study, obviously,
171
546955
2459
Natürlich war das keine kontrollierte Studie,
09:09
but it did lead to some later research that I did at MIT
172
549438
2850
aber es führte zu weiterer Forschung, die ich am MIT zusammen
09:12
with Palash Nandy and Cynthia Breazeal,
173
552312
2228
mit Palash Nandy und Cynthia Breazal durchführte.
09:14
where we had people come into the lab and smash these HEXBUGs
174
554564
3627
Dort luden wir Leute in unser Labor ein, um diese HEXBUGs zu zerschlagen,
09:18
that move around in a really lifelike way, like insects.
175
558215
3087
die sich wie lebende Insekten bewegen.
09:21
So instead of choosing something cute that people are drawn to,
176
561326
3134
Anstatt etwas Niedliches zu wählen, was sympathisch wirkt,
09:24
we chose something more basic,
177
564484
2093
nahmen wir etwas Einfacheres.
09:26
and what we found was that high-empathy people
178
566601
3480
So fanden wir heraus, dass empathischere Menschen
09:30
would hesitate more to hit the HEXBUGS.
179
570105
2143
eher zögern, den HEXBUG zu schlagen.
09:33
Now this is just a little study,
180
573575
1564
Das ist nur eine kleine Studie,
09:35
but it's part of a larger body of research
181
575163
2389
die aber Teil einer größeren Forschungsarbeit ist.
09:37
that is starting to indicate that there may be a connection
182
577576
2944
Diese deutet immer mehr darauf hin, dass es eine Verbindung gibt
09:40
between people's tendencies for empathy
183
580544
2373
zwischen den empathischen Tendenzen der Probanden
09:42
and their behavior around robots.
184
582941
1976
und ihren Verhalten gegenüber Robotern.
09:45
But my question for the coming era of human-robot interaction
185
585721
3627
Aber meine Frage für die kommende Ära der Mensch-Roboter-Interaktion
09:49
is not: "Do we empathize with robots?"
186
589372
3055
ist nicht: "Fühlen wir mit Robotern mit?",
09:53
It's: "Can robots change people's empathy?"
187
593211
2920
sondern: "Können Roboter menschliches Mitgefühl verändern?"
09:57
Is there reason to, for example,
188
597489
2287
Gibt es Gründe, zum Beispiel,
09:59
prevent your child from kicking a robotic dog,
189
599800
2333
ihr Kind vom Treten eines Robohundes abzuhalten,
10:03
not just out of respect for property,
190
603228
2914
nicht nur aus purem Respekt vor Eigentum,
10:06
but because the child might be more likely to kick a real dog?
191
606166
2953
sondern weil ihr Kind dann eher einen echten Hund treten würde?
10:10
And again, it's not just kids.
192
610507
1883
Nochmal, es geht nicht nur um Kinder.
10:13
This is the violent video games question, but it's on a completely new level
193
613564
4056
Es erinnert an die Frage über Gewalt in Videospielen,
nur auf einem ganz neuem Level.
10:17
because of this visceral physicality that we respond more intensely to
194
617644
4760
Denn auf diese instinktiven Körperkontakte reagieren wir intensiver
10:22
than to images on a screen.
195
622428
1547
als auf Bilder am Bildschirm.
10:25
When we behave violently towards robots,
196
625674
2578
Wenn wir Roboter gewaltsam behandeln,
10:28
specifically robots that are designed to mimic life,
197
628276
3120
besonders lebensähnliche Roboter,
10:31
is that a healthy outlet for violent behavior
198
631420
3892
ist das eine gesunde Art, Gewalt auszuleben,
10:35
or is that training our cruelty muscles?
199
635336
2544
oder Training für unsere grausame Seite?
10:39
We don't know ...
200
639511
1150
Das wissen wir nicht ...
10:42
But the answer to this question has the potential to impact human behavior,
201
642622
3945
Aber die Antwort auf diese Frage könnte menschliche Verhaltensmuster verändern.
10:46
it has the potential to impact social norms,
202
646591
2768
Sie hat das Potential, soziale Normen zu beeinflussen,
10:49
it has the potential to inspire rules around what we can and can't do
203
649383
3849
und Regeln anzuregen, was wir tun und nicht tun dürfen
10:53
with certain robots,
204
653256
1151
mit bestimmen Robotern,
10:54
similar to our animal cruelty laws.
205
654431
1848
analog zu den Gesetzen zur Tierquälerei.
10:57
Because even if robots can't feel,
206
657228
2864
Denn auch wenn Roboter nichts fühlen,
11:00
our behavior towards them might matter for us.
207
660116
3080
unser Verhalten ihnen gegenüber kann für uns wichtig sein.
11:04
And regardless of whether we end up changing our rules,
208
664889
2855
Egal ob wir unsere Regeln ändern,
11:08
robots might be able to help us come to a new understanding of ourselves.
209
668926
3556
Roboter könnten uns helfen uns selbst besser zu verstehen.
11:14
Most of what I've learned over the past 10 years
210
674276
2316
In den letzten 10 Jahren habe ich eher wenig über Technologie gelernt,
11:16
has not been about technology at all.
211
676616
2238
11:18
It's been about human psychology
212
678878
2503
sondern vor allem über Psychologie,
11:21
and empathy and how we relate to others.
213
681405
2603
Empathie und gegenseitigen Umgang.
11:25
Because when a child is kind to a Roomba,
214
685524
2365
Wenn ein Kind nämlich nett zum Roomba ist,
11:29
when a soldier tries to save a robot on the battlefield,
215
689262
4015
wenn ein Soldat versucht, einen Roboter im Schlachtfeld zu retten,
11:33
or when a group of people refuses to harm a robotic baby dinosaur,
216
693301
3638
oder wenn eine Gruppe ablehnt, einem mechanischen Babydino zu schaden,
11:38
those robots aren't just motors and gears and algorithms.
217
698248
3191
dann sind diese Roboter nicht nur Motoren, Gewinde und Algorithmen.
11:42
They're reflections of our own humanity.
218
702501
1905
Sie sind Spiegelungen unserer eigenen Menschlichkeit.
11:45
Thank you.
219
705523
1151
Danke schön.
11:46
(Applause)
220
706698
3397
(Applaus)
Über diese Website

Auf dieser Seite finden Sie YouTube-Videos, die zum Englischlernen nützlich sind. Sie sehen Englischlektionen, die von hochkarätigen Lehrern aus der ganzen Welt unterrichtet werden. Doppelklicken Sie auf die englischen Untertitel, die auf jeder Videoseite angezeigt werden, um das Video von dort aus abzuspielen. Die Untertitel laufen synchron mit der Videowiedergabe. Wenn Sie irgendwelche Kommentare oder Wünsche haben, kontaktieren Sie uns bitte über dieses Kontaktformular.

https://forms.gle/WvT1wiN1qDtmnspy7