Why we have an emotional connection to robots | Kate Darling

131,451 views ・ 2018-11-06

TED


אנא לחץ פעמיים על הכתוביות באנגלית למטה כדי להפעיל את הסרטון.

00:00
Translator: Joseph Geni Reviewer: Krystian Aparta
0
0
7000
תרגום: maor madmon עריכה: Ido Dekkers
00:13
There was a day, about 10 years ago,
1
13047
2508
יום אחד, לפני עשר שנים בערך,
00:15
when I asked a friend to hold a baby dinosaur robot upside down.
2
15579
3944
ביקשתי מחבר להחזיק רובוט של דינוזאור תינוק הפוך.
00:21
It was this toy called a Pleo that I had ordered,
3
21889
3446
זה היה צעצוע בשם פליאו שהזמנתי,
00:25
and I was really excited about it because I've always loved robots.
4
25359
4401
והייתי נרגשת מאוד כי תמיד אהבתי רובוטים.
00:29
And this one has really cool technical features.
5
29784
2279
ולרובוט הזה היו תכונות ממש מגניבות.
00:32
It had motors and touch sensors
6
32087
2119
היו לו מנועים וחיישני נגיעה
00:34
and it had an infrared camera.
7
34230
2244
ומצלמת אינפרא-אדום.
00:36
And one of the things it had was a tilt sensor,
8
36498
2763
והיה לו גם חיישן הטייה,
00:39
so it knew what direction it was facing.
9
39285
2318
כך שהוא ידע באיזה כיוון מחזיקים אותו ביחס לאדמה.
00:42
And when you held it upside down,
10
42095
2134
וכשהחזיקו אותו הפוך,
00:44
it would start to cry.
11
44253
1572
הוא היה מתחיל לבכות.
00:46
And I thought this was super cool, so I was showing it off to my friend,
12
46527
3496
אני חשבתי שזה ממש מגניב, אז הראיתי את זה לחבר שלי,
00:50
and I said, "Oh, hold it up by the tail. See what it does."
13
50047
2805
ואמרתי, "תחזיק אותו מהזנב ותראה מה הוא עושה."
00:55
So we're watching the theatrics of this robot
14
55268
3625
אז עמדנו וצפינו ברובוט
00:58
struggle and cry out.
15
58917
2199
שהתחיל להיאבק ולבכות.
01:02
And after a few seconds,
16
62767
2047
ואחרי כמה שניות,
01:04
it starts to bother me a little,
17
64838
1972
זה התחיל להציק לי קצת,
01:07
and I said, "OK, that's enough now.
18
67744
3424
ואמרתי, "בסדר, זה מספיק.
01:11
Let's put him back down."
19
71930
2305
בוא נניח אותו."
01:14
And then I pet the robot to make it stop crying.
20
74259
2555
ואז ליטפתי את הרובוט כדי שיפסיק לבכות.
01:18
And that was kind of a weird experience for me.
21
78973
2452
זו הייתה חוויה די משונה בשבילי.
01:22
For one thing, I wasn't the most maternal person at the time.
22
82084
4569
מצד אחד, לא הייתי מאוד אימהית בזמנו.
01:26
Although since then I've become a mother, nine months ago,
23
86677
2731
למרות שמאז הפכתי לאם, לפני תשעה חודשים,
01:29
and I've learned that babies also squirm when you hold them upside down.
24
89432
3433
ולמדתי שגם תינוקות מתחילים לבכות כשמחזיקים אותם הפוך.
01:32
(Laughter)
25
92889
1563
(צחוק)
01:35
But my response to this robot was also interesting
26
95023
2358
אבל התגובה שלי לרובוט הזה הייתה מעניינת
01:37
because I knew exactly how this machine worked,
27
97405
4101
כי ידעתי בדיוק כיצד המכונה הזאת עובדת,
01:41
and yet I still felt compelled to be kind to it.
28
101530
3262
ובכל זאת הרגשתי צורך להיות נחמדה אליה.
01:46
And that observation sparked a curiosity
29
106450
2707
ההבחנה הזו הציתה בי סקרנות
01:49
that I've spent the past decade pursuing.
30
109181
2832
שהובילה את המחקר שלי בעשור האחרון.
01:52
Why did I comfort this robot?
31
112911
1793
למה ליטפתי וניחמתי את הרובוט?
01:56
And one of the things I discovered was that my treatment of this machine
32
116228
3579
ואחד הדברים שגיליתי, היה שהיחס שלי למכונה הזו
01:59
was more than just an awkward moment in my living room,
33
119831
3701
היה יותר מרגע מביך בסלון שלי.
02:03
that in a world where we're increasingly integrating robots into our lives,
34
123556
5420
שבעולם שבו יותר ויותר רובוטים משתלבים בחיינו,
02:09
an instinct like that might actually have consequences,
35
129000
3126
לאינסטינקט כזה יכולות להיות השלכות.
02:13
because the first thing that I discovered is that it's not just me.
36
133452
3749
כי הדבר הראשון שגיליתי היה שאני לא היחידה.
02:19
In 2007, the Washington Post reported that the United States military
37
139249
4802
בשנת 2007, העיתון וושינגטון פוסט דיווח שצבא ארה"ב
02:24
was testing this robot that defused land mines.
38
144075
3230
ערך ניסויים עם רובוט לנטרול מוקשים.
02:27
And the way it worked was it was shaped like a stick insect
39
147329
2912
זה היה רובוט בצורת חרק מקלוני
02:30
and it would walk around a minefield on its legs,
40
150265
2651
שהיה אמור ללכת בשדות מוקשים,
02:32
and every time it stepped on a mine, one of the legs would blow up,
41
152940
3206
ובכל פעם שדרך על מוקש, אחת מרגליו היתה מתפוצצת,
02:36
and it would continue on the other legs to blow up more mines.
42
156170
3057
והוא היה ממשיך ללכת על הרגליים שנותרו לו ולפוצץ מוקשים נוספים.
02:39
And the colonel who was in charge of this testing exercise
43
159251
3786
הקולונל שהיה אחראי לבדיקת הרובוט
02:43
ends up calling it off,
44
163061
2118
עצר את הבדיקה בשלב מסויים,
02:45
because, he says, it's too inhumane
45
165203
2435
כיוון שלטענתו זה היה אכזרי מדי
02:47
to watch this damaged robot drag itself along the minefield.
46
167662
4516
לצפות ברובוט הפגוע ממשיך לגרור את עצמו על הרגליים שנותרו לו בשדה המוקשים.
02:54
Now, what would cause a hardened military officer
47
174978
3897
עכשיו, מה יכול לגרום לקצין צבא קשוח
02:58
and someone like myself
48
178899
2043
ולאישה כמוני
03:00
to have this response to robots?
49
180966
1857
להגיב באופן כזה לרובוטים?
03:03
Well, of course, we're primed by science fiction and pop culture
50
183537
3310
ובכן, כמובן, המדע הבדיוני ותרבות הפופ השפיעו עלינו
03:06
to really want to personify these things,
51
186871
2579
וגרמו לנו להשליך רגשות ותכונות אנושיות על החפצים האלו,
03:09
but it goes a little bit deeper than that.
52
189474
2789
אבל זה טיפה יותר עמוק מזה.
03:12
It turns out that we're biologically hardwired to project intent and life
53
192287
5309
מסתבר שאנחנו מתוכנתים ביולוגית להניח את קיומם של כוונות וחיים
03:17
onto any movement in our physical space that seems autonomous to us.
54
197620
4766
עבור כל דבר שנע במרחב ונראה אוטונומי.
03:23
So people will treat all sorts of robots like they're alive.
55
203214
3465
כך שאנשים יתייחסו לכל מני רובוטים כאילו הם חיים.
03:26
These bomb-disposal units get names.
56
206703
2683
הרובוטים לפירוק מוקשים מקבלים שמות.
03:29
They get medals of honor.
57
209410
1682
הם מקבלים מדליות.
03:31
They've had funerals for them with gun salutes.
58
211116
2325
ערכו להם הלוויות צבאיות מכובדות.
03:34
And research shows that we do this even with very simple household robots,
59
214380
3833
והמחקר מראה שאנחנו עושים את זה אפילו עם רובוטים ביתיים פשוטים,
03:38
like the Roomba vacuum cleaner.
60
218237
2135
כמו הרובוט שואב האבק.
03:40
(Laughter)
61
220396
1291
(צחוק)
03:41
It's just a disc that roams around your floor to clean it,
62
221711
3089
זה בסה"כ משהו עגול שמסתובב על הרצפה ומנקה אותה,
03:44
but just the fact it's moving around on its own
63
224824
2306
אבל עצם העובדה שהוא נע בכוחות עצמו
03:47
will cause people to name the Roomba
64
227154
2167
תגרום לאנשים לתת לו שם
03:49
and feel bad for the Roomba when it gets stuck under the couch.
65
229345
3182
ולהרגיש רע עבורו כשהוא נתקע מתחת לספה.
03:52
(Laughter)
66
232551
1865
(צחוק)
03:54
And we can design robots specifically to evoke this response,
67
234440
3340
ואנחנו יכולים לתכנן רובוטים במיוחד כדי לעורר את התגובה הזו,
03:57
using eyes and faces or movements
68
237804
3461
בעזרת עיניים ופנים או תנועה
04:01
that people automatically, subconsciously associate
69
241289
3259
כך שאנשים ייחסו להם תכונות ורגשות
04:04
with states of mind.
70
244572
2020
באופן אוטומטי, תת מודע.
04:06
And there's an entire body of research called human-robot interaction
71
246616
3293
ויש תחום מחקר שלם, שנקרא יחסי אדם-רובוט
04:09
that really shows how well this works.
72
249933
1826
שמראה עד כמה טוב זה עובד.
04:11
So for example, researchers at Stanford University found out
73
251783
3126
לדוגמה, חוקרים באוניברסיטת סטנפורד
04:14
that it makes people really uncomfortable
74
254933
2001
גילו שאנשים מרגישים לא בנוח
04:16
when you ask them to touch a robot's private parts.
75
256958
2472
כשמבקשים מהם לגעת באיברים המוצנעים של הרובוט.
04:19
(Laughter)
76
259454
2120
(צחוק)
04:21
So from this, but from many other studies,
77
261598
2023
מהמחקר הזה, וממחקרים רבים נוספים,
04:23
we know, we know that people respond to the cues given to them
78
263645
4223
אנחנו יודעים שאנשים מגיבים לסימנים
04:27
by these lifelike machines,
79
267892
2022
שנותנות המכונות דמויות-החיים הללו
04:29
even if they know that they're not real.
80
269938
2017
אפילו כשהם יודעים שזה לא אמיתי.
04:33
Now, we're headed towards a world where robots are everywhere.
81
273654
4056
עכשיו, אנחנו צועדים לעבר עולם שבו הרובוטים נמצאים בכל מקום.
04:37
Robotic technology is moving out from behind factory walls.
82
277734
3065
הטכנולוגיה הרובוטית יוצאת מגבולות המפעלים והתעשייה.
04:40
It's entering workplaces, households.
83
280823
3013
היא נכנסת למקומות עבודה ולבתים פרטיים.
04:43
And as these machines that can sense and make autonomous decisions and learn
84
283860
6209
וכשהמכונות האלו, שיכולות לחוש ולקבל החלטות וללמוד
04:50
enter into these shared spaces,
85
290093
2552
נכנסות לחללים המשותפים הללו,
04:52
I think that maybe the best analogy we have for this
86
292669
2496
אני חושבת שהאנלוגיה הטובה ביותר שיש לנו עבור זה
04:55
is our relationship with animals.
87
295189
1935
היא היחס שלנו לבעלי החיים.
04:57
Thousands of years ago, we started to domesticate animals,
88
297523
3888
לפני אלפי שנים, התחלנו לביית חיות,
05:01
and we trained them for work and weaponry and companionship.
89
301435
4045
ואימנו אותם לעבודה, למלחמה וללוויה.
05:05
And throughout history, we've treated some animals like tools or like products,
90
305504
4985
לאורך ההיסטוריה, התייחסנו לחיות מסויימות כאל כלים או מוצרים,
05:10
and other animals, we've treated with kindness
91
310513
2174
ולחיות אחרות התייחסנו בחמלה
05:12
and we've given a place in society as our companions.
92
312711
3078
ונתנו להן מקום בחברה כבני הלוויה שלנו.
05:15
I think it's plausible we might start to integrate robots in similar ways.
93
315813
3849
נראה לי הגיוני שנתחיל לשלב רובוטים באופן דומה.
05:21
And sure, animals are alive.
94
321484
3096
וכמובן, בעלי חיים הם חיים.
05:24
Robots are not.
95
324604
1150
רובוטים אינם חיים.
05:27
And I can tell you, from working with roboticists,
96
327626
2580
ואני יכולה לספר לכן, מעבודתי בתחום הרובוטיקה,
05:30
that we're pretty far away from developing robots that can feel anything.
97
330230
3522
שאנחנו רחוקים מאוד מהיכולת לפתח רובוטים בעלי רגשות.
05:35
But we feel for them,
98
335072
1460
אבל אנחנו מזדהים איתם,
05:37
and that matters,
99
337835
1207
וזה חשוב,
05:39
because if we're trying to integrate robots into these shared spaces,
100
339066
3627
כי אם אנחנו מנסים להכניס רובוטים לחללים המשותפים הללו,
05:42
we need to understand that people will treat them differently than other devices,
101
342717
4628
אנחנו צריכים להבין שאנשים יתייחסו אליהם אחרת מאשר למכשירים אחרים,
05:47
and that in some cases,
102
347369
1844
ושבמקרים מסויימים,
05:49
for example, the case of a soldier who becomes emotionally attached
103
349237
3172
לדוגמה, במקרה של חייל שנקשר רגשית
05:52
to the robot that they work with,
104
352433
2047
לרובוט שעבד איתו,
05:54
that can be anything from inefficient to dangerous.
105
354504
2504
זה יכול להיות לא יעיל ואף מסוכן.
05:58
But in other cases, it can actually be useful
106
358551
2138
אבל במקרים אחרים, זה יכול להיות שימושי
06:00
to foster this emotional connection to robots.
107
360713
2623
לחזק את הקשר הרגשי לרובוטים.
06:04
We're already seeing some great use cases,
108
364184
2134
אנחנו כבר רואים מקרים כאלו.
06:06
for example, robots working with autistic children
109
366342
2604
לדוגמה, רובוטים שעובדים עם ילדים אוטיסטים
06:08
to engage them in ways that we haven't seen previously,
110
368970
3634
ומצליחים להגיע אליהם באופנים חדשים,
06:12
or robots working with teachers to engage kids in learning with new results.
111
372628
4000
או רובוטים שעובדים עם מורים לאתגר תלמידים שמראים תוצאות חדשות.
06:17
And it's not just for kids.
112
377433
1381
וזה לא רק עבור ילדים.
06:19
Early studies show that robots can help doctors and patients
113
379750
3223
מחקרים ראשוניים מראים שרובוטים יכולים לעזור לרופאים ולמטופלים
06:22
in health care settings.
114
382997
1427
לנהל טוב יותר את הטיפול הרפואי.
06:25
This is the PARO baby seal robot.
115
385535
1810
זה רובוט בצורת כלב-ים תינוק של חברת PARO
06:27
It's used in nursing homes and with dementia patients.
116
387369
3285
משתמשים בו בבתי אבות ובאופן כללי עבור חולי דמנציה.
06:30
It's been around for a while.
117
390678
1570
הוא נמצא בשימוש כבר זמן מה.
06:32
And I remember, years ago, being at a party
118
392272
3325
ואני זוכרת שלפני שנים, הייתי במסיבה
06:35
and telling someone about this robot,
119
395621
2571
וסיפרתי למישהי על הרובוט הזה.
06:38
and her response was,
120
398216
2126
והתגובה שלה היתה,
06:40
"Oh my gosh.
121
400366
1262
"אלוהים אדירים.
06:42
That's horrible.
122
402508
1188
זה איום ונורא.
06:45
I can't believe we're giving people robots instead of human care."
123
405056
3397
אני לא מאמינה שאנחנו נותנים לאנשים רובוטים במקום טיפול אנושי."
06:50
And this is a really common response,
124
410540
1875
זו תגובה נפוצה,
06:52
and I think it's absolutely correct,
125
412439
2499
ואני חושבת שהיא נכונה לחלוטין,
06:54
because that would be terrible.
126
414962
2040
כי זה באמת יהיה נורא.
06:57
But in this case, it's not what this robot replaces.
127
417795
2484
אבל במקרה הזה, הרובוט לא מחליף את הטיפול האנושי.
07:00
What this robot replaces is animal therapy
128
420858
3120
הרובוט הזה מחליף תרפיה ע"י טיפול בבע"ח
07:04
in contexts where we can't use real animals
129
424002
3198
במקרים בהם אי אפשר לתת למטופל לטפל בבעלי חיים אמיתיים
07:07
but we can use robots,
130
427224
1168
אבל אפשר להשתמש ברובוטים,
07:08
because people will consistently treat them more like an animal than a device.
131
428416
5230
כי אנשים מתייחסים אליהם כמו אל בעלי חיים ולא כמו אל מכשירים.
07:15
Acknowledging this emotional connection to robots
132
435502
2380
אם נכיר בקשר הרגשי הזה עם הרובוטים
07:17
can also help us anticipate challenges
133
437906
1969
נהיה מסוגלים לצפות את האתגרים שנכונים לנו
07:19
as these devices move into more intimate areas of people's lives.
134
439899
3451
כשהמכשירים הללו יכנסו לתחומים אישיים יותר בחיינו.
07:24
For example, is it OK if your child's teddy bear robot
135
444111
3404
לדוגמא, האם זה בסדר שהרובוט-צעצוע של הילד שלכם
07:27
records private conversations?
136
447539
2237
יקליט שיחות אישיות?
07:29
Is it OK if your sex robot has compelling in-app purchases?
137
449800
4063
האם זה בסדר שרובוט-הסקס שלכם יציע אפשרויות רכישה?
07:33
(Laughter)
138
453887
1396
(צחוק)
07:35
Because robots plus capitalism
139
455307
2501
כי אם משלבים רובוטים וקפיטליזם
07:37
equals questions around consumer protection and privacy.
140
457832
3705
מקבלים סוגיות של פרטיות והגנה על הצרכן.
07:42
And those aren't the only reasons
141
462549
1612
ואלו אינן הסיבות היחידות
07:44
that our behavior around these machines could matter.
142
464185
2570
בגללן ההתנהגות שלנו כלפי המכונות האלו משנה.
07:48
A few years after that first initial experience I had
143
468747
3270
כמה שנים לאחר ההתנסות הראשונית שלי
07:52
with this baby dinosaur robot,
144
472041
2311
עם הרובוט בצורת דינוזאור תינוק
07:54
I did a workshop with my friend Hannes Gassert.
145
474376
2501
העברתי סדנא עם חברי הנס גאזרט
07:56
And we took five of these baby dinosaur robots
146
476901
2897
ולקחנו חמישה רובוטים כאלו
07:59
and we gave them to five teams of people.
147
479822
2453
ונתנו אותם לחמש קבוצות של אנשים.
08:02
And we had them name them
148
482299
1697
וביקשנו מהם לתת להם שמות
08:04
and play with them and interact with them for about an hour.
149
484020
3809
ולשחק איתם ולתקשר איתם במשך כשעה.
08:08
And then we unveiled a hammer and a hatchet
150
488707
2206
ואז חשפנו בפניהם פטיש וגרזן
08:10
and we told them to torture and kill the robots.
151
490937
2278
וביקשנו מהם לענות ולהרוג את הרובוטים.
08:13
(Laughter)
152
493239
3007
(צחוק)
08:16
And this turned out to be a little more dramatic
153
496857
2294
וזה הפך להיות יותר דרמטי
08:19
than we expected it to be,
154
499175
1278
מכפי שציפינו שזה יהיה,
08:20
because none of the participants would even so much as strike
155
500477
3072
כי אף אחד מהמשתתפים לא היה מוכן אפילו להכות
08:23
these baby dinosaur robots,
156
503573
1307
את הרובוט דינוזאור-תינוק,
08:24
so we had to improvise a little, and at some point, we said,
157
504904
5150
אז אילתרנו קצת, ובשלב מסויים אמרנו,
08:30
"OK, you can save your team's robot if you destroy another team's robot."
158
510078
4437
"בסדר, תוכלו להציל את הרובוט של הקבוצה שלכם אם תשמידו את הרובוט של הקבוצה השנייה."
08:34
(Laughter)
159
514539
1855
(צחוק)
08:36
And even that didn't work. They couldn't do it.
160
516839
2195
ואפילו אז לא הצלחנו. הם לא היו מסוגלים לעשות את זה.
08:39
So finally, we said,
161
519058
1151
אז לבסוף אמרנו,
08:40
"We're going to destroy all of the robots
162
520233
2032
"אנחנו הולכים להרוס את כל הרובוטים
08:42
unless someone takes a hatchet to one of them."
163
522289
2285
אלא אם כן מישהו מכן יכה באחד מהם בגרזן."
08:45
And this guy stood up, and he took the hatchet,
164
525586
3579
ובחור אחד נעמד, ולקח את הגרזן,
08:49
and the whole room winced as he brought the hatchet down
165
529189
2706
וכל החדר נרתע כשהוא הכה בגרזן
08:51
on the robot's neck,
166
531919
1780
על צוואר הרובוט,
08:53
and there was this half-joking, half-serious moment of silence in the room
167
533723
6338
והיתה דקת דומייה, חצי-בצחוק חצי-רצינית
09:00
for this fallen robot.
168
540085
1698
לזכרו של הרובוט.
09:01
(Laughter)
169
541807
1406
(צחוק)
09:03
So that was a really interesting experience.
170
543237
3694
זו הייתה חוויה מאוד מעניינת.
09:06
Now, it wasn't a controlled study, obviously,
171
546955
2459
ברור שזה לא היה ניסוי מבוקר,
09:09
but it did lead to some later research that I did at MIT
172
549438
2850
אבל הוא הוביל למחקר נוסף שערכתי ב-MIT
09:12
with Palash Nandy and Cynthia Breazeal,
173
552312
2228
עם פלש ננדי וסינתיה בריזיל,
09:14
where we had people come into the lab and smash these HEXBUGs
174
554564
3627
שבו הכנסנו אנשים למעבדה וביקשנו מהם לרמוס רובוטי HEXBUG
09:18
that move around in a really lifelike way, like insects.
175
558215
3087
שהתרוצצו על הרצפה ממש כמו חרקים אמתיים.
09:21
So instead of choosing something cute that people are drawn to,
176
561326
3134
במקום לבחור משהו חמוד שאנשים נמשכים אליו,
09:24
we chose something more basic,
177
564484
2093
בחרנו משהו יותר בסיסי
09:26
and what we found was that high-empathy people
178
566601
3480
וגילינו שאנשים מאוד אמפתיים
09:30
would hesitate more to hit the HEXBUGS.
179
570105
2143
היססו יותר לפגוע ב-HEXBUG.
09:33
Now this is just a little study,
180
573575
1564
זה רק מחקר אחד קטן,
09:35
but it's part of a larger body of research
181
575163
2389
אבל הוא חלק מגוף ידע הולך וגדל
09:37
that is starting to indicate that there may be a connection
182
577576
2944
שמצביע על קשר אפשרי
09:40
between people's tendencies for empathy
183
580544
2373
בין היכולת של אנשים לגלות אמפתיה
09:42
and their behavior around robots.
184
582941
1976
להתנהגות שלהם כלפי רובוטים.
09:45
But my question for the coming era of human-robot interaction
185
585721
3627
אבל השאלה שלי, עבור העידן המתקרב של אינטראקציה בין רובוטים לבני אדם
09:49
is not: "Do we empathize with robots?"
186
589372
3055
אינה: "האם אנו מרגישים אמפתיה כלפי רובוטים?"
09:53
It's: "Can robots change people's empathy?"
187
593211
2920
אלא: "האם רובוטים יכולים לשנות את היכולת של אנשים לחוש אמפתיה?"
09:57
Is there reason to, for example,
188
597489
2287
האם יש סיבה, לדוגמא,
09:59
prevent your child from kicking a robotic dog,
189
599800
2333
למנוע מילד לבעוט בכלב רובוטי,
10:03
not just out of respect for property,
190
603228
2914
לא כדי ללמד אותו כבוד לרכוש,
10:06
but because the child might be more likely to kick a real dog?
191
606166
2953
אלא כיוון שהוא עלול לבעוט בעתיד בכלבים אמתיים?
10:10
And again, it's not just kids.
192
610507
1883
ושוב, לא מדובר רק בילדים.
10:13
This is the violent video games question, but it's on a completely new level
193
613564
4056
זו אותה שאלה שעולה לגבי משחקי וידאו אלימים, אבל ברמה אחרת לגמרי
10:17
because of this visceral physicality that we respond more intensely to
194
617644
4760
כי אנחנו מגיבים בעוצמה גבוהה הרבה יותר לעצמים פיזיים
10:22
than to images on a screen.
195
622428
1547
מאשר לתמונות על מסך.
10:25
When we behave violently towards robots,
196
625674
2578
כשאנחנו אלימים כלפי רובוטים,
10:28
specifically robots that are designed to mimic life,
197
628276
3120
במיוחד רובוטים שעוצבו כך שהם מחקים חיים,
10:31
is that a healthy outlet for violent behavior
198
631420
3892
האם זאת דרך בריאה לשחרר יצרים אלימים
10:35
or is that training our cruelty muscles?
199
635336
2544
או אימון של שריר האכזריות שלנו?
10:39
We don't know ...
200
639511
1150
אנחנו לא יודעים...
10:42
But the answer to this question has the potential to impact human behavior,
201
642622
3945
אבל לתשובה על השאלה הזו יש את היכולת להשפיע על ההתנהגות האנושית,
10:46
it has the potential to impact social norms,
202
646591
2768
יש לה את היכולת להשפיע על הנורמות החברתיות,
10:49
it has the potential to inspire rules around what we can and can't do
203
649383
3849
יש לה את היכולת לעצב חוקים לגבי מה מותר ואסור
10:53
with certain robots,
204
653256
1151
לעשות עם רובוטים מסוג מסויים,
10:54
similar to our animal cruelty laws.
205
654431
1848
בדומה לחוקי צער בעלי חיים.
10:57
Because even if robots can't feel,
206
657228
2864
כיוון שאפילו אם רובוטים אינם מרגישים דבר,
11:00
our behavior towards them might matter for us.
207
660116
3080
ההתנהגות שלנו כלפיהם עלולה לשנות אותנו.
11:04
And regardless of whether we end up changing our rules,
208
664889
2855
ובין אם בסופו של דבר נשנה את החוקים או לא
11:08
robots might be able to help us come to a new understanding of ourselves.
209
668926
3556
הרובוטים יכולים לעזור לנו להבין את עצמנו טוב יותר.
11:14
Most of what I've learned over the past 10 years
210
674276
2316
לרוב מה שלמדתי בעשר השנים האחרונות
11:16
has not been about technology at all.
211
676616
2238
לא היה כל קשר לטכנולוגיה.
11:18
It's been about human psychology
212
678878
2503
למדתי על הפסיכולוגיה האנושית
11:21
and empathy and how we relate to others.
213
681405
2603
על אמפתיה ועל איך שאנחנו מתייחסים האחד לשני.
11:25
Because when a child is kind to a Roomba,
214
685524
2365
כי כשילד מגלה חמלה כלפי רובוט שואב-אבק,
11:29
when a soldier tries to save a robot on the battlefield,
215
689262
4015
כשחייל מנסה להציל רובוט בשדה הקרב,
11:33
or when a group of people refuses to harm a robotic baby dinosaur,
216
693301
3638
או כשקבוצת אנשים מסרבת לפגוע בדינוזאור-תינוק רובוטי,
11:38
those robots aren't just motors and gears and algorithms.
217
698248
3191
הרובוטים האלו אינם רק מנוע וגלגלי שיניים ואלגוריתמים.
11:42
They're reflections of our own humanity.
218
702501
1905
הם השתקפויות של האנושיות שלנו.
11:45
Thank you.
219
705523
1151
תודה.
11:46
(Applause)
220
706698
3397
(מחיאות כפיים)
על אתר זה

אתר זה יציג בפניכם סרטוני YouTube המועילים ללימוד אנגלית. תוכלו לראות שיעורי אנגלית המועברים על ידי מורים מהשורה הראשונה מרחבי העולם. לחץ פעמיים על הכתוביות באנגלית המוצגות בכל דף וידאו כדי להפעיל את הסרטון משם. הכתוביות גוללות בסנכרון עם הפעלת הווידאו. אם יש לך הערות או בקשות, אנא צור איתנו קשר באמצעות טופס יצירת קשר זה.

https://forms.gle/WvT1wiN1qDtmnspy7