Why we have an emotional connection to robots | Kate Darling

137,694 views ・ 2018-11-06

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

00:00
Translator: Joseph Geni Reviewer: Krystian Aparta
0
0
7000
Translator: ahmad rahbari Reviewer: sadegh zabihi
00:13
There was a day, about 10 years ago,
1
13047
2508
یک روز حدوداً ۱۰ سال قبل،
00:15
when I asked a friend to hold a baby dinosaur robot upside down.
2
15579
3944
از دوستی خواستم روبات بچه دایناسور را وارونه نگه‌دارد.
00:21
It was this toy called a Pleo that I had ordered,
3
21889
3446
اسم این عروسک پلیو نام داشت که سفارش داده بودم،
00:25
and I was really excited about it because I've always loved robots.
4
25359
4401
و من واقعاً برای داشتن آن هیجان زده بودم زیرا همیشه روبات‌ها را دوست داشتنم.
00:29
And this one has really cool technical features.
5
29784
2279
و این یکی واقعاً ویژگی‌های فنی جالبی داشت.
00:32
It had motors and touch sensors
6
32087
2119
دارای موتور، سنسور لمسی
00:34
and it had an infrared camera.
7
34230
2244
و دوربین مادون قرمز بود.
00:36
And one of the things it had was a tilt sensor,
8
36498
2763
و سنسور شیب، یکی دیگر از چیز‌هایی که آن داشت.
00:39
so it knew what direction it was facing.
9
39285
2318
بنابراین می‌دانست به چه سمتی قرار دارد.
00:42
And when you held it upside down,
10
42095
2134
و وقتی شما آن را وارونه نگه می‌داشتید،
00:44
it would start to cry.
11
44253
1572
آن شروع به گریه می‌کرد.
00:46
And I thought this was super cool, so I was showing it off to my friend,
12
46527
3496
و من فکر کردم این فوق العاده جالب است بنابراین من آن را به دوستم نشان دادم
00:50
and I said, "Oh, hold it up by the tail. See what it does."
13
50047
2805
و به او گفتم، "اُه، دم این را بگیر، ببین چکار می‌کند."
00:55
So we're watching the theatrics of this robot
14
55268
3625
ما نمایش این روبات را نظاره می‌کردیم.
00:58
struggle and cry out.
15
58917
2199
تقلا و زاری کردن.
01:02
And after a few seconds,
16
62767
2047
و بعد از چند ثانیه،
01:04
it starts to bother me a little,
17
64838
1972
آن کمی موجب رنجش خاطرم شد،
01:07
and I said, "OK, that's enough now.
18
67744
3424
و من گفتم، "خوب، کافیه.
01:11
Let's put him back down."
19
71930
2305
بیا بگذاریمش زمین."
01:14
And then I pet the robot to make it stop crying.
20
74259
2555
من روبات را نوازش کردم تا گریه‌اش متوقف شد.
01:18
And that was kind of a weird experience for me.
21
78973
2452
و این یک تجربه عجیب برای من بود.
01:22
For one thing, I wasn't the most maternal person at the time.
22
82084
4569
آن زمان من برای روبات، مانند مادر بودم.
01:26
Although since then I've become a mother, nine months ago,
23
86677
2731
اگرچه از آن زمان به بعد، یعنی ۹ ماه پیش من مادر شدم.
01:29
and I've learned that babies also squirm when you hold them upside down.
24
89432
3433
و من یادگرفتم هنگامیکه بچه‌ها را سر و ته بگیریم بچه‌ها ناراحت می‌شوند.
01:32
(Laughter)
25
92889
1563
(خنده)
01:35
But my response to this robot was also interesting
26
95023
2358
اما واکنش من به این روبات جالب بود.
01:37
because I knew exactly how this machine worked,
27
97405
4101
زیرا من حقیقتاً درک کردم چطور این ماشین کار کرد،
01:41
and yet I still felt compelled to be kind to it.
28
101530
3262
و هنوز احساس می‌کنم مجبورم با آن مهربان باشم.
01:46
And that observation sparked a curiosity
29
106450
2707
و آن مشاهدات حس کنجکاوی من را برانگیخت
01:49
that I've spent the past decade pursuing.
30
109181
2832
که من ده سال گذشته را دنبال کرده‌ام.
01:52
Why did I comfort this robot?
31
112911
1793
چرا من این روبات را راحت کردم؟
01:56
And one of the things I discovered was that my treatment of this machine
32
116228
3579
و یکی از چیز‌هایی که من به آن پی بردم طرز رفتار من با این دستگاه بود
01:59
was more than just an awkward moment in my living room,
33
119831
3701
برای بیش از یک لحظه نامتعارف در اتاق نشیمنم،
02:03
that in a world where we're increasingly integrating robots into our lives,
34
123556
5420
که در دنیا ما به طور فزاینده‌ای روبات‌ها را در زندگی خود وارد کرده‌ایم،
02:09
an instinct like that might actually have consequences,
35
129000
3126
و غریزه بمانند این ممکن است واقعاً مشکلاتی را بهمراه داشته باشد.
02:13
because the first thing that I discovered is that it's not just me.
36
133452
3749
زیرا اولین چیزی که من کشف کردم این است که فقط من نیستم.
02:19
In 2007, the Washington Post reported that the United States military
37
139249
4802
در سال ۲۰۰۷، واشنگتن پست گزارش داد که ارتش ایالات متحده
02:24
was testing this robot that defused land mines.
38
144075
3230
آزمایشی روی روبات خنثی‌ساز مین‌های باقیمانده در زمین انجام داده است.
02:27
And the way it worked was it was shaped like a stick insect
39
147329
2912
روشی که این روبات کار می‌کند مانند حشره‌ای تحت نام چوبک است
02:30
and it would walk around a minefield on its legs,
40
150265
2651
وبا پا‌های خود برروی منطقه مین‌گذاری شده راه می‌رود.
02:32
and every time it stepped on a mine, one of the legs would blow up,
41
152940
3206
و هر زمانی که روی یک مین گام برمی‌دارد یکی از پاهاش منفجر خواهد شد،
02:36
and it would continue on the other legs to blow up more mines.
42
156170
3057
و مسیر را با پا‌های باقیمانده خود ادامه خواهد داد تا مین‌های بیشتری را منفجر کند.
02:39
And the colonel who was in charge of this testing exercise
43
159251
3786
و سرهنگی که مسئول این آزمایش بود
02:43
ends up calling it off,
44
163061
2118
فرمان توقف می‌داد،
02:45
because, he says, it's too inhumane
45
165203
2435
بدلیل اینکه او می‌گفت، این عمل خیلی غیرانسانی است
02:47
to watch this damaged robot drag itself along the minefield.
46
167662
4516
تماشای این روبات آسیب‌دیده که خود را در امتداد میدان مین می‌کشد.
02:54
Now, what would cause a hardened military officer
47
174978
3897
در حال حاضر، چه چیزی باعث خواهد شد یک افسر ارتش مقاوم و خشن
02:58
and someone like myself
48
178899
2043
و شخصی همچون من
03:00
to have this response to robots?
49
180966
1857
اینچنین واکنشی در برابر روبات‌ها داشته باشد؟
03:03
Well, of course, we're primed by science fiction and pop culture
50
183537
3310
خوب، البته، با علوم تخیلی و رسم و رسوم رایج بارآمدیم
03:06
to really want to personify these things,
51
186871
2579
و واقعاً می‌خواهیم به این‌ها شخصیت بدهیم و همزاد پنداری کنیم،
03:09
but it goes a little bit deeper than that.
52
189474
2789
اما در این خصوص کمی افراط داریم.
03:12
It turns out that we're biologically hardwired to project intent and life
53
192287
5309
به نظر می‌رسد که ما از نظر بیولوژیکی چشم انداز‌های برنامه‌ها و زندگیمان را
03:17
onto any movement in our physical space that seems autonomous to us.
54
197620
4766
به هر اقدامی در فضای مستقل اطرافمان متصل نموده‌ایم.
03:23
So people will treat all sorts of robots like they're alive.
55
203214
3465
بنابراین مردم با روبات‌ها همچون موجودات زنده رفتار می‌کنند.
03:26
These bomb-disposal units get names.
56
206703
2683
واحد‌های خنثی‌سازی بمب نام‌گذاری می‌شوند.
03:29
They get medals of honor.
57
209410
1682
مدال افتخار می‌گیرند.
03:31
They've had funerals for them with gun salutes.
58
211116
2325
برای آن‌ها مراسم نظامی تدفین گرفته می‌شود.
03:34
And research shows that we do this even with very simple household robots,
59
214380
3833
و تحقیقات نشان می‌دهد ما حتی با روبات‌های کوچک خانه‌دار خود این کار را می‌کنیم.
03:38
like the Roomba vacuum cleaner.
60
218237
2135
همچون روبات جاروبرقی.
03:40
(Laughter)
61
220396
1291
(خنده)
03:41
It's just a disc that roams around your floor to clean it,
62
221711
3089
آن شبیه یک بشقابی است که در طبقات شما برای تمیز کردن پرسه می‌زند،
03:44
but just the fact it's moving around on its own
63
224824
2306
اما در واقع حرکت در اطراف محدوده خودش
03:47
will cause people to name the Roomba
64
227154
2167
سبب شد که مردم آن را رومبا بنامند
03:49
and feel bad for the Roomba when it gets stuck under the couch.
65
229345
3182
و برای رومبا ناراحت شوند وقتی زیر فرش گیر می‌افتد.
03:52
(Laughter)
66
232551
1865
(خنده)
03:54
And we can design robots specifically to evoke this response,
67
234440
3340
و ما بویژه می‌توانیم روبات‌ها را طراحی کنیم برای پاسخ‌های احساسی
03:57
using eyes and faces or movements
68
237804
3461
با استفاده از چشم‌ها و حالت‎‌های چهره یا حرکات بدنی
04:01
that people automatically, subconsciously associate
69
241289
3259
بطوریکه ناخوداگاه انسان‌ها
04:04
with states of mind.
70
244572
2020
وابستگی پیدا می‌کنند.
04:06
And there's an entire body of research called human-robot interaction
71
246616
3293
و موضوع تحقیقاتی تحت عنوان روابط انسان-روبات وجود دارد.
04:09
that really shows how well this works.
72
249933
1826
که بدرستی چگونگی این روابط را نشان می‌دهد.
04:11
So for example, researchers at Stanford University found out
73
251783
3126
برای مثال، پژوهشگران دانشگاه استفورد پی بردند که
04:14
that it makes people really uncomfortable
74
254933
2001
واقعاً احساس انسان‌ها را ناخوشایند می‌کند
04:16
when you ask them to touch a robot's private parts.
75
256958
2472
وقتی شما بخواهید تا بخش‌های خصوصی روبات‌ها را لمس کنید.
04:19
(Laughter)
76
259454
2120
(خنده)
04:21
So from this, but from many other studies,
77
261598
2023
ما در این تحقیقات دانستیم که
04:23
we know, we know that people respond to the cues given to them
78
263645
4223
انسان‌ها به این حالت‌های احساسی
04:27
by these lifelike machines,
79
267892
2022
این ماشین‌های به ظاهر زنده واکنش نشان می‌دهند،
04:29
even if they know that they're not real.
80
269938
2017
حتی اگر بدانند که واقعاً آن‌ها زنده نیستند.
04:33
Now, we're headed towards a world where robots are everywhere.
81
273654
4056
حالا، ما به سمت دنیایی می‌رویم که روبات‌ها همه جا وجود خواهند داشت.
04:37
Robotic technology is moving out from behind factory walls.
82
277734
3065
تکنولوژی روباتیک از پشت دیوار‌های کارخانه‌ها بیرون می‌آیند.
04:40
It's entering workplaces, households.
83
280823
3013
به مکان‌های اشتغال و زندگی ما وارد می‌شوند
04:43
And as these machines that can sense and make autonomous decisions and learn
84
283860
6209
و این ماشین‌ها با توانایی احساسی، یادگیری و تصمیم‌سازی مستقل،
04:50
enter into these shared spaces,
85
290093
2552
به محدوده روابط قدم می‌گذارند،
04:52
I think that maybe the best analogy we have for this
86
292669
2496
به نظر من شاید ارتباطی که ما با حیوانات داریم
04:55
is our relationship with animals.
87
295189
1935
بهترین قرابت و همخوانی را با این قضیه داشته باشد.
04:57
Thousands of years ago, we started to domesticate animals,
88
297523
3888
چندین هزار سال پیش ما اقدام به اهلی کردن حیوانات نمودیم.
05:01
and we trained them for work and weaponry and companionship.
89
301435
4045
و حیوانات را به منظور کار، اقدامات نظامی و مصاحبت آموزش دادیم.
05:05
And throughout history, we've treated some animals like tools or like products,
90
305504
4985
و در سرتاسر تاریخ، ما با برخی از حیوانات همچون ابزار یا کالا رفتار کردیم،
05:10
and other animals, we've treated with kindness
91
310513
2174
و با دیگر حیوانات با مهربانی رفتار کردیم
05:12
and we've given a place in society as our companions.
92
312711
3078
و به آن‌ها طبقه اجتماعی همچون دوست و همدم دادیم.
05:15
I think it's plausible we might start to integrate robots in similar ways.
93
315813
3849
به نظر من این احتمال وجود دارد که ما با روباتها رفتار مشابه‌ای را آغاز نماییم.
05:21
And sure, animals are alive.
94
321484
3096
و به طور قطع، حیوانات زنده هستند
05:24
Robots are not.
95
324604
1150
اما روبات‌ها نه.
05:27
And I can tell you, from working with roboticists,
96
327626
2580
و ما براساس شناختی که از علوم روباتیک دارم، می‌توانم به شما بگویم،
05:30
that we're pretty far away from developing robots that can feel anything.
97
330230
3522
که ما کاملاً از روبات‌های توسعه یافته که قادر به احساس همه چیز باشند فاصله داریم.
05:35
But we feel for them,
98
335072
1460
اما ما برای آن‌ها احساس می‌کنیم،
05:37
and that matters,
99
337835
1207
و این مهم است،
05:39
because if we're trying to integrate robots into these shared spaces,
100
339066
3627
زیرا ما سعی می‌کنیم روبات‌ها را وارد فضای ارتباطی خود کنیم،
05:42
we need to understand that people will treat them differently than other devices,
101
342717
4628
ما باید درک کنیم که انسان‌ها با روبات‌ها متفاوت از دیگر وسایل رفتار می‌کنند،
05:47
and that in some cases,
102
347369
1844
و در برخی از موارد برای مثال،
05:49
for example, the case of a soldier who becomes emotionally attached
103
349237
3172
در مورد سربازی که به صورت احساسی
05:52
to the robot that they work with,
104
352433
2047
با روبات ارتباط برقرار می‌کند،
05:54
that can be anything from inefficient to dangerous.
105
354504
2504
که می‌تواند هر رفتاری از بی‌کفایتی تا مخاطره‌انگیز باشد.
05:58
But in other cases, it can actually be useful
106
358551
2138
اما در پاره‌ای از موارد
06:00
to foster this emotional connection to robots.
107
360713
2623
آموزش روابط احساسی به روبات‌ها واقعاً می‌تواند مفید باشد.
06:04
We're already seeing some great use cases,
108
364184
2134
ما موارد مصرف قابل توجهی از روبات‌ها دیده‌ایم
06:06
for example, robots working with autistic children
109
366342
2604
برای مثال روبات‌ها با کودکان اوتیسمی کار می‌کنند
06:08
to engage them in ways that we haven't seen previously,
110
368970
3634
و آنگونه آنها را سرگرم می‌کنند که ما قبلاً شاهد نبوده‌ایم،
06:12
or robots working with teachers to engage kids in learning with new results.
111
372628
4000
یا نتایج جدید یاری رساندن روبات‌ها به معلمین در آموزش کودکان.
06:17
And it's not just for kids.
112
377433
1381
و آن تنها برای کودکان نیست.
06:19
Early studies show that robots can help doctors and patients
113
379750
3223
مطالعات اخیر نشان داده که روباتها قادرند تا دکترها یا بیماران را
06:22
in health care settings.
114
382997
1427
در زمینه مراقبت‌های بهداشتی یاری دهند.
06:25
This is the PARO baby seal robot.
115
385535
1810
این یک روبات بچه فُک به نام پارو است.
06:27
It's used in nursing homes and with dementia patients.
116
387369
3285
پارو در خانه سالمندان و با بیماران مبتلا به فراموشی استفاده می‌شود.
06:30
It's been around for a while.
117
390678
1570
برای مدتی استفاده شده است.
06:32
And I remember, years ago, being at a party
118
392272
3325
و من بخاطر دارم، سال‌ها پیش، در یک مهمانی
06:35
and telling someone about this robot,
119
395621
2571
با کسی درباره این روبات صحبت کردم،
06:38
and her response was,
120
398216
2126
و واکنش آن شخص این بود،
06:40
"Oh my gosh.
121
400366
1262
"وای خدای من.
06:42
That's horrible.
122
402508
1188
وحشتناک است.
06:45
I can't believe we're giving people robots instead of human care."
123
405056
3397
باور نمی‌کنم به روبات‌ها نقش‌های مراقبتی همچون انسان‌ها داده شود."
06:50
And this is a really common response,
124
410540
1875
و این واقعاً واکنشی متعارف بود،
06:52
and I think it's absolutely correct,
125
412439
2499
و من فکر می‌کنم کاملاً درست است،
06:54
because that would be terrible.
126
414962
2040
بدلیل آنکه آن واقعاً وحشتناک است.
06:57
But in this case, it's not what this robot replaces.
127
417795
2484
اما در این مورد، روبات قابل جایگزینی نیست.
07:00
What this robot replaces is animal therapy
128
420858
3120
این روبات جایگزین حیوان درمان است.
07:04
in contexts where we can't use real animals
129
424002
3198
در مواردی که ما قادر به استفاده از حیوانات واقعی نیستیم
07:07
but we can use robots,
130
427224
1168
اما می‌توانیم از روبات‌ها استفاده کنیم،
07:08
because people will consistently treat them more like an animal than a device.
131
428416
5230
چون انسان‌ها با آن‌ها بیشتر به عنوان حیوان رفتار می‌کنند تا روبات.
07:15
Acknowledging this emotional connection to robots
132
435502
2380
شناخت این روابط عاطفی با روبات‌ها
07:17
can also help us anticipate challenges
133
437906
1969
همچنین می‌تواند ما را در پیش‌بینی چالش‌های آینده یاری دهد
07:19
as these devices move into more intimate areas of people's lives.
134
439899
3451
همانطور که این وسایل به محیط شخصی زندگی مردم وارد می‌شوند.
07:24
For example, is it OK if your child's teddy bear robot
135
444111
3404
برای مثال، آیا خوب است که روبات اسباب‌بازی خرس تدی
07:27
records private conversations?
136
447539
2237
مکالمات شخصی شما را ضبط کند؟
07:29
Is it OK if your sex robot has compelling in-app purchases?
137
449800
4063
آیا خوب است روبات سکس شما خریدهای جالب توجه درون-نرم‌افزاری داشته باشد؟
07:33
(Laughter)
138
453887
1396
(خنده)
07:35
Because robots plus capitalism
139
455307
2501
بدلیل اینکه روبات بعلاوه سیستم سرمایه‌داری
07:37
equals questions around consumer protection and privacy.
140
457832
3705
مساوی است با پرسش‌هایی در خصوص حقوق و حریم شخصی مشتری.
07:42
And those aren't the only reasons
141
462549
1612
و موارد اشاره شده تنها دلیل بر این نیستند
07:44
that our behavior around these machines could matter.
142
464185
2570
که رفتار ما با این وسایل می‌تواند مهم باشد.
07:48
A few years after that first initial experience I had
143
468747
3270
چندین سال بعد از اولین تجربه‌ای که من با
07:52
with this baby dinosaur robot,
144
472041
2311
روبات اسباب‌بازی دایناسور داشتم،
07:54
I did a workshop with my friend Hannes Gassert.
145
474376
2501
من کارگاه آموزشی با دوستم هانس گسرت داشتم.
07:56
And we took five of these baby dinosaur robots
146
476901
2897
و ما ۵ عدد از این روبات‌های دایناسور دریافت کردیم
07:59
and we gave them to five teams of people.
147
479822
2453
و آن‌ها را به ۵ گروه از مردم دادیم.
08:02
And we had them name them
148
482299
1697
و از آنها خواستیم روی آنها نام بگذارند
08:04
and play with them and interact with them for about an hour.
149
484020
3809
وبرای حدود یک ساعت با آن‌ها بازی کنند و با آن‌ها ارتباط برقرار کنند.
08:08
And then we unveiled a hammer and a hatchet
150
488707
2206
و سپس ما یک چکش و یک تبر نشان دادیم
08:10
and we told them to torture and kill the robots.
151
490937
2278
و گفتیم که روبات‌ها را شکنجه کنید و بکشید.
08:13
(Laughter)
152
493239
3007
(خنده)
08:16
And this turned out to be a little more dramatic
153
496857
2294
و کمی دراماتیک‌تر از آن چیزی شد
08:19
than we expected it to be,
154
499175
1278
که انتظارش را داشتیم،
08:20
because none of the participants would even so much as strike
155
500477
3072
چرا که هیچ یک از شرکت کنندگان حتی یک ضربه هم
08:23
these baby dinosaur robots,
156
503573
1307
به این روبات‌های دایناسور اسباب بازی نزدند،
08:24
so we had to improvise a little, and at some point, we said,
157
504904
5150
بنابراین مجبور شدیم کمی بداهه‌پردازی کنیم و گفتیم،
08:30
"OK, you can save your team's robot if you destroy another team's robot."
158
510078
4437
"خوب، شما می‌توانید روبات گروه خود را نگه دارید به شرطی که روبات گروه دیگر را متلاشی کنید."
08:34
(Laughter)
159
514539
1855
(خنده)
08:36
And even that didn't work. They couldn't do it.
160
516839
2195
و حتی این هم افاقه نکرد. آن‌ها دست به این کار نزدند.
08:39
So finally, we said,
161
519058
1151
پس در نهایت، ما گفتیم،
08:40
"We're going to destroy all of the robots
162
520233
2032
"ما قصد داریم تمامی روباتها را از بین ببریم
08:42
unless someone takes a hatchet to one of them."
163
522289
2285
مگر اینکه کسی به یکی از روباتها با تبر ضربه بزند."
08:45
And this guy stood up, and he took the hatchet,
164
525586
3579
و این شخص ایستاد و تبر را گرفت،
08:49
and the whole room winced as he brought the hatchet down
165
529189
2706
و در کل اتاق همهمه پیچید هنگامیکه او تبر را
08:51
on the robot's neck,
166
531919
1780
بر گردن روبات فرود آورد،
08:53
and there was this half-joking, half-serious moment of silence in the room
167
533723
6338
و سکوتی نیم شوخی، نیم جدی اتاق را گرفت
09:00
for this fallen robot.
168
540085
1698
برای روبات افتاده.
09:01
(Laughter)
169
541807
1406
(خنده)
09:03
So that was a really interesting experience.
170
543237
3694
این واقعاً آزمایش جالبی بود.
09:06
Now, it wasn't a controlled study, obviously,
171
546955
2459
بطور مشخص این یک مطالعه کنترل شده نبود،
09:09
but it did lead to some later research that I did at MIT
172
549438
2850
اما منجر به تحقیقات بعدی من در انستیتو تکنولوژی ماساچوست شد.
09:12
with Palash Nandy and Cynthia Breazeal,
173
552312
2228
با پالاش ناندی و سینتیا بریزیل،
09:14
where we had people come into the lab and smash these HEXBUGs
174
554564
3627
جاییکه مردم به آزمایشگاه ما می‌آیند و این روبات‌های هگزباگ را خراب می‌کنند
09:18
that move around in a really lifelike way, like insects.
175
558215
3087
که واقعاً مانند حشرات زنده به اطراف حرکت می‌کنند.
09:21
So instead of choosing something cute that people are drawn to,
176
561326
3134
بنابراین بجای انتخاب چیزی جالب که مردم را جذب کند،
09:24
we chose something more basic,
177
564484
2093
ما چیز خیلی ساده‌ای را انتخاب کردیم،
09:26
and what we found was that high-empathy people
178
566601
3480
و ما پی بردیم که انسان‌های خیلی دلسوز
09:30
would hesitate more to hit the HEXBUGS.
179
570105
2143
از ضربه زدن به روبات هگزباگس طفره رفتند.
09:33
Now this is just a little study,
180
573575
1564
این تقریباً یک بررسی کوچک بود،
09:35
but it's part of a larger body of research
181
575163
2389
اما بخشی از یک تحقیق وسیعتر
09:37
that is starting to indicate that there may be a connection
182
577576
2944
که نشان داد که ممکن است ارتباطی میان
09:40
between people's tendencies for empathy
183
580544
2373
گرایش انسان‌ها به همدلی و
09:42
and their behavior around robots.
184
582941
1976
رفتار آن‌ها با روبات‌ها وجود داشته باشد.
09:45
But my question for the coming era of human-robot interaction
185
585721
3627
اما پرسش ما برای دوره پیشرو از ارتباطات انسان-روبات این نیست:
09:49
is not: "Do we empathize with robots?"
186
589372
3055
" آیا ما با روباتها احساس همدرهی کنیم؟"
09:53
It's: "Can robots change people's empathy?"
187
593211
2920
بلکه "آیا روبات‌ها قادرند حس همدلی انسانها را تغییر دهند؟"
09:57
Is there reason to, for example,
188
597489
2287
برای مثال آیا دلیلی وجود دارد
09:59
prevent your child from kicking a robotic dog,
189
599800
2333
فرزندانمان را از ضربه زدن به یک سگ روباتیک
10:03
not just out of respect for property,
190
603228
2914
نه تنها بدلیل حفظ متعلقات باز بداریم،
10:06
but because the child might be more likely to kick a real dog?
191
606166
2953
بلکه به این دلیل که کودکان به احتمال زیاد سگ واقعی را می‌زنند؟
10:10
And again, it's not just kids.
192
610507
1883
و دوباره خاطر نشان می‌شود، این تنها مختص به کودکان نیست
10:13
This is the violent video games question, but it's on a completely new level
193
613564
4056
مسئله بازی‌های ویدیویی خشونت‌آمیز است، اما این یک سطح کاملاً جدید است
10:17
because of this visceral physicality that we respond more intensely to
194
617644
4760
بدلیل اینکه این یک واکنش ناخودآگاه شدیدی است که ما به تصاویر
10:22
than to images on a screen.
195
622428
1547
تلویزیون نشان می‌دهیم.
10:25
When we behave violently towards robots,
196
625674
2578
هنگامیکه ما رفتار شدیدی با روبات‌ها به ویژه
10:28
specifically robots that are designed to mimic life,
197
628276
3120
روبات‌های که برای تقلید زندگی طراحی شده‌اند،
10:31
is that a healthy outlet for violent behavior
198
631420
3892
آیا آن یک بازخورد درست برای رفتار خشونت آمیز است
10:35
or is that training our cruelty muscles?
199
635336
2544
یا آن که ابزار بی‌رحمی را پرورش می‌دهند؟
10:39
We don't know ...
200
639511
1150
ما نمی‌دانیم …
10:42
But the answer to this question has the potential to impact human behavior,
201
642622
3945
اما پاسخ به این پرسش دارای نقش تاثیرگذار بر رفتار انسانی است،
10:46
it has the potential to impact social norms,
202
646591
2768
دارای پتانسیل تاثیرگذاری بر هنجار‌های اجتماعی است،
10:49
it has the potential to inspire rules around what we can and can't do
203
649383
3849
دارای پتانسیل تاثیرگذار بر اصول الهام بخش در محدوده آنچه می‌توانیم و نمی‌توانیم
10:53
with certain robots,
204
653256
1151
با روبات‌های ویژه همچون
10:54
similar to our animal cruelty laws.
205
654431
1848
قوانین آزار حیوانات انجام دهیم.
10:57
Because even if robots can't feel,
206
657228
2864
زیرا اگرچه روبات‌ها قادر به احساس نیستند،
11:00
our behavior towards them might matter for us.
207
660116
3080
رفتار ما با آن‌ها ممکن است برای ما اهمیت داشته باشد.
11:04
And regardless of whether we end up changing our rules,
208
664889
2855
و فارغ از اینکه ما در نهایت قوانین‌مان تغییر بدهیم،
11:08
robots might be able to help us come to a new understanding of ourselves.
209
668926
3556
روبات‌ها باید قادر باشند تا ما را یاری دهند تا خودمان را بهتر بشناسیم.
11:14
Most of what I've learned over the past 10 years
210
674276
2316
بیشترین چیزی که من طی ۱۰ سال گذشته یاد گرفته‌ام
11:16
has not been about technology at all.
211
676616
2238
هرگز درباره تکنولوژی نبوده است.
11:18
It's been about human psychology
212
678878
2503
آن درباره روانشناسی انسان
11:21
and empathy and how we relate to others.
213
681405
2603
و همدلی و طریقه ارتباط ما با دیگران است.
11:25
Because when a child is kind to a Roomba,
214
685524
2365
زیرا هنگامیکه کودکی با روبات رومبا مهربان باشد،
11:29
when a soldier tries to save a robot on the battlefield,
215
689262
4015
هنگامیکه سربازی سعی می‌کند روباتی را در جبهه جنگ نجات دهد،
11:33
or when a group of people refuses to harm a robotic baby dinosaur,
216
693301
3638
یا هنگامیکه گروهی از مردم از آسیب زدن به یک روبات دایناسور سر بازمی‌زنند.
11:38
those robots aren't just motors and gears and algorithms.
217
698248
3191
این روباتها تنها موتور، چرخ دنده‌ها و الگوریتم‌ها نیستند.
11:42
They're reflections of our own humanity.
218
702501
1905
آن‌ها بازتاب انسانیت خود ما هستند.
11:45
Thank you.
219
705523
1151
متشکرم.
11:46
(Applause)
220
706698
3397
(تشویق)
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7