Why we have an emotional connection to robots | Kate Darling

137,191 views ・ 2018-11-06

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

00:00
Translator: Joseph Geni Reviewer: Krystian Aparta
0
0
7000
المترجم: Hani Eldalees المدقّق: Nada Qanbar
في أحد الأيام، قبل حوالي عشر سنوات،
00:13
There was a day, about 10 years ago,
1
13047
2508
00:15
when I asked a friend to hold a baby dinosaur robot upside down.
2
15579
3944
طلبت من صديق لي أن يمسك روبوت على شكل طفل ديناصور رأسًا على عقب.
00:21
It was this toy called a Pleo that I had ordered,
3
21889
3446
كانت لعبة إسمها "بليو" وقد اشتريتها سابقاً،
00:25
and I was really excited about it because I've always loved robots.
4
25359
4401
وكنت متحمسة للحصول عليها لأنني لطالما أحببت الروبوتات.
00:29
And this one has really cool technical features.
5
29784
2279
وكانت هذه اللعبة تحتوي على ميزات تقنية رائعة.
00:32
It had motors and touch sensors
6
32087
2119
كانت تحتوي على محركات وحساسات لمس
00:34
and it had an infrared camera.
7
34230
2244
وكذلك كاميرا بالأشعة تحت الحمراء.
00:36
And one of the things it had was a tilt sensor,
8
36498
2763
وأحد الأشياء التي كانت بها مستشعر للإمالة،
00:39
so it knew what direction it was facing.
9
39285
2318
لذا كانت تعرف الإتجاه الذي كانت توجه له.
00:42
And when you held it upside down,
10
42095
2134
وعندما كنت تمسكها رأسًا على عقب،
00:44
it would start to cry.
11
44253
1572
فإنها تبدأ بالبكاء.
00:46
And I thought this was super cool, so I was showing it off to my friend,
12
46527
3496
وخطر لي أن هذا أمر رائع، وكنت أرغب في عرضها لصديقي،
00:50
and I said, "Oh, hold it up by the tail. See what it does."
13
50047
2805
فقلت له: " أمسكها من الذيل، وشاهد ماذا ستفعل".
00:55
So we're watching the theatrics of this robot
14
55268
3625
بدأنا نشاهد التصرفات الدرامية التي بدأ يصدرها هذا الروبوت
00:58
struggle and cry out.
15
58917
2199
المعاناة والبكاء.
01:02
And after a few seconds,
16
62767
2047
وبعد بضع ثوان،
01:04
it starts to bother me a little,
17
64838
1972
بدأ الأمر يسبب لي الضيق قليلًا،
01:07
and I said, "OK, that's enough now.
18
67744
3424
وقلت: "يكفي هذا حتى الآن.
01:11
Let's put him back down."
19
71930
2305
لنضعه على الأرض مرة أخرى".
01:14
And then I pet the robot to make it stop crying.
20
74259
2555
ثم قمت بالمسح على رأس الروبوت لكي يتوقف عن البكاء.
01:18
And that was kind of a weird experience for me.
21
78973
2452
كانت هذه تجربة غريبة بالنسبة لي.
01:22
For one thing, I wasn't the most maternal person at the time.
22
82084
4569
لم تكن لدي مشاعر أمومة كبيرة في ذلك الوقت.
01:26
Although since then I've become a mother, nine months ago,
23
86677
2731
وقد أصبحت أمًا منذ ذلك الحين، منذ تسعة أشهر مضت،
01:29
and I've learned that babies also squirm when you hold them upside down.
24
89432
3433
كما تعملت أن الأطفال لايحبون عندما تمسكهم رأسًا على عقب.
01:32
(Laughter)
25
92889
1563
(ضحك)
01:35
But my response to this robot was also interesting
26
95023
2358
ولكن تفاعلي مع هذا الروبوت كان مثيرًا للاهتمام
01:37
because I knew exactly how this machine worked,
27
97405
4101
لأنني كنت أعرف طريقة عمل هذا الروبوت بالصبط،
01:41
and yet I still felt compelled to be kind to it.
28
101530
3262
وبالرغم من ذلك، شعرت أنني يجب أن أكون لطيفه معه.
01:46
And that observation sparked a curiosity
29
106450
2707
وقد أثارت تلك الملاحظة فضولي
01:49
that I've spent the past decade pursuing.
30
109181
2832
حيث قضيت العقد الماضي أحقق بها.
01:52
Why did I comfort this robot?
31
112911
1793
لماذا عملت على مراضاة هذا الروبوت؟
01:56
And one of the things I discovered was that my treatment of this machine
32
116228
3579
أحد الأشياء التي اكتشفتها أن طريقة تعاملي مع هذه الآلة
01:59
was more than just an awkward moment in my living room,
33
119831
3701
تتعدى تلك اللحظة الغريبة التي حدثت في غرفة معيشتي،
02:03
that in a world where we're increasingly integrating robots into our lives,
34
123556
5420
حيث أننا نعيش في عالم يتزايد به الدور الذي تلعبه الروبوتات في حياتنا،
02:09
an instinct like that might actually have consequences,
35
129000
3126
لأن غريزة كهذه يمكن أن يكون لها عواقب،
02:13
because the first thing that I discovered is that it's not just me.
36
133452
3749
لأن أول شيء اكتشفته أن هذا الأمر لاينحصر بي فقط.
02:19
In 2007, the Washington Post reported that the United States military
37
139249
4802
كتبت الواشنطن بوست تقريرًا عام 2007 أن جيش الولايات المتحدة
02:24
was testing this robot that defused land mines.
38
144075
3230
كان يختبر روبوت لكي يقوم بتفكيك الألغام.
02:27
And the way it worked was it was shaped like a stick insect
39
147329
2912
وهو مصمم على شكل حشرة العصى المتحركة وتمشي مثلها أيضًا
02:30
and it would walk around a minefield on its legs,
40
150265
2651
حيث أنها تمشي في حقل الألغام على أرجلها،
02:32
and every time it stepped on a mine, one of the legs would blow up,
41
152940
3206
وتنفجر إحدى الأرجل في كل مرة تطئ أحد الألغام،
02:36
and it would continue on the other legs to blow up more mines.
42
156170
3057
ثم تمشي على الأرجل الأخرى لكي تفجر ألغام إضافية.
02:39
And the colonel who was in charge of this testing exercise
43
159251
3786
وقد قام العقيد المسؤول عن الإختبار
02:43
ends up calling it off,
44
163061
2118
بإيقافه وإلغاءه،
02:45
because, he says, it's too inhumane
45
165203
2435
حيث يقول أنه عمل غير إنساني
02:47
to watch this damaged robot drag itself along the minefield.
46
167662
4516
أن نرى هذا الروبوت وهو يجر نفسه عبر حقل الألغام.
02:54
Now, what would cause a hardened military officer
47
174978
3897
ما الذي قد يدفع ضابط عسكري متمرس
02:58
and someone like myself
48
178899
2043
وشخص مثلي أنا
03:00
to have this response to robots?
49
180966
1857
ليكون لدينا ذات المشاعر للروبوتات؟
03:03
Well, of course, we're primed by science fiction and pop culture
50
183537
3310
نحن نتأثر بالثقافة المنتشرة والخيال العلمي
03:06
to really want to personify these things,
51
186871
2579
حيث نرغب في أن نمنحها شخصية كالإنسان،
03:09
but it goes a little bit deeper than that.
52
189474
2789
لكن الأمر أعمق من هذا.
03:12
It turns out that we're biologically hardwired to project intent and life
53
192287
5309
من الواضح أن بنيتنا البيولوجية تدفعنا لإعطاء صفة الحياة وهدف لوجود
03:17
onto any movement in our physical space that seems autonomous to us.
54
197620
4766
لكل ما يتحرك في فضائنا المادي ويكون غير معتمدًا علينا.
03:23
So people will treat all sorts of robots like they're alive.
55
203214
3465
لذا يتعامل الناس مع الروبوتات وكأنها كائن حي.
03:26
These bomb-disposal units get names.
56
206703
2683
يتم إطلاق أسماء على الوحدات التي تتخلص من القنابل.
03:29
They get medals of honor.
57
209410
1682
كما يحصلون على ميداليات الشرف.
03:31
They've had funerals for them with gun salutes.
58
211116
2325
وحصل بعضهم على جنازات مع تحية السلاح.
03:34
And research shows that we do this even with very simple household robots,
59
214380
3833
وتبين الأبحاث أننا نقوم بهذا مع أبسط روبوتات الأعمال المنزلية،
03:38
like the Roomba vacuum cleaner.
60
218237
2135
مثل مكنسة (رومبا) الآلية.
03:40
(Laughter)
61
220396
1291
(ضحك)
03:41
It's just a disc that roams around your floor to clean it,
62
221711
3089
هي عبارة عن قرص يتحرك في أرجاء الأرضية لتنظيفها،
03:44
but just the fact it's moving around on its own
63
224824
2306
ولكن حقيقة أنها تتحرك لوحدها
03:47
will cause people to name the Roomba
64
227154
2167
سيدفع الناس أن يعطوا أسماء لها
03:49
and feel bad for the Roomba when it gets stuck under the couch.
65
229345
3182
ويشعرون بالضيق اتجاهها عندما تنحشر تحت إحدى الآرائك.
03:52
(Laughter)
66
232551
1865
(ضحك)
03:54
And we can design robots specifically to evoke this response,
67
234440
3340
يمكننا تصميم روبوتات لكي تقوم بإثارة ردة الفعل هذه تحديدًا،
03:57
using eyes and faces or movements
68
237804
3461
بإستخدام الأعين والأوجه أو الحركات
04:01
that people automatically, subconsciously associate
69
241289
3259
بحيث يكون الناس رابطًا لا شعوريًا بشكل تلقائي
04:04
with states of mind.
70
244572
2020
مع الحالة الذهنية أو النفسية.
04:06
And there's an entire body of research called human-robot interaction
71
246616
3293
هناك مجموعة كاملة من الأبحاث تسمى التفاعل الإنساني مع الروبوتات
04:09
that really shows how well this works.
72
249933
1826
الذي يهتم بإظهار مدى نجاح هذا الأمر.
04:11
So for example, researchers at Stanford University found out
73
251783
3126
فمثلا، وجد الباحثون في جامعة ستانفورد
04:14
that it makes people really uncomfortable
74
254933
2001
أن الناس يكونوا غير مرتاحين إطلاقًا
04:16
when you ask them to touch a robot's private parts.
75
256958
2472
عندما تطلب منهم لمس أجزاء الروبوتات الخاصة.
04:19
(Laughter)
76
259454
2120
(ضحك)
04:21
So from this, but from many other studies,
77
261598
2023
من هذه الدراسة ومن دراسات أخرى مشابهه،
04:23
we know, we know that people respond to the cues given to them
78
263645
4223
نعرف أن الناس تتجاوب مع الإشارات التي تظهر لهم
04:27
by these lifelike machines,
79
267892
2022
من هذه الآلات التي هي أقرب ما تكون للحياة،
04:29
even if they know that they're not real.
80
269938
2017
حتى وإن كانوا يعلمون أنها ليست حية.
04:33
Now, we're headed towards a world where robots are everywhere.
81
273654
4056
نحن نتجه الآن لعالم توجد به الروبوتات في جميع نواحي الحياة.
04:37
Robotic technology is moving out from behind factory walls.
82
277734
3065
لم تعد تكنولوجيا الروبوتات محصورة في جدران المصانع.
04:40
It's entering workplaces, households.
83
280823
3013
بل بدأنا نجدها في أماكن عملنا ومنازلنا.
04:43
And as these machines that can sense and make autonomous decisions and learn
84
283860
6209
بدأت هذه الآلات التي تقدر أن تشعر وتتخذ قرارات مستقلة وتتعلم
04:50
enter into these shared spaces,
85
290093
2552
تتواجد في هذه الأماكن المشتركة،
04:52
I think that maybe the best analogy we have for this
86
292669
2496
أعتقد أن أفضل مثال يمكن أن نقدمه لهذه الحالة
04:55
is our relationship with animals.
87
295189
1935
هي علاقتنا مع الحيوانات.
04:57
Thousands of years ago, we started to domesticate animals,
88
297523
3888
حيث بدأنا نستأنس الحيوانات منذ آلاف السنوات،
05:01
and we trained them for work and weaponry and companionship.
89
301435
4045
دربناهم للقيام بأعمال أو ليكونوا سلاح ما أو ليكونوا رفقاء لنا.
05:05
And throughout history, we've treated some animals like tools or like products,
90
305504
4985
وقد عاملنا بعض هذه الحيوانات كأدوات أو بضائع على مر التاريخ،
05:10
and other animals, we've treated with kindness
91
310513
2174
وعاملنا أنواع أخرى برقة وحنان
05:12
and we've given a place in society as our companions.
92
312711
3078
وتم منحهم مكانة في المجتمع على أنهم رفقاء لنا.
05:15
I think it's plausible we might start to integrate robots in similar ways.
93
315813
3849
أعتقد أنه من الممكن أن نبدأ دمج الروبوتات بطرق مشابهه.
05:21
And sure, animals are alive.
94
321484
3096
وبالطبع، الحيوانات كائنات حية.
05:24
Robots are not.
95
324604
1150
بعكس الروبوتات.
05:27
And I can tell you, from working with roboticists,
96
327626
2580
ويمكنني أن أخبركم، من خلال عملي في مجال الروبوتات،
05:30
that we're pretty far away from developing robots that can feel anything.
97
330230
3522
أننا بعيدين للغاية من تطوير روبوت قادر على الإحساس بأي شيء.
05:35
But we feel for them,
98
335072
1460
ولكننا نمتلك أحاسيس نحوها،
05:37
and that matters,
99
337835
1207
وهذا شيء مهم،
05:39
because if we're trying to integrate robots into these shared spaces,
100
339066
3627
لأننا إن كنا نحاول دمج الروبوتات في تلك الأماكن المشتركة،
05:42
we need to understand that people will treat them differently than other devices,
101
342717
4628
يتوجب علينا أن نعلم أن الناس ستتعامل معها بطريقة تختلف عن الأجهزة الأخرى،
05:47
and that in some cases,
102
347369
1844
كما في بعض الحالات،
05:49
for example, the case of a soldier who becomes emotionally attached
103
349237
3172
مثل الجندي الذي يصبح لديه إرتباط عاطفي
05:52
to the robot that they work with,
104
352433
2047
مع الروبوت الذي يعمل معه،
05:54
that can be anything from inefficient to dangerous.
105
354504
2504
والذي يمكن أن يكون أمرًا خطيرًا أو يصبح غير فعال.
05:58
But in other cases, it can actually be useful
106
358551
2138
ولكنه قد يكون مفيدًا في حالات أخرى،
06:00
to foster this emotional connection to robots.
107
360713
2623
أن نعزز هذا الإتصال العاطفي مع الروبوتات.
06:04
We're already seeing some great use cases,
108
364184
2134
بدأنا بالفعل نرى بعض حالات الإستخدام الرائعة،
06:06
for example, robots working with autistic children
109
366342
2604
فمثلا، الروبوتات التي تعمل مع الأطفال المصابين بالتوحد
06:08
to engage them in ways that we haven't seen previously,
110
368970
3634
وتشجيعهم على المشاركة بأساليب لم نكن نراها سابقًا،
06:12
or robots working with teachers to engage kids in learning with new results.
111
372628
4000
أو الروبوتات التي تعمل مع المدرسين لتعزيز مشاركة الأطفال معطية نتائج جديدة.
06:17
And it's not just for kids.
112
377433
1381
وليس الأطفال فقط.
06:19
Early studies show that robots can help doctors and patients
113
379750
3223
تبين دراسات أولية أن الروبوتات يمكن أن تساعد الأطباء والمرضى
06:22
in health care settings.
114
382997
1427
في أماكن الرعاية الصحية.
06:25
This is the PARO baby seal robot.
115
385535
1810
هذا روبوت (بارو) على شكل طفل الفقمة.
06:27
It's used in nursing homes and with dementia patients.
116
387369
3285
تستخدم في دور رعاية المسنين ومع مرضى الخرف.
06:30
It's been around for a while.
117
390678
1570
وهي موجودة منذ فترة.
06:32
And I remember, years ago, being at a party
118
392272
3325
وأذكر أنني كنت في حفلة من سنوات عدة،
06:35
and telling someone about this robot,
119
395621
2571
وأخبرت أحد صديقاتي عن هذا الروبوت،
06:38
and her response was,
120
398216
2126
وكان ردة فعلها،
06:40
"Oh my gosh.
121
400366
1262
"يا إلهي،
06:42
That's horrible.
122
402508
1188
هذا فظيع،
06:45
I can't believe we're giving people robots instead of human care."
123
405056
3397
لا أصدقك أننا نعطي المرضى روبوتات بدلًا من الرعاية البشرية".
06:50
And this is a really common response,
124
410540
1875
وكان هذا هو الرد المتكرر دومًا،
06:52
and I think it's absolutely correct,
125
412439
2499
وأعتقد أنهم مصيبين جدًا،
06:54
because that would be terrible.
126
414962
2040
لأن هذا الأمر سيكون مريعًا.
06:57
But in this case, it's not what this robot replaces.
127
417795
2484
لكن الأمر لايقتصر على ما الذي تحل الروبوتات مكانه.
07:00
What this robot replaces is animal therapy
128
420858
3120
تستخدم هذه الروبوتات كبديل للعلاج بالحيوانات
07:04
in contexts where we can't use real animals
129
424002
3198
وذلك في إطار أننا لا نستطيع أن نستخدم حيوانات حقيقية
ولكن يمكننا إستخدام الروبوتات،
07:07
but we can use robots,
130
427224
1168
07:08
because people will consistently treat them more like an animal than a device.
131
428416
5230
لأن الناس سيتعاملون معها كحيوان بدلًا من أن يعاملوها كآلة.
07:15
Acknowledging this emotional connection to robots
132
435502
2380
ملاحظة هذا الترابط العاطفي مع الروبوتات
07:17
can also help us anticipate challenges
133
437906
1969
يساعدنا في التنبؤ بالتحديات
07:19
as these devices move into more intimate areas of people's lives.
134
439899
3451
لدخول هذه الآلات لمناطق أكثر حميمية في حياة الناس.
07:24
For example, is it OK if your child's teddy bear robot
135
444111
3404
مثلًا، هل من المقبول أن يقوم روبوت طفلك على شكل دب
07:27
records private conversations?
136
447539
2237
أن يسجل المحادثات الخاصة؟
07:29
Is it OK if your sex robot has compelling in-app purchases?
137
449800
4063
هل من المقبول أن يقوم روبوت حميمي بإجراء مشتريات من خلال تطبيقات؟
07:33
(Laughter)
138
453887
1396
(ضحك)
07:35
Because robots plus capitalism
139
455307
2501
لأن وجود الروبوتات في نظام رأس مالي
07:37
equals questions around consumer protection and privacy.
140
457832
3705
ينتج عنه تساؤلات حول حماية المستهلك والخصوصية.
07:42
And those aren't the only reasons
141
462549
1612
وهذه ليست الأسباب الوحيدة
07:44
that our behavior around these machines could matter.
142
464185
2570
أن يكون تعاملنا مع هذه الآلات يحظى بأهمية ما.
07:48
A few years after that first initial experience I had
143
468747
3270
بعد بضع سنوات من الموقف الذي اختبرته
07:52
with this baby dinosaur robot,
144
472041
2311
مع روبوت صغير الديناصور،
07:54
I did a workshop with my friend Hannes Gassert.
145
474376
2501
قمت بإجراء ورشة عملية مع صديقي "هانيز جاسيرت".
07:56
And we took five of these baby dinosaur robots
146
476901
2897
وأعطينا خمسة من هذه الروبوتات صغار الديناصور
07:59
and we gave them to five teams of people.
147
479822
2453
وأعطيناها لخمسة فرق.
08:02
And we had them name them
148
482299
1697
وطلبنا منهم إطلاق أسماء عليها
08:04
and play with them and interact with them for about an hour.
149
484020
3809
واللعب والتفاعل معها لمدة ساعة تقريبًا.
08:08
And then we unveiled a hammer and a hatchet
150
488707
2206
ثم قدمنا لهم مطرقة وفأس
08:10
and we told them to torture and kill the robots.
151
490937
2278
وطلبنا منهم تعذيب الروبوتات وقتلها.
08:13
(Laughter)
152
493239
3007
(ضحك)
08:16
And this turned out to be a little more dramatic
153
496857
2294
وبدا الأمر دراميًا
08:19
than we expected it to be,
154
499175
1278
أكثر مما توقعنا،
08:20
because none of the participants would even so much as strike
155
500477
3072
لأنه لم يقدم أحد من المشاركين على مجرد ضرب قليلًا
08:23
these baby dinosaur robots,
156
503573
1307
روبوتات صغار الديناصور هذه،
08:24
so we had to improvise a little, and at some point, we said,
157
504904
5150
لذا توجب علينا الارتجال قليلًا إلى أن قلنا في مرحلة ما،
08:30
"OK, you can save your team's robot if you destroy another team's robot."
158
510078
4437
"يمكنكم إنقاذ روبوت فريقكم إن قمتم بتدمير روبوت الفريق الآخر".
08:34
(Laughter)
159
514539
1855
(ضحك)
08:36
And even that didn't work. They couldn't do it.
160
516839
2195
لم يفلح هذا الأمر أيضًا. لم يقدروا على فعل هذا.
08:39
So finally, we said,
161
519058
1151
ولذا قلنا أخيرًا،
08:40
"We're going to destroy all of the robots
162
520233
2032
"سوف نحطم جميع هذه الروبوتات
08:42
unless someone takes a hatchet to one of them."
163
522289
2285
إلا إذا قام أحدكم بضرب أحد الروبوتات بالفأس"
08:45
And this guy stood up, and he took the hatchet,
164
525586
3579
ثم وقف أحدهم، وأخذ الفأس،
08:49
and the whole room winced as he brought the hatchet down
165
529189
2706
وانتفضت الغرفة بكاملها حين قام بضرب الفأس
08:51
on the robot's neck,
166
531919
1780
على رقبة أحد الروبوتات،
08:53
and there was this half-joking, half-serious moment of silence in the room
167
533723
6338
سادت لحظة صمت في الغرفة التي كانت خليطًا بين الجد والمزاح
09:00
for this fallen robot.
168
540085
1698
لهذا الروبوت الذي فقدناه.
09:01
(Laughter)
169
541807
1406
(ضحك)
09:03
So that was a really interesting experience.
170
543237
3694
كانت تلك تجربة مثيرة بحق.
09:06
Now, it wasn't a controlled study, obviously,
171
546955
2459
بالطبع، لم تكن تلك دراسة ذات قواعد كما هو واضح
09:09
but it did lead to some later research that I did at MIT
172
549438
2850
لكنها مهدت لأبحاث قمت بها في معهد ماساتشوستس للتكنولوجيا
09:12
with Palash Nandy and Cynthia Breazeal,
173
552312
2228
مع "بلاش ناندي" و"سينثيا بريزيل"،
09:14
where we had people come into the lab and smash these HEXBUGs
174
554564
3627
حيث أحضرنا أشخاص للمعمل لكي يحطموا "آلات سداسية الأرجل"
09:18
that move around in a really lifelike way, like insects.
175
558215
3087
وكانت تتحرك في كل مكان كالحشرات الحقيقية.
09:21
So instead of choosing something cute that people are drawn to,
176
561326
3134
ولذا بدلًا من أحد الأشكال اللطيفة التي قد يتعاطف الناس معها،
09:24
we chose something more basic,
177
564484
2093
اخترنا شيئ أكثر بساطة،
09:26
and what we found was that high-empathy people
178
566601
3480
ووجدنا أن الأشخاص الذين لديهم قدر أكبر من التعاطف
09:30
would hesitate more to hit the HEXBUGS.
179
570105
2143
ترددوا أكثر في ضرب تلك الألات السداسية الأرجل.
09:33
Now this is just a little study,
180
573575
1564
هذه مجرد دراسة بسيطة،
09:35
but it's part of a larger body of research
181
575163
2389
ولكنها جزء ضمن بحث أكبر
09:37
that is starting to indicate that there may be a connection
182
577576
2944
الذي بدأ يعطي مؤشرات أنه لربما كانت هناك علاقة ما
09:40
between people's tendencies for empathy
183
580544
2373
بين ميل الناس لإظهار تعاطفهم
09:42
and their behavior around robots.
184
582941
1976
وطريقة تصرفهم عند وجود الروبوتات.
09:45
But my question for the coming era of human-robot interaction
185
585721
3627
إلا أن سؤالي للمرحلة القادمة من التعامل بين الإنسان والروبوت
09:49
is not: "Do we empathize with robots?"
186
589372
3055
هو ليس: "هل نتعاطف مع الروبوتات؟"
09:53
It's: "Can robots change people's empathy?"
187
593211
2920
بل: "هل يمكن أن تغيرالروبوتات الطريقة التي يتعاطف بها الناس؟"
09:57
Is there reason to, for example,
188
597489
2287
فمثلًا، هل هناك سبب ما
09:59
prevent your child from kicking a robotic dog,
189
599800
2333
يمنع طفلك من ركل روبوت على شكل كلب،
10:03
not just out of respect for property,
190
603228
2914
ليس فقط لأنه يحترم ملكية الآخرين.
10:06
but because the child might be more likely to kick a real dog?
191
606166
2953
ولكن لأن الطفل قد يكون أكثر قابلية لركل كلب حقيقي؟
10:10
And again, it's not just kids.
192
610507
1883
مرة أخرى، الأمر لا يقتصر على الأطفال.
10:13
This is the violent video games question, but it's on a completely new level
193
613564
4056
هو ذات السؤال الخاص بألعاب الفيديو العنيفة ولكن على مستوى جديد تمامًا
10:17
because of this visceral physicality that we respond more intensely to
194
617644
4760
هذا العنف الداخلي الذي نستخدمة بشكل أكثر حدة
10:22
than to images on a screen.
195
622428
1547
مقارنة بصور على شاشة ما.
10:25
When we behave violently towards robots,
196
625674
2578
عندما نظهر العنف اتجاه الروبوتات،
10:28
specifically robots that are designed to mimic life,
197
628276
3120
خصوصًا الروبوتات المصممة لمحاكاة مخلوقات حية،
10:31
is that a healthy outlet for violent behavior
198
631420
3892
هل هذا منفذ صحي للسلوك العنيف
10:35
or is that training our cruelty muscles?
199
635336
2544
أم أن هذا مجرد تمرين للمشاعر العدوانية؟
10:39
We don't know ...
200
639511
1150
نحن لا نعلم
10:42
But the answer to this question has the potential to impact human behavior,
201
642622
3945
إلا أن إجابة هذا السؤال قد تكون قادرة على التأثير على السلوك البشري،
10:46
it has the potential to impact social norms,
202
646591
2768
قد تكون قادرة على التأثير على الأنماط الإجتماعية،
10:49
it has the potential to inspire rules around what we can and can't do
203
649383
3849
قد يكون لديها تأثير لإستنباط قواعد تحدد ما يمكننا وما لا يمكننا فعله
10:53
with certain robots,
204
653256
1151
مع روبوتات معينة،
10:54
similar to our animal cruelty laws.
205
654431
1848
مشابهة لقوانين تجريم العنف نحو الحيوان.
10:57
Because even if robots can't feel,
206
657228
2864
لأنه حتى وإن لم تقدر الروبوتات على الشعور،
11:00
our behavior towards them might matter for us.
207
660116
3080
ربما كانت طريقة تعاملنا معها مهمة لنا نحن.
11:04
And regardless of whether we end up changing our rules,
208
664889
2855
وبغض النظر إن قمنا بتغير قوانيننا أم لا،
11:08
robots might be able to help us come to a new understanding of ourselves.
209
668926
3556
ربما تمكنت الروبوتات من أن تعطينا فهم أفضل عن أنفسنا.
11:14
Most of what I've learned over the past 10 years
210
674276
2316
معظم ما تعلمته خلال العشر سنوات الماضية
11:16
has not been about technology at all.
211
676616
2238
لم يكن يتعلق بالتكنولوجيا إطلاقًا.
11:18
It's been about human psychology
212
678878
2503
بل كان يتعلق بعلم النفس البشري
11:21
and empathy and how we relate to others.
213
681405
2603
والتعاطف وكيفية التواصل مع الآخرين.
11:25
Because when a child is kind to a Roomba,
214
685524
2365
لأنه عندما يكون طفل لطيفًا مع مكنسة (رومبا)،
11:29
when a soldier tries to save a robot on the battlefield,
215
689262
4015
عندما يحاول جندي إنقاذ روبوت في ساحة الحرب،
11:33
or when a group of people refuses to harm a robotic baby dinosaur,
216
693301
3638
أو عندما ترفض مجموعة من الأشخاص أن يؤذوا روبوتات على شكل ديناصورات صغيرة،
11:38
those robots aren't just motors and gears and algorithms.
217
698248
3191
فإن هذه الروبوتات ليست فقط محركات وتروس وبرمجيات.
11:42
They're reflections of our own humanity.
218
702501
1905
ولكنها إنعكاس لأنسانيتنا كذلك.
11:45
Thank you.
219
705523
1151
شكرًا جزيلًا.
11:46
(Applause)
220
706698
3397
(تصفيق)
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7