What's it like to be a robot? | Leila Takayama

92,193 views ・ 2018-02-16

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: Noha Ali المدقّق: Nada Qanbar
00:12
You only get one chance to make a first impression,
0
12760
2656
لا تحظى سوى بفرصة واحدة لتترك الانطباع الأول،
00:15
and that's true if you're a robot as well as if you're a person.
1
15440
3176
وينطبق عليك هذا الأمر سواء كنت روبوتًا أو إنسانًا.
00:18
The first time that I met one of these robots
2
18640
3016
كانت أول مرة ألتقي فيها بأحد هذه الروبوتات
00:21
was at a place called Willow Garage in 2008.
3
21680
2896
في مكان يسمى (ويلو جراج) عام 2008.
00:24
When I went to visit there, my host walked me into the building
4
24600
3016
عندما ذهبت لزيارة المكان، اصطحبني مضيفي إلى داخل المبنى
00:27
and we met this little guy.
5
27640
1576
والتقينا بهذا الرجل الصغير.
00:29
He was rolling into the hallway,
6
29240
1656
كان يتدحرج في الرواق،
00:30
came up to me, sat there,
7
30920
1816
اقترب مني، وجلس هناك،
00:32
stared blankly past me,
8
32760
2256
وحدق ببصره إلى ما خلفي دون أي تعبير،
00:35
did nothing for a while,
9
35040
1656
لم يفعل أي شيء لفترة،
00:36
rapidly spun his head around 180 degrees
10
36720
1936
ثم أدار رأسه حوالي 180 درجة بسرعة،
00:38
and then ran away.
11
38680
1536
وركض بعيدًا.
00:40
And that was not a great first impression.
12
40240
2176
و هذا لم يكن انطباعًا أولًا رائعًا.
00:42
The thing that I learned about robots that day
13
42440
2176
الشيء الذي عرفته عن الروبوتات ذلك اليوم
00:44
is that they kind of do their own thing,
14
44640
2176
هو أنها إلى حدٍ ما تقوم بما تجيده،
00:46
and they're not totally aware of us.
15
46840
2136
وهي ليست على وعيٍ كاملٍ بنا.
00:49
And I think as we're experimenting with these possible robot futures,
16
49000
3239
وأعتقد أن باختبارنا لهذه السيناريوهات المستقبلية المحتمَلة للروبوتات،
00:52
we actually end up learning a lot more about ourselves
17
52263
2673
ينتهي بنا المطاف لنتعلم أكثر عن أنفسنا
00:54
as opposed to just these machines.
18
54960
1656
في مقابل هذه الآلات وحسب.
00:56
And what I learned that day
19
56640
1336
وما تعلمته ذلك اليوم
00:58
was that I had pretty high expectations for this little dude.
20
58000
3416
كان أني توقعت الكثير من هذا الصديق الصغير.
01:01
He was not only supposed to be able to navigate the physical world,
21
61440
3176
لم يكن متوقعًا منه القدرة على التحرك في العالم المادي وحسب،
01:04
but also be able to navigate my social world --
22
64640
2656
بل أيضًا التحرك في عالمي الاجتماعي --
01:07
he's in my space; it's a personal robot.
23
67320
2176
هو في نطاق حيزي، إنه روبوت شخصي.
01:09
wWhy didn't it understand me?
24
69520
2016
لماذا لم يفهمني؟
01:11
My host explained to me,
25
71560
1256
وضح لي مضيفي:
01:12
"Well, the robot is trying to get from point A to point B,
26
72840
3176
"حسنًا، إن الروبوت يحاول الانتقال من النقطة أ إلى النقطة ب،
01:16
and you were an obstacle in his way,
27
76040
1776
وقد شكلتِ عقبةً في طريقه،
01:17
so he had to replan his path,
28
77840
2016
لذلك كان عليه إعادة تخطيط مساره،
01:19
figure out where to go,
29
79880
1256
و معرفة أين يذهب،
01:21
and then get there some other way,"
30
81160
1696
ثم الوصول لهناك بطريقة أخرى."
01:22
which was actually not a very efficient thing to do.
31
82880
2456
وهو لم يكن في الواقع أمرًا حاذقًا للقيام به.
01:25
If that robot had figured out that I was a person, not a chair,
32
85360
3256
فلو عرف الروبوت أنني إنسانة، لا كرسي،
01:28
and that I was willing to get out of its way
33
88640
2096
وأني كنت أنوي الابتعاد عن طريقه
01:30
if it was trying to get somewhere,
34
90760
1656
إن كان يحاول الوصول لمكان ما،
01:32
then it actually would have been more efficient
35
92440
2216
فكان الأمر سيصبح أكثر فعالية
01:34
at getting its job done
36
94680
1256
من أجل إتمام عمله.
01:35
if it had bothered to notice that I was a human
37
95960
2216
إذا أولى جهدًا ليلاحظ أني إنسانة
01:38
and that I have different affordances than things like chairs and walls do.
38
98200
3576
وأن لدي قدرات مختلفة عن الكرسي والحائط.
01:41
You know, we tend to think of these robots as being from outer space
39
101800
3216
كما تعلمون، نحن نميل للتفكير في الروبوت على أنه من الفضاء الخارجي
ومن المستقبل ومن الخيال العلمي،
01:45
and from the future and from science fiction,
40
105040
2136
01:47
and while that could be true,
41
107200
1416
وبينما قد يكون هذا صحيحًا،
01:48
I'd actually like to argue that robots are here today,
42
108640
2656
فإني أحب في الحقيقة أن أجادل بأن الروبوتات موجودة اليوم،
01:51
and they live and work amongst us right now.
43
111320
2776
وهي تعيش وتعمل بيننا الآن.
01:54
These are two robots that live in my home.
44
114120
2856
هذان روبوتان يعيشان في منزلي.
01:57
They vacuum the floors and they cut the grass
45
117000
2496
يكنسان الأرض كهربائيًا ويجزان العشب
01:59
every single day,
46
119520
1216
كل يوم،
02:00
which is more than I would do if I actually had time to do these tasks,
47
120760
3376
وهذا أكثر مما كنت سأفعله إذا كان لدي الوقت فعلًا للقيام بهذه المهام،
02:04
and they probably do it better than I would, too.
48
124160
2336
وهما على الأرجح يقومان به بشكل أفضل مني، أيضًا.
02:06
This one actually takes care of my kitty.
49
126520
2496
هذا في الحقيقة يعتني بقطي.
02:09
Every single time he uses the box, it cleans it,
50
129040
2576
في كل مرة يستخدم قطي الصندوق، يقوم بتنظيفه،
02:11
which is not something I'm willing to do,
51
131640
1976
وهو شيء لا أنوي القيام به،
02:13
and it actually makes his life better as well as mine.
52
133640
2576
وهو في الحقيقة يجعل حياته أفضل، وحياتي أيضًا.
02:16
And while we call these robot products --
53
136240
2416
وبينما نطلق على هذه الروبوتات منتجات --
02:18
it's a "robot vacuum cleaner, it's a robot lawnmower,
54
138680
2696
إنها مكنسة كهربائية روبوتية، إنه جزاز عشب روبوتي،
02:21
it's a robot littler box,"
55
141400
1495
إنه صندوق مخلفات قطط روبوتي؛
02:22
I think there's actually a bunch of other robots hiding in plain sight
56
142919
4137
فإنني أرى في الحقيقة أن هناك مجموعة من الروبوتات الأخرى المختبئة أمام أعيننا
02:27
that have just become so darn useful
57
147080
1856
التي أصبحت بالفعل نافعة للغاية
02:28
and so darn mundane
58
148960
1456
وشائعة للغاية لدرجة
02:30
that we call them things like, "dishwasher," right?
59
150440
2496
أن نطلق عليها أسماء مثل "غسالة الأطباق"، أليس كذلك؟
02:32
They get new names.
60
152960
1216
إنها تكتسب أسماء جديدة.
02:34
They don't get called robot anymore
61
154200
1696
لم يعد يطلق عليها روبوتات
02:35
because they actually serve a purpose in our lives.
62
155920
2416
لأنها في الحقيقة تؤدي غرضًا في حياتنا.
02:38
Similarly, a thermostat, right?
63
158360
1496
وبالمثل ناظم الحرارة، صحيح؟
02:39
I know my robotics friends out there
64
159880
1776
أعرف أن أصدقائي متخصصي الروبوتات
02:41
are probably cringing at me calling this a robot,
65
161680
2336
في الخارج غالبًا يخجلون من تسميتي له روبوتًا.
02:44
but it has a goal.
66
164040
1256
إلا أن له هدفًا.
02:45
Its goal is to make my house 66 degrees Fahrenheit,
67
165320
2896
وهدفه ان يجعل درجة حرارة منزلي 19 درجة مئوية،
02:48
and it senses the world.
68
168240
1256
ويقوم بجس العالم من حوله:
02:49
It knows it's a little bit cold,
69
169520
1576
يعرف أن الجو بارد قليلًا،
02:51
it makes a plan and then it acts on the physical world.
70
171120
2616
فيضع خطة ثم يتخذ إجراء يؤثر على العالم المادي.
02:53
It's robotics.
71
173760
1256
إنه عمل الروبوتات.
02:55
Even if it might not look like Rosie the Robot,
72
175040
2576
حتى إن لم يكن يشبه الروبوت(روزي)،
02:57
it's doing something that's really useful in my life
73
177640
2936
فهو يفعل شيئًا مفيدًا جدًا في حياتي
03:00
so I don't have to take care
74
180600
1376
بحيث لا أضطر للاهتمام
03:02
of turning the temperature up and down myself.
75
182000
2576
برفع درجة الحرارة وخفضها بنفسي.
03:04
And I think these systems live and work amongst us now,
76
184600
3816
وأنا أعتقد أن هذه الأنظمة تعيش وتعمل بيننا الآن،
03:08
and not only are these systems living amongst us
77
188440
2336
ولا يقتصر الأمر على عيش هذه الأنظمة بيننا
03:10
but you are probably a robot operator, too.
78
190800
2656
بل في الغالب أنتم أيضًا مشغلو روبوتات.
03:13
When you drive your car,
79
193480
1256
عندما تقودون سيارتكم،
03:14
it feels like you are operating machinery.
80
194760
2216
تشعرون وكأنكم تشغلون آلة.
03:17
You are also going from point A to point B,
81
197000
2816
أنتم أيضًا تنتقلون من النقطة أ إلى النقطة ب،
03:19
but your car probably has power steering,
82
199840
2216
لكن في الغالب سيارتكم مزودة بنظام توجيه كهربي،
03:22
it probably has automatic braking systems,
83
202080
2696
ومزودة غالبًا بأنظمة كبح آلية،
03:24
it might have an automatic transmission and maybe even adaptive cruise control.
84
204800
3736
وقد تكون مزودة بنظام نقل آلي وحتى تحكم تكيفي في السرعة.
03:28
And while it might not be a fully autonomous car,
85
208560
2936
وعلى الرغم من أنها قد لا تكون سيارة ذاتية التحكم بشكل كامل؛
03:31
it has bits of autonomy,
86
211520
1296
إلا أنها ذاتية جزئيًا،
03:32
and they're so useful
87
212840
1336
وهي مفيدة للغاية
03:34
and they make us drive safer,
88
214200
1816
وتجعلنا نقود بشكل أكثر أمانًا،
03:36
and we just sort of feel like they're invisible-in-use, right?
89
216040
3656
ونحن نشعر نوعًا ما أنها دارجة الاستخدام بحيث لا نشعر بها، أليس كذلك؟
03:39
So when you're driving your car,
90
219720
1576
إذًا عندما تقودون سيارتكم،
03:41
you should just feel like you're going from one place to another.
91
221320
3096
يُفترض ألا تشعروا سوى أنكم ذاهبون من مكان لآخر.
03:44
It doesn't feel like it's this big thing that you have to deal with and operate
92
224440
3736
ولا تشعرون بأنها ذاك الشيء الضخم الذي يتعين عليكم التعامل معه وتشغيله
03:48
and use these controls
93
228200
1256
تستخدمون منظمات التحكم هذه
03:49
because we spent so long learning how to drive
94
229480
2176
لأننا قضينا وقتًا طويلًا جدًا لتعلم كيف نقود
03:51
that they've become extensions of ourselves.
95
231680
2696
بالدرجة التي جعلتها تصبح امتدادًا لأنفسنا.
03:54
When you park that car in that tight little garage space,
96
234400
2696
عندما تركنون السيارة في مساحة الركن الصغيرة والضيقة تلك،
03:57
you know where your corners are.
97
237120
1576
تكونون على علم بأماكن زواياكم.
03:58
And when you drive a rental car that maybe you haven't driven before,
98
238720
3256
وعندما تقودون سيارة مستأجرة ربما لم تقودوها من قبل،
04:02
it takes some time to get used to your new robot body.
99
242000
3056
يستغرق الأمر منكم بعض الوقت حتى تعتادوا على جسم روبوتكم الجديد.
04:05
And this is also true for people who operate other types of robots,
100
245080
3976
ينطبق هذا الأمر أيضًا على الأشخاص الذين يشغلون أنواعًا أخرى من الروبوتات،
04:09
so I'd like to share with you a few stories about that.
101
249080
2600
لهذا سأشارككم بعض القصص بهذا الشأن.
04:12
Dealing with the problem of remote collaboration.
102
252240
2336
التعامل مع مشكلة العمل المشترك عن بعد.
04:14
So, at Willow Garage I had a coworker named Dallas,
103
254600
2576
كان لدي زميل عمل بـ(ويلو جراج) يُدعى (دالاس)،
04:17
and Dallas looked like this.
104
257200
1576
وهكذا كان يبدو (دالاس).
04:18
He worked from his home in Indiana in our company in California.
105
258800
4056
كان يعمل من منزله في (إنديانا) لدى شركتنا في (كاليفورنيا).
04:22
He was a voice in a box on the table in most of our meetings,
106
262880
2936
كان عبارة عن صوت داخل صندوق على الطاولة في معظم اجاتماعاتنا،
04:25
which was kind of OK except that, you know,
107
265840
2215
وكان أمرًا مقبولًا نوعًأ ما، إلا أنه كما تعلمون
04:28
if we had a really heated debate and we didn't like what he was saying,
108
268079
3377
إذا كنا في نقاشٍ محتدم ولم يرُق لنا ما كان يقوله،
04:31
we might just hang up on him.
109
271480
1416
فقد نعلق المكالمة معه ببساطة.
04:32
(Laughter)
110
272920
1015
(ضحك)
04:33
Then we might have a meeting after that meeting
111
273959
2217
ثم قد نعقد اجتماعًا بعد ذلك الاجتماع
04:36
and actually make the decisions in the hallway afterwards
112
276200
2696
ونتخذ القرارات بالفعل بعد ذلك في الرواق
04:38
when he wasn't there anymore.
113
278920
1416
في غيابه.
04:40
So that wasn't so great for him.
114
280360
1576
لذا لم يكن ذلك مثاليًا بالنسبة له.
04:41
And as a robotics company at Willow,
115
281960
1736
ولكوننا في (ويلو) شركة روبوتات؛
04:43
we had some extra robot body parts laying around,
116
283720
2336
كان لدينا أجزاء جسم روبوت زائدة ملقاة على الأرض،
04:46
so Dallas and his buddy Curt put together this thing,
117
286080
2496
فقام (دالاس) وصديقه (كيرت) بتجميع هذا الشيء،
04:48
which looks kind of like Skype on a stick on wheels,
118
288600
2936
الذي يبدو عبارة عن سكايب على عصا على عجلتين،
04:51
which seems like a techy, silly toy,
119
291560
1736
مما يبديه مثل لعبة سخيفة ومجنونة،
04:53
but really it's probably one of the most powerful tools
120
293320
2776
لكنها في الحقيقة واحدة من الأدوات الأكثر فعالية
04:56
that I've seen ever made for remote collaboration.
121
296120
2480
التي رأيتها على الإطلاق من أجل العمل المشترك عن بعد.
04:59
So now, if I didn't answer Dallas' email question,
122
299160
3496
وبالتالي الآن، إذا لم أرد على سؤال (دالاس) الوارد بالبريد الإلكتروني،
05:02
he could literally roll into my office,
123
302680
2216
يمكنه حرفيًا أن يتدحرج داخل مكتبي،
05:04
block my doorway and ask me the question again --
124
304920
2576
ويسد المدخل ويطرح عليَّ السؤال مرة أخرى --
05:07
(Laughter)
125
307520
1016
(ضحك)
05:08
until I answered it.
126
308560
1216
حتى أجيبه.
05:09
And I'm not going to turn him off, right? That's kind of rude.
127
309800
2976
ولن أقوم بإطفائه، أليس كذلك؟ سيكون ذلك تصرفًا فظًا.
05:12
Not only was it good for these one-on-one communications,
128
312800
2696
لم يكن ذلك جيدًا للتواصل الفردي وحسب،
05:15
but also for just showing up at the company all-hands meeting.
129
315520
2936
بل أيضًا لحضور اجتماع كل موظفي الشركة.
05:18
Getting your butt in that chair
130
318480
1696
وضع مؤخرتكم في ذلك الكرسي
05:20
and showing people that you're present and committed to your project
131
320200
3216
وإظهار أنكم حاضرون وملتزمون بمشروعكم
05:23
is a big deal
132
323440
1256
هو أمرٌ له شأن كبير
05:24
and can help remote collaboration a ton.
133
324720
2176
ويمكن أن يساعد في العمل المشترك كثيرًا جدًا.
05:26
We saw this over the period of months and then years,
134
326920
2856
لقد لاحظنا ذلك عبر الشهور ثم السنوات،
05:29
not only at our company but at others, too.
135
329800
2160
ليس في شركتنا فقط، بل لدى شركات أخرى أيضًا.
05:32
The best thing that can happen with these systems
136
332720
2336
أفضل ما يحدث باستخدام هذه الأنظمة
05:35
is that it starts to feel like you're just there.
137
335080
2336
هو أن تبدؤوا بالشعور بأنكم هناك تمامًا.
05:37
It's just you, it's just your body,
138
337440
1696
إنه أنت تمامًا، إنه جسمك تمامًا؛
05:39
and so people actually start to give these things personal space.
139
339160
3096
وبالتالي يبدأ الناس بتوفير مساحة شخصية لهذه الأشياء.
05:42
So when you're having a stand-up meeting,
140
342280
1976
لذا عندما يكون لديكم اجتماع يُحضَر وقوفًا
05:44
people will stand around the space
141
344280
1656
سيصطف الناس حول المساحة
05:45
just as they would if you were there in person.
142
345960
2216
بالضبط مثلما سيفعلون إذا كنتم هناك شخصيًا.
05:48
That's great until there's breakdowns and it's not.
143
348200
2576
هذا أمرُ رائع إلى أن تحدث أعطال فلا يصبح رائعًا.
05:50
People, when they first see these robots,
144
350800
1976
عندما يرى الناس هذه الروبوتات لأول مرة،
05:52
are like, "Wow, where's the components? There must be a camera over there,"
145
352800
3576
تكون ردة فعلهم مثل، "أين المكونات؟ لابد من وجود كاميرا هنا."
05:56
and they start poking your face.
146
356400
1576
ويبدؤون بنقر وجهك.
05:58
"You're talking too softly, I'm going to turn up your volume,"
147
358000
2936
"أنت تتحدث بصوت منخفض جدًا، سأقوم برفع مستوى الصوت،"
06:00
which is like having a coworker walk up to you and say,
148
360960
2616
الأمر الذي يشبه اقتراب زميلك في العمل منك وقوله:
06:03
"You're speaking too softly, I'm going to turn up your face."
149
363600
2896
"أنت تتحدث بصوت منخفض جدًا، سأقوم بإدارة وجهك."
06:06
That's awkward and not OK,
150
366520
1256
هذا غير ملائم وغير مقبول،
06:07
and so we end up having to build these new social norms
151
367800
2616
لذا ينتهي الأمر بإرسائنا هذه الأعراف الاجتماعية الجديدة
06:10
around using these systems.
152
370440
2216
بخصوص استخدام هذه الأنظمة.
06:12
Similarly, as you start feeling like it's your body,
153
372680
3416
بالمثل، عندما تبدؤون بالشعور أنه جسمكم،
06:16
you start noticing things like, "Oh, my robot is kind of short."
154
376120
3696
تبدؤون بملاحظة أشياء مثل، آه، يا إلهي روبوتي قصير نوعًا ما."
06:19
Dallas would say things to me -- he was six-foot tall --
155
379840
2656
كان (دالاس) يقول لي بعض الأشياء -- كان طوله 183 سم --
06:22
and we would take him via robot to cocktail parties and things like that,
156
382520
3456
وكنا نصطحبه من خلال الروبوت إلى حفلات الكوكتيل وما شابه،
06:26
as you do,
157
386000
1216
مثلما تفعلون،
06:27
and the robot was about five-foot-tall, which is close to my height.
158
387240
3336
وكان ارتفاع الروبوت حوالي 152 سم، ما يقارب طولي.
06:30
And he would tell me,
159
390600
1216
وأخبرني،
06:31
"You know, people are not really looking at me.
160
391840
2536
"هل تعلمين؟ الناس لا ينظرون إليَّ فعلًا.
06:34
I feel like I'm just looking at this sea of shoulders,
161
394400
2696
أنا أشعر وكأني أنظر إلى هذا البحر من الأكتاف،
06:37
and it's just -- we need a taller robot."
162
397120
1976
إن ما نحتاجه فقط هو روبوت أكثر ارتفاعًا."
06:39
And I told him,
163
399120
1256
وقلت له:
06:40
"Um, no.
164
400400
1296
"لا.
06:41
You get to walk in my shoes for today.
165
401720
1936
عليك أن تكون مكاني اليوم.
06:43
You get to see what it's like to be on the shorter end of the spectrum."
166
403680
3536
عليك أن ترى كيف يكون الأمر عند الطرف القصير من طيف الأطوال."
06:47
And he actually ended up building a lot of empathy for that experience,
167
407240
3376
وانتهى به الأمر في الحقيقة بتكوين تعاطف كبير من التجربة،
06:50
which was kind of great.
168
410640
1256
الأمر الذي كان رائعًا.
06:51
So when he'd come visit in person,
169
411920
1656
لذا عندما كان يحضر شخصيًا،
06:53
he no longer stood over me as he was talking to me,
170
413600
2416
لم يعد يقف فوق رأسي أثناء التحدث معي،
06:56
he would sit down and talk to me eye to eye,
171
416040
2096
بل كان يجلس ويحدثني وعيناه أمام عينيّ،
06:58
which was kind of a beautiful thing.
172
418160
1736
الأمر الذي كان لطيفًا نوعًا ما.
06:59
So we actually decided to look at this in the laboratory
173
419920
2656
لذا قررنا في الواقع أن ندرس هذا في المختبر
07:02
and see what others kinds of differences things like robot height would make.
174
422600
3656
ونرى الأنواع الأخرى من الاختلافات التي يمكن أن يسببها ارتفاع الروبوت.
07:06
And so half of the people in our study used a shorter robot,
175
426280
2856
لذا استخدم نصف الأشخاص في دراستنا روبوتًا أقصر،
07:09
half of the people in our study used a taller robot
176
429160
2416
استخدم نصف الأشخاص روبوتًا أطول،
07:11
and we actually found that the exact same person
177
431600
2256
ووجدنا في الحقيفة أن الشخص ذاته
07:13
who has the exact same body and says the exact same things as someone,
178
433880
3336
الذي لديه الجسم ذاته ويقول ذات الأشياء لشخص ما
07:17
is more persuasive and perceived as being more credible
179
437240
2616
يكون أكثر إقناعًا ويُرى أكثر مصداقية
07:19
if they're in a taller robot form.
180
439880
1656
إذا استخدموا نموذج الروبوت الأطول.
07:21
It makes no rational sense,
181
441560
1816
ليس لهذا أي معنى منطقي،
07:23
but that's why we study psychology.
182
443400
1696
لكن لهذا السبب نحن ندرس علم النفس.
07:25
And really, you know, the way that Cliff Nass would put this
183
445120
2856
وفي الواقع، كما تعلمون، كيف كان (كليفورد ناس) سيصيغ هذا
07:28
is that we're having to deal with these new technologies
184
448000
3016
هو أن علينا التعامل مع هذه التقنيات الحديثة
07:31
despite the fact that we have very old brains.
185
451040
2736
على الرغم من حقيقة أن لدينا عقول قديمة جدًا.
07:33
Human psychology is not changing at the same speed that tech is
186
453800
2976
علم النفس الإنساني لا يتطور بنفس سرعة تطور التكنولوجيا
07:36
and so we're always playing catch-up,
187
456800
1816
لذلك فإننا دومًا نلعب لعبة الملاحقة،
07:38
trying to make sense of this world
188
458640
1656
في محاولة لإيجاد معنى لهذا العالم
07:40
where these autonomous things are running around.
189
460320
2336
الذي تتجول فيه هذه الأشياء ذاتية التحكم.
07:42
Usually, things that talk are people, not machines, right?
190
462680
2736
في العادة، تكون الأشياء المتكلمة أناسًا وليست آلات، صحيح؟
07:45
And so we breathe a lot of meaning into things like just height of a machine,
191
465440
4576
نحن نمنح الكثير من المعاني لأشياء مثل ارتفاع الآلة،
07:50
not a person,
192
470040
1256
لا طول الشخص،
07:51
and attribute that to the person using the system.
193
471320
2360
ونعزي هذا للشخص الذي يستخدم النظام.
07:55
You know, this, I think, is really important
194
475120
2216
كما تعلمون، هذا، على ما أعتقد، هام للغاية
07:57
when you're thinking about robotics.
195
477360
1736
عندما نفكر في الروبوتات.
07:59
It's not so much about reinventing humans,
196
479120
2096
الأمر لا يعد كثيرًا عن إعادة اختراع الإنسان،
08:01
it's more about figuring out how we extend ourselves, right?
197
481240
3136
بل هو أكثر عن اكتشاف كيف نصنع امتدادات لأنفسنا، صحيح؟
08:04
And we end up using things in ways that are sort of surprising.
198
484400
2976
وينتهي بنا الأمر باستخدام الأشياء بطرق مفاجئة إلى حد ما.
08:07
So these guys can't play pool because the robots don't have arms,
199
487400
4256
هؤلاء الأشخاص لا يمكنهم لعب البلياردو لأن الروبوتات ليس لها ذراعان،
08:11
but they can heckle the guys who are playing pool
200
491680
2336
لكن يمكنهم بالكلام إزعاج من يلعبون البلياردو
08:14
and that can be an important thing for team bonding,
201
494040
3176
وقد يكون هذا مهمًا في توطيد روابط الفريق،
08:17
which is kind of neat.
202
497240
1296
وهو أمر مذهل.
08:18
People who get really good at operating these systems
203
498560
2496
الأشخاص البارعون في تشغيل هذه الأنظمة
08:21
will even do things like make up new games,
204
501080
2056
سيقومون حتى بأشياء مثل ابتكار ألعاب جديدة،
08:23
like robot soccer in the middle of the night,
205
503160
2136
مثل كرة قدم الروبوتات في منتصف الليل،
08:25
pushing the trash cans around.
206
505320
1456
دفع العلب هنا وهناك.
08:26
But not everyone's good.
207
506800
1576
لكن ليس الجميع بارعين.
08:28
A lot of people have trouble operating these systems.
208
508400
2496
يواجه العديد من الناس مشكلات في تشغيل هذه الأنظمة.
08:30
This is actually a guy who logged into the robot
209
510920
2256
هذا في الحقيقة شخص دخل إلى نظام الروبوت
08:33
and his eyeball was turned 90 degrees to the left.
210
513200
2376
وكرة عينه كانت مدارة 90 درجة لليسار.
08:35
He didn't know that,
211
515600
1256
وهو لم يكن يعرف ذلك؛
08:36
so he ended up just bashing around the office,
212
516880
2176
لذلك انتهى به الأمر وهو يتخبط في أرجاء المكتب،
08:39
running into people's desks, getting super embarrassed,
213
519080
2616
ويصطدم بمكاتب الناس، ويصبح محرَجًا للغاية،
08:41
laughing about it -- his volume was way too high.
214
521720
2336
ويضحك على الموقف. كان مستوى الصوت مرتفعًا جدًا.
08:44
And this guy here in the image is telling me,
215
524080
2136
وهذا الشخص هنا في الصورة يقول لي،
08:46
"We need a robot mute button."
216
526240
2096
"نحن نحتاج لزر كتم الصوت بالروبوت."
08:48
And by that what he really meant was we don't want it to be so disruptive.
217
528360
3496
وما عناه بذلك حقيقةً هو أننا لا نرغب في أن يكون مخربًا لهذه الدرجة.
08:51
So as a robotics company,
218
531880
1616
ولكوننا شركة روبوتات،
08:53
we added some obstacle avoidance to the system.
219
533520
2456
أضفنا خاصية تجنب العقبات للنظام.
08:56
It got a little laser range finder that could see the obstacles,
220
536000
3056
زُود بمكتشف ليزري محدود النطاق يمكنه أن يرى العقبات،
08:59
and if I as a robot operator try to say, run into a chair,
221
539080
3136
وإذا حاولت أنا كمشغل للروبوت، على سبيل المثال، الاصطدام بكرسي،
09:02
it wouldn't let me, it would just plan a path around,
222
542240
2496
فلن يسمح لي بذلك، بل سيخطط مسارًا حوله،
09:04
which seems like a good idea.
223
544760
1856
وهو أمر يبدو فكرة جيدة.
09:06
People did hit fewer obstacles using that system, obviously,
224
546640
3176
اصطدم الناس بالفعل بعقبات أقل باستخدام هذا النظام، بالطبع،
09:09
but actually, for some of the people,
225
549840
2096
لكن في الحقيقة بالنسبة لأشخاص آخرين
09:11
it took them a lot longer to get through our obstacle course,
226
551960
2856
استغرق الأمر وقتًا أطول ليجتازوا دورة العقبات الخاصة بنا،
09:14
and we wanted to know why.
227
554840
1560
وأردنا أن نعرف السبب.
09:17
It turns out that there's this important human dimension --
228
557080
3056
واتضح وجود هذا البُعد البشري الهام --
09:20
a personality dimension called locus of control,
229
560160
2296
وهو بُعد مرتبط بالشخصية يطلق عليه محل السيطرة،
09:22
and people who have a strong internal locus of control,
230
562480
3136
والأشخاص الذين لديهم محل سيطرة داخلي قوي،
09:25
they need to be the masters of their own destiny --
231
565640
3056
يريدون أن يكونوا أسياد مصائرهم --
09:28
really don't like giving up control to an autonomous system --
232
568720
3096
لا يحبون أبدًا التنازل عن السيطرة لنظام ذاتي التحكم --
09:31
so much so that they will fight the autonomy;
233
571840
2136
بدرجة كبيرة حتى أنهم سيقاومون التحكم الذاتي؛
09:34
"If I want to hit that chair, I'm going to hit that chair."
234
574000
3096
"إذا أردت أن أصدم ذلك الكرسي، فسأصدم ذلك الكرسي."
09:37
And so they would actually suffer from having that autonomous assistance,
235
577120
3616
لذلك هم سيعانون في الحقيقة من هذه المساعدة ذاتية التحكم،
09:40
which is an important thing for us to know
236
580760
2576
وهو أمر معرفته هامة بالنسبة لنا
09:43
as we're building increasingly autonomous, say, cars, right?
237
583360
3296
أثناء بنائنا لأشياء متزايدة التحكم الذاتي مثل السيارات، أليس كذلك؟
09:46
How are different people going to grapple with that loss of control?
238
586680
3360
كيف سيجابه الأشخاص المختلفون فقدان السيطرة هذا؟
09:50
It's going to be different depending on human dimensions.
239
590880
2696
سيكون ذلك مختلفًا باختلاف البُعد الإنساني.
09:53
We can't treat humans as if we're just one monolithic thing.
240
593600
3496
لا يمكننا التعامل مع البشر كما لو أننا كنا شيئًا واحدًا متجانسًا.
09:57
We vary by personality, by culture,
241
597120
2416
نحن نختلف باختلاف الشخصية والثقافة
09:59
we even vary by emotional state moment to moment,
242
599560
2456
بل ونختلف باختلاف الحالة العاطفية من لحظة لأخرى،
10:02
and being able to design these systems,
243
602040
1976
ولنكون قادرين على تصميم هذه الأنظمة،
10:04
these human-robot interaction systems,
244
604040
2296
أنظمة التفاعل بين الإنسان والروبوت هذه،
10:06
we need to take into account the human dimensions,
245
606360
2736
نحتاج أن نأخذ في اعتبارنا الأبعاد الإنسانية،
10:09
not just the technological ones.
246
609120
1720
وألا نقتصر على الأبعاد التقنية فقط.
10:11
Along with a sense of control also comes a sense of responsibility.
247
611640
4296
حس التحكم يأتي معه حس المسؤولية.
10:15
And if you were a robot operator using one of these systems,
248
615960
2856
وإذا كنت مشغل روبوت وتستخدم أحد هذه الأنظمة،
10:18
this is what the interface would look like.
249
618840
2056
فهكذا ستبدو واجهة التفاعل.
10:20
It looks a little bit like a video game,
250
620920
1936
إنها تشبه قليلًا ألعاب الفيديو،
10:22
which can be good because that's very familiar to people,
251
622880
2976
ويمكن أن يكون هذا جيدًا لأنه مألوف جدًا للناس،
10:25
but it can also be bad
252
625880
1216
لكن قد يكون سيئًا أيضًا
10:27
because it makes people feel like it's a video game.
253
627120
2456
لأنه يجعل الناس يشعرون وكأنه لعبة فيديو.
10:29
We had a bunch of kids over at Stanford play with the system
254
629600
2856
دعونا مجموعة من الأطفال في ستانفورد للعب باستخدام النظام
10:32
and drive the robot around our office in Menlo Park,
255
632480
2456
وقيادة الروبوت في أرجاء مكتبنا في (ميلانو بارك)،
10:34
and the kids started saying things like,
256
634960
1936
وبدأ الأطفال يقولون أشياء
10:36
"10 points if you hit that guy over there. 20 points for that one."
257
636920
3176
مثل "10 نقاط إذا صدمت الرجل الموجود هناك. 20 نقطة لذلك الرجل."
10:40
And they would chase them down the hallway.
258
640120
2016
وكانوا سيسعون خلفهم بطول الرواق.
10:42
(Laughter)
259
642160
1016
(ضحك)
10:43
I told them, "Um, those are real people.
260
643200
1936
قلت لهم، "هؤلاء أشخاص حقيقيون.
10:45
They're actually going to bleed and feel pain if you hit them."
261
645160
3296
وهم سينزفون ويتألمون بالفعل إذا صدمتوهم."
10:48
And they'd be like, "OK, got it."
262
648480
1616
وكان رد فعلهم، "حسنًا، فهمنا ذلك."
10:50
But five minutes later, they would be like,
263
650120
2056
لكن بعد خمس دقائق، أصبحوا،
"20 نقطة لهذا الرجل هناك، يبدو أنه يريد أن يُصدَم."
10:52
"20 points for that guy over there, he just looks like he needs to get hit."
264
652200
3616
10:55
It's a little bit like "Ender's Game," right?
265
655840
2136
هذا يشبه قليلًا "لعبة (إندر)،" أليس كذلك؟
10:58
There is a real world on that other side
266
658000
1936
يوجد عالم حقيقي على تلك الجهة الأخرى
10:59
and I think it's our responsibility as people designing these interfaces
267
659960
3416
وأظن أنها مسؤوليتنا كأشخاص مصممين لواجهات التفاعل هذه
11:03
to help people remember
268
663400
1256
أن نساعد الناس أن يتذكروا
11:04
that there's real consequences to their actions
269
664680
2256
وجود عواقب حقيقية لتصرفاتهم
11:06
and to feel a sense of responsibility
270
666960
2296
وأن يستشعروا المسؤولية
11:09
when they're operating these increasingly autonomous things.
271
669280
3280
عند تشغيلهم لهذه الأشياء متزايدة التحكم الذاتي.
11:13
These are kind of a great example
272
673840
2296
تعد هذه مثالًا رائعًا
11:16
of experimenting with one possible robotic future,
273
676160
3256
لاختبار واحد من السيناريوهات المستقبلية المحتملة للروبوتات،
11:19
and I think it's pretty cool that we can extend ourselves
274
679440
3856
وأظن أنه من الرائع أن نصنع امتدادات لأنفسنا
11:23
and learn about the ways that we extend ourselves
275
683320
2336
وأن نعرف عن الطرق التي نصنع بها امتدادًا لأنفسنا
11:25
into these machines
276
685680
1216
داخل هذه الآلات
11:26
while at the same time being able to express our humanity
277
686920
2696
مع قدرتنا في نفس الوقت على التعبير عن بشريتنا
11:29
and our personality.
278
689640
1216
وشخصيتنا.
11:30
We also build empathy for others
279
690880
1576
إننا نكوّن أيضًا تعاطفًا مع الآخرين
11:32
in terms of being shorter, taller, faster, slower,
280
692480
3216
من حيث كونهم أقصر أو أطول أو أسرع أو أبطأ
11:35
and maybe even armless,
281
695720
1416
أو حتى ربما بلا ذراعين،
11:37
which is kind of neat.
282
697160
1336
وهذا أمر رائع نوعًا ما.
11:38
We also build empathy for the robots themselves.
283
698520
2536
ونكوّن أيضًا تعاطفًا مع الروبوتات نفسها.
11:41
This is one of my favorite robots.
284
701080
1656
هذا واحد من روبوتاتي المفضلة.
11:42
It's called the Tweenbot.
285
702760
1456
ويطلق عليه Tweenbot.
11:44
And this guy has a little flag that says,
286
704240
1976
ويحمل هذا الروبوت علمًا صغيرًا يذكر،
11:46
"I'm trying to get to this intersection in Manhattan,"
287
706240
2576
"أنا أحاول الوصول لهذا التقاطع في منهاتن،"
11:48
and it's cute and rolls forward, that's it.
288
708840
2776
وهو لطيف ويتدحرج للأمام، هذا كل شيء.
11:51
It doesn't know how to build a map, it doesn't know how to see the world,
289
711640
3456
لا يعرف كيف ينشئ خريطة، ولا يعرف كيف يرى العالم،
11:55
it just asks for help.
290
715120
1256
إنه يطلب المساعدة وحسب.
11:56
The nice thing about people
291
716400
1336
الشيء الظريف بخصوص الناس
11:57
is that it can actually depend upon the kindness of strangers.
292
717760
3096
هو أنه يمكنه بالفعل الاعتماد على لطف الغرباء.
12:00
It did make it across the park to the other side of Manhattan --
293
720880
3896
لقد نجح في عبور المتنزّة إلى الجهة الأخرى من منهاتن --
12:04
which is pretty great --
294
724800
1256
وهو أمر رائع جدًا --
12:06
just because people would pick it up and point it in the right direction.
295
726080
3456
فقط لأن الناس يرفعونه ويوجهونه بالاتجاه الصحيح.
12:09
(Laughter)
296
729560
936
(ضحك)
12:10
And that's great, right?
297
730520
1256
وهذا رائع، أليس كذلك؟
12:11
We're trying to build this human-robot world
298
731800
2696
إننا نحاول بناء هذا العالم حيث يتفاعل الإنسان والروبوت
12:14
in which we can coexist and collaborate with one another,
299
734520
3416
ويمكننا أن نتواجد معًا ونتعاون مع بعضنا البعض،
12:17
and we don't need to be fully autonomous and just do things on our own.
300
737960
3376
ولسنا بحاجة لأن نكون ذاتيي التحكم كليًا والقيام بالأشياء بأنفسنا وحسب.
12:21
We actually do things together.
301
741360
1496
إننا نقوم بالأشياء معًا بالفعل.
12:22
And to make that happen,
302
742880
1256
ولتحقيق ذلك،
12:24
we actually need help from people like the artists and the designers,
303
744160
3256
نحتاج في الحقيقة مساعدة أشخاص مثل الفنانين والمصممين
وصانعي السياسة وعلماء القانون
12:27
the policy makers, the legal scholars,
304
747440
1856
12:29
psychologists, sociologists, anthropologists --
305
749320
2216
وعلماء النفس وعلماء الاجتماع والأنثروبولوجيا --
12:31
we need more perspectives in the room
306
751560
1816
إننا نحتاج مناظير أكثر داخل الغرفة
12:33
if we're going to do the thing that Stu Card says we should do,
307
753400
2976
إذا كنا سنفعل الشيء الذي قال (ستيوارت كارد) أنه يجب علينا فعله
12:36
which is invent the future that we actually want to live in.
308
756400
3936
وهو ابتكار المستقبل الذي نرغب بالفعل أن نعيش فيه.
12:40
And I think we can continue to experiment
309
760360
2656
وأظن أن بإمكاننا أن نواصل اختبارنا معًا لهذه
السيناريوهات المستقبلية المختلفة للروبوتات،
12:43
with these different robotic futures together,
310
763040
2176
12:45
and in doing so, we will end up learning a lot more about ourselves.
311
765240
4680
وبفعلنا لهذا، سينتهي بنا المطاف بتعلم الكثير عن أنفسنا.
12:50
Thank you.
312
770720
1216
شكرًا لكم.
12:51
(Applause)
313
771960
2440
(تصفيق)
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7