What's it like to be a robot? | Leila Takayama

92,126 views ・ 2018-02-16

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: samira soltani Reviewer: sadegh zabihi
00:12
You only get one chance to make a first impression,
0
12760
2656
شما فقط یک شانس دارید تا اولین تاثیر را بگذارید،
00:15
and that's true if you're a robot as well as if you're a person.
1
15440
3176
چه ربات باشید چه انسان، این جمله درست است.
00:18
The first time that I met one of these robots
2
18640
3016
اولین بار که من یکی از این ربات‌ها را دیدم
00:21
was at a place called Willow Garage in 2008.
3
21680
2896
در موسسه‌ٔ «ویلو گِراج» در سال ۲۰۰۸ بود.
00:24
When I went to visit there, my host walked me into the building
4
24600
3016
وقتی برای بازدید آنجا رفتم، میزبانم با من به ساختمان آمد
00:27
and we met this little guy.
5
27640
1576
و ما این کوچولو را ملاقات کردیم.
00:29
He was rolling into the hallway,
6
29240
1656
او به سمت محل ورودی حرکت می‌کرد،
00:30
came up to me, sat there,
7
30920
1816
به طرف من آمد، آنجا نشست،
00:32
stared blankly past me,
8
32760
2256
خیره و بدون هیچ علاقه‌ای به من از کنارم گذشت،
00:35
did nothing for a while,
9
35040
1656
برای مدتی هیچ کاری انجام نداد،
00:36
rapidly spun his head around 180 degrees
10
36720
1936
به سرعت سرش را ۱۸۰ درجه چرخاند
00:38
and then ran away.
11
38680
1536
و بعد فرار کرد.
00:40
And that was not a great first impression.
12
40240
2176
به عنوان اولین تأثیر، عالی نبود.
00:42
The thing that I learned about robots that day
13
42440
2176
آنچه من آن روز دربارهٔ ربات‌ها آموختم
00:44
is that they kind of do their own thing,
14
44640
2176
این بود که به نوعی کار خود را انجام می‌دهند،
00:46
and they're not totally aware of us.
15
46840
2136
و کاملاً از حضور ما آگاه نیستند.
00:49
And I think as we're experimenting with these possible robot futures,
16
49000
3239
فکر می‌کنم وقتی آینده‌های رباتی ممکن را آزمایش می‌کنیم،
00:52
we actually end up learning a lot more about ourselves
17
52263
2673
درباره‌ٔ خود بسیار یاد می‌گیریم
00:54
as opposed to just these machines.
18
54960
1656
بیشتر از آموختن درباره‌ٔ ماشین‌ها.
00:56
And what I learned that day
19
56640
1336
من آن روز آموختم
00:58
was that I had pretty high expectations for this little dude.
20
58000
3416
که انتظارات من درباره‌ٔ این رفیق کوچک فوق‌العاده زیاد بود.
01:01
He was not only supposed to be able to navigate the physical world,
21
61440
3176
او نه تنها قرار بود که بتواند مسیر را در جهان واقعی پیدا کند،
01:04
but also be able to navigate my social world --
22
64640
2656
که همچنین باید مسیر را در جهان اجتماعی بیابد --
01:07
he's in my space; it's a personal robot.
23
67320
2176
او در اتاق من است؛ این یک ربات شخصی است.
01:09
wWhy didn't it understand me?
24
69520
2016
چرا من را نمی‌فهمید؟
01:11
My host explained to me,
25
71560
1256
میزبان برایم توضیح داد،
01:12
"Well, the robot is trying to get from point A to point B,
26
72840
3176
« خب، ربات تلاش می‌کند از نقطه «آ» به نقطه «ب» برود،
01:16
and you were an obstacle in his way,
27
76040
1776
و شما یک مانع بر سر راهش بودید،
01:17
so he had to replan his path,
28
77840
2016
او مجبور بود دوباره برنامه‌ریزی کند،
01:19
figure out where to go,
29
79880
1256
بفهمد کجا برود،
01:21
and then get there some other way,"
30
81160
1696
و بعد مسیر دیگری را برود،»
01:22
which was actually not a very efficient thing to do.
31
82880
2456
آنچه چندان روش مؤثری در عمل نبود.
01:25
If that robot had figured out that I was a person, not a chair,
32
85360
3256
اگر آن ربات فهمیده بود که من یک انسانم، نه یکی صندلی،
01:28
and that I was willing to get out of its way
33
88640
2096
و می‌خواهم از سر راهش کنار بروم
01:30
if it was trying to get somewhere,
34
90760
1656
اگر تلاش می‌کرد تا جایی برود،
01:32
then it actually would have been more efficient
35
92440
2216
در واقع بعد از آن می‌توانست مؤثرتر باشد
01:34
at getting its job done
36
94680
1256
در انجام دادن کارهایش
01:35
if it had bothered to notice that I was a human
37
95960
2216
اگر اهمیت داده بود که من یک انسان بودم
01:38
and that I have different affordances than things like chairs and walls do.
38
98200
3576
و این که من قابلیت‌های متفاوت‌تری نسبت به صندلی‌ها و دیوارها دارم.
01:41
You know, we tend to think of these robots as being from outer space
39
101800
3216
می‌دانید، ما تمایل داریم فکر کنیم این ربات‌ها موجوداتی فضایی هستند
01:45
and from the future and from science fiction,
40
105040
2136
از آینده و داستان علمی‌-تخیلی آمده‌اند،
01:47
and while that could be true,
41
107200
1416
اگرچه این می‌توانست درست باشد
01:48
I'd actually like to argue that robots are here today,
42
108640
2656
می‌خواهم دلیل بیاورم که ربات‌ها امروز اینجا هستند،
01:51
and they live and work amongst us right now.
43
111320
2776
و آن‌ها امروز دقیقاً میان ما زندگی و کار می‌کنند.
01:54
These are two robots that live in my home.
44
114120
2856
این‌ها دو رباتی هستند که در خانه‌ام زندگی می‌کنند.
01:57
They vacuum the floors and they cut the grass
45
117000
2496
آن‌ها خانه را جارو و علف‌ها را هرس می‌کنند
01:59
every single day,
46
119520
1216
هر روز،
02:00
which is more than I would do if I actually had time to do these tasks,
47
120760
3376
بیشتر از آنچه ممکن است انجام بدهم اگر برای انجام این وظایف وقت داشتم،
02:04
and they probably do it better than I would, too.
48
124160
2336
آن‌ها احتمالاً بهتر از من هم انجام می‌دهند.
02:06
This one actually takes care of my kitty.
49
126520
2496
این یکی از بچه گربه‌ٔ من مراقبت می‌کند.
02:09
Every single time he uses the box, it cleans it,
50
129040
2576
هر دفعه بعد از دستشویی گربه، ربات آنجا را تمیز می‌کند،
02:11
which is not something I'm willing to do,
51
131640
1976
آنچه من مشتاق انجام دادنش نیستم،
02:13
and it actually makes his life better as well as mine.
52
133640
2576
در واقع او زندگی بچه‌گربه و من را بهتر می‌کند.
02:16
And while we call these robot products --
53
136240
2416
در حالی که ما این ربات‌ها را محصولات می‌نامیم --
02:18
it's a "robot vacuum cleaner, it's a robot lawnmower,
54
138680
2696
این «یک ربات جارو کننده است، این یک ربات علف هرس‌کُن است،
02:21
it's a robot littler box,"
55
141400
1495
این ربات دستشویی گربه است.»
02:22
I think there's actually a bunch of other robots hiding in plain sight
56
142919
4137
فکر می‌کنم تعداد زیادی از ربا‌ت‌های دیگر هستند که ظاهرا قابل رویت نیستند
02:27
that have just become so darn useful
57
147080
1856
که خیلی مفید محسوب می‌شوند
02:28
and so darn mundane
58
148960
1456
و خیلی معمولی
02:30
that we call them things like, "dishwasher," right?
59
150440
2496
که ما به آنها مثلا «ماشین ظرفشویی» می‌گوییم، درسته؟
02:32
They get new names.
60
152960
1216
آن‌ها نام جدید می‌گیرند.
02:34
They don't get called robot anymore
61
154200
1696
به آن‌ها دیگر ربات گفته نمی‌شود
02:35
because they actually serve a purpose in our lives.
62
155920
2416
چون آن‌ها در واقع یک هدف در زندگی ما دارند.
02:38
Similarly, a thermostat, right?
63
158360
1496
مثل یک ترموستات، درسته؟
02:39
I know my robotics friends out there
64
159880
1776
می‌دانم دوستان رباتیک من خارج از اینجا
02:41
are probably cringing at me calling this a robot,
65
161680
2336
احتمالاً جا می‌خورند که به این ربات می‌گویم،
02:44
but it has a goal.
66
164040
1256
اما این یک هدف دارد.
02:45
Its goal is to make my house 66 degrees Fahrenheit,
67
165320
2896
هدفش این است که دمای خانهٔ من ۱۹ درجه سانتی‌گراد باشد،
02:48
and it senses the world.
68
168240
1256
و این جهان را می‌فهمد.
02:49
It knows it's a little bit cold,
69
169520
1576
می‌داند کمی هوا سرد است،
02:51
it makes a plan and then it acts on the physical world.
70
171120
2616
برنامه می‌ریزد و بعد در دنیای واقعی آن را اجرا می‌کند.
02:53
It's robotics.
71
173760
1256
این رباتیک است.
02:55
Even if it might not look like Rosie the Robot,
72
175040
2576
حتی اگر ممکن است ربات شبیه رُزی نباشد،
02:57
it's doing something that's really useful in my life
73
177640
2936
کاری انجام می‌دهد که برای زندگی من مفید است
03:00
so I don't have to take care
74
180600
1376
پس مجبور نیستم مراقب باشم
03:02
of turning the temperature up and down myself.
75
182000
2576
تا خودم درجه گرما را بالا و پایین ببرم.
03:04
And I think these systems live and work amongst us now,
76
184600
3816
و من فکر می‌کنم حالا این سیستم‌ها بین ما زندگی و کار می‌کنند،
03:08
and not only are these systems living amongst us
77
188440
2336
و نه تنها بین ما زندگی می‌کنند
03:10
but you are probably a robot operator, too.
78
190800
2656
که احتمالاً شما هم یک عامل رباتی هستید.
03:13
When you drive your car,
79
193480
1256
وقتی رانندگی می‌کنید،
03:14
it feels like you are operating machinery.
80
194760
2216
حس می‌کنید که ماشین‌وار آن را اجرا می‌کنید.
03:17
You are also going from point A to point B,
81
197000
2816
شما هم از نقطه «آ» به نقطه «ب» حرکت می‌کنید،
03:19
but your car probably has power steering,
82
199840
2216
اما ماشین شما احتمالاً فرمان هیدرولیک دارد،
03:22
it probably has automatic braking systems,
83
202080
2696
احتمالاً سیستم‌های پدالی خودکار دارد،
03:24
it might have an automatic transmission and maybe even adaptive cruise control.
84
204800
3736
ممکن است که فرستنده خودکار داشته باشد یا شاید حتی کنترل کننده‌ٔ سرعت هوشمند.
03:28
And while it might not be a fully autonomous car,
85
208560
2936
و اگرچه یک ماشین کاملاً مستقل نیست،
03:31
it has bits of autonomy,
86
211520
1296
کمی استقلال هم دارد،
03:32
and they're so useful
87
212840
1336
و آن‌ها بسیار مفید هستند
03:34
and they make us drive safer,
88
214200
1816
و رانندگی ما را ایمن‌تر می‌کنند،
03:36
and we just sort of feel like they're invisible-in-use, right?
89
216040
3656
ما به نوعی احساس می‌کنیم که آن‌ها نامرئی کار می‌کنند، درسته؟
03:39
So when you're driving your car,
90
219720
1576
خب وقتی رانندگی می‌کنید،
03:41
you should just feel like you're going from one place to another.
91
221320
3096
شما باید فقط احساس کنید که از یک مکان به مکان دیگری می‌روید.
03:44
It doesn't feel like it's this big thing that you have to deal with and operate
92
224440
3736
احساس نمی‌کنید این یک کار بزرگ است که مجبورید با آن کنار بیایید و اجرا کنید
03:48
and use these controls
93
228200
1256
و از کنترل‌ها استفاده کنید
03:49
because we spent so long learning how to drive
94
229480
2176
چون زمان زیادی سپری کردیم تا رانندگی بیاموزیم
03:51
that they've become extensions of ourselves.
95
231680
2696
و آن‌ها افزونه‌های خودمان شده‌اند.
03:54
When you park that car in that tight little garage space,
96
234400
2696
وقتی ماشین خود را در پارکینگ خیلی کوچک پارک می‌کنید،
03:57
you know where your corners are.
97
237120
1576
می‌دانید گوشه‌های شما کجا هستند.
03:58
And when you drive a rental car that maybe you haven't driven before,
98
238720
3256
وقتی ماشین اجاره‌ای را می‌رانید که ممکن است قبلا آن را نرانده باشید،
04:02
it takes some time to get used to your new robot body.
99
242000
3056
کمی زمان می‌برد تا به بدن ربات جدید خود عادت کنید.
04:05
And this is also true for people who operate other types of robots,
100
245080
3976
و این برای اجراکنندگان انواع دیگر ربات‌ها هم درست است،
04:09
so I'd like to share with you a few stories about that.
101
249080
2600
می‌خواهم چند داستان در این زمینه برای شما بگویم.
04:12
Dealing with the problem of remote collaboration.
102
252240
2336
حل کردن مشکل همکاری از راه دور.
04:14
So, at Willow Garage I had a coworker named Dallas,
103
254600
2576
خب در «ویلو گِراج» من همکاری به نام «دالاس» داشتم،
04:17
and Dallas looked like this.
104
257200
1576
و «دالاس» شبیه این بود.
04:18
He worked from his home in Indiana in our company in California.
105
258800
4056
او از خانه‌اش در ایندیانا در شرکت ما در کالیفرنیا کار می‌کرد.
04:22
He was a voice in a box on the table in most of our meetings,
106
262880
2936
او صدایی از یک جعبه روی میز در بیشتر جلسه‌های ما بود،
04:25
which was kind of OK except that, you know,
107
265840
2215
این تقریباً خوب بود جز این که، می‌دانید،
04:28
if we had a really heated debate and we didn't like what he was saying,
108
268079
3377
اگر ما یک بحث واقعاً داغ داشتیم و آنچه می‌گفت دوست نداشتیم،
04:31
we might just hang up on him.
109
271480
1416
ممکن بود تماس را قطع کنیم.
04:32
(Laughter)
110
272920
1015
(خنده)
04:33
Then we might have a meeting after that meeting
111
273959
2217
پس ما ممکن بود یک جلسه بعد از آن جلسه بگذاریم
04:36
and actually make the decisions in the hallway afterwards
112
276200
2696
و در راهرو تصمیم‌هایی بگیریم
04:38
when he wasn't there anymore.
113
278920
1416
زمانی که او دیگر آنجا نبود.
04:40
So that wasn't so great for him.
114
280360
1576
خب این برای او خیلی عالی نبود.
04:41
And as a robotics company at Willow,
115
281960
1736
و چون «ویلو» یک شرکت رباتیک است
04:43
we had some extra robot body parts laying around,
116
283720
2336
ما تعدادی اعضای بدن ربات اضافه اطرافمان داشتیم،
04:46
so Dallas and his buddy Curt put together this thing,
117
286080
2496
پس «دالاس» و دوست او «کورت» این‌ را درست کردند،
04:48
which looks kind of like Skype on a stick on wheels,
118
288600
2936
آنچه شبیه نوعی «اسکایپ» روی دسته با چرخ بود،
04:51
which seems like a techy, silly toy,
119
291560
1736
شبیه اسباب‌بازی فناورانه و خنگ بود،
04:53
but really it's probably one of the most powerful tools
120
293320
2776
اما در واقع احتمالا یکی از قدرتمندترین ابزارها بود
04:56
that I've seen ever made for remote collaboration.
121
296120
2480
که تابه‌حال دیده‌ام برای دورکاری ساخته شده است.
04:59
So now, if I didn't answer Dallas' email question,
122
299160
3496
خب حالا، اگر من جواب سوال ایمیلی «دالاس» را نمی‌دادم،
05:02
he could literally roll into my office,
123
302680
2216
او می‌توانست به دفتر من بیاید،
05:04
block my doorway and ask me the question again --
124
304920
2576
راه ورودم را ببندد و دوباره سوالش را بپرسد --
05:07
(Laughter)
125
307520
1016
(خنده)
05:08
until I answered it.
126
308560
1216
تا این که جوابش را بدهم.
05:09
And I'm not going to turn him off, right? That's kind of rude.
127
309800
2976
و من نمی‌خواهم او را خاموش کنم، درسته؟ نوعی بی‌ادبی است.
05:12
Not only was it good for these one-on-one communications,
128
312800
2696
این نه تنها برای ارتباطات میان فردی خوب است،
05:15
but also for just showing up at the company all-hands meeting.
129
315520
2936
که برای نشان دادن مشارکت همه اعضا در جلسات شرکت هم خوب است.
05:18
Getting your butt in that chair
130
318480
1696
این که روی صندلی‌تان لم بدهید
05:20
and showing people that you're present and committed to your project
131
320200
3216
و به افراد نشان بدهید آنجا حاضرید و به پروژه‌تان متعهد هستید
05:23
is a big deal
132
323440
1256
خیلی مهم است
05:24
and can help remote collaboration a ton.
133
324720
2176
و می‌تواند به دورکاری کمک زیادی کند.
05:26
We saw this over the period of months and then years,
134
326920
2856
ما این را در بازه‌های زمانی چندماهه و بعد چندساله دیدیم،
05:29
not only at our company but at others, too.
135
329800
2160
نه تنها در شرکت ما که برای دیگران همین‌طور بود.
05:32
The best thing that can happen with these systems
136
332720
2336
بهترین اتفاقی که می‌تواند با این سیستم‌ها بیفتد
05:35
is that it starts to feel like you're just there.
137
335080
2336
این بود که کم کم احساس می‌کنید شما هم آنجا هستید.
05:37
It's just you, it's just your body,
138
337440
1696
این شمایید، این بدن شماست،
05:39
and so people actually start to give these things personal space.
139
339160
3096
پس افراد کم کم به این‌ها اجازه داشتن فضا‌های شخصی دادند.
05:42
So when you're having a stand-up meeting,
140
342280
1976
خب وقتی یک جلسه سرپایی دارید،
05:44
people will stand around the space
141
344280
1656
و افراد دور هم جمع می‌شوند
05:45
just as they would if you were there in person.
142
345960
2216
همان‌طوری که انجام می‌شود اگر شخصا آنجا باشید
05:48
That's great until there's breakdowns and it's not.
143
348200
2576
این عالی بود تا وقتی شکست‌هایی به وجود آمد.
05:50
People, when they first see these robots,
144
350800
1976
افراد، وقتی اولین بار ربات‌ها را می‌دیدند،
05:52
are like, "Wow, where's the components? There must be a camera over there,"
145
352800
3576
می‌گفتند: «اوه، بقیه اجزا کجاست؟ باید یه دوربین این طرف‌ها باشد،»
05:56
and they start poking your face.
146
356400
1576
و به صورت شما ضربه می‌زدند.
05:58
"You're talking too softly, I'm going to turn up your volume,"
147
358000
2936
«خیلی آرام حرف می‌زنی، می‌خواهم کمی صدایت را بلندتر کنم،»
06:00
which is like having a coworker walk up to you and say,
148
360960
2616
مثل این که همکارتان بیاید جلوی شما بایستد و بگوید،
06:03
"You're speaking too softly, I'm going to turn up your face."
149
363600
2896
«خیلی آرام حرف می‌زنی، می‌خواهم صدایت را بالا ببرم.»
06:06
That's awkward and not OK,
150
366520
1256
این ناراحت‌کننده است،
06:07
and so we end up having to build these new social norms
151
367800
2616
و ما تلاش کردیم تا هنجار‌های اجتماعی جدیدی داشته باشیم
06:10
around using these systems.
152
370440
2216
برای استفاده کردن از این سیستم‌ها.
06:12
Similarly, as you start feeling like it's your body,
153
372680
3416
به همین ترتیب وقتی حس می‌کنید که این مثل بدن شماست،
06:16
you start noticing things like, "Oh, my robot is kind of short."
154
376120
3696
شروع می‌کنید به نکاتی توجه می‌کنید مثل «اوه، ربات من کمی کوتاه قد است،»
06:19
Dallas would say things to me -- he was six-foot tall --
155
379840
2656
دالاس به من این‌ها را می‌گفت -- قد او ۱۸۶ سانتی‌متر است --
06:22
and we would take him via robot to cocktail parties and things like that,
156
382520
3456
و ما او را از طریق ربات به مهمانی‌های رسمی و مشابه آن می‌بردیم،
06:26
as you do,
157
386000
1216
درست مثل شما،
06:27
and the robot was about five-foot-tall, which is close to my height.
158
387240
3336
و قد ربات حدود ۱۵۲ سانتی‌متر بود، نزدیک به قد من.
06:30
And he would tell me,
159
390600
1216
و او به من می‌گفت،
06:31
"You know, people are not really looking at me.
160
391840
2536
«می‌دونی افراد واقعا به من نگاه نمی‌کنند.
06:34
I feel like I'm just looking at this sea of shoulders,
161
394400
2696
حس می‌کنم فقط به دریایی از شانه‌ها نگاه می‌کنم،
06:37
and it's just -- we need a taller robot."
162
397120
1976
و فقط -- ما به ربات قدبلندتری نیاز داریم.»
06:39
And I told him,
163
399120
1256
و من به او گفتم،
06:40
"Um, no.
164
400400
1296
«هوم، نه.
06:41
You get to walk in my shoes for today.
165
401720
1936
تو مثل من امروز قدم زدی.
06:43
You get to see what it's like to be on the shorter end of the spectrum."
166
403680
3536
دیدی چه حسی داری اگر در بخش کوتاه‌تر طیف باشی.»
06:47
And he actually ended up building a lot of empathy for that experience,
167
407240
3376
و او به میزان زیادی همذات‌پنداری را تجربه کرد،
06:50
which was kind of great.
168
410640
1256
که خیلی عالی بود.
06:51
So when he'd come visit in person,
169
411920
1656
خب پس وقتی به‌شخصه برای ملاقات آمد،
06:53
he no longer stood over me as he was talking to me,
170
413600
2416
دیگر بالای سر من نمی‌ایستاد وقتی با من حرف می‌زد،
06:56
he would sit down and talk to me eye to eye,
171
416040
2096
او می‌نشست و با من چشم در چشم صحبت می‌کرد،
06:58
which was kind of a beautiful thing.
172
418160
1736
که به نوعی نکتهٔ زیبایی بود.
06:59
So we actually decided to look at this in the laboratory
173
419920
2656
خب ما تصمیم گرفتیم تا این را در آزمایشگاه بررسی کنیم
07:02
and see what others kinds of differences things like robot height would make.
174
422600
3656
و ببینیم چه تفاوت‌های دیگری مثل قد ربات ممکن است باشد.
07:06
And so half of the people in our study used a shorter robot,
175
426280
2856
نیمی از افراد مورد مطالعه ربات‌های قدکوتاه‌تری داشتند،
07:09
half of the people in our study used a taller robot
176
429160
2416
نیم دیگری از آن‌ها ربات‌های قدبلندتری استفاده کردند
07:11
and we actually found that the exact same person
177
431600
2256
و ما فهمیدیم همان شخصی
07:13
who has the exact same body and says the exact same things as someone,
178
433880
3336
که دقیقاً همان بدن را دارد و دقیقاً همان حرف‌ها را بیان می‌کند
07:17
is more persuasive and perceived as being more credible
179
437240
2616
قانع‌کننده‌تر است و معتبرتر شناخته می‌شود
07:19
if they're in a taller robot form.
180
439880
1656
اگر به شکل ربات قدبلندتری باشند،
07:21
It makes no rational sense,
181
441560
1816
منطقی به نظر نمی‌رسد،
07:23
but that's why we study psychology.
182
443400
1696
به همین دلیل روان‌شناسی خواندیم.
07:25
And really, you know, the way that Cliff Nass would put this
183
445120
2856
و در واقع راهی که «کلیف نس» تعیین کرد
07:28
is that we're having to deal with these new technologies
184
448000
3016
این بود که ما مجبوریم با این تکنولوژی‌های جدید مدارا کنیم
07:31
despite the fact that we have very old brains.
185
451040
2736
علی‌رغم این که ما مغز‌هایی بسیار قدیمی داریم.
07:33
Human psychology is not changing at the same speed that tech is
186
453800
2976
روان‌شناسی بشر به همان سرعت تکنولوژی تغییر نمی‌کند
07:36
and so we're always playing catch-up,
187
456800
1816
و ما همیشه سعی می‌کنیم عقب نمانیم،
07:38
trying to make sense of this world
188
458640
1656
تلاش می‌کنیم به این جهان معنا بدهیم
07:40
where these autonomous things are running around.
189
460320
2336
جایی که این اشیاء مستقل در اطراف ما فعالیت می‌کنند.
07:42
Usually, things that talk are people, not machines, right?
190
462680
2736
معمولا آنچه صحبت می‌کند انسان‌ها هستند، نه ماشین، درسته؟
07:45
And so we breathe a lot of meaning into things like just height of a machine,
191
465440
4576
و ما معنا‌های زیادی برای اشیاء خلق می‌کنیم مثل ارتفاع یک ماشین،
07:50
not a person,
192
470040
1256
نه یک انسان،
07:51
and attribute that to the person using the system.
193
471320
2360
و به فرد مصرف‌کننده این سیستم تشخص می‌دهیم.
07:55
You know, this, I think, is really important
194
475120
2216
می‌دانید، فکر می‌کنم، این بسیار مهم است
07:57
when you're thinking about robotics.
195
477360
1736
وقتی درباره‌ٔ رباتیک فکر می‌کنید.
07:59
It's not so much about reinventing humans,
196
479120
2096
این درباره‌ٔ اختراع دوباره‌ٔ انسان‌ها نیست،
08:01
it's more about figuring out how we extend ourselves, right?
197
481240
3136
بیشتر درک این است که چه‌طور از توانایی خود استفاده می‌کنیم، درسته؟
08:04
And we end up using things in ways that are sort of surprising.
198
484400
2976
و ما طوری از این اشیاء استفاده می‌کنیم که تعجب‌برانگیز است.
08:07
So these guys can't play pool because the robots don't have arms,
199
487400
4256
خب این دوستان نمی‌توانند بیلیارد بازی کنند چون ربات‌ها بازو ندارند،
08:11
but they can heckle the guys who are playing pool
200
491680
2336
اما می‌توانند شلوغ کنند وقتی دیگران بازی می‌کنند
08:14
and that can be an important thing for team bonding,
201
494040
3176
و این می‌تواند برای همبستگی تیمی بسیار مهم باشد،
08:17
which is kind of neat.
202
497240
1296
که به نوعی خوب است.
08:18
People who get really good at operating these systems
203
498560
2496
افرادی که خوب می‌توانند این سیستم‌ها را اجرا کنند
08:21
will even do things like make up new games,
204
501080
2056
حتی ساختن بازی‌های جدید را انجام خواهند داد،
08:23
like robot soccer in the middle of the night,
205
503160
2136
مثل فوتبال ربات‌ها در نیمه شب،
08:25
pushing the trash cans around.
206
505320
1456
پرت کردن کنسرو خالی به اطراف.
08:26
But not everyone's good.
207
506800
1576
اما همه خوب نیستند.
08:28
A lot of people have trouble operating these systems.
208
508400
2496
بسیاری از افراد در اجرای این سیستم‌ها مشکل دارند.
08:30
This is actually a guy who logged into the robot
209
510920
2256
این در واقع فردی است که به یک ربات وارد شده است
08:33
and his eyeball was turned 90 degrees to the left.
210
513200
2376
و چشم او ۹۰ درجه به چپ می‌چرخید.
08:35
He didn't know that,
211
515600
1256
او این را نمی‌دانست،
08:36
so he ended up just bashing around the office,
212
516880
2176
خب او فقط اطراف دفتر می‌چرخید،
08:39
running into people's desks, getting super embarrassed,
213
519080
2616
به میز افراد نزدیک می‌شد و بسیار خجالت‌زده می‌شد
08:41
laughing about it -- his volume was way too high.
214
521720
2336
و می‌خندید -- صدای او بسیار بلند بود.
08:44
And this guy here in the image is telling me,
215
524080
2136
و این فرد اینجا در تصویر به من می‌گوید،
08:46
"We need a robot mute button."
216
526240
2096
«ما به یک دکمهٔ ربات خاموش‌کن نیاز داریم.»
08:48
And by that what he really meant was we don't want it to be so disruptive.
217
528360
3496
منظور او این بود که ما نمی‌خواهیم او خیلی مختل‌کننده باشد.
08:51
So as a robotics company,
218
531880
1616
پس به عنوان یک شرکت رباتیک،
08:53
we added some obstacle avoidance to the system.
219
533520
2456
ما چند اجتناب از مانع به سیستم اضافه کردیم.
08:56
It got a little laser range finder that could see the obstacles,
220
536000
3056
آن یک رهیاب لیزری کوچک گرفت که می‌توانست موانع را ببیند،
08:59
and if I as a robot operator try to say, run into a chair,
221
539080
3136
و اگر من به عنوان عامل ربات بخواهم بگویم، برو به سمت صندلی،
09:02
it wouldn't let me, it would just plan a path around,
222
542240
2496
آن به من اجازه نمی‌دهد، فقط برای مسیر برنامه می‌دهد،
09:04
which seems like a good idea.
223
544760
1856
که به نظر ایدهٔ خوبی می‌رسد.
09:06
People did hit fewer obstacles using that system, obviously,
224
546640
3176
افراد با استفاده از این دستگاه به موانع کمتری برخورد می‌کردند،
09:09
but actually, for some of the people,
225
549840
2096
اما در واقع، برای بعضی از افراد،
09:11
it took them a lot longer to get through our obstacle course,
226
551960
2856
زمان بیشتری لازم بود تا دورهٔ موانع ما را از سر بگذرانند،
09:14
and we wanted to know why.
227
554840
1560
و ما می‌خواستیم بدانیم چرا.
09:17
It turns out that there's this important human dimension --
228
557080
3056
این اتفاق می‌افتد چون این بُعد انسانی مهم وجود دارد
09:20
a personality dimension called locus of control,
229
560160
2296
یک بُعد شخصیتی که منبع کنترل نامیده می‌شود،
09:22
and people who have a strong internal locus of control,
230
562480
3136
و افرادی که منبع کنترل داخلی قوی دارند،
09:25
they need to be the masters of their own destiny --
231
565640
3056
نیاز دارند تا بر سرنوشت خود مسلط باشند --
09:28
really don't like giving up control to an autonomous system --
232
568720
3096
و واقعاً دوست ندارند تا کنترل را به یک سیستم مستقل بدهند --
09:31
so much so that they will fight the autonomy;
233
571840
2136
پس به احتمال زیاد با این رویه مبارزه می‌کنند
09:34
"If I want to hit that chair, I'm going to hit that chair."
234
574000
3096
«اگر می‌خواهم به آن صندلی بزنم، واقعا می‌خواهم این کار را بکنم.»
09:37
And so they would actually suffer from having that autonomous assistance,
235
577120
3616
و آن‌ها واقعاً از داشتن این کمک‌های خودکار رنج می‌برند،
09:40
which is an important thing for us to know
236
580760
2576
آنچه برای ما بسیار مهم است که بشناسیم
09:43
as we're building increasingly autonomous, say, cars, right?
237
583360
3296
چون ما روزافزون سیستم‌های خودکار مثل ماشین می‌سازیم، درسته؟
09:46
How are different people going to grapple with that loss of control?
238
586680
3360
افراد به چه روش‌های متفاوتی با این از دست دادن کنترل کنار می‌آیند؟
09:50
It's going to be different depending on human dimensions.
239
590880
2696
این می‌تواند وابسته به ابعاد انسانی متفاوت باشد.
09:53
We can't treat humans as if we're just one monolithic thing.
240
593600
3496
نمی‌توانیم با انسان‌ها طوری رفتار کنیم انگار ما فقط یک شیء بی‌جان هستیم.
09:57
We vary by personality, by culture,
241
597120
2416
ما با شخصیت و فرهنگ از هم متمایز می‌شویم،
09:59
we even vary by emotional state moment to moment,
242
599560
2456
حتی وضعیت احساسی تفاوت ایجاد می‌کند لحظه به لحظه،
10:02
and being able to design these systems,
243
602040
1976
و ما را قادر به طراحی این سیستم‌ها می‌کند،
10:04
these human-robot interaction systems,
244
604040
2296
این سیستم‌های تعامل انسان-ربات،
10:06
we need to take into account the human dimensions,
245
606360
2736
ما نیاز داریم تا ابعاد انسانی را مد نظر قرار دهیم،
10:09
not just the technological ones.
246
609120
1720
نه فقط ابعاد فنی و تکنولوژیکی را.
10:11
Along with a sense of control also comes a sense of responsibility.
247
611640
4296
همراه با حس کنترل، حس مسئولیت‌پذیری هم می‌آید.
10:15
And if you were a robot operator using one of these systems,
248
615960
2856
و اگر شما عامل رباتی باشید که از این سیستم‌ها استفاده می‌کنید
10:18
this is what the interface would look like.
249
618840
2056
واسطه کامپیوتری به این شبیه است
10:20
It looks a little bit like a video game,
250
620920
1936
این تا حدی شبیه به یک بازی ویدیویی است،
10:22
which can be good because that's very familiar to people,
251
622880
2976
آنچه می‌تواند خوب باشد چون برای افراد بسیار آشناست،
10:25
but it can also be bad
252
625880
1216
اما بد هم می‌تواند باشد
10:27
because it makes people feel like it's a video game.
253
627120
2456
چون افراد احساس می‌کنند شبیه یک بازی ویدیویی است.
10:29
We had a bunch of kids over at Stanford play with the system
254
629600
2856
بچه‌های زیادی در استنفورد داشتیم تا با این سیستم بازی کنند
10:32
and drive the robot around our office in Menlo Park,
255
632480
2456
و ربات‌ها را در دفتر ما در «منلو پارک» راه ببرند،
10:34
and the kids started saying things like,
256
634960
1936
بچه‌ها شروع کردند به گفتن این که،
10:36
"10 points if you hit that guy over there. 20 points for that one."
257
636920
3176
«۱۰ امتیاز اگر به آن فرد ضربه بزنی، ۲۰ امتیاز برای آن یکی.»
10:40
And they would chase them down the hallway.
258
640120
2016
و آن‌ها را در راهرو دنبال می‌کردند.
10:42
(Laughter)
259
642160
1016
(خنده)
10:43
I told them, "Um, those are real people.
260
643200
1936
به بچه‌ها گفتم، «آنها افراد واقعی هستند،
10:45
They're actually going to bleed and feel pain if you hit them."
261
645160
3296
ممکن است خونریزی کنند یا درد داشته باشند اگر به آنها ضربه بزنید.»
10:48
And they'd be like, "OK, got it."
262
648480
1616
و واکنش این بود، «باشه، فهمیدم.»
10:50
But five minutes later, they would be like,
263
650120
2056
اما پنج دقیقه بعد، رفتار آن‌ها این طوری بود،
10:52
"20 points for that guy over there, he just looks like he needs to get hit."
264
652200
3616
«۲۰ امتیاز برای آن فردی که آنجاست، چهره‌اش می‌گوید می‌خواهد ضربه بخورد.»
10:55
It's a little bit like "Ender's Game," right?
265
655840
2136
این کمی شبیه فیلم «اِندرز گیم» است، درسته؟
10:58
There is a real world on that other side
266
658000
1936
دنیای واقعی در طرف دیگر وجود دارد
10:59
and I think it's our responsibility as people designing these interfaces
267
659960
3416
و فکر می‌کنم این مسئولیت ما است به عنوان طراحان این واسطه‌های کامپیوتری
11:03
to help people remember
268
663400
1256
تا به افراد یادآوری کنیم
11:04
that there's real consequences to their actions
269
664680
2256
نتایج واقعی برای اعمال آن‌ها وجود دارد
11:06
and to feel a sense of responsibility
270
666960
2296
تا حس مسئولیت داشته باشند
11:09
when they're operating these increasingly autonomous things.
271
669280
3280
وقتی با این ابزار‌های خودکار رو به فزونی کار می‌کنند.
11:13
These are kind of a great example
272
673840
2296
این‌ها مثال‌های مهمی هستند
11:16
of experimenting with one possible robotic future,
273
676160
3256
از آزمایش یکی از آینده‌های محتمل رباتیک،
11:19
and I think it's pretty cool that we can extend ourselves
274
679440
3856
فکر می‌کنم بسیار جالب است که می‌توانیم خود را توانمندتر کنیم
11:23
and learn about the ways that we extend ourselves
275
683320
2336
و یاد بگیریم چه طور با این ماشین‌ها
11:25
into these machines
276
685680
1216
توانمند شویم
11:26
while at the same time being able to express our humanity
277
686920
2696
در حالی که همزمان قادر باشیم انسانیت خود را بیان کنیم
11:29
and our personality.
278
689640
1216
و شخصیت خود را.
11:30
We also build empathy for others
279
690880
1576
همچنین می‌توانیم دیگران را بفهمیم
11:32
in terms of being shorter, taller, faster, slower,
280
692480
3216
برای کوتاهی، بلندی، سریع‌تر، کُندتر بودن،
11:35
and maybe even armless,
281
695720
1416
و شاید حتی نداشتن دست،
11:37
which is kind of neat.
282
697160
1336
که این همدلی خوب است.
11:38
We also build empathy for the robots themselves.
283
698520
2536
ما همچنین با ربات‌ها همذات‌پنداری می‌کنیم
11:41
This is one of my favorite robots.
284
701080
1656
این یکی از ربات‌های محبوب من است.
11:42
It's called the Tweenbot.
285
702760
1456
به آن «تویین‌بات» می‌گویند.
11:44
And this guy has a little flag that says,
286
704240
1976
او یک پرچم کوچک دارد که می‌گوید،
11:46
"I'm trying to get to this intersection in Manhattan,"
287
706240
2576
«من تلاش می‌کنم تا به این تقاطع در منهتن برسم،»
11:48
and it's cute and rolls forward, that's it.
288
708840
2776
این زیباست و به جلو حرکت می‌کند، همین.
11:51
It doesn't know how to build a map, it doesn't know how to see the world,
289
711640
3456
نمی‌داند چه طور نقشه بکشد، نمی‌داند چه‌طور دنیا را ببیند،
11:55
it just asks for help.
290
715120
1256
فقط کمک می‌خواهد.
11:56
The nice thing about people
291
716400
1336
نکته‌ٔ خوب درباره‌ٔ مردم
11:57
is that it can actually depend upon the kindness of strangers.
292
717760
3096
این است که می‌تواند وابسته به مهربانی غریبه‌ها باشد.
12:00
It did make it across the park to the other side of Manhattan --
293
720880
3896
او از پارک به طرف دیگر منهتن عبور کرد --
12:04
which is pretty great --
294
724800
1256
که خیلی عالی است --
12:06
just because people would pick it up and point it in the right direction.
295
726080
3456
فقط به خاطر این که مردم آن را برمی‌دارند و در مسیر درست قرار می‌دهند.
12:09
(Laughter)
296
729560
936
(خنده)
12:10
And that's great, right?
297
730520
1256
عالی است، نه؟
12:11
We're trying to build this human-robot world
298
731800
2696
ما تلاش می‌کنیم این دنیای ربات-انسانی را بسازیم
12:14
in which we can coexist and collaborate with one another,
299
734520
3416
که در آن می‌توانیم با هم زندگی و مشارکت کنیم،
12:17
and we don't need to be fully autonomous and just do things on our own.
300
737960
3376
ما نیاز نداریم کاملاً مستقل شویم و همه کارها را خود انجام دهیم.
12:21
We actually do things together.
301
741360
1496
همه چیز را با هم انجام می‌دهیم.
12:22
And to make that happen,
302
742880
1256
و برای به اجرا در آمدن آن،
12:24
we actually need help from people like the artists and the designers,
303
744160
3256
به کمک افرادی مثل هنرمندان و طراحان نیاز داریم،
12:27
the policy makers, the legal scholars,
304
747440
1856
سیاست‌گذاران، اساتید حقوق،
12:29
psychologists, sociologists, anthropologists --
305
749320
2216
روان‌شناسان، جامعه‌شناسان، مردم‌شناسان --
12:31
we need more perspectives in the room
306
751560
1816
ما به دیدگاه‌های بیشتری نیاز داریم
12:33
if we're going to do the thing that Stu Card says we should do,
307
753400
2976
اگر می‌خواهیم کاری کنیم که استو کارد می‌گوید باید انجام بدهیم،
12:36
which is invent the future that we actually want to live in.
308
756400
3936
اختراع آینده‌ای که در واقع می‌خواهیم در آن زندگی کنیم.
12:40
And I think we can continue to experiment
309
760360
2656
فکر می‌کنم می‌توانیم به آزمایش کردن ادامه بدهیم
12:43
with these different robotic futures together,
310
763040
2176
با این آینده‌های رباتیک متفاوت با یکدیگر،
12:45
and in doing so, we will end up learning a lot more about ourselves.
311
765240
4680
و در حین انجام آن، ما بسیار بیشتر درباره‌ٔ خود یاد می‌گیریم.
12:50
Thank you.
312
770720
1216
متشکرم.
12:51
(Applause)
313
771960
2440
(تشویق)
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7