What intelligent machines can learn from a school of fish | Radhika Nagpal

109,666 views ・ 2017-10-06

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: Mohammad Javad Najafi rad Reviewer: Nima Pourreza
00:12
In my early days as a graduate student,
0
12575
2015
در اولین روزهای دوران دانشجویی ارشد،
00:14
I went on a snorkeling trip off the coast of the Bahamas.
1
14614
3555
به یک سفر غواصی زیر آب در سواحل باهاما رفتم.
00:18
I'd actually never swum in the ocean before,
2
18609
2949
راستش قبلاً در اون اقیانوس شنا نکرده بودم،
00:21
so it was a bit terrifying.
3
21582
1844
بنابراین کمی ترسیده بودم.
00:23
What I remember the most is, as I put my head in the water
4
23836
3000
چیزی که بیشتر به یاد می‌آورم، همانطور که سرم را در آب گذاشتم
00:26
and I was trying really hard to breathe through the snorkel,
5
26860
4250
و سخت تلاش می‌کردم از طریق لوله تنفس نفس بکشم،
00:31
this huge group of striped yellow and black fish
6
31134
5366
یک گروه بزرگ از ماهی‌های راه راه زرد و سیاه
00:36
came straight at me ...
7
36524
1483
مستقیم به سمت من آمدند ...
00:38
and I just froze.
8
38637
1397
و من فقط بی‌حرکت ماندم.
00:40
And then, as if it had suddenly changed its mind,
9
40795
3613
و بعد، مثل اینکه ناگهانی عقیده‌شان عوض بشود،
00:44
came towards me and then swerved to the right
10
44432
2437
به سمت من می‌آمدند و بعد به سمت راستم منحرف می‌شدند
00:46
and went right around me.
11
46893
1515
و به اطراف من می‌رفتند.
00:48
It was absolutely mesmerizing.
12
48740
1526
بسیار مسحور کننده بود.
00:50
Maybe many of you have had this experience.
13
50290
2182
شاید خیلی از شماها همچین تجربه‌ای داشته‌اید.
00:53
Of course, there's the color and the beauty of it,
14
53059
3422
البته، با وجود رنگ و زیبایی آن‌ها،
00:56
but there was also just the sheer oneness of it,
15
56505
2928
اما در آن یک نوع یکنواختی وجود داشت،
00:59
as if it wasn't hundreds of fish
16
59457
2343
که انگار این‌ها صدها ماهی نیستند
01:01
but a single entity with a single collective mind
17
61824
3135
بلکه انگار یک نهاد واحد با یک ذهن واحد جمعی
01:04
that was making decisions.
18
64983
1507
داشت برایشان تصمیم گیری می‌کرد.
01:07
When I look back, I think that experience really ended up determining
19
67486
3682
وقتی به عقب نگاه می‌کنم، فکر می‌کنم از این تجربه درس گرفتم
01:11
what I've worked on for most of my career.
20
71192
2222
و در بیشتر کارهایم از آن استفاده کردم.
01:15
I'm a computer scientist,
21
75977
1280
من یک محقق کامپیوتر هستم،
01:17
and the field that I work in is artificial intelligence.
22
77281
2747
و در زمینه هوش مصنوعی کار می‌کنم.
01:20
And a key theme in AI
23
80459
1517
و یک موضوع مهم در هوش مصنوعی
01:22
is being able to understand intelligence by creating our own computational systems
24
82000
4443
توانایی درک هوش با ایجاد سیستم‌های محاسباتی خودمان است
01:26
that display intelligence the way we see it in nature.
25
86467
3253
که هوش را به‌طریقی که در طبیعت می‌بینیم نشان دهد.
01:30
Now, most popular views of AI, of course, come from science fiction and the movies,
26
90287
4438
در حال حاضر، بیشتر ایده‌های هوش مصنوعی، از فیلم‌ها و تخیلات آمده است،
01:34
and I'm personally a big Star Wars fan.
27
94749
2577
و من شخصاً طرفدار فیلم «جنگ ستارگان» هستم.
01:38
But that tends to be a very human-centric view of intelligence.
28
98321
3889
اما به نظر می‌رسد این نگرش به هوش بسیار انسان محور است.
01:42
When you think of a fish school,
29
102964
2207
وقتی به دسته ماهی‌ها یا،
01:45
or when I think of a flock of starlings,
30
105195
2953
پرندگان مهاجر فکر می‌کنید،
01:48
that feels like a really different kind of intelligence.
31
108172
3340
یک نوع دیگری از هوش رو لمس می‌کنید.
01:52
For starters, any one fish is just so tiny
32
112765
3913
برای مبتدی‌ها، یک ماهی اینقدر کوچک است
01:56
compared to the sheer size of the collective,
33
116702
2887
که قابل قیاس با اندازه مجموعه نیست،
01:59
so it seems that any one individual
34
119613
3110
و به نظر می‌رسد هر کدام
02:02
would have a really limited and myopic view of what's going on,
35
122747
2993
یک جنبه کوچکی از مجموعه هستند،
02:05
and intelligence isn't really about the individual
36
125764
2334
هم چنین هوش فرد گرا نیست
02:08
but somehow a property of the group itself.
37
128122
2677
اما به تک تک اعضا مربوط می‌شود.
02:11
Secondly, and the thing that I still find most remarkable,
38
131938
3231
ثانیاً، چیزی که واقعا قابل توجه است،
02:15
is that we know that there are no leaders supervising this fish school.
39
135193
5032
این است که می‌دانیم رهبری برای این گروه از ماهی‌ها وجود ندارد.
02:20
Instead, this incredible collective mind behavior
40
140983
3501
در عوض، این رفتار جمعی باور نکردنی
02:24
is emerging purely from the interactions of one fish and another.
41
144508
4532
صرفاً از تعاملات یک ماهی با ماهی دیگر نشات می‌گیرد.
02:29
Somehow, there are these interactions or rules of engagement
42
149064
3968
به هر حال، این تعاملات یا قواعد تعامل
02:33
between neighboring fish
43
153056
1755
بین ماهی‌ها در جریان است
02:34
that make it all work out.
44
154835
1467
که تمام کارها را انجام می‌دهد.
02:37
So the question for AI then becomes,
45
157556
2651
و باز سوال برای هوش مصنوعی مطرح می‌شود که،
02:40
what are those rules of engagement that lead to this kind of intelligence,
46
160231
4158
که این قواعد تعامل چیست که منجربه این نوع هوش می‌شود،
02:44
and of course, can we create our own?
47
164413
1907
و حتی آیا خودمان می‌توانیم نمونه‌اش را درست کنیم؟
02:46
And that's the primary thing that I work on with my team in my lab.
48
166819
3587
و این اصلی‌ترین چیزی است که در آزمایشگاه با تیمم کار می‌کنم.
02:50
We work on it through theory,
49
170763
1637
و ما با این نظریه کار می‌کنیم،
02:52
looking at abstract rule systems
50
172424
2348
با نگاه به قوانین انتزاعی حاکم بر سیستم‌ها
02:54
and thinking about the mathematics behind it.
51
174796
2349
و هم چنین با فکر کردن به ریاضیات پشت آن.
02:57
We also do it through biology, working closely with experimentalists.
52
177717
4285
ما همچنین روی زیست شناسی آن با همکاری نزدیک با متخصصان کار می‌کنیم.
03:02
But mostly, we do it through robotics,
53
182399
1953
ولی اغلب، روی رباتیک کار می‌کنیم،
03:04
where we try to create our own collective systems
54
184376
3904
جایی که سعی می‌کنیم سیستم‌های جمعی خودمان را ایجاد کنیم
03:08
that can do the kinds of things that we see in nature,
55
188304
2707
که می‌تواند چیزهایی که در طبیعت می‌بینیم را انجام دهد،
03:11
or at least try to.
56
191035
1237
یا حداقل شبیه آن باشد.
03:13
One of our first robotic quests along this line
57
193727
2804
یکی از اولین ماموریت‌های رباتیک ما در این حوزه
03:16
was to create our very own colony of a thousand robots.
58
196555
4045
این بود که ما گروه خودمان را از هزاران ربات درست کنیم.
03:20
So very simple robots,
59
200960
1334
ربات‌هایی بسیار ساده،
03:22
but they could be programmed to exhibit collective intelligence,
60
202318
3603
اما برنامه پذیر برای نشان دادن هوش جمعی،
03:25
and that's what we were able to do.
61
205945
1729
واین چیزی است که توانستیم انجام دهیم.
03:28
So this is what a single robot looks like.
62
208014
2032
پس یک ربات اینگونه به نظر می‌رسد.
03:30
It's quite small, about the size of a quarter,
63
210070
2523
بسیار کوچک، در اندازه یک سکه ۲۵ میلی متری
03:32
and you can program how it moves,
64
212617
2310
و می‌توانید برنامه ریزی کنید که چگونه حرکت کند،
03:34
but it can also wirelessly communicate with other robots,
65
214951
3416
و همچنین می‌تواند به صورت بیسیم با بقیه ربات‌ها ارتباط برقرار کند،
03:38
and it can measure distances from them.
66
218391
2167
و فاصله خود را با بقیه اندازه گیری کند.
03:40
And so now we can start to program exactly an interaction,
67
220582
3476
و الان می‌توانیم پروژه را شروع کنیم دقیقا یک تعامل،
03:44
a rule of engagement between neighbors.
68
224082
2094
یک قانون تعامل بین همسایگان.
03:46
And once we have this system,
69
226533
1894
و هنگامیکه ما این سیستم را داریم،
03:48
we can start to program many different kinds of rules of engagement
70
228451
3416
می‌توانیم بسیاری از این پروژه‌ها و تعاملات را که در
03:51
that you would see in nature.
71
231891
1506
طبیعت می‌بینیم شبیه سازی کنیم.
03:53
So for example, spontaneous synchronization,
72
233421
2976
به طور مثال، هماهنگ سازی خود به خودی،
03:56
how audiences are clapping and suddenly start all clapping together,
73
236421
5238
که چگونه تعدادی از حضار دست می‌زنند و ناگهان همگی با هم دست می‌زنند،
04:01
the fireflies flashing together.
74
241683
2068
یا کرم‌های شب تاب با هم می‌درخشند.
04:06
We can program rules for pattern formation,
75
246739
2691
ما می‌توانیم ساخت الگوهای این قوانین را برنامه ریزی کنیم،
04:09
how cells in a tissue
76
249454
1786
چگونه سلول‌ها در یک بافت
04:11
determine what role they're going to take on
77
251264
2102
تشخیص می‌دهند که هر کدام چه نقشی دارند
04:13
and set the patterns of our bodies.
78
253390
1706
و الگوهای بدن ما را تنظیم می‌کنند.
04:16
We can program rules for migration,
79
256865
2089
می‌توانیم قواعد مهاجرت را برنامه پذیر کنیم
04:18
and in this way, we're really learning from nature's rules.
80
258978
2977
و به این طریق می‌توانیم قوانین طبیعت را یاد بگیریم.
04:22
But we can also take it a step further.
81
262415
2647
حتی می‌توانیم آنها را یک گام به‌جلو ببریم.
04:25
We can actually take these rules that we've learned from nature
82
265086
2992
ما می‌توانیم این قوانینی که از طبیعت یاد گرفته ایم را بگیریم
04:28
and combine them and create entirely new collective behaviors
83
268102
3794
ترکیب شان کنیم و در نهایت یک رفتار جمعی جدید بسازیم
04:31
of our very own.
84
271920
1198
که مختص خودمان باشد.
04:33
So for example,
85
273780
1478
برای مثال،
04:35
imagine that you had two different kinds of rules.
86
275282
2352
تصور کنید شما دو نوع مختلف قانون داشتید.
04:38
So your first rule is a motion rule
87
278194
2119
قانون اول که قانون حرکت است
04:40
where a moving robot can move around other stationary robots.
88
280337
4341
جایی که یک ربات می‌تواند بین ربات های ایستاده دیگر حرکت کند.
04:44
And your second rule is a pattern rule
89
284702
1811
و قانون دوم، قانون الگو است
04:46
where a robot takes on a color based on its two nearest neighbors.
90
286537
3157
جایی که یک ربات از دو تا از نزدیک ترین همسایگانش رنگی را می‌گیرد.
04:50
So if I start with a blob of robots in a little pattern seed,
91
290499
3445
بنابراین اگر با یک گروه از ربات‌ها شروع کنم،
04:53
it turns out that these two rules are sufficient for the group
92
293968
2906
معلوم است که این دو قاعده برای این دو گروه کافی است
04:56
to be able to self-assemble a simple line pattern.
93
296898
2752
تا یک الگوی خط ساده را خودش بتواند جمع آوری کند.
05:00
And if I have more complicated pattern rules,
94
300934
2544
و اگر قواعد پیچیده بیشتری داشته باشم
05:03
and I design error correction rules,
95
303502
2317
و قوانین اصلاح خطا را طراحی کنم،
05:05
we can actually create really, really complicated self assemblies,
96
305843
3097
ما واقعاً می‌توانیم مجموعه‌های پیچیده خود-سازمان‌دهی را ایجاد کنیم،
05:08
and here's what that looks like.
97
308964
1644
و این چیزی که به نظر می‌رسد.
05:11
So here, you're going to see a thousand robots
98
311694
2985
در اینجا هزاران ربات را خواهید دید که
05:14
that are working together to self-assemble the letter K.
99
314703
3462
با هم برای درست کردن حرف K همکاری می‌کنند.
05:18
The K is on its side.
100
318189
1306
جهت آن از بالا به پائین.
05:20
And the important thing is that no one is in charge.
101
320043
2731
و قسمت مهم اینجاست که هیچکس رهبر نیست.
05:22
So any single robot is only talking to a small number of robots nearby it,
102
322798
4825
بنابراین یک ربات با تعداد کمی از همسایگان خود ارتباط برقرار می‌کند،
05:27
and it's using its motion rule to move around the half-built structure
103
327647
3937
و برای حرکت پیرامون سازه در حال تکمیل از قانون حرکتش استفاده می‌کند
05:31
just looking for a place to fit in based on its pattern rules.
104
331608
3007
و با توجه به الگویش دنبال یک مکان می‌گردد تا در آنجا قرار گیرد.
05:35
And even though no robot is doing anything perfectly,
105
335614
4398
حتی اگر هیچ رباتی کار خود را به خوبی انجام ندهد،
05:40
the rules are such that we can get the collective to do its goal
106
340036
3660
قوانین طوری تنظیم شده‌اند که کل گروه برای رسیدن به هدف با جدیت
05:43
robustly together.
107
343720
1473
تلاش می‌کنند.
05:45
And the illusion becomes almost so perfect, you know --
108
345853
2982
و تقریباً اینجا اشتباه پیش می‌آید که،
05:48
you just start to not even notice that they're individual robots at all,
109
348859
3416
در ابتدا به این توجه نمی‌کنید که این‌ها ربات‌های فردی هستند،
05:52
and it becomes a single entity,
110
352299
1683
تبدیل به یک موجودیت واحد می‌شوند،
05:54
kind of like the school of fish.
111
354006
1721
مثل دسته ماهی‌ها.
05:59
So these are robots and rules in two dimensions,
112
359833
2739
این تصویر ربات‌ها و قوانین سازنده در محیط دو بعدی است،
06:02
but we can also think about robots and rules in three dimensions.
113
362596
3311
اما می‌توانیم آن‌ها را در سه بعد نیز تصور کنیم.
06:05
So what if we could create robots that could build together?
114
365931
3603
و چی می‌شد اگر ما بتوانیم ربات‌هایی را بسازیم که بتوانند خودشان را بسازند؟
06:10
And here, we can take inspiration from social insects.
115
370396
3255
و اینجا، می‌توانیم از حشرات اجتماعی نیز الهام بگیریم.
06:14
So if you think about mound-building termites
116
374009
2660
اگر تپه موریانه‌‎ها را درنظر بگیرید
06:16
or you think about army ants,
117
376693
2052
یا حتی مورچه‌های سرباز،
06:18
they create incredible, complex nest structures out of mud
118
378769
4253
آنها لانه‌های پیچیده ای ازگل را به طور باورنکردنی می‌سازند
06:23
and even out of their own bodies.
119
383046
2144
و حتی از خود بدن‌هایشان.
06:26
And like the system I showed you before,
120
386422
2220
و این سیستمی است که قبلا به شما گفته بودم،
06:28
these insects actually also have pattern rules
121
388666
2970
و این حشرات واقعاً همچنین الگوهایی دارند
06:31
that help them determine what to build,
122
391660
2038
که به آنها کمک می‌کنند بفهمند چی بسازند،
06:33
but the pattern can be made out of other insects,
123
393722
2302
و این الگو می‌تواند از حشرات دیگر نیز گرفته شود،
06:36
or it could be made out of mud.
124
396048
1787
یا حتی از ساختار گِل.
06:38
And we can use that same idea to create rules for robots.
125
398998
4361
و ما می‌توانیم از همین ایده برای ساخت قواعد روبات‌ها استفاده کنیم.
06:44
So here, you're going to see some simulated robots.
126
404041
3161
در اینجا بعضی از ربات‌‎های شبیه سازی شده را می‌بینید.
06:47
So the simulated robot has a motion rule,
127
407226
2483
این ربات شبیه سازی شده دارای یک قانون حرکت است
06:49
which is how it traverses through the structure,
128
409733
2333
که چگونه از الگوها برای توسعه استفاده می‌کند،
06:52
looking for a place to fit in,
129
412090
1997
چگونه یک مکان را برای قرار گیری پیدا کند،
06:54
and it has pattern rules where it looks at groups of blocks
130
414111
3000
و الگوهایی دارد که وقتی به گروهی از بلوک‌ها می‌رسد
06:57
to decide whether to place a block.
131
417135
2205
تصمیم بگیرد که بلوک جدیدی را بگذارد یا نه.
07:00
And with the right motion rules and the right pattern rules,
132
420464
3063
و با قوانین حرکت و الگوهای درست،
07:03
we can actually get the robots to build whatever we want.
133
423551
3635
ما می‌توانیم از ربات‌ها برای ساخت هر چیزی که می‌خواهیم استفاده کنیم.
07:08
And of course, everybody wants their own tower.
134
428017
2691
معلومه که هرکسی دنبال ساخت برج خودش خواهد بود.
07:11
(Laughter)
135
431170
1982
(خنده)
07:13
So once we have these rules,
136
433820
1684
پس بعد از مشخص شدن قوانین،
07:15
we can start to create the robot bodies that go with these rules.
137
435528
3166
می‌توانیم سراغ ساخت شکل ربات‌ها متناسب با این الگوها برویم.
07:18
So here, you see a robot that can climb over blocks,
138
438718
3309
اینجا رباتی را می‌بینید که می‌تواند از بلوک‌ها بالا برود
07:22
but it can also lift and move these blocks
139
442051
2681
و می‌تواند بلوک‌ها را بلند و جا به جا کند
07:24
and it can start to edit the very structure that it's on.
140
444756
2697
و می‌تواند مکان هر بلوک را اصلاح کند.
07:28
But with these rules,
141
448437
1148
اما با این قوانین،
07:29
this is really only one kind of robot body that you could imagine.
142
449609
3479
این تنها یک نوع از ربات‌هایی هست که می‌توانید تصورش کنید.
07:33
You could imagine many different kinds of robot bodies.
143
453112
2579
می‌توانید انواع اشکال مختلفی از ربات‌ها را تصور کنید.
07:35
So if you think about robots that maybe could move sandbags
144
455715
4610
می‌توانید روباتی را تصور کنید که کیسه‌های شن را جا به جا کند
07:40
and could help build levees,
145
460349
2549
و می‌تواند به ساخت خاکریزها کمک کند،
07:42
or we could think of robots that built out of soft materials
146
462922
4301
یا می‌توانیم ربات‌هایی را تصور کنیم که از مواد نرم ساخته شده اند
07:47
and worked together to shore up a collapsed building --
147
467247
3644
و باهم برای آوار برداری یک ساختمان فرو ریخته همکاری کنند.
07:50
so just the same kind of rules in different kinds of bodies.
148
470915
2998
پس اینجا نیز می‌توان همان قوانین اولیه را در ربات‌هایی با اشکال مختلف نیز دید.
07:56
Or if, like my group, you are completely obsessed with army ants,
149
476030
4223
یا اگر، مثل گروه من، مشتاق در روش مورچه‌های سرباز هستید.
08:00
then maybe one day we can make robots that can climb over literally anything
150
480277
4374
شاید بتوانیم ربات‌هایی را بسازیم که به معنای واقعی کلمه از هر چیزی
08:04
including other members of their tribe,
151
484675
2174
حتی از روی خودشان نیز بالا بروند
08:06
and self-assemble things out of their own bodies.
152
486873
2349
و چیزهایی را به‌تنهایی بسازند.
08:09
Once you understand the rules,
153
489957
1681
هنگامی که قوانین را می‌فهمید،
08:11
just many different kinds of robot visions become possible.
154
491662
3379
می‌توانید انواع مختلفی از ربات‌ها بسازید.
08:18
And coming back to the snorkeling trip,
155
498612
2234
خب برگردیم به سفر دریایی‌مان،
08:20
we actually understand a great deal about the rules that fish schools use.
156
500870
5345
ما در واقع تعامل بزرگی در دسته ماهی‌ها می‌بینیم که از آن بهره می‌برند.
08:26
So if we can invent the bodies to go with that,
157
506589
2836
پس اگر بتوانیم همچین چیزی را بسازیم،
08:29
then maybe there is a future
158
509449
1428
ممکن است در آینده
08:30
where I and my group will get to snorkel with a fish school of our own creation.
159
510901
4522
من و گروهم به سفر غواصی دریایی برویم که دسته ماهی‌هایشان را خودمان ساخته‌ایم.
08:40
Each of these systems that I showed you
160
520670
2129
هر کدام از سیستم‌هایی که من به شما نشان دادم،
08:42
brings us closer to having the mathematical and the conceptual tools
161
522823
4277
ما را به ابزارهای ریاضی و مفهومی نزدیک می‌کنند که بتوانیم
08:47
to create our own versions of collective power,
162
527124
3381
نسخه‌های با قدرت از تعامل جمعی برای خودمان را بسازیم،
08:50
and this can enable many different kinds of future applications,
163
530529
3001
و این می‌تواند به بسیاری از درخواست‌های کاربردی ما در آینده پاسخ دهد.
08:53
whether you think about robots that build flood barriers
164
533554
3164
وقتی که ربات‌هایی به وجود آیند که مانعی برای سیل بسازند
08:56
or you think about robotic bee colonies that could pollinate crops
165
536742
4297
یا ربات‌های زنبور مانندی که محصولات کشاورزی را گرده افشانی کنند
09:01
or underwater schools of robots that monitor coral reefs,
166
541063
3524
یا دسته ربات‌های آبی که صخره‌های مرجانی را زیر نظر داشته باشند،
09:04
or if we reach for the stars and we thinking about programming
167
544611
3103
یا اگر ما به ستاره‌ها رسیدم، برای [برقراری ارتباط]
09:07
constellations of satellites.
168
547738
1619
بتوانیم شبکه‌ای از ماهواره‌های برنامه پذیر داشته باشیم.
09:09
In each of these systems,
169
549968
1612
در هر کدام از این سیستم‌ها،
09:11
being able to understand how to design the rules of engagement
170
551604
3547
توانایی فهم نحوه طراحی قوانین تعامل
09:15
and being able to create good collective behavior
171
555175
2514
و توانایی ساخت رفتار جمعی خوب
09:17
becomes a key to realizing these visions.
172
557713
2374
کلیدی است که برای درک بهتر این دیدگاه‌ها.
09:22
So, so far I've talked about rules for insects and for fish
173
562562
4107
تاکنون، درباره قوانین حشرات، ماهی‌ها
09:26
and for robots,
174
566693
2369
و همچنین روبات‌ها صحبت کردم،
09:29
but what about the rules that apply to our own human collective?
175
569086
3103
اما درباره قوانینی که حاکم بر مشارکت جمعی ماست چطور؟
09:32
And the last thought that I'd like to leave you with
176
572686
2430
و آخرین حرفی که می‌خوام شما را باهاش تنها بگذارم اینه که
09:35
is that science is of course itself
177
575140
1681
علم البته در وجود خودش
09:36
an incredible manifestation of collective intelligence,
178
576845
3484
شاکله‌ای باورنکردنی از هوشمندی دسته‌جمعی را دارد.
09:40
but unlike the beautiful fish schools that I study,
179
580353
3318
اما برخلاف دسته ماهی‌هایی که مطالعه می‌کنم،
09:43
I feel we still have a much longer evolutionary path to walk.
180
583695
3943
من احساس می‌کنم مسیر تکاملی طولانی‌تری برای رفتن داریم.
09:48
So in addition to working on improving the science of robot collectives,
181
588566
4604
بنابراین علاوه‌بر کار بر روی بهبود علم مشارکت ربات‌‌‌ها،
09:53
I also work on creating robots and thinking about rules
182
593194
3277
من درباره ساخت ربات و قوانین آن کار می‌کنم
09:56
that will improve our own scientific collective.
183
596495
2460
که در آینده همکاری علمی خودمان را بهبود خواهد داد.
10:00
There's this saying that I love:
184
600018
1668
چیزی که دوست دارم بگم اینه که:
10:01
who does science determines what science gets done.
185
601710
3404
محقق علمی است که تعیین می‌کند علم به کجا برود.
10:06
Imagine a society
186
606059
2941
جامعه‌ای را تصور کنید
10:09
where we had rules of engagement
187
609024
1651
که در آن قوانین تعاملی داشته باشیم
10:10
where every child grew up believing that they could stand here
188
610699
3303
که هر بچه‌ای که بزرگ می‌شود باور داشته باشد که روزی می‌تواند در اینجا بایستد
10:14
and be a technologist of the future,
189
614026
2422
و محقق تکنولوژی آینده باشد،
10:16
or where every adult
190
616472
1501
یا جایی که هر بزرگ سالی
10:17
believed that they had the ability not just to understand but to change
191
617997
4119
معتقد باشد که نه‌تنها می‌تواند بفهمد، بلکه توانایی تغییر این که
10:22
how science and technology impacts their everyday lives.
192
622140
3555
چطور تکنولوژی هر روز بر زندگی‌شان تاثیر می‌گذارد را دارد.
10:26
What would that society look like?
193
626640
1899
همچین جامعه‌ای به چی شبیه است؟
10:30
I believe that we can do that.
194
630206
1508
معتقدم می‌توانیم انجامش دهیم.
10:31
I believe that we can choose our rules,
195
631738
2291
معتقدم می‌توانیم قوانین خودمان را بسازیم،
10:34
and we engineer not just robots
196
634053
1757
ما فقط ربات‌ها را مهندسی نمی‌کنیم
10:35
but we can engineer our own human collective,
197
635834
2596
بلکه مجموعه انسانی را نیز می‌توانیم مهندسی کنیم،
10:38
and if we do and when we do, it will be beautiful.
198
638454
3834
و اگر بتوانم و زمانی انجامش بدهیم، جامعه زیبایی خواهیم داشت.
10:42
Thank you.
199
642312
1151
متشکرم.
10:43
(Applause)
200
643487
6547
(تشویق)
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7