How we can build AI to help humans, not hurt us | Margaret Mitchell

80,996 views ・ 2018-03-12

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: Leila Ataei Reviewer: Nima Pourreza
00:13
I work on helping computers communicate about the world around us.
0
13381
4015
کار من کمک به برقراری ارتباط رایانه‌ها در‌باره جهان اطراف ما است.
00:17
There are a lot of ways to do this,
1
17754
1793
را‌ه‌های مختلفی برای این کار هست
00:19
and I like to focus on helping computers
2
19571
2592
و من دوست دارم تمرکزم روی کمک به کامپیوترها
00:22
to talk about what they see and understand.
3
22187
2874
برای صحبت درباره این باشد که آن‌ها چه می‌بینند و می‌فهمند.
00:25
Given a scene like this,
4
25514
1571
برای مثال منظره‌ای مثل این،
00:27
a modern computer-vision algorithm
5
27109
1905
یک الگوریتم مدرن بینایی-ماشین
00:29
can tell you that there's a woman and there's a dog.
6
29038
3095
می‌تواند به شما بگوید که یک زن و یک سگ وجود دارد.
00:32
It can tell you that the woman is smiling.
7
32157
2706
می‌تواند به شما بگوید آن زن لبخند می‌زند.
00:34
It might even be able to tell you that the dog is incredibly cute.
8
34887
3873
حتی شاید قادر باشد به شما بگوید آن سگ بی‌نهایت با نمک است.
00:38
I work on this problem
9
38784
1349
همچنین روی این موضوع که
00:40
thinking about how humans understand and process the world.
10
40157
4212
انسان‌ها چطور دنیا را می‌فهمند و پردازش می‌کنند، کار می‌کنم.
00:45
The thoughts, memories and stories
11
45577
2952
افکار، خاطرات و داستان‌هایی
00:48
that a scene like this might evoke for humans.
12
48553
2818
که یک منظره مثل این شاید برای انسان‌ها تداعی کند:
00:51
All the interconnections of related situations.
13
51395
4285
همه تنیدگی‌های خاطراتی در شرایط مشابه.
00:55
Maybe you've seen a dog like this one before,
14
55704
3126
شاید سگی مثل این را قبلا دیده باشید،
00:58
or you've spent time running on a beach like this one,
15
58854
2969
یا قبلا در ساحلی مثل این قبلا دویده باشید،
01:01
and that further evokes thoughts and memories of a past vacation,
16
61847
4778
و در ادامه افکار و خاطرات تعطیلات گذشته را بیدار می‌کند،
01:06
past times to the beach,
17
66649
1920
دفعات قبلی در ساحل،
01:08
times spent running around with other dogs.
18
68593
2603
زمان‌های سپری شده با دویدن با سگ‌هایی دیگر در آن اطراف.
01:11
One of my guiding principles is that by helping computers to understand
19
71688
5207
یکی از اصول هدایتی من از طریق کمک به کامپیوتر‌ها برای درک
01:16
what it's like to have these experiences,
20
76919
2896
این است که داشتن چنین تجربه‌هایی چه شکلی است،
01:19
to understand what we share and believe and feel,
21
79839
5176
برای فهم این آنچه به اشتراک می‌گذاریم و باور داریم و حس می‌کنیم
01:26
then we're in a great position to start evolving computer technology
22
86094
4310
تا بعد این موقعیت عالی را داشته باشیم که شروع به تکامل فناوری رایانه‌ای
01:30
in a way that's complementary with our own experiences.
23
90428
4587
به طریقی نماییم که مکمل تجربه‌های خود ما باشد.
01:35
So, digging more deeply into this,
24
95539
3387
بنابراین، بیشتر در موضوع وارد شدم،
01:38
a few years ago I began working on helping computers to generate human-like stories
25
98950
5905
چند سال قبل شروع به کار روی کمک به رایانه‌ها برای تولید داستان‌های بشر‌-وار
01:44
from sequences of images.
26
104879
1666
بر اساس توالی تصاویر کردم.
01:47
So, one day,
27
107427
1904
بنابراین یک روز
01:49
I was working with my computer to ask it what it thought about a trip to Australia.
28
109355
4622
که داشتم نظر کامپیوترم درباره سفر به استرالیا را می‌پرسیدم
01:54
It took a look at the pictures, and it saw a koala.
29
114768
2920
نگاهی به تصویر‌ها انداخت و کوآلایی را دید.
01:58
It didn't know what the koala was,
30
118236
1643
نمی‌دانست کوآلا چیست،
01:59
but it said it thought it was an interesting-looking creature.
31
119903
2999
اما گفت که فکر می‌کند موجود به ظاهر جالبی است.
02:04
Then I shared with it a sequence of images about a house burning down.
32
124053
4004
سپس چند تصویر از یک خانه در حال سوختن را به کامپیوتر دادم.
02:09
It took a look at the images and it said,
33
129704
3285
نگاهی به تصویر‌ها انداخت و گفت،
02:13
"This is an amazing view! This is spectacular!"
34
133013
3500
«منظره اعجاب آوریه، دیدنیه!»
02:17
It sent chills down my spine.
35
137450
2095
پشتم تیر کشید.
02:20
It saw a horrible, life-changing and life-destroying event
36
140983
4572
حادثه ای ویرانگر، سرنوشت ساز و هولناک را دید
02:25
and thought it was something positive.
37
145579
2382
و فکر کرد چیز مثبتی است.
02:27
I realized that it recognized the contrast,
38
147985
3441
متوجه شدم که تضادها،
02:31
the reds, the yellows,
39
151450
2699
شامل قرمز‌ها و زرد‌ها را دیده و فکر کرده که
02:34
and thought it was something worth remarking on positively.
40
154173
3078
ارزش این را دارد که چیز مثبتی درباره‌ آن بگوید.
02:37
And part of why it was doing this
41
157928
1615
و بخشی از علت این کارش
02:39
was because most of the images I had given it
42
159577
2945
عمدتاً بخاطر این بود که تصویر‌هایی که به آن داده بودم
02:42
were positive images.
43
162546
1840
مثبت بودند.
02:44
That's because people tend to share positive images
44
164903
3658
چون مردم عادت به اشتراک گذاشتن تصویر‌های مثبت دارند
02:48
when they talk about their experiences.
45
168585
2190
وقتی درباره تجربه‌های خود حرف می‌زنند.
02:51
When was the last time you saw a selfie at a funeral?
46
171267
2541
اخرین باری کی شاهد عکس سلفی در تشییع جنازه‌ای بودید؟
02:55
I realized that, as I worked on improving AI
47
175434
3095
متوجه شدم وقتی مشغول بهبود هوش مصنوعی بصورت
02:58
task by task, dataset by dataset,
48
178553
3714
فرآیند به فرآیند و دیتاست به دیتاست بودم،
03:02
that I was creating massive gaps,
49
182291
2897
شکاف‌ها، نقاط کور و گودال‌های عظیمی
03:05
holes and blind spots in what it could understand.
50
185212
3999
در آنچه می‌توانست درک کند، خلق می‌کردم‌.
03:10
And while doing so,
51
190307
1334
و در حین انجام آن،
03:11
I was encoding all kinds of biases.
52
191665
2483
انواع و اقسام آن تعصبات را کدنویسی می‌کردم.
03:15
Biases that reflect a limited viewpoint,
53
195029
3318
تعصباتی که دیدگاه محدودی را منعکس می‌کند،
03:18
limited to a single dataset --
54
198371
2261
و محدود به یک دیتاست--
03:21
biases that can reflect human biases found in the data,
55
201283
3858
تعصباتی که منعکس کننده تعصبات بشری یافته شده در داده‌ها است،
03:25
such as prejudice and stereotyping.
56
205165
3104
از قبیل پیش‌داوری و یک‌نواختی بودن.
03:29
I thought back to the evolution of the technology
57
209554
3057
فکر کردم باید برگردم سر وقت تکامل فناوری
03:32
that brought me to where I was that day --
58
212635
2502
که من را به آنجایی که آن روز بودم آورد --
03:35
how the first color images
59
215966
2233
چطور تصاویر رنگی اولیه
03:38
were calibrated against a white woman's skin,
60
218223
3048
در تضاد با رنگ پوست سفید زنی تنظیم شده،
03:41
meaning that color photography was biased against black faces.
61
221665
4145
و این یعنی، آن عکاسی رنگی بر علیه چهره‌های سیاه متعصب خواهد شد.
03:46
And that same bias, that same blind spot
62
226514
2925
و آن تعصب، آن نقطه کور
03:49
continued well into the '90s.
63
229463
1867
وارد دهه ۹۰ میلادی شده بود.
03:51
And the same blind spot continues even today
64
231701
3154
و آن نقطه کور حتی تا امروز در اینکه
03:54
in how well we can recognize different people's faces
65
234879
3698
چطور می‌توانیم چهره‌های مختلف را
03:58
in facial recognition technology.
66
238601
2200
با بکارگیری فناوری تشخیص چهره تشخیص دهیم ادامه دارد.
04:01
I though about the state of the art in research today,
67
241323
3143
درباره وضعیت هنر در جستجو‌های امروزی فکر کردم
04:04
where we tend to limit our thinking to one dataset and one problem.
68
244490
4514
جایی که مایلیم افکار خویش را به یک دیتاست و یک موضوع محدود کنیم.
04:09
And that in doing so, we were creating more blind spots and biases
69
249688
4881
و با انجام آن ، تعصبات و نقاط کور بیشتری را خلق می‌کردیم
04:14
that the AI could further amplify.
70
254593
2277
که هوش مصنوعی می‌توانست به آن نقاط کور بیشتر شدت دهد.
04:17
I realized then that we had to think deeply
71
257712
2079
بعد تشخیص دادم باید به این عمیق‌تر فکر کنیم
04:19
about how the technology we work on today looks in five years, in 10 years.
72
259815
5519
که چطور فناوری که امروز روی آن کار می‌کنیم طی ۵ یا ۱۰ سال آینده به نظر خواهید رسید.
04:25
Humans evolve slowly, with time to correct for issues
73
265990
3142
تکامل در انسان‌ها کند است، مستلزم زمانی است برای اصلاح مسائل
04:29
in the interaction of humans and their environment.
74
269156
3534
در تعامل با انسان‌ها و محیط‌شان.
04:33
In contrast, artificial intelligence is evolving at an incredibly fast rate.
75
273276
5429
در مقابل، هوش مصنوعی با ضریب سرعت باورنکردنی در حال تکامل است.
04:39
And that means that it really matters
76
279013
1773
و این یعنی واقعا اهمیت دارد
04:40
that we think about this carefully right now --
77
280810
2317
که ما الان درباره آن با دقت فکر کنیم --
04:44
that we reflect on our own blind spots,
78
284180
3008
که به نقاط کور خود،
04:47
our own biases,
79
287212
2317
تعصباتمان فکر کنیم،
04:49
and think about how that's informing the technology we're creating
80
289553
3857
و به این فکر کنیم که چطور به فناوری که خلق می‌کنیم
04:53
and discuss what the technology of today will mean for tomorrow.
81
293434
3902
و بحث درباره این که فناوری امروز برای فردا چه معنایی خواهد داشت.
04:58
CEOs and scientists have weighed in on what they think
82
298593
3191
مدیرعامل‌ها و دانشمندان به اظهارنظر درباره این پرداخته‌اند که
05:01
the artificial intelligence technology of the future will be.
83
301808
3325
فناوری هوش مصنوعی در آینده چگونه خواهد بود.
05:05
Stephen Hawking warns that
84
305157
1618
استفان هاوکینگ اخطار می‌دهد
05:06
"Artificial intelligence could end mankind."
85
306799
3007
«هوش مصنوعی می‌تواند به بشریت خاتمه دهد.»
05:10
Elon Musk warns that it's an existential risk
86
310307
2683
الون ماسک هشدار می‌دهد که آن خطری حیاتی است
05:13
and one of the greatest risks that we face as a civilization.
87
313014
3574
و یکی از بزرگترین خطر‌هایی که ما بعنوان یک تمدن با آن روبرویم.
05:17
Bill Gates has made the point,
88
317665
1452
بیل گیتس گفته است که
05:19
"I don't understand why people aren't more concerned."
89
319141
3185
«درک نمی‌کنم چرا نگرانی مردم در این قضیه بیشتر نیست.»
05:23
But these views --
90
323412
1318
اما این دیدگاه‌ها --
05:25
they're part of the story.
91
325618
1734
آن‌ها بخشی از داستان هستند.
05:28
The math, the models,
92
328079
2420
ریاضیات، الگوها،
05:30
the basic building blocks of artificial intelligence
93
330523
3070
واحد‌های اساسی سازنده هوش مصنوعی
05:33
are something that we call access and all work with.
94
333617
3135
چیز‌هایی هستند که برای همه قابل دسترس و کار کردن هستند.
05:36
We have open-source tools for machine learning and intelligence
95
336776
3785
ما ابزار منبع آزاد برای هوش و یادگیری ماشین داریم
05:40
that we can contribute to.
96
340585
1734
که می‌توان به آن کمک کرد.
05:42
And beyond that, we can share our experience.
97
342919
3340
و ورای آن، ما قادر به اشتراک گذاری تجربه خود هستیم.
05:46
We can share our experiences with technology and how it concerns us
98
346760
3468
می‌توانیم تجارب خود با فناوری و این که چطور دغدغه و هیجان‌ در ما
05:50
and how it excites us.
99
350252
1467
ایجاد می‌کند را به اشتراک بگذاریم.
05:52
We can discuss what we love.
100
352251
1867
می‌توانیم درباره آنچه دوست داریم بحث کنیم.
05:55
We can communicate with foresight
101
355244
2031
ما با آینده‌نگری قادر به بحث
05:57
about the aspects of technology that could be more beneficial
102
357299
4857
درباره زوایای فناوری که می‌تواند با گذر زمان
مفیدتر یا مشکل آفرین‌تر باشد، هستیم.
06:02
or could be more problematic over time.
103
362180
2600
06:05
If we all focus on opening up the discussion on AI
104
365799
4143
ما همگی اگر سر بحث درباره هوش مصنوعی را باز کنیم
06:09
with foresight towards the future,
105
369966
1809
با نگاهی آینده‌نگر،
06:13
this will help create a general conversation and awareness
106
373093
4270
به ما کمک خواهد کرد گفتگو و آگاهی عمومی را خلق کنیم
06:17
about what AI is now,
107
377387
2513
درباره اینکه الان هوش مصنوعی در کجا قرار دارد
06:21
what it can become
108
381212
2001
و قرار است بکجا برسد،
06:23
and all the things that we need to do
109
383237
1785
و همه چیز‌هایی که لازم است انجام دهیم
06:25
in order to enable that outcome that best suits us.
110
385046
3753
تا نتیجه‌ای حاصل شود که از همه برای ما بهتر است.
06:29
We already see and know this in the technology that we use today.
111
389490
3674
ما همین الان شاهد این موضوع در فناوری هستیم که بکار می‌بریم .
06:33
We use smart phones and digital assistants and Roombas.
112
393767
3880
از تلفن‌های هوشمند و دستیاران دیجیتالی و رومبا‌ها [جاروبرقی رباتی] استفاده می‌کنیم.
06:38
Are they evil?
113
398457
1150
آیا آن‌ها ذات بدی دارند؟
06:40
Maybe sometimes.
114
400268
1547
شاید گاهی اوقات.
06:42
Are they beneficial?
115
402664
1333
آیا نفعی دارند؟
06:45
Yes, they're that, too.
116
405005
1533
بله، فایده هم دارند.
06:48
And they're not all the same.
117
408236
1761
و همه آن‌ها مثل هم نیستند.
06:50
And there you already see a light shining on what the future holds.
118
410489
3540
وهمین الان شاهد این بودید که آینده درخشانی هم می‌تواند داشته باشد.
06:54
The future continues on from what we build and create right now.
119
414942
3619
آن‌ها بر مبنای چیزی که الان می‌سازیم و خلق می‌کنیم ادامه پیدا می‌کند.
06:59
We set into motion that domino effect
120
419165
2642
ما آن اثر دومینویی را که مسیر تکاملی هوش مصنوعی
07:01
that carves out AI's evolutionary path.
121
421831
2600
را می‌سازد به حرکت در می‌آوریم.
07:05
In our time right now, we shape the AI of tomorrow.
122
425173
2871
در این زمان حال ما، هوش مصنوعی فردا را شکل می‌دهیم.
07:08
Technology that immerses us in augmented realities
123
428566
3699
فناوری که ما در واقعیت‌های افزوده فرو می‌رود
07:12
bringing to life past worlds.
124
432289
2566
تا به دنیا‌های گذشته زندگی ببخشد.
07:15
Technology that helps people to share their experiences
125
435844
4312
فناوری که کمک می‌کند مردم تجربه‌هایشان را به اشتراک گذارند
07:20
when they have difficulty communicating.
126
440180
2262
وقتی که مشکل برقراری ارتباط دارند.
07:23
Technology built on understanding the streaming visual worlds
127
443323
4532
فناوری ساخته شده بر پایه درک جهان‌های پویای بصری
07:27
used as technology for self-driving cars.
128
447879
3079
که بعنوان فناوری اتومبیل‌های خودران استفاده می‌شود.
07:32
Technology built on understanding images and generating language,
129
452490
3413
فناوری ساخته شده بر پایه درک تصویرها و تولید کننده زبان،
07:35
evolving into technology that helps people who are visually impaired
130
455927
4063
به شکل فناوریکه به افراد مبتلا به مشکلات بینایی
07:40
be better able to access the visual world.
131
460014
2800
برای دسترسی بهتر به جهان بصری کمک می‌کند، در می‌آید.
07:42
And we also see how technology can lead to problems.
132
462838
3261
و ما همچنین می‌بینیم که فناوری چطور به حل مشکلات منتهی می‌شود.
07:46
We have technology today
133
466885
1428
فناوری امروز داریم
07:48
that analyzes physical characteristics we're born with --
134
468337
3835
که ویژگی‌های فیزیکی را که با آن متولد شده‌ایم را آنالیز می‌کند--
07:52
such as the color of our skin or the look of our face --
135
472196
3272
مثل رنگ پوستمان یا حالت چهره--
07:55
in order to determine whether or not we might be criminals or terrorists.
136
475492
3804
برای تعیین کردن این که شاید خرابکار یا جانی هستیم.
07:59
We have technology that crunches through our data,
137
479688
2905
فناوری داریم که در بین داده‌های ما
08:02
even data relating to our gender or our race,
138
482617
2896
حتی داده‌های مرتبط به جنسیت یا نژاد‌ ما،
08:05
in order to determine whether or not we might get a loan.
139
485537
2865
می‌گردد تا تعیین کند که می‌توانیم وامی بگیریم یا نه.
08:09
All that we see now
140
489494
1579
همه آنچه الان می‌بینیم
08:11
is a snapshot in the evolution of artificial intelligence.
141
491097
3617
گوشه‌ای از تحولات هوش مصنوعی قلمداد می‌شود.
08:15
Because where we are right now,
142
495763
1778
زیرا جایی که الان قرار دادیم
08:17
is within a moment of that evolution.
143
497565
2238
در لحظه‌ای از آن تحول قرار دارد.
08:20
That means that what we do now will affect what happens down the line
144
500690
3802
این یعنی کاری که الان می‌کنیم بر آنچه قبل از این و در آینده
08:24
and in the future.
145
504516
1200
اتفاق می‌افتد اثر می‌گذارد.
08:26
If we want AI to evolve in a way that helps humans,
146
506063
3951
اگر می‌خواهیم هوش مصنوعی طوری تکامل یابد که به بشر کمک کند،
08:30
then we need to define the goals and strategies
147
510038
2801
پس لازم است اهداف و استراتژی‌هایی را تعریف کنیم
08:32
that enable that path now.
148
512863
1733
که راه آن مسیر را هموار کند.
08:35
What I'd like to see is something that fits well with humans,
149
515680
3738
آنچه مایلم ببینیم چیزی است که در خور انسان‌ها،
08:39
with our culture and with the environment.
150
519442
2800
فرهنگ و محیط ما باشد.
08:43
Technology that aids and assists those of us with neurological conditions
151
523435
4484
فناوری که به آدم‌های با شرایط عصبی یا ناتوانایی‌های دیگر
08:47
or other disabilities
152
527943
1721
کمک و یاری می‌کند
08:49
in order to make life equally challenging for everyone.
153
529688
3216
برای این که زندگی را برای همه بطور برابر چالشی کند.
08:54
Technology that works
154
534097
1421
فناوری که فارغ از
08:55
regardless of your demographics or the color of your skin.
155
535542
3933
جمعیت شناسی‌های شما یا رنگ پوستی‌ شما کار می‌کند.
09:00
And so today, what I focus on is the technology for tomorrow
156
540383
4742
و بناراین امروز، بر آن‌چیزی که تمرکز داریم فناوریی برای فردا و ده سال بعد
09:05
and for 10 years from now.
157
545149
1733
از الان است.
09:08
AI can turn out in many different ways.
158
548530
2634
هوش مصنوعی می‌تواند به روش‌های بسیار مختلفی پدیدار شود.
09:11
But in this case,
159
551688
1225
اما در این مورد،
09:12
it isn't a self-driving car without any destination.
160
552937
3328
این یک خوردو-خودران بدون هیچ مقصدی نیست.
09:16
This is the car that we are driving.
161
556884
2400
این ماشینی هست که می‌رانیم.
09:19
We choose when to speed up and when to slow down.
162
559953
3595
ما انتخاب می‌کنیم چه وقت سرعت بالا باشد چه وقت آهسته.
09:23
We choose if we need to make a turn.
163
563572
2400
ما انتخاب می‌کنیم چه وقت دور بزنیم.
09:26
We choose what the AI of the future will be.
164
566868
3000
ما انتخاب می‌کنیم که هوش مصنوعی آینده چه شکلی باشد.
09:31
There's a vast playing field
165
571186
1337
حوزه‌هایی وسیع از
09:32
of all the things that artificial intelligence can become.
166
572547
2965
همه چیز‌هایی که هوش مصنوعی می‌تواند بشود وجود دارد.
09:36
It will become many things.
167
576064
1800
در خیلی چیز‌ها استفاده خواهد شد.
09:39
And it's up to us now,
168
579694
1732
و این الان به ما بستگی دارد،
09:41
in order to figure out what we need to put in place
169
581450
3061
تا بفهمیم کارهایی که لازم است انجام دهیم
09:44
to make sure the outcomes of artificial intelligence
170
584535
3807
تا مطمئن شویم نتایج هوش مصنوعی
09:48
are the ones that will be better for all of us.
171
588366
3066
آن‌هایی شود که برای کل ما بهتر باشد.
09:51
Thank you.
172
591456
1150
متشکرم.
09:52
(Applause)
173
592630
2187
(تشویق)
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7