How we can build AI to help humans, not hurt us | Margaret Mitchell

80,996 views ・ 2018-03-12

TED


Будь ласка, двічі клацніть на англійські субтитри нижче, щоб відтворити відео.

Перекладач: Anita Pokydanets Утверджено: Olga Krykun
00:13
I work on helping computers communicate about the world around us.
0
13381
4015
Я допомагаю комп'ютерам розповідати про світ навколо.
00:17
There are a lot of ways to do this,
1
17754
1793
Є багато способів зробити це.
00:19
and I like to focus on helping computers
2
19571
2592
Я розповім, як допомогти їм
00:22
to talk about what they see and understand.
3
22187
2874
говорити про те, що вони бачать і розуміють.
00:25
Given a scene like this,
4
25514
1571
Отримавши таке зображення,
00:27
a modern computer-vision algorithm
5
27109
1905
сучасний алгоритм комп'ютерного бачення
00:29
can tell you that there's a woman and there's a dog.
6
29038
3095
скаже, що це жінка й собака.
00:32
It can tell you that the woman is smiling.
7
32157
2706
Може сказати, що жінка посміхається.
00:34
It might even be able to tell you that the dog is incredibly cute.
8
34887
3873
І, можливо, навіть - що собака неймовірно милий.
00:38
I work on this problem
9
38784
1349
Працюючи над цим,
00:40
thinking about how humans understand and process the world.
10
40157
4212
я думаю, як люди розуміють і сприймають світ.
00:45
The thoughts, memories and stories
11
45577
2952
Думки, спогади й історії,
00:48
that a scene like this might evoke for humans.
12
48553
2818
які ця картина викликає в людей.
00:51
All the interconnections of related situations.
13
51395
4285
Усі взаємозв'язки в подібних ситуаціях.
00:55
Maybe you've seen a dog like this one before,
14
55704
3126
Можливо, ви вже бачили схожого собаку раніше,
00:58
or you've spent time running on a beach like this one,
15
58854
2969
чи вже бували на такому пляжі,
01:01
and that further evokes thoughts and memories of a past vacation,
16
61847
4778
тоді ви згадаєте про минулу відпустку,
01:06
past times to the beach,
17
66649
1920
пляж
01:08
times spent running around with other dogs.
18
68593
2603
та як ви бігали з іншими собаками.
01:11
One of my guiding principles is that by helping computers to understand
19
71688
5207
Один з моїх принципів: допомагаючи комп'ютерам зрозуміти,
01:16
what it's like to have these experiences,
20
76919
2896
як це - мати такий досвід,
01:19
to understand what we share and believe and feel,
21
79839
5176
зрозуміти, чим ми схожі, у що віримо і що відчуваємо.
01:26
then we're in a great position to start evolving computer technology
22
86094
4310
Тоді ми розвиватимемо комп'ютерні технології
01:30
in a way that's complementary with our own experiences.
23
90428
4587
в такий спосіб, що доповнює наш власний досвід.
01:35
So, digging more deeply into this,
24
95539
3387
Глибоку роботу над цим я почала кілька років тому,
01:38
a few years ago I began working on helping computers to generate human-like stories
25
98950
5905
коли допомагала комп'ютерам розповідати справжні історії
на основі послідовних зображень.
01:44
from sequences of images.
26
104879
1666
Одного дня
01:47
So, one day,
27
107427
1904
01:49
I was working with my computer to ask it what it thought about a trip to Australia.
28
109355
4622
я спитала у свого комп'ютера, що він думає про подорож до Австралії.
01:54
It took a look at the pictures, and it saw a koala.
29
114768
2920
Він проглянув зображення й побачив коалу.
Він не знав, що то коала,
01:58
It didn't know what the koala was,
30
118236
1643
01:59
but it said it thought it was an interesting-looking creature.
31
119903
2999
але вважає її цікавим створінням.
Потім я показала йому низку зображень, на яких горить будинок.
02:04
Then I shared with it a sequence of images about a house burning down.
32
124053
4004
02:09
It took a look at the images and it said,
33
129704
3285
Він подивився на картинки й сказав:
"Це неймовірне видовище. Це вражаюче!"
02:13
"This is an amazing view! This is spectacular!"
34
133013
3500
02:17
It sent chills down my spine.
35
137450
2095
Мені стало моторошно.
02:20
It saw a horrible, life-changing and life-destroying event
36
140983
4572
Він побачив жахливу, руйнівну подію,
02:25
and thought it was something positive.
37
145579
2382
і подумав, що це добре.
02:27
I realized that it recognized the contrast,
38
147985
3441
Певно, контраст
червоного й жовтого
02:31
the reds, the yellows,
39
151450
2699
здався йому чимось гарним.
02:34
and thought it was something worth remarking on positively.
40
154173
3078
02:37
And part of why it was doing this
41
157928
1615
Почасти, він відреагував так,
02:39
was because most of the images I had given it
42
159577
2945
тому що більшість зображень до цього
02:42
were positive images.
43
162546
1840
були позитивними.
02:44
That's because people tend to share positive images
44
164903
3658
Адже зазвичай люди діляться позитивом,
02:48
when they talk about their experiences.
45
168585
2190
коли розповідають про себе.
02:51
When was the last time you saw a selfie at a funeral?
46
171267
2541
Чи ви колись бачили селфі на похороні?
02:55
I realized that, as I worked on improving AI
47
175434
3095
Я зрозуміла, що вдосконалюючи ШІ,
02:58
task by task, dataset by dataset,
48
178553
3714
крок за кроком
03:02
that I was creating massive gaps,
49
182291
2897
я лишала вeличезні пробіли,
дірки й "мертві зони" в його знаннях.
03:05
holes and blind spots in what it could understand.
50
185212
3999
03:10
And while doing so,
51
190307
1334
Тим часом
03:11
I was encoding all kinds of biases.
52
191665
2483
я закодовувала чимало суб'єктивного.
Вузький погляд,
03:15
Biases that reflect a limited viewpoint,
53
195029
3318
03:18
limited to a single dataset --
54
198371
2261
обмежений одиничним набором даних.
03:21
biases that can reflect human biases found in the data,
55
201283
3858
Людські упередження, знайдені в даних,
03:25
such as prejudice and stereotyping.
56
205165
3104
як-от необ'єктивність і шаблонність.
03:29
I thought back to the evolution of the technology
57
209554
3057
Я згадала про еволюцію технологій,
03:32
that brought me to where I was that day --
58
212635
2502
яка мене того дня наштовхнула на це -- і з чого все починалось.
03:35
how the first color images
59
215966
2233
Як перші кольорові знімки
перевіряли на фоні білошкірої жінки.
03:38
were calibrated against a white woman's skin,
60
218223
3048
03:41
meaning that color photography was biased against black faces.
61
221665
4145
А значить, кольорова фотографія була упереджена щодо темношкірих облич.
03:46
And that same bias, that same blind spot
62
226514
2925
І це упередження, "мертва зона"
тягнулася аж до 90-х.
03:49
continued well into the '90s.
63
229463
1867
03:51
And the same blind spot continues even today
64
231701
3154
Таке упередження існує і нині,
03:54
in how well we can recognize different people's faces
65
234879
3698
адже з технологією розпізнавання облич
03:58
in facial recognition technology.
66
238601
2200
ми легко розпізнаємо різні обличчя.
04:01
I though about the state of the art in research today,
67
241323
3143
Я згадала про новітні наукові дослідження,
04:04
where we tend to limit our thinking to one dataset and one problem.
68
244490
4514
де ми прагнемо обмежувати думки одним набором даних й однією задачею.
04:09
And that in doing so, we were creating more blind spots and biases
69
249688
4881
Тим самим створюючи більше "мертвих зон" й упереджень,
04:14
that the AI could further amplify.
70
254593
2277
які ШІ надалі розвиватиме.
04:17
I realized then that we had to think deeply
71
257712
2079
Я зрозуміла, що нам треба задуматися,
04:19
about how the technology we work on today looks in five years, in 10 years.
72
259815
5519
як сучасні технології виглядатимуть через 5-10 років.
04:25
Humans evolve slowly, with time to correct for issues
73
265990
3142
Люди еволюціонують поволі, маючи час корегування
04:29
in the interaction of humans and their environment.
74
269156
3534
взаємодій між собою й довкіллям.
Проте штучний інтелект розвивається напрочуд швидко.
04:33
In contrast, artificial intelligence is evolving at an incredibly fast rate.
75
273276
5429
Тому дійсно важливо
04:39
And that means that it really matters
76
279013
1773
04:40
that we think about this carefully right now --
77
280810
2317
подумати про це зараз,
04:44
that we reflect on our own blind spots,
78
284180
3008
про власні "мертві зони"
й упередження.
04:47
our own biases,
79
287212
2317
04:49
and think about how that's informing the technology we're creating
80
289553
3857
Як вони впливають на технології, що ми створюємо.
04:53
and discuss what the technology of today will mean for tomorrow.
81
293434
3902
Варто обговорити, яке значення сучасні технології матимуть в майбутньому.
Керівники й науковці висловились щодо того,
04:58
CEOs and scientists have weighed in on what they think
82
298593
3191
05:01
the artificial intelligence technology of the future will be.
83
301808
3325
як технологія штучного інтелекту виглядатиме в майбутньому.
05:05
Stephen Hawking warns that
84
305157
1618
Стівен Гокінг застерігає:
05:06
"Artificial intelligence could end mankind."
85
306799
3007
"Штучний інтелект може знищити людство".
05:10
Elon Musk warns that it's an existential risk
86
310307
2683
Ілон Маск попереджає, що це екзистенційна небезпека,
05:13
and one of the greatest risks that we face as a civilization.
87
313014
3574
одна з найбільших, з якими зіткнулась людська цивілізація.
05:17
Bill Gates has made the point,
88
317665
1452
Біл Гейтс зазначив:
05:19
"I don't understand why people aren't more concerned."
89
319141
3185
"Не розумію, чому люди не стурбовані більше".
05:23
But these views --
90
323412
1318
Але ці погляди
05:25
they're part of the story.
91
325618
1734
є частиною історії.
05:28
The math, the models,
92
328079
2420
Підрахунки, моделі,
05:30
the basic building blocks of artificial intelligence
93
330523
3070
основні структурні блоки штучного інтелекту -
05:33
are something that we call access and all work with.
94
333617
3135
це те, що ми маємо й над чим працюємо.
05:36
We have open-source tools for machine learning and intelligence
95
336776
3785
Ми маємо інструменти з відкритим кодом для машинного навчання й інтелекту,
05:40
that we can contribute to.
96
340585
1734
куди можемо зробити свій внесок
05:42
And beyond that, we can share our experience.
97
342919
3340
і поділитися досвідом.
05:46
We can share our experiences with technology and how it concerns us
98
346760
3468
Ми можемо дати технологіям наш досвід, наші хвилювання,
05:50
and how it excites us.
99
350252
1467
наші захоплення.
05:52
We can discuss what we love.
100
352251
1867
Ми можемо обговорювати те, що любимо.
05:55
We can communicate with foresight
101
355244
2031
Говорити наперед
05:57
about the aspects of technology that could be more beneficial
102
357299
4857
про аспекти технологій, які можуть бути вигіднішими
06:02
or could be more problematic over time.
103
362180
2600
чи стати більш проблематичними з часом.
06:05
If we all focus on opening up the discussion on AI
104
365799
4143
Якщо ми обговорюватимемо ШІ
06:09
with foresight towards the future,
105
369966
1809
із завбачливістю щодо майбутнього,
06:13
this will help create a general conversation and awareness
106
373093
4270
це переросте в спільну розмову й усвідомлення того,
06:17
about what AI is now,
107
377387
2513
чим є ШІ нині,
06:21
what it can become
108
381212
2001
й чим він може стати,
06:23
and all the things that we need to do
109
383237
1785
і що слід зробити
06:25
in order to enable that outcome that best suits us.
110
385046
3753
для найкращого результату.
06:29
We already see and know this in the technology that we use today.
111
389490
3674
Це вже є в технологіях сьогодення.
06:33
We use smart phones and digital assistants and Roombas.
112
393767
3880
Ми використовуємо смартфони, цифрових помічників і пилососи-роботи Roomba.
06:38
Are they evil?
113
398457
1150
Чи вони лихі?
06:40
Maybe sometimes.
114
400268
1547
Можливо інколи.
06:42
Are they beneficial?
115
402664
1333
Чи вони корисні?
06:45
Yes, they're that, too.
116
405005
1533
Авжеж.
06:48
And they're not all the same.
117
408236
1761
І всі вони різні.
06:50
And there you already see a light shining on what the future holds.
118
410489
3540
Ви вже бачите, як проливається світло на те, що нас чекає в майбутньому.
06:54
The future continues on from what we build and create right now.
119
414942
3619
Майбутнє твориться з того, що ми будуємо і створюємо в цю мить.
06:59
We set into motion that domino effect
120
419165
2642
Ми запускаємо в дію принцип доміно,
07:01
that carves out AI's evolutionary path.
121
421831
2600
який прокладає еволюційний шлях ШІ.
07:05
In our time right now, we shape the AI of tomorrow.
122
425173
2871
Сьогодні ми формуємо ШІ завтрашнього дня.
07:08
Technology that immerses us in augmented realities
123
428566
3699
Технологія, яка занурює нас в доповнені реальності,
07:12
bringing to life past worlds.
124
432289
2566
пробуджуючи до життя світи минулого.
07:15
Technology that helps people to share their experiences
125
435844
4312
Технологія, яка допомагає людям ділитися враженнями,
07:20
when they have difficulty communicating.
126
440180
2262
коли виникають труднощі в спілкуванні.
07:23
Technology built on understanding the streaming visual worlds
127
443323
4532
Технологія, побудована на розумінні рухливих навколишніх світів,
07:27
used as technology for self-driving cars.
128
447879
3079
яку використовують для безпілотних авто.
07:32
Technology built on understanding images and generating language,
129
452490
3413
Технологія, побудована на розумінні зображень і підборі мовних засобів,
07:35
evolving into technology that helps people who are visually impaired
130
455927
4063
що еволюціонує в технологію, яка допомагає людям з вадами зору
07:40
be better able to access the visual world.
131
460014
2800
мати кращий доступ до візуального світу.
07:42
And we also see how technology can lead to problems.
132
462838
3261
І ми також бачимо, що технології можуть спричинити проблеми.
07:46
We have technology today
133
466885
1428
Нині ми маємо технологію,
07:48
that analyzes physical characteristics we're born with --
134
468337
3835
яка аналізує фізичні характеристики, з якими ми народжуємося --
07:52
such as the color of our skin or the look of our face --
135
472196
3272
колір шкіри чи зовнішній вигляд --
07:55
in order to determine whether or not we might be criminals or terrorists.
136
475492
3804
щоб визначити чи можемо ми бути злочинцями або терористами.
07:59
We have technology that crunches through our data,
137
479688
2905
В нас є технологія, яка опрацьовує наші дані,
08:02
even data relating to our gender or our race,
138
482617
2896
навіть дані щодо нашої статі чи раси,
08:05
in order to determine whether or not we might get a loan.
139
485537
2865
щоб визначити чи можна нам отримати позику.
08:09
All that we see now
140
489494
1579
Все, що ми бачимо зараз, -
08:11
is a snapshot in the evolution of artificial intelligence.
141
491097
3617
це мить в процесі еволюції штучного інтелекту.
08:15
Because where we are right now,
142
495763
1778
Тому, що зараз ми знаходимося
08:17
is within a moment of that evolution.
143
497565
2238
за крок до цієї еволюції.
08:20
That means that what we do now will affect what happens down the line
144
500690
3802
Це означає, що те, що ми робимо зараз впливатиме як на процес,
08:24
and in the future.
145
504516
1200
так і на майбутнє.
08:26
If we want AI to evolve in a way that helps humans,
146
506063
3951
Якщо ми хочемо, щоб ШІ розвивався, щоб допомагати людям,
08:30
then we need to define the goals and strategies
147
510038
2801
нам треба визначити цілі й стратегії,
08:32
that enable that path now.
148
512863
1733
щоб розпочати цей шлях вже зараз.
08:35
What I'd like to see is something that fits well with humans,
149
515680
3738
Я б хотіла побачити щось, що добре впишеться в людське життя,
08:39
with our culture and with the environment.
150
519442
2800
культуру й довкілля.
08:43
Technology that aids and assists those of us with neurological conditions
151
523435
4484
Технологію, яка допомагає тим, в кого неврологічні захворювання
08:47
or other disabilities
152
527943
1721
або інші обмеження,
08:49
in order to make life equally challenging for everyone.
153
529688
3216
щоб зробити життя рівним для всіх.
08:54
Technology that works
154
534097
1421
Технологію, яка працює,
08:55
regardless of your demographics or the color of your skin.
155
535542
3933
попри демографічні показники чи колір шкіри.
09:00
And so today, what I focus on is the technology for tomorrow
156
540383
4742
Тому сьогодні, я зосереджуюсь на технології, що працюватиме завтра
09:05
and for 10 years from now.
157
545149
1733
і через 10 років.
09:08
AI can turn out in many different ways.
158
548530
2634
ШІ може бути різним.
09:11
But in this case,
159
551688
1225
Але в цьому випадку -
09:12
it isn't a self-driving car without any destination.
160
552937
3328
це не безпілотне авто без пункту призначення.
09:16
This is the car that we are driving.
161
556884
2400
Це авто, яким керуємо ми.
09:19
We choose when to speed up and when to slow down.
162
559953
3595
Ми обираємо, коли дати газу і коли пригальмувати.
09:23
We choose if we need to make a turn.
163
563572
2400
Ми вирішуємо, коли необхідно повернути.
09:26
We choose what the AI of the future will be.
164
566868
3000
Ми обираємо, яким ШІ буде в майбутньому.
09:31
There's a vast playing field
165
571186
1337
Існує величезний спектр
09:32
of all the things that artificial intelligence can become.
166
572547
2965
того, чим штучний інтелект може стати.
09:36
It will become many things.
167
576064
1800
Він може стати багато чим.
09:39
And it's up to us now,
168
579694
1732
І наше завдання -
09:41
in order to figure out what we need to put in place
169
581450
3061
вирішити, що задіяти,
09:44
to make sure the outcomes of artificial intelligence
170
584535
3807
аби наслідки штучного інтелекту
09:48
are the ones that will be better for all of us.
171
588366
3066
були якомога кращими для всіх.
09:51
Thank you.
172
591456
1150
Дякую.
09:52
(Applause)
173
592630
2187
(Оплески)
Про цей сайт

Цей сайт познайомить вас з відеороликами YouTube, корисними для вивчення англійської мови. Ви побачите уроки англійської мови, які проводять першокласні викладачі з усього світу. Двічі клацніть на англійських субтитрах, що відображаються на кожній сторінці відео, щоб відтворити відео з цієї сторінки. Субтитри прокручуються синхронно з відтворенням відео. Якщо у вас є коментарі або побажання, будь ласка, зв'яжіться з нами за допомогою цієї контактної форми.

https://forms.gle/WvT1wiN1qDtmnspy7