How we can build AI to help humans, not hurt us | Margaret Mitchell

80,996 views ・ 2018-03-12

TED


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

Переводчик: Maria Rigert Редактор: Yulia Kallistratova
00:13
I work on helping computers communicate about the world around us.
0
13381
4015
Моя работа — помогать компьютерам делать сообщения об окружающем мире.
00:17
There are a lot of ways to do this,
1
17754
1793
Есть много способов сделать это,
00:19
and I like to focus on helping computers
2
19571
2592
но мне нравится помогать компьютерам
00:22
to talk about what they see and understand.
3
22187
2874
рассказывать о том, что они видят и понимают.
00:25
Given a scene like this,
4
25514
1571
Например, на этой картинке
00:27
a modern computer-vision algorithm
5
27109
1905
современный алгоритм компьютерного видения
00:29
can tell you that there's a woman and there's a dog.
6
29038
3095
может распознать, что это — женщина, а это — собака.
00:32
It can tell you that the woman is smiling.
7
32157
2706
Он может сказать, что женщина улыбается.
00:34
It might even be able to tell you that the dog is incredibly cute.
8
34887
3873
Он даже способен сказать, что собака необыкновенно милая.
00:38
I work on this problem
9
38784
1349
Я работаю над этим,
00:40
thinking about how humans understand and process the world.
10
40157
4212
думая о том, как люди понимают и обрабатывают данные о мире.
00:45
The thoughts, memories and stories
11
45577
2952
Какие мысли, воспоминания и истории
00:48
that a scene like this might evoke for humans.
12
48553
2818
может пробуждать в людях такая вот картинка.
00:51
All the interconnections of related situations.
13
51395
4285
Всё, что связано с подобными ситуациями.
00:55
Maybe you've seen a dog like this one before,
14
55704
3126
Возможно, вы видели похожую собаку раньше
00:58
or you've spent time running on a beach like this one,
15
58854
2969
или проводили время, так же бегая по пляжу,
01:01
and that further evokes thoughts and memories of a past vacation,
16
61847
4778
и это, в свою очередь, вызывает мысли и воспоминания о прошедшем отпуске,
01:06
past times to the beach,
17
66649
1920
о времени, проведённом на пляже,
01:08
times spent running around with other dogs.
18
68593
2603
или времени, когда вы бегали где-то с другой собакой.
01:11
One of my guiding principles is that by helping computers to understand
19
71688
5207
Один из моих главных принципов — это помочь компьютерам понять,
01:16
what it's like to have these experiences,
20
76919
2896
что значит иметь подобный опыт,
01:19
to understand what we share and believe and feel,
21
79839
5176
понять, чем мы делимся, во что верим и что чувствуем,
01:26
then we're in a great position to start evolving computer technology
22
86094
4310
потому что тогда мы будем готовы начать вовлекать компьютерные технологии
01:30
in a way that's complementary with our own experiences.
23
90428
4587
в процессы, дополняющие наш собственный опыт.
01:35
So, digging more deeply into this,
24
95539
3387
Если копнуть глубже,
01:38
a few years ago I began working on helping computers to generate human-like stories
25
98950
5905
несколько лет назад я начала помогать компьютерам писать рассказы
01:44
from sequences of images.
26
104879
1666
на основе цепочки изображений.
01:47
So, one day,
27
107427
1904
И однажды
01:49
I was working with my computer to ask it what it thought about a trip to Australia.
28
109355
4622
в ходе работы я спросила компьютер, что он думает о поездке в Австралию.
01:54
It took a look at the pictures, and it saw a koala.
29
114768
2920
Он взглянул на картинки и увидел коалу.
01:58
It didn't know what the koala was,
30
118236
1643
Он не знал, что такое коала,
01:59
but it said it thought it was an interesting-looking creature.
31
119903
2999
но сказал, что считает её любопытным созданием.
02:04
Then I shared with it a sequence of images about a house burning down.
32
124053
4004
Затем я поделилась с ним цепочкой изображений о горящих домах.
02:09
It took a look at the images and it said,
33
129704
3285
Он посмотрел на картинки и сказал:
02:13
"This is an amazing view! This is spectacular!"
34
133013
3500
«Удивительный вид! Потрясающе!»
02:17
It sent chills down my spine.
35
137450
2095
У меня по спине побежали мурашки.
02:20
It saw a horrible, life-changing and life-destroying event
36
140983
4572
Он смотрел на ужасное, разрушающее жизни событие
02:25
and thought it was something positive.
37
145579
2382
и думал, что это нечто положительное.
02:27
I realized that it recognized the contrast,
38
147985
3441
Я поняла, что он распознал контрасты,
02:31
the reds, the yellows,
39
151450
2699
оттенки красного и жёлтого
02:34
and thought it was something worth remarking on positively.
40
154173
3078
и подумал, что это заслуживает позитивной оценки.
02:37
And part of why it was doing this
41
157928
1615
Отчасти он сделал это,
02:39
was because most of the images I had given it
42
159577
2945
потому что большинство изображений, которые я давала ему,
02:42
were positive images.
43
162546
1840
были позитивными.
02:44
That's because people tend to share positive images
44
164903
3658
Потому что люди склонны делиться позитивными изображениями,
02:48
when they talk about their experiences.
45
168585
2190
когда рассказывают о своём опыте.
02:51
When was the last time you saw a selfie at a funeral?
46
171267
2541
Когда вы в последний раз видели селфи на похоронах?
02:55
I realized that, as I worked on improving AI
47
175434
3095
Я осознала, что, совершенствуя искусственный интеллект,
02:58
task by task, dataset by dataset,
48
178553
3714
задачу за задачей, массив данных за массивом,
03:02
that I was creating massive gaps,
49
182291
2897
я создала огромные бреши,
03:05
holes and blind spots in what it could understand.
50
185212
3999
дыры и слепые пятна в том, что он мог понимать.
03:10
And while doing so,
51
190307
1334
И делая это,
03:11
I was encoding all kinds of biases.
52
191665
2483
я закодировала все возможные виды предубеждений.
03:15
Biases that reflect a limited viewpoint,
53
195029
3318
Предубеждений, отражающих ограниченное видение,
03:18
limited to a single dataset --
54
198371
2261
ограниченное единым набором данных.
03:21
biases that can reflect human biases found in the data,
55
201283
3858
Пробелы, которые отражают человеческие предубеждения, закодированные в данных,
03:25
such as prejudice and stereotyping.
56
205165
3104
такие как предвзятость и стереотипы.
03:29
I thought back to the evolution of the technology
57
209554
3057
Я подумала об эволюции технологий,
03:32
that brought me to where I was that day --
58
212635
2502
которая привела меня к тому, где я оказалась тогда, —
03:35
how the first color images
59
215966
2233
как первые цветные фотографии
03:38
were calibrated against a white woman's skin,
60
218223
3048
были откалиброваны по коже белых женщин,
03:41
meaning that color photography was biased against black faces.
61
221665
4145
а значит, цветные фотографии были не приспособлены к тёмным лицам.
03:46
And that same bias, that same blind spot
62
226514
2925
И это же предубеждение, это же слепое пятно
03:49
continued well into the '90s.
63
229463
1867
продолжалось и в 90-е.
03:51
And the same blind spot continues even today
64
231701
3154
И это же слепое пятно мы имеем и сегодня
03:54
in how well we can recognize different people's faces
65
234879
3698
в том, насколько хорошо мы можем узнавать разнообразные человеческие лица
03:58
in facial recognition technology.
66
238601
2200
в технологии распознавания лиц.
04:01
I though about the state of the art in research today,
67
241323
3143
Я думала о новейших исследованиях,
04:04
where we tend to limit our thinking to one dataset and one problem.
68
244490
4514
где мы склонны ограничивать свое мышление одним набором данных и одной проблемой.
04:09
And that in doing so, we were creating more blind spots and biases
69
249688
4881
И делая это, мы создавали всё больше слепых пятен и предубеждений,
04:14
that the AI could further amplify.
70
254593
2277
которые ИИ смог развить дальше.
04:17
I realized then that we had to think deeply
71
257712
2079
Я поняла, что нужно больше думать о том,
04:19
about how the technology we work on today looks in five years, in 10 years.
72
259815
5519
как технологии, с которыми мы работаем сегодня, будут выглядеть через 5 и 10 лет.
04:25
Humans evolve slowly, with time to correct for issues
73
265990
3142
Человечество эволюционирует медленно, со временем исправляя проблемы
04:29
in the interaction of humans and their environment.
74
269156
3534
во взаимодействии людей и окружающей среды.
04:33
In contrast, artificial intelligence is evolving at an incredibly fast rate.
75
273276
5429
Искусственный интеллект, напротив, эволюционирует с невероятной скоростью.
04:39
And that means that it really matters
76
279013
1773
И значит, действительно важно
04:40
that we think about this carefully right now --
77
280810
2317
внимательно подумать прямо сейчас,
04:44
that we reflect on our own blind spots,
78
284180
3008
что мы прячем в своих слепых пятнах,
04:47
our own biases,
79
287212
2317
в своих предубеждениях,
04:49
and think about how that's informing the technology we're creating
80
289553
3857
как это отражается на технологиях, которые мы создаём,
04:53
and discuss what the technology of today will mean for tomorrow.
81
293434
3902
и обсудить, что технологии настоящего будут значить для будущего.
04:58
CEOs and scientists have weighed in on what they think
82
298593
3191
Топ-менеджеры и учёные всего мира говорят о том,
05:01
the artificial intelligence technology of the future will be.
83
301808
3325
каким по их мнению будет искусственный интеллект в будущем.
05:05
Stephen Hawking warns that
84
305157
1618
Стивен Хокинг предостерегает:
05:06
"Artificial intelligence could end mankind."
85
306799
3007
«ИИ может положить конец человечеству».
05:10
Elon Musk warns that it's an existential risk
86
310307
2683
Илон Маск предупреждает, что это один из величайших
05:13
and one of the greatest risks that we face as a civilization.
87
313014
3574
экзистенциальных рисков, с которым когда-либо сталкивалась наша цивилизация.
05:17
Bill Gates has made the point,
88
317665
1452
Билл Гейтс недоумевает:
05:19
"I don't understand why people aren't more concerned."
89
319141
3185
«Я не понимаю, почему люди не обеспокоены».
05:23
But these views --
90
323412
1318
Но эти мнения —
05:25
they're part of the story.
91
325618
1734
это только часть истории.
05:28
The math, the models,
92
328079
2420
Математика, модели,
05:30
the basic building blocks of artificial intelligence
93
330523
3070
основополагающие кирпичики искусственного интеллекта —
05:33
are something that we call access and all work with.
94
333617
3135
это то, что мы зовём доступом и с чем работаем.
05:36
We have open-source tools for machine learning and intelligence
95
336776
3785
У нас есть инструменты с открытым кодом для машинного обучения и интеллекта,
05:40
that we can contribute to.
96
340585
1734
которыми мы готовы делиться.
05:42
And beyond that, we can share our experience.
97
342919
3340
И кроме того, мы можем делиться своим опытом.
05:46
We can share our experiences with technology and how it concerns us
98
346760
3468
Делиться своими знаниями о технологиях, и как это нас беспокоит,
05:50
and how it excites us.
99
350252
1467
и как это нас волнует.
05:52
We can discuss what we love.
100
352251
1867
Мы можем обсуждать, что мы любим.
05:55
We can communicate with foresight
101
355244
2031
Мы можем общаться, предугадывая,
05:57
about the aspects of technology that could be more beneficial
102
357299
4857
какие аспекты технологий могут стать со временем самыми полезными,
06:02
or could be more problematic over time.
103
362180
2600
а какие — наиболее сомнительными.
06:05
If we all focus on opening up the discussion on AI
104
365799
4143
Если мы все сосредоточимся на открытом диалоге об ИИ
06:09
with foresight towards the future,
105
369966
1809
в перспективе будущего,
06:13
this will help create a general conversation and awareness
106
373093
4270
это поможет создать атмосферу общей осведомлённости
06:17
about what AI is now,
107
377387
2513
о том, что ИИ представляет собой сейчас,
06:21
what it can become
108
381212
2001
чем может стать
06:23
and all the things that we need to do
109
383237
1785
и обо всём, что мы должны сделать,
06:25
in order to enable that outcome that best suits us.
110
385046
3753
чтобы результат лучше всего нам подходил.
06:29
We already see and know this in the technology that we use today.
111
389490
3674
Мы уже видим и знаем всё это о технологиях, используемых сегодня.
06:33
We use smart phones and digital assistants and Roombas.
112
393767
3880
Мы используем смартфоны, электронные помощники, роботы-пылесосы.
06:38
Are they evil?
113
398457
1150
Разве они — зло?
06:40
Maybe sometimes.
114
400268
1547
Может быть, иногда.
06:42
Are they beneficial?
115
402664
1333
Они полезны?
06:45
Yes, they're that, too.
116
405005
1533
Безусловно.
06:48
And they're not all the same.
117
408236
1761
И все они разные.
06:50
And there you already see a light shining on what the future holds.
118
410489
3540
И в них вы уже видите луч света, освещающий наше будущее.
06:54
The future continues on from what we build and create right now.
119
414942
3619
Будущее начинается в том, что мы создаём и строим прямо сейчас.
06:59
We set into motion that domino effect
120
419165
2642
Мы запускаем тот эффект домино,
07:01
that carves out AI's evolutionary path.
121
421831
2600
который определит путь развития ИИ.
07:05
In our time right now, we shape the AI of tomorrow.
122
425173
2871
В нашем настоящем мы задаем форму ИИ будущего.
07:08
Technology that immerses us in augmented realities
123
428566
3699
Технологии, которые погружают нас в дополненные реальности,
07:12
bringing to life past worlds.
124
432289
2566
возвращают к жизни прошлые миры.
07:15
Technology that helps people to share their experiences
125
435844
4312
Технологии, которые помогают людям делиться опытом,
07:20
when they have difficulty communicating.
126
440180
2262
когда они испытывают трудности в общении.
07:23
Technology built on understanding the streaming visual worlds
127
443323
4532
Технологии, основанные на понимании потоковых визуальных миров,
07:27
used as technology for self-driving cars.
128
447879
3079
используются для самоуправляемых машин.
07:32
Technology built on understanding images and generating language,
129
452490
3413
Технологии, основанные на понимании изображений и искусственных языков,
07:35
evolving into technology that helps people who are visually impaired
130
455927
4063
превращаются в технологии, которые помогают слабовидящим людям
07:40
be better able to access the visual world.
131
460014
2800
получать доступ к визуальному миру.
07:42
And we also see how technology can lead to problems.
132
462838
3261
Но мы также видим, как технологии могут привести к проблемам.
07:46
We have technology today
133
466885
1428
Сегодня у нас есть технологии,
07:48
that analyzes physical characteristics we're born with --
134
468337
3835
которые анализируют наши врождённые физические характеристики —
07:52
such as the color of our skin or the look of our face --
135
472196
3272
такие как цвет кожи или черты лица —
07:55
in order to determine whether or not we might be criminals or terrorists.
136
475492
3804
чтобы определить, можем ли мы быть преступниками или террористами.
07:59
We have technology that crunches through our data,
137
479688
2905
У нас есть технологии, анализирующие данные о нас,
08:02
even data relating to our gender or our race,
138
482617
2896
даже такие данные как пол или раса,
08:05
in order to determine whether or not we might get a loan.
139
485537
2865
чтобы определить, можем ли мы получить кредит.
08:09
All that we see now
140
489494
1579
Всё, что мы видим сейчас,
08:11
is a snapshot in the evolution of artificial intelligence.
141
491097
3617
это лишь один кадр из эволюции искусственного интеллекта.
08:15
Because where we are right now,
142
495763
1778
Потому что то, где мы сейчас, —
08:17
is within a moment of that evolution.
143
497565
2238
это всего лишь момент этой эволюции.
08:20
That means that what we do now will affect what happens down the line
144
500690
3802
Это означает, что всё, что мы делаем сегодня, окажет влияние
08:24
and in the future.
145
504516
1200
на наше будущее.
08:26
If we want AI to evolve in a way that helps humans,
146
506063
3951
Если мы хотим, чтобы ИИ развивался для помощи человеку,
08:30
then we need to define the goals and strategies
147
510038
2801
значит, мы должны определить цели и стратегии,
08:32
that enable that path now.
148
512863
1733
которые зададут этот путь сейчас.
08:35
What I'd like to see is something that fits well with humans,
149
515680
3738
Я бы хотела видеть что-то, что хорошо подходит людям,
08:39
with our culture and with the environment.
150
519442
2800
соотносится с нашей культурой и окружением.
08:43
Technology that aids and assists those of us with neurological conditions
151
523435
4484
Технологии, которые помогают тем из нас, кто страдает неврологическими
08:47
or other disabilities
152
527943
1721
или другими заболеваниями,
08:49
in order to make life equally challenging for everyone.
153
529688
3216
чтобы сделать жизнь одинаково трудной для всех.
08:54
Technology that works
154
534097
1421
Технологии, работающие
08:55
regardless of your demographics or the color of your skin.
155
535542
3933
независимо от вашего цвета кожи или демографических характеристик.
09:00
And so today, what I focus on is the technology for tomorrow
156
540383
4742
Сегодня я сосредоточена на технологиях, которые будут с нами завтра
09:05
and for 10 years from now.
157
545149
1733
и через 10 лет.
09:08
AI can turn out in many different ways.
158
548530
2634
ИИ может стать чем угодно.
09:11
But in this case,
159
551688
1225
Но в данном случае
09:12
it isn't a self-driving car without any destination.
160
552937
3328
это не самоуправляемая машина без конечного пункта назначения.
09:16
This is the car that we are driving.
161
556884
2400
Этой машиной управляем мы.
09:19
We choose when to speed up and when to slow down.
162
559953
3595
Мы выбираем, когда следует ускориться, а когда замедлиться.
09:23
We choose if we need to make a turn.
163
563572
2400
Мы выбираем, когда нам нужно повернуть.
09:26
We choose what the AI of the future will be.
164
566868
3000
Мы выбираем, каким будет ИИ будущего.
09:31
There's a vast playing field
165
571186
1337
Есть бесчисленное множество
09:32
of all the things that artificial intelligence can become.
166
572547
2965
вещей, которыми может стать искусственный интеллект.
09:36
It will become many things.
167
576064
1800
И он станет множеством вещей.
09:39
And it's up to us now,
168
579694
1732
И наша задача сегодня —
09:41
in order to figure out what we need to put in place
169
581450
3061
выяснить, что именно мы должны вложить в ИИ,
09:44
to make sure the outcomes of artificial intelligence
170
584535
3807
чтобы полученные результаты
09:48
are the ones that will be better for all of us.
171
588366
3066
стали самыми лучшими для всех нас.
09:51
Thank you.
172
591456
1150
Спасибо.
09:52
(Applause)
173
592630
2187
(Аплодисменты)
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7