How we can build AI to help humans, not hurt us | Margaret Mitchell

81,177 views ・ 2018-03-12

TED


Por favor, faça duplo clique nas legendas em inglês abaixo para reproduzir o vídeo.

Tradutor: Marina de Morais Revisora: Margarida Ferreira
00:13
I work on helping computers communicate about the world around us.
0
13381
4015
Eu trabalho a ajudar computadores a comunicarem o mundo à nossa volta.
00:17
There are a lot of ways to do this,
1
17754
1793
Há muitas maneiras de fazer isso,
00:19
and I like to focus on helping computers
2
19571
2592
e gosto de me concentrar em ajudar os computadores
00:22
to talk about what they see and understand.
3
22187
2874
a falar sobre o que veem e entendem.
00:25
Given a scene like this,
4
25514
1571
Perante uma cena como esta,
00:27
a modern computer-vision algorithm
5
27109
1905
um algoritmo de visão computacional moderna
00:29
can tell you that there's a woman and there's a dog.
6
29038
3095
pode dizer-nos que há uma mulher e há um cão.
00:32
It can tell you that the woman is smiling.
7
32157
2706
Pode dizer-nos que a mulher está a sorrir.
00:34
It might even be able to tell you that the dog is incredibly cute.
8
34887
3873
Pode até conseguir dizer-nos que o cão é incrivelmente bonito.
00:38
I work on this problem
9
38784
1349
Eu trabalho neste problema
00:40
thinking about how humans understand and process the world.
10
40157
4212
pensando em como os seres humanos compreendem e processam o mundo.
00:45
The thoughts, memories and stories
11
45577
2952
Os pensamentos, as memórias e as histórias
00:48
that a scene like this might evoke for humans.
12
48553
2818
que uma cena como esta pode evocar aos seres humanos,
00:51
All the interconnections of related situations.
13
51395
4285
todas as interligações de situações relacionadas.
00:55
Maybe you've seen a dog like this one before,
14
55704
3126
Talvez vocês já tenham visto um cão como este,
00:58
or you've spent time running on a beach like this one,
15
58854
2969
ou tenham passado algum tempo a correr numa praia como esta,
01:01
and that further evokes thoughts and memories of a past vacation,
16
61847
4778
e isso ainda evoca mais pensamentos e memórias de férias passadas,
01:06
past times to the beach,
17
66649
1920
de tempos passados ​​na praia,
01:08
times spent running around with other dogs.
18
68593
2603
de tempos passados a ​​correr com outros cães.
01:11
One of my guiding principles is that by helping computers to understand
19
71688
5207
Um dos meus princípios orientadores é ajudar os computadores a entender
01:16
what it's like to have these experiences,
20
76919
2896
como é ter essas experiências,
01:19
to understand what we share and believe and feel,
21
79839
5176
para entenderem o que partilhamos e acreditarem e sentirem.
01:26
then we're in a great position to start evolving computer technology
22
86094
4310
Estamos numa ótima posição para fazer evoluir a tecnologia de computador
01:30
in a way that's complementary with our own experiences.
23
90428
4587
de uma forma que é complementar das nossas próprias experiências.
01:35
So, digging more deeply into this,
24
95539
3387
Então, mergulhando nisto mais profundamente,
01:38
a few years ago I began working on helping computers to generate human-like stories
25
98950
5905
há uns anos comecei a trabalhar
ajudando os computadores a gerarem histórias humanas
01:44
from sequences of images.
26
104879
1666
a partir de sequências de imagens.
01:47
So, one day,
27
107427
1904
Um dia, eu estava a trabalhar no meu computador
01:49
I was working with my computer to ask it what it thought about a trip to Australia.
28
109355
4622
para lhe perguntar o que é que ele pensava duma viagem à Austrália.
01:54
It took a look at the pictures, and it saw a koala.
29
114768
2920
Ele observou as fotos e viu um coala.
01:58
It didn't know what the koala was,
30
118236
1643
Ele não sabia o que era um coala,
01:59
but it said it thought it was an interesting-looking creature.
31
119903
2999
mas disse que achava que era uma criatura de aspeto interessante.
02:04
Then I shared with it a sequence of images about a house burning down.
32
124053
4004
Então, mostrei-lhe uma sequência de imagens sobre uma casa a arder.
02:09
It took a look at the images and it said,
33
129704
3285
Deu uma olhadela a essas imagens e disse:
02:13
"This is an amazing view! This is spectacular!"
34
133013
3500
“Isto é uma vista incrível! Isto é espetacular! "
02:17
It sent chills down my spine.
35
137450
2095
Senti arrepios pela espinha abaixo.
02:20
It saw a horrible, life-changing and life-destroying event
36
140983
4572
Ele vira um acontecimento terrível, que mudava e destruía vidas
02:25
and thought it was something positive.
37
145579
2382
e achara que era uma coisa positiva.
02:27
I realized that it recognized the contrast,
38
147985
3441
Percebi que ele reconhecia o contraste,
02:31
the reds, the yellows,
39
151450
2699
os vermelhos, os amarelos,
02:34
and thought it was something worth remarking on positively.
40
154173
3078
e pensara que era uma coisa que valia a pena comentar positivamente.
02:37
And part of why it was doing this
41
157928
1615
Em parte, o motivo por que estava a fazer isso
02:39
was because most of the images I had given it
42
159577
2945
era porque a maioria das imagens que eu lhe tinha dado
02:42
were positive images.
43
162546
1840
tinham sido imagens positivas.
02:44
That's because people tend to share positive images
44
164903
3658
As pessoas têm tendência a partilhar imagens positivas
02:48
when they talk about their experiences.
45
168585
2190
quando falam sobre as suas experiências.
02:51
When was the last time you saw a selfie at a funeral?
46
171267
2541
Quando foi a última vez que vocês viram uma "selfie" num funeral?
02:55
I realized that, as I worked on improving AI
47
175434
3095
Eu percebi que, enquanto trabalhava para melhorar a IA
02:58
task by task, dataset by dataset,
48
178553
3714
tarefa a tarefa, conjunto de dados a conjunto de dados,
03:02
that I was creating massive gaps,
49
182291
2897
estava a criar lacunas enormes,
03:05
holes and blind spots in what it could understand.
50
185212
3999
buracos e pontos cegos no que ele poderia entender.
03:10
And while doing so,
51
190307
1334
E enquanto fazia isso,
03:11
I was encoding all kinds of biases.
52
191665
2483
eu estava a codificar todos os tipos de preconceitos.
03:15
Biases that reflect a limited viewpoint,
53
195029
3318
Preconceitos que refletem um ponto de vista limitado,
03:18
limited to a single dataset --
54
198371
2261
limitado a um único conjunto de dados,
03:21
biases that can reflect human biases found in the data,
55
201283
3858
preconceitos que podem refletir preconceitos humanos
encontrados nos dados,
03:25
such as prejudice and stereotyping.
56
205165
3104
como preconceitos e estereótipos.
03:29
I thought back to the evolution of the technology
57
209554
3057
Recordei a evolução da tecnologia
03:32
that brought me to where I was that day --
58
212635
2502
que me levara para onde eu estava naquele dia
03:35
how the first color images
59
215966
2233
— como as primeiras imagens coloridas
03:38
were calibrated against a white woman's skin,
60
218223
3048
tinham sido calibradas a partir da pele de uma mulher branca,
03:41
meaning that color photography was biased against black faces.
61
221665
4145
ou seja, a fotografia colorida era tendenciosa contra rostos negros.
03:46
And that same bias, that same blind spot
62
226514
2925
Esse mesmo preconceito, esse mesmo ponto cego
03:49
continued well into the '90s.
63
229463
1867
continuou até aos anos 90.
03:51
And the same blind spot continues even today
64
231701
3154
E o mesmo ponto cego continua ainda hoje
03:54
in how well we can recognize different people's faces
65
234879
3698
na forma como reconhecemos tão bem os rostos de pessoas diferentes
03:58
in facial recognition technology.
66
238601
2200
na tecnologia de reconhecimento facial.
04:01
I though about the state of the art in research today,
67
241323
3143
Eu pensei na investigação de ponta de hoje,
04:04
where we tend to limit our thinking to one dataset and one problem.
68
244490
4514
onde tendemos a limitar o nosso pensamento a um conjunto de dados e a um só problema.
04:09
And that in doing so, we were creating more blind spots and biases
69
249688
4881
Ao fazermos isso, estávamos a criar mais pontos cegos e preconceitos
04:14
that the AI could further amplify.
70
254593
2277
que a IA poderia ampliar ainda mais.
04:17
I realized then that we had to think deeply
71
257712
2079
Eu percebi então que tínhamos de pensar profundamente
04:19
about how the technology we work on today looks in five years, in 10 years.
72
259815
5519
sobre como será daqui a cinco anos, daqui a 10 anos,
a tecnologia em que trabalhamos hoje,
04:25
Humans evolve slowly, with time to correct for issues
73
265990
3142
Os seres humanos evoluem lentamente, com tempo para corrigir os problemas
04:29
in the interaction of humans and their environment.
74
269156
3534
na interação dos seres humanos com o seu ambiente.
04:33
In contrast, artificial intelligence is evolving at an incredibly fast rate.
75
273276
5429
Em contraste, a inteligência artificial
está a evoluir a um ritmo incrivelmente rápido.
Isso significa que é importante
04:39
And that means that it really matters
76
279013
1773
04:40
that we think about this carefully right now --
77
280810
2317
que pensemos nisso agora com o maior cuidado,
04:44
that we reflect on our own blind spots,
78
284180
3008
que reflitamos nos nossos pontos cegos,
04:47
our own biases,
79
287212
2317
nos nossos preconceitos,
04:49
and think about how that's informing the technology we're creating
80
289553
3857
e pensemos em como isso está a afetar a tecnologia que estamos a criar
04:53
and discuss what the technology of today will mean for tomorrow.
81
293434
3902
e analisemos o que a tecnologia de hoje significará amanhã.
04:58
CEOs and scientists have weighed in on what they think
82
298593
3191
CEOs e cientistas avaliaram aquilo que eles consideram
05:01
the artificial intelligence technology of the future will be.
83
301808
3325
que virá a ser a tecnologia da inteligência artificial do futuro.
05:05
Stephen Hawking warns that
84
305157
1618
Stephen Hawking avisa:
05:06
"Artificial intelligence could end mankind."
85
306799
3007
"A Inteligência artificial pode acabar com a Humanidade. "
05:10
Elon Musk warns that it's an existential risk
86
310307
2683
Elon Musk avisa que é um risco existencial
05:13
and one of the greatest risks that we face as a civilization.
87
313014
3574
e um dos maiores riscos que enfrentamos enquanto civilização.
05:17
Bill Gates has made the point,
88
317665
1452
Bill Gates deixou claro:
05:19
"I don't understand why people aren't more concerned."
89
319141
3185
"Não entendo porque é que as pessoas não estão mais preocupadas."
05:23
But these views --
90
323412
1318
Mas essas perspetivas fazem parte da História.
05:25
they're part of the story.
91
325618
1734
05:28
The math, the models,
92
328079
2420
A matemática, os modelos,
05:30
the basic building blocks of artificial intelligence
93
330523
3070
os blocos de construção básicos da inteligência artificial
05:33
are something that we call access and all work with.
94
333617
3135
são algo a que chamamos "acesso" e com que todos trabalham.
05:36
We have open-source tools for machine learning and intelligence
95
336776
3785
Temos ferramentas de código aberto para aprendizagem de máquina
05:40
that we can contribute to.
96
340585
1734
para as quais podemos contribuir.
05:42
And beyond that, we can share our experience.
97
342919
3340
E além disso, podemos partilhar a nossa experiência.
05:46
We can share our experiences with technology and how it concerns us
98
346760
3468
Podemos partilhar as nossas experiências com a tecnologia
como ela nos preocupa e como isso nos entusiasma.
05:50
and how it excites us.
99
350252
1467
05:52
We can discuss what we love.
100
352251
1867
Podemos analisar o que amamos.
05:55
We can communicate with foresight
101
355244
2031
Podemos comunicar com conhecimento antecipado
05:57
about the aspects of technology that could be more beneficial
102
357299
4857
quais os aspetos da tecnologia que poderão ser mais benéficos
06:02
or could be more problematic over time.
103
362180
2600
ou que poderão ser mais problemáticos com o tempo.
06:05
If we all focus on opening up the discussion on AI
104
365799
4143
Se todos nós nos concentrarmos em abrir o debate sobre a IA,
06:09
with foresight towards the future,
105
369966
1809
com uma visão para o futuro,
06:13
this will help create a general conversation and awareness
106
373093
4270
isso ajudará a criar uma conversa e uma consciência
06:17
about what AI is now,
107
377387
2513
sobre o que a IA é agora,
06:21
what it can become
108
381212
2001
sobre aquilo que ela pode vir a ser
06:23
and all the things that we need to do
109
383237
1785
e sobre todas as coisas que precisamos de fazer
06:25
in order to enable that outcome that best suits us.
110
385046
3753
a fim de permitir o resultado que melhor nos convém.
06:29
We already see and know this in the technology that we use today.
111
389490
3674
Nós já vemos e sabemos isso na tecnologia que usamos hoje.
06:33
We use smart phones and digital assistants and Roombas.
112
393767
3880
Usamos "smartphones", assistentes digitais e robôs-aspiradores.
06:38
Are they evil?
113
398457
1150
Eles são maus?
06:40
Maybe sometimes.
114
400268
1547
Talvez às vezes.
06:42
Are they beneficial?
115
402664
1333
Eles são benéficos?
06:45
Yes, they're that, too.
116
405005
1533
Sim, também são.
06:48
And they're not all the same.
117
408236
1761
E não são todos iguais.
06:50
And there you already see a light shining on what the future holds.
118
410489
3540
Aí já vemos uma luz brilhando sobre o que o futuro reserva.
06:54
The future continues on from what we build and create right now.
119
414942
3619
O futuro continua a partir do que construímos e criamos hoje.
06:59
We set into motion that domino effect
120
419165
2642
Colocamos em movimento o efeito dominó
07:01
that carves out AI's evolutionary path.
121
421831
2600
que traça o caminho evolutivo da IA.
07:05
In our time right now, we shape the AI of tomorrow.
122
425173
2871
No nosso tempo de hoje, nós modelamos a IA de amanhã.
07:08
Technology that immerses us in augmented realities
123
428566
3699
A tecnologia que nos envolve em realidades aumentadas
07:12
bringing to life past worlds.
124
432289
2566
trazendo à vida mundos passados.
07:15
Technology that helps people to share their experiences
125
435844
4312
A tecnologia que ajuda as pessoas a partilhar as suas experiências
07:20
when they have difficulty communicating.
126
440180
2262
quando elas têm dificuldade em comunicar.
07:23
Technology built on understanding the streaming visual worlds
127
443323
4532
A tecnologia baseada na compreensão dos mundos visuais do "streaming"
07:27
used as technology for self-driving cars.
128
447879
3079
usado como tecnologia para carros autónomos.
07:32
Technology built on understanding images and generating language,
129
452490
3413
A tecnologia baseada na compreensão de imagens e gerando linguagem,
07:35
evolving into technology that helps people who are visually impaired
130
455927
4063
evoluindo para a tecnologia que ajuda as pessoas que são deficientes visuais
07:40
be better able to access the visual world.
131
460014
2800
a conseguirem ter acesso ao mundo visual.
07:42
And we also see how technology can lead to problems.
132
462838
3261
E também vemos como a tecnologia pode levar a problemas.
07:46
We have technology today
133
466885
1428
Temos tecnologia hoje
07:48
that analyzes physical characteristics we're born with --
134
468337
3835
que analisa as características físicas com que nascemos
07:52
such as the color of our skin or the look of our face --
135
472196
3272
como a cor da pele ou o aspeto do rosto
07:55
in order to determine whether or not we might be criminals or terrorists.
136
475492
3804
a fim de determinar se seremos ou não criminosos ou terroristas.
07:59
We have technology that crunches through our data,
137
479688
2905
Temos tecnologia que processa os nossos dados,
08:02
even data relating to our gender or our race,
138
482617
2896
até mesmo os dados relacionados com o nosso género ou etnia,
08:05
in order to determine whether or not we might get a loan.
139
485537
2865
a fim de determinar se podemos ou não obter um empréstimo.
08:09
All that we see now
140
489494
1579
Tudo o que vemos agora
08:11
is a snapshot in the evolution of artificial intelligence.
141
491097
3617
é um instantâneo da evolução da inteligência artificial.
08:15
Because where we are right now,
142
495763
1778
Porque o ponto em que estamos agora,
08:17
is within a moment of that evolution.
143
497565
2238
está dentro de um momento dessa evolução.
08:20
That means that what we do now will affect what happens down the line
144
500690
3802
Isso significa que o que fazemos agora afetará o que acontece no futuro
08:24
and in the future.
145
504516
1200
e no futuro.
08:26
If we want AI to evolve in a way that helps humans,
146
506063
3951
Se quisermos que a IA evolua de uma forma que ajude os seres humanos,
08:30
then we need to define the goals and strategies
147
510038
2801
precisamos de definir os objetivos e as estratégias
08:32
that enable that path now.
148
512863
1733
que permitem esse caminho agora.
08:35
What I'd like to see is something that fits well with humans,
149
515680
3738
O que eu gostaria de ver é algo que se encaixa bem com os seres humanos,
08:39
with our culture and with the environment.
150
519442
2800
com a nossa cultura e com o meio ambiente.
08:43
Technology that aids and assists those of us with neurological conditions
151
523435
4484
Uma tecnologia que ajude e auxilie os que têm problemas neurológicos
08:47
or other disabilities
152
527943
1721
ou outras deficiências
08:49
in order to make life equally challenging for everyone.
153
529688
3216
a fim de tornar a vida igualmente desafiadora para todos.
08:54
Technology that works
154
534097
1421
Uma tecnologia que funcione
08:55
regardless of your demographics or the color of your skin.
155
535542
3933
independentemente dos nossos dados demográficos ou da cor da pele.
09:00
And so today, what I focus on is the technology for tomorrow
156
540383
4742
Assim, aquilo em que eu me foco hoje é a tecnologia para amanhã
09:05
and for 10 years from now.
157
545149
1733
e para 10 anos a partir de agora.
09:08
AI can turn out in many different ways.
158
548530
2634
A IA pode revelar-se de muitas maneiras diferentes.
09:11
But in this case,
159
551688
1225
Mas, neste caso,
09:12
it isn't a self-driving car without any destination.
160
552937
3328
não é um carro autónomo sem qualquer destino.
09:16
This is the car that we are driving.
161
556884
2400
É o carro que somos nós a dirigir.
09:19
We choose when to speed up and when to slow down.
162
559953
3595
Nós escolhemos quando acelerar e quando abrandar.
09:23
We choose if we need to make a turn.
163
563572
2400
Nós escolhemos se precisamos de fazer uma curva.
09:26
We choose what the AI of the future will be.
164
566868
3000
Nós escolhemos o que será a IA do futuro.
09:31
There's a vast playing field
165
571186
1337
Há um vasto campo de jogo
09:32
of all the things that artificial intelligence can become.
166
572547
2965
de todas as coisas em que a inteligência artificial se pode tornar.
09:36
It will become many things.
167
576064
1800
Tornar-se-á em muitas coisas.
09:39
And it's up to us now,
168
579694
1732
E cabe a nós agora,
09:41
in order to figure out what we need to put in place
169
581450
3061
a fim de descobrir o que precisamos de implementar
09:44
to make sure the outcomes of artificial intelligence
170
584535
3807
para garantir que os resultados da inteligência artificial
09:48
are the ones that will be better for all of us.
171
588366
3066
são os que serão melhor para todos nós.
09:51
Thank you.
172
591456
1150
Obrigada.
09:52
(Applause)
173
592630
2187
(Aplausos)
Sobre este site

Este sítio irá apresentar-lhe vídeos do YouTube que são úteis para a aprendizagem do inglês. Verá lições de inglês ensinadas por professores de primeira linha de todo o mundo. Faça duplo clique nas legendas em inglês apresentadas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas deslocam-se em sincronia com a reprodução do vídeo. Se tiver quaisquer comentários ou pedidos, por favor contacte-nos utilizando este formulário de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7