Machine intelligence makes human morals more important | Zeynep Tufekci

177,726 views ・ 2016-11-11

TED


Por favor, clique duas vezes nas legendas em inglês abaixo para reproduzir o vídeo.

Tradutor: Raissa Mendes Revisor: Ruy Lopes Pereira
00:12
So, I started my first job as a computer programmer
0
12739
4122
Meu primeiro emprego na vida foi como programadora de computador
00:16
in my very first year of college --
1
16885
1956
já no primeiro ano de faculdade,
00:18
basically, as a teenager.
2
18865
1507
praticamente uma adolescente.
00:20
Soon after I started working,
3
20889
1732
Logo que comecei a trabalhar,
00:22
writing software in a company,
4
22645
1610
escrevendo software numa empresa,
00:24
a manager who worked at the company came down to where I was,
5
24799
3635
um gerente que trabalhava lá se aproximou de mim
00:28
and he whispered to me,
6
28458
1268
e começou a sussurrar:
00:30
"Can he tell if I'm lying?"
7
30229
2861
"Ele consegue dizer se estou mentindo?"
00:33
There was nobody else in the room.
8
33806
2077
Não havia mais ninguém na sala.
(Risos)
00:37
"Can who tell if you're lying? And why are we whispering?"
9
37032
4389
"Quem consegue dizer se você está mentindo? E por que estamos sussurrando?"
00:42
The manager pointed at the computer in the room.
10
42266
3107
O gerente apontou para o computador na sala.
00:45
"Can he tell if I'm lying?"
11
45397
3096
"Ele consegue dizer se estou mentindo?"
00:49
Well, that manager was having an affair with the receptionist.
12
49613
4362
Bem, aquele gerente estava tendo um caso com a recepcionista.
00:53
(Laughter)
13
53999
1112
(Risos)
00:55
And I was still a teenager.
14
55135
1766
E eu ainda era uma adolescente.
00:57
So I whisper-shouted back to him,
15
57447
2019
Assim, gritei sussurrando de volta:
00:59
"Yes, the computer can tell if you're lying."
16
59490
3624
"Sim, o computador sabe se você está mentindo".
01:03
(Laughter)
17
63138
1806
(Risos)
01:04
Well, I laughed, but actually, the laugh's on me.
18
64968
2923
Eu ri, mas, na verdade, estava rindo de mim mesma.
01:07
Nowadays, there are computational systems
19
67915
3268
Atualmente, há sistemas computacionais
01:11
that can suss out emotional states and even lying
20
71207
3548
que conseguem perceber estados emocionais e até mentiras
01:14
from processing human faces.
21
74779
2044
ao processar rostos humanos.
01:17
Advertisers and even governments are very interested.
22
77248
4153
Anunciantes e até governos estão muito interessados nisso.
01:22
I had become a computer programmer
23
82319
1862
Tornei-me programadora de computador,
01:24
because I was one of those kids crazy about math and science.
24
84205
3113
pois era uma dessas crianças loucas por matemática e ciências.
01:27
But somewhere along the line I'd learned about nuclear weapons,
25
87942
3108
Mas, a uma certa altura, descobri as armas nucleares
01:31
and I'd gotten really concerned with the ethics of science.
26
91074
2952
e passei a me preocupar com a ética da ciência.
01:34
I was troubled.
27
94050
1204
Aquilo me perturbou.
01:35
However, because of family circumstances,
28
95278
2641
No entanto, devido a circunstâncias familiares,
01:37
I also needed to start working as soon as possible.
29
97943
3298
eu também precisava começar a trabalhar o mais rápido possível.
01:41
So I thought to myself, hey, let me pick a technical field
30
101265
3299
Assim, pensei comigo mesma: "Ei, vou escolher a área técnica,
01:44
where I can get a job easily
31
104588
1796
onde posso conseguir um emprego facilmente
01:46
and where I don't have to deal with any troublesome questions of ethics.
32
106408
4018
e não tenho de lidar com quaisquer questões éticas perturbadoras".
01:51
So I picked computers.
33
111022
1529
Então escolhi os computadores.
01:52
(Laughter)
34
112575
1104
(Risos)
01:53
Well, ha, ha, ha! All the laughs are on me.
35
113703
3410
Bem, ha, ha, ha! Eu virei a piada.
01:57
Nowadays, computer scientists are building platforms
36
117137
2754
Hoje, os cientistas da computação constroem plataformas
01:59
that control what a billion people see every day.
37
119915
4209
que controlam o que um bilhão de pessoas veem todos os dias.
02:05
They're developing cars that could decide who to run over.
38
125052
3822
Eles estão desenvolvendo carros que poderiam decidir quem atropelar.
(Risos)
02:09
They're even building machines, weapons,
39
129707
3213
Estão construindo até mesmo máquinas e armas
02:12
that might kill human beings in war.
40
132944
2285
que podem matar seres humanos na guerra.
02:15
It's ethics all the way down.
41
135253
2771
É ética o tempo todo.
02:19
Machine intelligence is here.
42
139183
2058
A inteligência de máquina chegou.
02:21
We're now using computation to make all sort of decisions,
43
141823
3474
Hoje em dia usamos a computação para tomar todo tipo de decisão,
02:25
but also new kinds of decisions.
44
145321
1886
mas também novos tipos de decisão.
02:27
We're asking questions to computation that have no single right answers,
45
147231
5172
Perguntamos aos computadores coisas que não têm apenas uma resposta correta,
02:32
that are subjective
46
152427
1202
que são subjetivas, abertas e que envolvem julgamento de valor.
02:33
and open-ended and value-laden.
47
153653
2325
02:36
We're asking questions like,
48
156002
1758
Perguntamos coisas do tipo: "Quem a empresa deve contratar?"
02:37
"Who should the company hire?"
49
157784
1650
02:40
"Which update from which friend should you be shown?"
50
160096
2759
"Que atualização de qual amigo deve ser mostrada?"
02:42
"Which convict is more likely to reoffend?"
51
162879
2266
"Qual condenado tem mais chance de reincidir num crime?"
02:45
"Which news item or movie should be recommended to people?"
52
165514
3054
"Quais notícias ou filmes devem ser recomendados às pessoas?"
02:48
Look, yes, we've been using computers for a while,
53
168592
3372
Sim, temos usado os computadores já faz um bom tempo,
02:51
but this is different.
54
171988
1517
mas isso é diferente.
02:53
This is a historical twist,
55
173529
2067
Essa é uma virada histórica,
02:55
because we cannot anchor computation for such subjective decisions
56
175620
5337
pois não podemos confiar na computação para essas decisões subjetivas
03:00
the way we can anchor computation for flying airplanes, building bridges,
57
180981
5420
da mesma forma que podemos confiar na computação para pilotar aviões,
construir pontes, ir à Lua.
03:06
going to the moon.
58
186425
1259
03:08
Are airplanes safer? Did the bridge sway and fall?
59
188449
3259
Os aviões estão mais seguros? A ponte balançou e caiu?
03:11
There, we have agreed-upon, fairly clear benchmarks,
60
191732
4498
Nesses casos, concordamos de forma bem clara com os parâmetros,
03:16
and we have laws of nature to guide us.
61
196254
2239
e temos as leis da natureza como baliza.
03:18
We have no such anchors and benchmarks
62
198517
3394
Nós não temos tais âncoras ou marcos
03:21
for decisions in messy human affairs.
63
201935
3963
para a tomada de decisões em negócios humanos confusos.
03:25
To make things more complicated, our software is getting more powerful,
64
205922
4237
Para complicar ainda mais as coisas, nosso software está ficando mais poderoso,
03:30
but it's also getting less transparent and more complex.
65
210183
3773
mas também menos transparente e mais complexo.
03:34
Recently, in the past decade,
66
214542
2040
Recentemente, na década passada,
03:36
complex algorithms have made great strides.
67
216606
2729
algoritmos complexos deram passos enormes.
03:39
They can recognize human faces.
68
219359
1990
Eles conseguem reconhecer rostos humanos.
03:41
They can decipher handwriting.
69
221985
2055
Eles conseguem decifrar caligrafia.
03:44
They can detect credit card fraud
70
224436
2066
Eles conseguem detectar fraude de cartão de crédito, bloquear spam,
03:46
and block spam
71
226526
1189
03:47
and they can translate between languages.
72
227739
2037
conseguem traduzir línguas
03:49
They can detect tumors in medical imaging.
73
229800
2574
e detectar tumores em exames de imagem.
03:52
They can beat humans in chess and Go.
74
232398
2205
Conseguem vencer humanos em jogos de xadrez e Go.
03:55
Much of this progress comes from a method called "machine learning."
75
235264
4504
Muito desse progresso vem de um método chamado "aprendizado de máquina".
04:00
Machine learning is different than traditional programming,
76
240175
3187
O aprendizado de máquina é diferente da programação tradicional
04:03
where you give the computer detailed, exact, painstaking instructions.
77
243386
3585
em que instruções detalhadas, exatas e meticulosas são dadas ao computador.
04:07
It's more like you take the system and you feed it lots of data,
78
247378
4182
É mais como pegar um sistema e alimentá-lo com montes de dados,
04:11
including unstructured data,
79
251584
1656
incluindo dados não estruturados,
04:13
like the kind we generate in our digital lives.
80
253264
2278
como os que geramos em nossas vidas digitais.
04:15
And the system learns by churning through this data.
81
255566
2730
E o sistema aprende revirando esses dados.
04:18
And also, crucially,
82
258669
1526
Além disso, fundamentalmente,
04:20
these systems don't operate under a single-answer logic.
83
260219
4380
esses sistemas não operam sob a lógica de uma resposta única.
04:24
They don't produce a simple answer; it's more probabilistic:
84
264623
2959
Eles não produzem uma resposta simples; é mais probabilidade:
04:27
"This one is probably more like what you're looking for."
85
267606
3483
"É provável que isto aqui seja o que você está procurando".
04:32
Now, the upside is: this method is really powerful.
86
272023
3070
Bem, a vantagem é que esse método é realmente poderoso.
04:35
The head of Google's AI systems called it,
87
275117
2076
O responsável pela IA do Google o chamou
04:37
"the unreasonable effectiveness of data."
88
277217
2197
de "a eficácia irracional dos dados".
04:39
The downside is,
89
279791
1353
O lado negativo é
04:41
we don't really understand what the system learned.
90
281738
3071
não sabermos realmente o que o sistema aprendeu.
04:44
In fact, that's its power.
91
284833
1587
Na realidade, é aí que está seu poder.
04:46
This is less like giving instructions to a computer;
92
286946
3798
Isso tem pouco a ver com dar instruções a um computador;
04:51
it's more like training a puppy-machine-creature
93
291200
4064
é mais como adestrar uma máquina-filhote
04:55
we don't really understand or control.
94
295288
2371
que não controlamos ou conhecemos de verdade.
(Risos)
04:58
So this is our problem.
95
298362
1551
Então, este é o nosso problema.
05:00
It's a problem when this artificial intelligence system gets things wrong.
96
300427
4262
É um problema
quando esse sistema de inteligência artificial entende as coisas errado.
05:04
It's also a problem when it gets things right,
97
304713
3540
Também é um problema quando ele entende certo,
05:08
because we don't even know which is which when it's a subjective problem.
98
308277
3628
pois não sabemos distinguir os dois quando se trata de um problema subjetivo.
05:11
We don't know what this thing is thinking.
99
311929
2339
Não sabemos o que esta coisa está pensando.
05:15
So, consider a hiring algorithm --
100
315493
3683
Por exemplo, vamos imaginar um algoritmo de contratação,
05:20
a system used to hire people, using machine-learning systems.
101
320123
4311
um sistema usado para contratar pessoas,
usando o aprendizado de máquina.
05:25
Such a system would have been trained on previous employees' data
102
325052
3579
Tal sistema teria sido treinado em dados prévios dos empregados
05:28
and instructed to find and hire
103
328655
2591
e treinado para encontrar e contratar
05:31
people like the existing high performers in the company.
104
331270
3038
pessoas como os atuais empregados com alto desempenho na empresa.
05:34
Sounds good.
105
334814
1153
Parece uma coisa boa.
05:35
I once attended a conference
106
335991
1999
Uma vez, fui a um seminário
05:38
that brought together human resources managers and executives,
107
338014
3125
que reuniu gerentes e executivos da área de recursos humanos,
05:41
high-level people,
108
341163
1206
pessoas de alto nível, usando tais sistemas para contratar.
05:42
using such systems in hiring.
109
342393
1559
05:43
They were super excited.
110
343976
1646
Eles estavam muito empolgados.
05:45
They thought that this would make hiring more objective, less biased,
111
345646
4653
Achavam que isso tornaria a contratação mais objetiva, menos parcial,
05:50
and give women and minorities a better shot
112
350323
3000
e daria a mulheres e minorias uma melhor oportunidade
05:53
against biased human managers.
113
353347
2188
versus gerentes humanos tendenciosos.
05:55
And look -- human hiring is biased.
114
355559
2843
Pois vejam: a contratação humana é tendenciosa.
05:59
I know.
115
359099
1185
Sei bem disso.
06:00
I mean, in one of my early jobs as a programmer,
116
360308
3005
Quero dizer, num dos meus primeiros empregos como programadora,
06:03
my immediate manager would sometimes come down to where I was
117
363337
3868
minha gerente imediata às vezes vinha ao meu setor
06:07
really early in the morning or really late in the afternoon,
118
367229
3753
bem cedinho pela manhã ou bem no final da tarde,
06:11
and she'd say, "Zeynep, let's go to lunch!"
119
371006
3062
e me chamava: "Zeynep, vamos almoçar!"
06:14
I'd be puzzled by the weird timing.
120
374724
2167
Eu ficava atônita com o horário estranho.
06:16
It's 4pm. Lunch?
121
376915
2129
Eram quatro da tarde. Almoço?
06:19
I was broke, so free lunch. I always went.
122
379068
3094
Eu não tinha grana, então, almoço grátis, eu sempre ia.
06:22
I later realized what was happening.
123
382618
2067
Só mais tarde percebi o que estava acontecendo.
06:24
My immediate managers had not confessed to their higher-ups
124
384709
4546
Meus gerentes imediatos não tinham confessado a seus superiores
06:29
that the programmer they hired for a serious job was a teen girl
125
389279
3113
que a programadora que tinham contratado para um emprego sério era uma adolescente
06:32
who wore jeans and sneakers to work.
126
392416
3930
que vinha trabalhar de jeans e tênis.
06:37
I was doing a good job, I just looked wrong
127
397174
2202
Eu trabalhava direito, só parecia errada,
06:39
and was the wrong age and gender.
128
399400
1699
e tinha a idade e o gênero errados.
06:41
So hiring in a gender- and race-blind way
129
401123
3346
Assim, contratar independente da raça e do gênero
06:44
certainly sounds good to me.
130
404493
1865
certamente me parece uma coisa boa.
06:47
But with these systems, it is more complicated, and here's why:
131
407031
3341
Mas, com esses sistemas, é mais complicado, e eis a razão:
06:50
Currently, computational systems can infer all sorts of things about you
132
410968
5791
hoje, sistemas de computador podem inferir todo tipo de coisas sobre nós
06:56
from your digital crumbs,
133
416783
1872
por meio de nossas pegadas digitais,
06:58
even if you have not disclosed those things.
134
418679
2333
mesmo coisas que não tivermos revelado.
07:01
They can infer your sexual orientation,
135
421506
2927
Eles podem inferir nossa orientação sexual,
07:04
your personality traits,
136
424994
1306
os traços de nossa personalidade,
07:06
your political leanings.
137
426859
1373
nossas tendências políticas.
07:08
They have predictive power with high levels of accuracy.
138
428830
3685
Eles têm poder preditivo com altos níveis de precisão.
07:13
Remember -- for things you haven't even disclosed.
139
433362
2578
Vejam bem, para coisas que não revelamos: isso é inferência.
07:15
This is inference.
140
435964
1591
07:17
I have a friend who developed such computational systems
141
437579
3261
Tenho uma amiga que desenvolveu um sistema de computador
07:20
to predict the likelihood of clinical or postpartum depression
142
440864
3641
para predizer a probabilidade de depressão clínica pós-parto
07:24
from social media data.
143
444529
1416
com base em dados de mídia social.
07:26
The results are impressive.
144
446676
1427
Os resultados são impressionantes.
07:28
Her system can predict the likelihood of depression
145
448492
3357
O sistema dela prevê a probabilidade de depressão
07:31
months before the onset of any symptoms --
146
451873
3903
meses antes do surgimento de quaisquer sintomas,
07:35
months before.
147
455800
1373
meses antes.
07:37
No symptoms, there's prediction.
148
457197
2246
Mesmo sem sintomas, ele prevê.
07:39
She hopes it will be used for early intervention. Great!
149
459467
4812
Ela espera que isso seja usado para intervenção precoce.
Ótimo!
07:44
But now put this in the context of hiring.
150
464911
2040
Mas coloque isso no contexto da contratação.
07:48
So at this human resources managers conference,
151
468027
3046
Então, nesse seminário de gerentes de recursos humanos,
07:51
I approached a high-level manager in a very large company,
152
471097
4709
eu me aproximei de uma gerente com alto cargo numa grande empresa,
07:55
and I said to her, "Look, what if, unbeknownst to you,
153
475830
4578
e perguntei a ela: "Olhe, e se, sem seu conhecimento,
08:00
your system is weeding out people with high future likelihood of depression?
154
480432
6549
seu sistema estiver cortando pessoas com probabilidade de depressão futura?
08:07
They're not depressed now, just maybe in the future, more likely.
155
487761
3376
Elas não estão deprimidas agora, mas, no futuro, bem provavelmente.
08:11
What if it's weeding out women more likely to be pregnant
156
491923
3406
E se estiver cortando mulheres com maior probabilidade de engravidar
08:15
in the next year or two but aren't pregnant now?
157
495353
2586
dentro de um ou dois anos, mas que não estejam grávidas agora?
08:18
What if it's hiring aggressive people because that's your workplace culture?"
158
498844
5636
E se contratar pessoas agressivas por causa da cultura da empresa?
08:25
You can't tell this by looking at gender breakdowns.
159
505173
2691
Não se pode saber isso com análises de gênero.
08:27
Those may be balanced.
160
507888
1502
Isso pode estar equacionado.
08:29
And since this is machine learning, not traditional coding,
161
509414
3557
E, como isso é aprendizado de máquina, não é codificação tradicional,
08:32
there is no variable there labeled "higher risk of depression,"
162
512995
4907
não há uma variável chamada 'alto risco de depressão',
08:37
"higher risk of pregnancy,"
163
517926
1833
'maior risco de gravidez',
08:39
"aggressive guy scale."
164
519783
1734
'pessoa altamente agressiva'.
08:41
Not only do you not know what your system is selecting on,
165
521995
3679
Não só você não sabe o que seu sistema está selecionando,
08:45
you don't even know where to begin to look.
166
525698
2323
como também não sabe onde começar a olhar.
08:48
It's a black box.
167
528045
1246
É uma caixa-preta.
08:49
It has predictive power, but you don't understand it.
168
529315
2807
Ele tem poder preditivo, mas você não o entende.
08:52
"What safeguards," I asked, "do you have
169
532486
2369
Que salvaguardas", perguntei, "você teria
08:54
to make sure that your black box isn't doing something shady?"
170
534879
3673
para se assegurar de que sua caixa-preta não está fazendo algo suspeito?"
09:00
She looked at me as if I had just stepped on 10 puppy tails.
171
540863
3878
Ela olhou para mim como se eu tivesse pisado no rabo de dez cachorrinhos.
09:04
(Laughter)
172
544765
1248
(Risos)
09:06
She stared at me and she said,
173
546037
2041
Ela olhou bem pra mim e falou:
09:08
"I don't want to hear another word about this."
174
548556
4333
"Eu não quero ouvir nem mais uma palavra sobre isso".
09:13
And she turned around and walked away.
175
553458
2034
E virou as costas e foi embora.
09:16
Mind you -- she wasn't rude.
176
556064
1486
Vejam bem, ela não foi rude.
09:17
It was clearly: what I don't know isn't my problem, go away, death stare.
177
557574
6308
Era claramente:
"O que eu não sei não é problema meu, vai embora, agourenta".
09:23
(Laughter)
178
563906
1246
(Risos)
09:25
Look, such a system may even be less biased
179
565862
3839
Vejam, tal sistema pode até ser menos tendencioso
09:29
than human managers in some ways.
180
569725
2103
do que gerentes humanos de alguma forma.
09:31
And it could make monetary sense.
181
571852
2146
E poderia fazer sentido financeiramente.
09:34
But it could also lead
182
574573
1650
Mas também poderia levar
09:36
to a steady but stealthy shutting out of the job market
183
576247
4748
a um constante mas sorrateiro fechamento do mercado de trabalho
09:41
of people with higher risk of depression.
184
581019
2293
para pessoas com alto risco de depressão.
09:43
Is this the kind of society we want to build,
185
583753
2596
É esse tipo de sociedade que queremos construir,
09:46
without even knowing we've done this,
186
586373
2285
sem nem sequer saber que fizemos isso,
09:48
because we turned decision-making to machines we don't totally understand?
187
588682
3964
por termos dado às máquinas um poder de decisão que não entendemos totalmente?
09:53
Another problem is this:
188
593265
1458
Outro problema é o seguinte:
09:55
these systems are often trained on data generated by our actions,
189
595314
4452
esses sistemas normalmente são treinados com dados gerados pelas nossas ações,
09:59
human imprints.
190
599790
1816
vestígios humanos.
10:02
Well, they could just be reflecting our biases,
191
602188
3808
Bem, eles poderiam estar apenas refletindo nossas tendências,
10:06
and these systems could be picking up on our biases
192
606020
3593
e esses sistemas poderiam estar pegando nossas tendências,
10:09
and amplifying them
193
609637
1313
amplificando-as e devolvendo-as para nós, enquanto dizemos a nós mesmos:
10:10
and showing them back to us,
194
610974
1418
10:12
while we're telling ourselves,
195
612416
1462
10:13
"We're just doing objective, neutral computation."
196
613902
3117
"Estamos fazendo apenas computação objetiva e neutra".
10:18
Researchers found that on Google,
197
618314
2677
Pesquisadores descobriram que, no Google,
10:22
women are less likely than men to be shown job ads for high-paying jobs.
198
622134
5313
são mostrados menos anúncios de empregos bem pagos às mulheres do que aos homens.
10:28
And searching for African-American names
199
628463
2530
E, numa pesquisa de nomes afro-americanos,
10:31
is more likely to bring up ads suggesting criminal history,
200
631017
4706
é provável que nos sejam mostrados anúncios sugerindo história criminal,
10:35
even when there is none.
201
635747
1567
mesmo quando não há nenhuma.
10:38
Such hidden biases and black-box algorithms
202
638693
3549
Tais tendências escondidas e algoritmos caixas-pretas,
10:42
that researchers uncover sometimes but sometimes we don't know,
203
642266
3973
que os pesquisadores às vezes revelam, mas às vezes desconhecemos,
10:46
can have life-altering consequences.
204
646263
2661
podem afetar a vida das pessoas.
10:49
In Wisconsin, a defendant was sentenced to six years in prison
205
649958
4159
Em Wisconsin, um réu foi sentenciado a seis anos de prisão
10:54
for evading the police.
206
654141
1355
por fugir da polícia.
10:56
You may not know this,
207
656824
1186
Talvez não saibam disso,
10:58
but algorithms are increasingly used in parole and sentencing decisions.
208
658034
3998
mas os algoritmos estão sendo cada vez mais usados em decisões judiciais.
11:02
He wanted to know: How is this score calculated?
209
662056
2955
E o réu quis saber: como esse número foi calculado?
11:05
It's a commercial black box.
210
665795
1665
É uma caixa-preta comercial.
11:07
The company refused to have its algorithm be challenged in open court.
211
667484
4205
A empresa se recusou a ter seu algoritmo exposto no tribunal.
11:12
But ProPublica, an investigative nonprofit, audited that very algorithm
212
672396
5532
Mas a ProPublica, uma organização investigativa sem fins lucrativos,
auditou esse algoritmo com os dados públicos que conseguiu encontrar
11:17
with what public data they could find,
213
677952
2016
11:19
and found that its outcomes were biased
214
679992
2316
e descobriu que os resultados eram tendenciosos,
11:22
and its predictive power was dismal, barely better than chance,
215
682332
3629
e seu poder preditivo era deplorável, apenas um pouco melhor do que o acaso,
11:25
and it was wrongly labeling black defendants as future criminals
216
685985
4416
e estava rotulando erroneamente réus negros como futuros criminosos
11:30
at twice the rate of white defendants.
217
690425
3895
duas vezes mais do que os réus brancos.
11:35
So, consider this case:
218
695891
1564
Vejam por exemplo este caso:
11:38
This woman was late picking up her godsister
219
698103
3852
esta mulher se atrasou para buscar sua parente
11:41
from a school in Broward County, Florida,
220
701979
2075
numa escola no Condado de Broward, na Flórida.
11:44
running down the street with a friend of hers.
221
704757
2356
Correndo pela rua com uma amiga,
11:47
They spotted an unlocked kid's bike and a scooter on a porch
222
707137
4099
elas viram uma bicicleta sem cadeado e uma lambreta numa varanda
11:51
and foolishly jumped on it.
223
711260
1632
e, impensadamente, pularam nela.
11:52
As they were speeding off, a woman came out and said,
224
712916
2599
Quando estavam indo embora, uma mulher saiu e falou:
11:55
"Hey! That's my kid's bike!"
225
715539
2205
"Ei! Esta é a bicicleta do meu filho!"
11:57
They dropped it, they walked away, but they were arrested.
226
717768
3294
Elas largaram a bicicleta, fugiram, mas foram presas.
12:01
She was wrong, she was foolish, but she was also just 18.
227
721086
3637
Ela errou, foi infantil, mas tinha apenas 18 anos.
12:04
She had a couple of juvenile misdemeanors.
228
724747
2544
Ela tinha algumas contravenções juvenis.
12:07
Meanwhile, that man had been arrested for shoplifting in Home Depot --
229
727808
5185
Enquanto isso, aquele homem tinha sido preso por furtar na Home Depot
12:13
85 dollars' worth of stuff, a similar petty crime.
230
733017
2924
bens no valor de US$ 85, um crime pequeno similar.
12:16
But he had two prior armed robbery convictions.
231
736766
4559
Mas ele tinha duas condenações prévias por roubo à mão armada.
12:21
But the algorithm scored her as high risk, and not him.
232
741955
3482
No entanto, o algoritmo a classificou como sendo de alto risco, e ele não.
12:26
Two years later, ProPublica found that she had not reoffended.
233
746746
3874
Dois anos depois, a ProPublica descobriu que ela não tinha reincidido em crime.
12:30
It was just hard to get a job for her with her record.
234
750644
2550
E foi muito difícil conseguir um emprego com esse histórico.
12:33
He, on the other hand, did reoffend
235
753218
2076
Ele, por outro lado, reincidiu no crime
12:35
and is now serving an eight-year prison term for a later crime.
236
755318
3836
e agora está cumprindo oito anos de prisão por um crime posterior.
12:40
Clearly, we need to audit our black boxes
237
760088
3369
Claramente, precisamos auditar nossas caixas-pretas
12:43
and not have them have this kind of unchecked power.
238
763481
2615
e não deixá-las ter esse tipo de poder sem controle.
12:46
(Applause)
239
766120
2879
(Aplausos)
12:50
Audits are great and important, but they don't solve all our problems.
240
770087
4242
Auditorias são ótimas e importantes, mas não resolvem todos os problemas.
12:54
Take Facebook's powerful news feed algorithm --
241
774353
2748
Peguem o poderoso algoritmo do Facebook.
12:57
you know, the one that ranks everything and decides what to show you
242
777125
4843
Sabe aquele que escolhe o que nos mostrar
13:01
from all the friends and pages you follow.
243
781992
2284
entre todos os amigos e páginas que seguimos?
13:04
Should you be shown another baby picture?
244
784898
2275
Será que deveriam lhe mostrar uma outra foto de bebê?
13:07
(Laughter)
245
787197
1196
(Risos)
13:08
A sullen note from an acquaintance?
246
788417
2596
Um comentário estranho de um conhecido?
13:11
An important but difficult news item?
247
791449
1856
Uma notícia importante, mas difícil?
13:13
There's no right answer.
248
793329
1482
Não existe resposta certa.
13:14
Facebook optimizes for engagement on the site:
249
794835
2659
O Facebook o aperfeiçoa pelo uso do site:
13:17
likes, shares, comments.
250
797518
1415
curtidas, compartilhamentos, comentários.
13:20
In August of 2014,
251
800168
2696
Em agosto de 2014,
13:22
protests broke out in Ferguson, Missouri,
252
802888
2662
houve uma onda de protestos em Ferguson, no Missouri,
13:25
after the killing of an African-American teenager by a white police officer,
253
805574
4417
depois do assassinato de um adolescente afro-americano por um policial branco,
13:30
under murky circumstances.
254
810015
1570
sob circunstâncias nebulosas.
13:31
The news of the protests was all over
255
811974
2007
Notícias sobre os protestos estavam por toda parte
13:34
my algorithmically unfiltered Twitter feed,
256
814005
2685
no "feed" do meu Twitter sem algoritmo de filtragem,
13:36
but nowhere on my Facebook.
257
816714
1950
mas em nenhum lugar no meu Facebook.
13:39
Was it my Facebook friends?
258
819182
1734
Seriam meus amigos no Facebook?
13:40
I disabled Facebook's algorithm,
259
820940
2032
Eu desabilitei o algoritmo do Facebook,
13:43
which is hard because Facebook keeps wanting to make you
260
823472
2848
o que é difícil, pois o Facebook espera que nós
13:46
come under the algorithm's control,
261
826344
2036
fiquemos sob o controle do algoritmo,
13:48
and saw that my friends were talking about it.
262
828404
2238
e vi que meus amigos estavam falando sobre o assunto.
13:50
It's just that the algorithm wasn't showing it to me.
263
830666
2509
Mas o algoritmo simplesmente não mostrava.
13:53
I researched this and found this was a widespread problem.
264
833199
3042
Fui pesquisar e descobri que era um problema geral.
13:56
The story of Ferguson wasn't algorithm-friendly.
265
836265
3813
A história de Ferguson não era compatível com o algoritmo.
14:00
It's not "likable."
266
840102
1171
Não era "curtível"; quem ia "curtir" aquilo?
14:01
Who's going to click on "like?"
267
841297
1552
14:03
It's not even easy to comment on.
268
843500
2206
Não era fácil nem mesmo comentar sobre o assunto.
14:05
Without likes and comments,
269
845730
1371
Sem curtidas e comentários,
14:07
the algorithm was likely showing it to even fewer people,
270
847125
3292
era provável que o algoritmo mostrasse isso para cada vez menos pessoas,
14:10
so we didn't get to see this.
271
850441
1542
assim, não pudemos ver isto.
14:12
Instead, that week,
272
852946
1228
Em seu lugar, naquela semana, o algoritmo do Facebook priorizou isto:
14:14
Facebook's algorithm highlighted this,
273
854198
2298
14:16
which is the ALS Ice Bucket Challenge.
274
856520
2226
o desafio do balde da ELA, esclerose lateral amiotrófica.
14:18
Worthy cause; dump ice water, donate to charity, fine.
275
858770
3742
Causa importante: jogar água gelada, doar para caridade, tudo bem.
14:22
But it was super algorithm-friendly.
276
862536
1904
Mas era supercompatível com o algoritmo.
14:25
The machine made this decision for us.
277
865219
2613
A máquina tomou essa decisão por nós.
14:27
A very important but difficult conversation
278
867856
3497
Uma conversa muito importante, mas muito difícil,
14:31
might have been smothered,
279
871377
1555
teria sido atenuada,
14:32
had Facebook been the only channel.
280
872956
2696
caso o Facebook fosse o único canal.
14:36
Now, finally, these systems can also be wrong
281
876117
3797
Finalmente, esses sistemas também podem errar
14:39
in ways that don't resemble human systems.
282
879938
2736
de maneiras diferentes dos sistemas humanos.
14:42
Do you guys remember Watson, IBM's machine-intelligence system
283
882698
2922
Lembram-se do Watson, o sistema de inteligência de máquina da IBM
14:45
that wiped the floor with human contestants on Jeopardy?
284
885644
3128
que sempre ganhava, competindo com seres humanos num show de TV?
14:49
It was a great player.
285
889131
1428
Ele era um ótimo jogador.
14:50
But then, for Final Jeopardy, Watson was asked this question:
286
890583
3569
Mas então, na final, foi feita a seguinte pergunta a Watson:
14:54
"Its largest airport is named for a World War II hero,
287
894659
2932
"Seu maior aeroporto possui o nome de um herói da Segunda Guerra,
14:57
its second-largest for a World War II battle."
288
897615
2252
a maior grande batalha da Segunda Guerra".
14:59
(Hums Final Jeopardy music)
289
899891
1378
(Cantarola música do show)
15:01
Chicago.
290
901582
1182
"Chicago."
15:02
The two humans got it right.
291
902788
1370
Os dois seres humanos acertaram.
15:04
Watson, on the other hand, answered "Toronto" --
292
904697
4348
Watson, por sua vez, respondeu "Toronto"
na categoria "cidade dos EUA"!
15:09
for a US city category!
293
909069
1818
15:11
The impressive system also made an error
294
911596
2901
O incrível sistema também cometeu um erro
15:14
that a human would never make, a second-grader wouldn't make.
295
914521
3651
que um humano jamais faria, uma criança não cometeria.
15:18
Our machine intelligence can fail
296
918823
3109
Nossa inteligência artifical pode falhar
15:21
in ways that don't fit error patterns of humans,
297
921956
3100
de formas que não se encaixam nos padrões de erros humanos,
de formas que não esperamos e para as quais não estamos preparados.
15:25
in ways we won't expect and be prepared for.
298
925080
2950
15:28
It'd be lousy not to get a job one is qualified for,
299
928054
3638
Seria péssimo não conseguir um emprego para o qual se está qualificado,
15:31
but it would triple suck if it was because of stack overflow
300
931716
3727
mas seria triplamente péssimo se fosse por causa de um "stack overflow"
15:35
in some subroutine.
301
935467
1432
em alguma sub-rotina.
15:36
(Laughter)
302
936923
1579
(Risos)
15:38
In May of 2010,
303
938526
2786
Em maio de 2010,
15:41
a flash crash on Wall Street fueled by a feedback loop
304
941336
4044
uma baixa repentina em Wall Street, alimentada pelo sistema de autoajuste
15:45
in Wall Street's "sell" algorithm
305
945404
3028
do algoritmo de "venda",
15:48
wiped a trillion dollars of value in 36 minutes.
306
948456
4184
varreu US$ 1 trilhão em 36 minutos.
15:53
I don't even want to think what "error" means
307
953722
2187
Não quero nem pensar no que significaria "erro"
15:55
in the context of lethal autonomous weapons.
308
955933
3589
no contexto de armas letais autônomas.
16:01
So yes, humans have always made biases.
309
961894
3790
Então, sim, os seres humanos sempre foram tendenciosos.
16:05
Decision makers and gatekeepers,
310
965708
2176
Tomadores de decisão e controladores,
16:07
in courts, in news, in war ...
311
967908
3493
em tribunais, na mídia, na guerra...
16:11
they make mistakes; but that's exactly my point.
312
971425
3038
eles cometem erros; mas esse é exatamente meu ponto.
16:14
We cannot escape these difficult questions.
313
974487
3521
Não podemos fugir dessas questões difíceis.
16:18
We cannot outsource our responsibilities to machines.
314
978596
3516
Não podemos terceirizar nossas responsabilidades para as máquinas.
16:22
(Applause)
315
982676
4208
(Aplausos) (Vivas)
16:29
Artificial intelligence does not give us a "Get out of ethics free" card.
316
989089
4447
A inteligência artificial não nos dá um passe para a "zona livre de ética".
16:34
Data scientist Fred Benenson calls this math-washing.
317
994742
3381
O cientista de dados Fred Benenson chama isso de "mathwashing".
16:38
We need the opposite.
318
998147
1389
Precisamos fazer o contrário.
16:39
We need to cultivate algorithm suspicion, scrutiny and investigation.
319
999560
5388
Precisamos cultivar o escrutínio, a suspeita e investigação dos algoritmos.
16:45
We need to make sure we have algorithmic accountability,
320
1005380
3198
Precisamos nos assegurar de que temos responsabilidade algorítmica,
16:48
auditing and meaningful transparency.
321
1008602
2445
auditoria e transparência relevante.
16:51
We need to accept that bringing math and computation
322
1011380
3234
Precisamos aceitar que trazer a matemática e a computação
16:54
to messy, value-laden human affairs
323
1014638
2970
para negócios humanos confusos, envolvendo julgamento de valor,
16:57
does not bring objectivity;
324
1017632
2384
não traz objetividade;
17:00
rather, the complexity of human affairs invades the algorithms.
325
1020040
3633
mas que, ao contrário, a complexidade dos negócios humanos invade os algoritmos.
17:04
Yes, we can and we should use computation
326
1024148
3487
Sim, podemos e devemos usar a computação
17:07
to help us make better decisions.
327
1027659
2014
para nos ajudar a tomar decisões melhores.
17:09
But we have to own up to our moral responsibility to judgment,
328
1029697
5332
Mas temos de reconhecer nossa responsabilidade moral para julgar,
17:15
and use algorithms within that framework,
329
1035053
2818
e usar os algoritmos dentro desse espectro,
17:17
not as a means to abdicate and outsource our responsibilities
330
1037895
4935
não como uma forma de abdicar de nossas responsabilidades ou terceirizá-las,
17:22
to one another as human to human.
331
1042854
2454
como se fosse de um ser humano para outro.
17:25
Machine intelligence is here.
332
1045807
2609
A inteligência artificial está aí.
17:28
That means we must hold on ever tighter
333
1048440
3421
Isso significa que vamos ter de nos agarrar firmemente
17:31
to human values and human ethics.
334
1051885
2147
aos valores e à ética humanos.
17:34
Thank you.
335
1054056
1154
Obrigada.
17:35
(Applause)
336
1055234
5020
(Aplausos) (Vivas)
Sobre este site

Este site apresentará a você vídeos do YouTube que são úteis para o aprendizado do inglês. Você verá aulas de inglês ministradas por professores de primeira linha de todo o mundo. Clique duas vezes nas legendas em inglês exibidas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas rolarão em sincronia com a reprodução do vídeo. Se você tiver algum comentário ou solicitação, por favor, entre em contato conosco usando este formulário de contato.

https://forms.gle/WvT1wiN1qDtmnspy7