Machine intelligence makes human morals more important | Zeynep Tufekci

180,762 views ・ 2016-11-11

TED


Por favor, faça duplo clique nas legendas em inglês abaixo para reproduzir o vídeo.

Tradutor: Manuel Cardoso Revisora: Margarida Ferreira
00:12
So, I started my first job as a computer programmer
0
12739
4122
Comecei a trabalhar como programadora informática
00:16
in my very first year of college --
1
16885
1956
no meu primeiro ano de faculdade
00:18
basically, as a teenager.
2
18865
1507
— basicamente uma adolescente.
00:20
Soon after I started working,
3
20889
1732
Pouco depois de começar a trabalhar,
00:22
writing software in a company,
4
22645
1610
a programar software numa empresa.
00:24
a manager who worked at the company came down to where I was,
5
24799
3635
um gestor que trabalhava na empresa
00:28
and he whispered to me,
6
28458
1268
veio ter comigo e segredou-me:
00:30
"Can he tell if I'm lying?"
7
30229
2861
"Ele consegue saber se eu estou a mentir?"
00:33
There was nobody else in the room.
8
33806
2077
Não havia mais ninguém na sala.
"Quem poderá saber que você está a mentir? Porque é que está a segredar?"
00:37
"Can who tell if you're lying? And why are we whispering?"
9
37032
4389
00:42
The manager pointed at the computer in the room.
10
42266
3107
O gestor apontou para o computador na sala.
00:45
"Can he tell if I'm lying?"
11
45397
3096
"Ele consegue saber se eu estou a mentir?"
00:49
Well, that manager was having an affair with the receptionist.
12
49613
4362
Aquele gestor tinha um caso romântico com a rececionista.
00:53
(Laughter)
13
53999
1112
(Risos)
00:55
And I was still a teenager.
14
55135
1766
Eu ainda era uma adolescente.
00:57
So I whisper-shouted back to him,
15
57447
2019
Por isso, sussurrei-gritei:
00:59
"Yes, the computer can tell if you're lying."
16
59490
3624
"Sim, o computador sabe que você está a mentir."
01:03
(Laughter)
17
63138
1806
(Risos)
01:04
Well, I laughed, but actually, the laugh's on me.
18
64968
2923
Bem, eu ri-me, mas, na verdade, hoje riem-se de mim.
01:07
Nowadays, there are computational systems
19
67915
3268
Hoje em dia, há sistemas informáticos
01:11
that can suss out emotional states and even lying
20
71207
3548
que conseguem detetar estados emocionais e mesmo a mentira
01:14
from processing human faces.
21
74779
2044
processando apenas os rostos humanos.
01:17
Advertisers and even governments are very interested.
22
77248
4153
Os publicitários e mesmo os governos estão muito interessados nesta tecnologia.
01:22
I had become a computer programmer
23
82319
1862
Tornei-me programadora informática
01:24
because I was one of those kids crazy about math and science.
24
84205
3113
porque era uma criança louca por matemática e ciências.
01:27
But somewhere along the line I'd learned about nuclear weapons,
25
87942
3108
Mas, ao longo do caminho descobri as armas nucleares
01:31
and I'd gotten really concerned with the ethics of science.
26
91074
2952
e fiquei muito preocupada com a ética da ciência.
Fiquei perturbada.
01:34
I was troubled.
27
94050
1204
01:35
However, because of family circumstances,
28
95278
2641
No entanto, devido a circunstâncias familiares,
01:37
I also needed to start working as soon as possible.
29
97943
3298
também precisava de começar a trabalhar o mais cedo possível.
01:41
So I thought to myself, hey, let me pick a technical field
30
101265
3299
Então pensei: "Bem, vou escolher uma área técnica
01:44
where I can get a job easily
31
104588
1796
"onde facilmente consiga um emprego
01:46
and where I don't have to deal with any troublesome questions of ethics.
32
106408
4018
"e onde não tenha que lidar com essas questões incómodas da ética".
Escolhi a informática.
01:51
So I picked computers.
33
111022
1529
01:52
(Laughter)
34
112575
1104
(Risos)
01:53
Well, ha, ha, ha! All the laughs are on me.
35
113703
3410
Bem, ha, ha, ha! Riam-se todos de mim.
01:57
Nowadays, computer scientists are building platforms
36
117137
2754
Hoje, os cientistas de informática estão a construir plataformas
01:59
that control what a billion people see every day.
37
119915
4209
que controlam o que mil milhões de pessoas veem todos os dias.
Estão a desenvolver carros que podem decidir quem atropelar.
02:05
They're developing cars that could decide who to run over.
38
125052
3822
02:09
They're even building machines, weapons,
39
129707
3213
Estão inclusive a construir máquinas, armas,
02:12
that might kill human beings in war.
40
132944
2285
que poderão matar seres humanos, em guerras.
02:15
It's ethics all the way down.
41
135253
2771
Há ética por todo o lado.
02:19
Machine intelligence is here.
42
139183
2058
A inteligência artificial já chegou.
02:21
We're now using computation to make all sort of decisions,
43
141823
3474
Estamos a usar a informática para tomar todo o tipo de decisões,
02:25
but also new kinds of decisions.
44
145321
1886
mas também novos tipos de decisões.
02:27
We're asking questions to computation that have no single right answers,
45
147231
5172
Estamos a fazer perguntas que não têm uma resposta certa,
02:32
that are subjective
46
152427
1202
que são subjetivas,
02:33
and open-ended and value-laden.
47
153653
2325
estão em aberto e assentam em valores.
02:36
We're asking questions like,
48
156002
1758
Fazemos perguntas como:
02:37
"Who should the company hire?"
49
157784
1650
"Quem é que a empresa deve contratar?"
02:40
"Which update from which friend should you be shown?"
50
160096
2759
"Que notícias de que amigo devemos mostrar?"
02:42
"Which convict is more likely to reoffend?"
51
162879
2266
"Qual o prisioneiro que reincidirá mais facilmente?""
02:45
"Which news item or movie should be recommended to people?"
52
165514
3054
"Que notícia ou filme deve ser recomendado?"
02:48
Look, yes, we've been using computers for a while,
53
168592
3372
Sim, já utilizamos os computadores há algum tempo,
02:51
but this is different.
54
171988
1517
mas isto é diferente.
02:53
This is a historical twist,
55
173529
2067
Esta é uma mudança histórica,
02:55
because we cannot anchor computation for such subjective decisions
56
175620
5337
porque não podemos apoiar-nos na informática
para decisões tão subjetivas,
03:00
the way we can anchor computation for flying airplanes, building bridges,
57
180981
5420
do mesmo modo que podemos apoiar-nos na informática
para pôr aviões no ar, para construir pontes,
03:06
going to the moon.
58
186425
1259
para voar até à lua.
03:08
Are airplanes safer? Did the bridge sway and fall?
59
188449
3259
Os aviões são mais seguros? Será que a ponte vai balançar e cair?
03:11
There, we have agreed-upon, fairly clear benchmarks,
60
191732
4498
Nestes casos, chegámos a acordo sobre referências bastante claras,
03:16
and we have laws of nature to guide us.
61
196254
2239
tendo as leis da natureza para nos guiar.
03:18
We have no such anchors and benchmarks
62
198517
3394
Não temos esses apoios e referências
03:21
for decisions in messy human affairs.
63
201935
3963
para as decisões sobre os complexos assuntos humanos.
03:25
To make things more complicated, our software is getting more powerful,
64
205922
4237
Para complicar ainda mais, o software está cada vez mais poderoso,
03:30
but it's also getting less transparent and more complex.
65
210183
3773
mas também está a ficar menos transparente e mais complexo.
03:34
Recently, in the past decade,
66
214542
2040
Recentemente, na última década,
03:36
complex algorithms have made great strides.
67
216606
2729
os algoritmos complexos alcançaram grandes feitos.
03:39
They can recognize human faces.
68
219359
1990
Conseguem reconhecer rostos humanos.
03:41
They can decipher handwriting.
69
221985
2055
Podem decifrar a caligrafia.
03:44
They can detect credit card fraud
70
224436
2066
Detetam fraudes de cartões de crédito e bloqueiam "spam".
03:46
and block spam
71
226526
1189
03:47
and they can translate between languages.
72
227739
2037
Conseguem traduzir idiomas.
03:49
They can detect tumors in medical imaging.
73
229800
2574
Conseguem detetar tumores em imagens médicas.
03:52
They can beat humans in chess and Go.
74
232398
2205
Vencem os humanos no xadrez e no "Go".
03:55
Much of this progress comes from a method called "machine learning."
75
235264
4504
Grande parte deste progresso obteve-se
com o método chamado "aprendizagem de máquina."
04:00
Machine learning is different than traditional programming,
76
240175
3187
A "aprendizagem de máquina" é diferente da programação tradicional,
04:03
where you give the computer detailed, exact, painstaking instructions.
77
243386
3585
na qual se dá ao computador instruções detalhadas, meticulosas e exatas.
04:07
It's more like you take the system and you feed it lots of data,
78
247378
4182
Com este novo método, disponibilizam-se grandes quantidades de dados ao sistema,
04:11
including unstructured data,
79
251584
1656
— incluindo dados não estruturados,
04:13
like the kind we generate in our digital lives.
80
253264
2278
como os que geramos na nossa vida digital.
04:15
And the system learns by churning through this data.
81
255566
2730
O sistema aprende analisando esses dados.
04:18
And also, crucially,
82
258669
1526
Para além disso,
04:20
these systems don't operate under a single-answer logic.
83
260219
4380
estes sistemas não funcionam sob uma lógica de resposta única.
04:24
They don't produce a simple answer; it's more probabilistic:
84
264623
2959
Não produzem uma resposta única; é mais probabilista:
04:27
"This one is probably more like what you're looking for."
85
267606
3483
"Isto, provavelmente, está mais próximo do que procura."
A vantagem é que este método é muito poderoso.
04:32
Now, the upside is: this method is really powerful.
86
272023
3070
O chefe de sistemas da IA do Google, chamou-lhe:
04:35
The head of Google's AI systems called it,
87
275117
2076
04:37
"the unreasonable effectiveness of data."
88
277217
2197
"A eficácia irracional dos dados".
04:39
The downside is,
89
279791
1353
A desvantagem é que
04:41
we don't really understand what the system learned.
90
281738
3071
não entendemos concretamente o que o sistema aprendeu.
04:44
In fact, that's its power.
91
284833
1587
Na verdade, é essa a sua força.
04:46
This is less like giving instructions to a computer;
92
286946
3798
É menos como dar instruções ao computador
04:51
it's more like training a puppy-machine-creature
93
291200
4064
e mais como treinar um filhote de máquina-criatura
04:55
we don't really understand or control.
94
295288
2371
que não entendemos nem controlamos.
04:58
So this is our problem.
95
298362
1551
Portanto, este é o problema.
05:00
It's a problem when this artificial intelligence system gets things wrong.
96
300427
4262
É problemático quando a IA compreende mal as coisas.
05:04
It's also a problem when it gets things right,
97
304713
3540
É também um problema quando as compreende bem,
05:08
because we don't even know which is which when it's a subjective problem.
98
308277
3628
porque nem sabemos o que é o quê quando se trata de um problema subjetivo.
05:11
We don't know what this thing is thinking.
99
311929
2339
Nós não sabemos o que a máquina está a pensar.
05:15
So, consider a hiring algorithm --
100
315493
3683
Assim, considerem um algoritmo de contratação
— um sistema usado para contratar pessoas, utilizando a aprendizagem de máquina.
05:20
a system used to hire people, using machine-learning systems.
101
320123
4311
Tal sistema teria sido treinado com dados dos empregados anteriores
05:25
Such a system would have been trained on previous employees' data
102
325052
3579
05:28
and instructed to find and hire
103
328655
2591
e instruído para encontrar e contratar pessoas
05:31
people like the existing high performers in the company.
104
331270
3038
semelhantes aos melhores profissionais da empresa.
05:34
Sounds good.
105
334814
1153
Parece bem.
05:35
I once attended a conference
106
335991
1999
Uma vez, fui a uma conferência
05:38
that brought together human resources managers and executives,
107
338014
3125
que juntou gestores de recursos humanos e executivos.
Pessoas de alto nível, que usam esses sistemas para contratar
05:41
high-level people,
108
341163
1206
05:42
using such systems in hiring.
109
342393
1559
05:43
They were super excited.
110
343976
1646
Estavam super entusiasmados,
05:45
They thought that this would make hiring more objective, less biased,
111
345646
4653
Achavam que isto tornaria a contratação mais objetiva, menos tendenciosa,
05:50
and give women and minorities a better shot
112
350323
3000
e daria mais hipóteses às mulheres e minorias,
05:53
against biased human managers.
113
353347
2188
ao contrário dos gestores de RH tendenciosos.
05:55
And look -- human hiring is biased.
114
355559
2843
Notem, a contratação humana é tendenciosa.
Eu bem sei.
05:59
I know.
115
359099
1185
06:00
I mean, in one of my early jobs as a programmer,
116
360308
3005
Num dos meus primeiros empregos como programadora,
06:03
my immediate manager would sometimes come down to where I was
117
363337
3868
a minha chefe imediata, às vezes vinha ter comigo,
06:07
really early in the morning or really late in the afternoon,
118
367229
3753
muito cedo de manhã ou muito ao final da tarde,
e dizia: "Zeynep, vamos almoçar!"
06:11
and she'd say, "Zeynep, let's go to lunch!"
119
371006
3062
06:14
I'd be puzzled by the weird timing.
120
374724
2167
Eu ficava intrigada com aquele horário estranho.
06:16
It's 4pm. Lunch?
121
376915
2129
São 16 horas. Almoço?
06:19
I was broke, so free lunch. I always went.
122
379068
3094
Como estava sem dinheiro — almoço grátis — aceitava sempre.
06:22
I later realized what was happening.
123
382618
2067
Mais tarde percebi porquê:
06:24
My immediate managers had not confessed to their higher-ups
124
384709
4546
Os meus chefes diretos não tinham informado os superiores
06:29
that the programmer they hired for a serious job was a teen girl
125
389279
3113
que o programador contratado para um trabalho sério
era uma garota adolescente
06:32
who wore jeans and sneakers to work.
126
392416
3930
que usava "jeans" e ténis para trabalhar.
Eu fazia um bom trabalho, mas tinha um aspeto não convencional
06:37
I was doing a good job, I just looked wrong
127
397174
2202
06:39
and was the wrong age and gender.
128
399400
1699
e tinha a idade e sexo errados.
06:41
So hiring in a gender- and race-blind way
129
401123
3346
Logo, contratar sem olhar ao sexo e à etnia
06:44
certainly sounds good to me.
130
404493
1865
claro que me soa bem.
Mas com estes sistemas, é mais complicado. E porquê?
06:47
But with these systems, it is more complicated, and here's why:
131
407031
3341
06:50
Currently, computational systems can infer all sorts of things about you
132
410968
5791
Atualmente, os sistemas informáticos
conseguem inferir todo o tipo de coisas sobre a pessoa
06:56
from your digital crumbs,
133
416783
1872
a partir das suas migalhas digitais,
06:58
even if you have not disclosed those things.
134
418679
2333
mesmo que a pessoa não tenha divulgado essas coisas.
07:01
They can infer your sexual orientation,
135
421506
2927
Conseguem inferir a sua orientação sexual,
07:04
your personality traits,
136
424994
1306
os seus traços de personalidade,
07:06
your political leanings.
137
426859
1373
as inclinações políticas.
07:08
They have predictive power with high levels of accuracy.
138
428830
3685
Conseguem prever com elevados níveis de precisão.
07:13
Remember -- for things you haven't even disclosed.
139
433362
2578
Notem... coisas que nem sequer divulgámos conscientemente.
07:15
This is inference.
140
435964
1591
Isto é dedução.
07:17
I have a friend who developed such computational systems
141
437579
3261
Tenho uma amiga que desenvolveu esses sistemas informáticos,
07:20
to predict the likelihood of clinical or postpartum depression
142
440864
3641
para prever a probabilidade de depressão clínica ou pós-parto
07:24
from social media data.
143
444529
1416
a partir de dados de redes sociais.
07:26
The results are impressive.
144
446676
1427
Os resultados são impressionantes.
07:28
Her system can predict the likelihood of depression
145
448492
3357
O sistema consegue prever a probabilidade de depressão
07:31
months before the onset of any symptoms --
146
451873
3903
meses antes do início de quaisquer sintomas
07:35
months before.
147
455800
1373
— meses antes.
07:37
No symptoms, there's prediction.
148
457197
2246
Não há sintomas. Há previsão.
07:39
She hopes it will be used for early intervention. Great!
149
459467
4812
Ela espera que isso seja usado para intervenção precoce. Ótimo!
07:44
But now put this in the context of hiring.
150
464911
2040
Mas agora coloquem isto no contexto da contratação.
Na conferência de gestores de recursos humanos,
07:48
So at this human resources managers conference,
151
468027
3046
07:51
I approached a high-level manager in a very large company,
152
471097
4709
aproximei-me de uma gestora de alto nível de uma grande empresa e disse-lhe:
07:55
and I said to her, "Look, what if, unbeknownst to you,
153
475830
4578
"O que acha se, sem o seu conhecimento,
08:00
your system is weeding out people with high future likelihood of depression?
154
480432
6549
"o seu sistema estiver a excluir pessoas com alto risco de futura depressão?
08:07
They're not depressed now, just maybe in the future, more likely.
155
487761
3376
"Não estão deprimidas agora, mas talvez no futuro, seja mais provável.
08:11
What if it's weeding out women more likely to be pregnant
156
491923
3406
"E se está a excluir as mulheres com maior probabilidade de engravidar
08:15
in the next year or two but aren't pregnant now?
157
495353
2586
"dentro de um ou dois anos mas que não estão grávidas agora?
08:18
What if it's hiring aggressive people because that's your workplace culture?"
158
498844
5636
"E se está a contratar pessoas agressivas porque essa é a cultura da empresa?
"Não nos apercebemos disso olhando par a repartição por sexos.
08:25
You can't tell this by looking at gender breakdowns.
159
505173
2691
08:27
Those may be balanced.
160
507888
1502
Aí até pode estar equilibrado.
08:29
And since this is machine learning, not traditional coding,
161
509414
3557
Como isto é aprendizagem de máquina, e não codificação tradicional,
08:32
there is no variable there labeled "higher risk of depression,"
162
512995
4907
não há lá nenhuma variável intitulada "maior risco de depressão",
08:37
"higher risk of pregnancy,"
163
517926
1833
"maior risco de gravidez",
08:39
"aggressive guy scale."
164
519783
1734
"escala de agressividade".
08:41
Not only do you not know what your system is selecting on,
165
521995
3679
Não só não se sabe o que é que o sistema está a selecionar,
08:45
you don't even know where to begin to look.
166
525698
2323
como não se sabe por onde começar a procurar.
É uma caixa preta.
08:48
It's a black box.
167
528045
1246
08:49
It has predictive power, but you don't understand it.
168
529315
2807
Tem poder preditivo, mas não conseguimos entendê-la.
08:52
"What safeguards," I asked, "do you have
169
532486
2369
"Que garantia você tem", perguntei,
08:54
to make sure that your black box isn't doing something shady?"
170
534879
3673
"de que a sua caixa negra não está a fazer algo sombrio?"
09:00
She looked at me as if I had just stepped on 10 puppy tails.
171
540863
3878
Ela olhou para mim como se eu a tivesse ofendido.
09:04
(Laughter)
172
544765
1248
(Risos)
Olhou para mim e disse:
09:06
She stared at me and she said,
173
546037
2041
09:08
"I don't want to hear another word about this."
174
548556
4333
"Não quero ouvir nem mais uma palavra sobre isso."
09:13
And she turned around and walked away.
175
553458
2034
Virou-me as costas e foi-se embora.
Ela não foi indelicada. Foi claramente:
09:16
Mind you -- she wasn't rude.
176
556064
1486
09:17
It was clearly: what I don't know isn't my problem, go away, death stare.
177
557574
6308
"O que eu não sei, não é problema meu. Desapareça." Olhar de morte.
09:23
(Laughter)
178
563906
1246
(Risos)
09:25
Look, such a system may even be less biased
179
565862
3839
Notem que estes sistemas podem ser menos tendenciosos
09:29
than human managers in some ways.
180
569725
2103
do que os gestores humanos, nalguns aspetos.
09:31
And it could make monetary sense.
181
571852
2146
E isso pode fazer sentido economicamente.
09:34
But it could also lead
182
574573
1650
Mas também pode levar
09:36
to a steady but stealthy shutting out of the job market
183
576247
4748
ao fecho constante mas furtivo do mercado de trabalho
para as pessoas com maior risco de depressão.
09:41
of people with higher risk of depression.
184
581019
2293
09:43
Is this the kind of society we want to build,
185
583753
2596
Será este o tipo de sociedade que queremos construir,
09:46
without even knowing we've done this,
186
586373
2285
sem sequer saber que o fizemos,
09:48
because we turned decision-making to machines we don't totally understand?
187
588682
3964
porque demos às máquinas a tomada de decisões
que não compreendemos totalmente?
09:53
Another problem is this:
188
593265
1458
Outro problema é o seguinte:
09:55
these systems are often trained on data generated by our actions,
189
595314
4452
estes sistemas são treinados frequentemente com dados gerados pelas nossas ações,
09:59
human imprints.
190
599790
1816
impressões humanas.
10:02
Well, they could just be reflecting our biases,
191
602188
3808
Assim, poderão estar a refletir os nossos preconceitos.
poderão estar a aprender os nossos preconceitos,
10:06
and these systems could be picking up on our biases
192
606020
3593
10:09
and amplifying them
193
609637
1313
a amplificá-los e a mostrá-los de novo,
10:10
and showing them back to us,
194
610974
1418
10:12
while we're telling ourselves,
195
612416
1462
enquanto nós pensamos:
10:13
"We're just doing objective, neutral computation."
196
613902
3117
"Estamos a ser objetivos, a informática é neutra".
10:18
Researchers found that on Google,
197
618314
2677
Investigadores verificaram que, no Google,
os anúncios para empregos com salários elevados
10:22
women are less likely than men to be shown job ads for high-paying jobs.
198
622134
5313
aparecem mais para homens do que para mulheres.
10:28
And searching for African-American names
199
628463
2530
E se procurarmos nomes de afro-americano
encontramos mais resultados de anúncios sugerindo antecedentes criminais,
10:31
is more likely to bring up ads suggesting criminal history,
200
631017
4706
10:35
even when there is none.
201
635747
1567
mesmo quando não há nenhum.
10:38
Such hidden biases and black-box algorithms
202
638693
3549
Estes preconceitos escondidos e algoritmos de caixa-negra
10:42
that researchers uncover sometimes but sometimes we don't know,
203
642266
3973
que os investigadores por vezes descobrem, mas que por vezes nós não descobrimos,
10:46
can have life-altering consequences.
204
646263
2661
podem ter consequências capazes de mudar uma vida.
10:49
In Wisconsin, a defendant was sentenced to six years in prison
205
649958
4159
No Wisconsin, um réu foi condenado a seis anos de prisão
10:54
for evading the police.
206
654141
1355
por fugir da polícia.
10:56
You may not know this,
207
656824
1186
Podem não saber,
10:58
but algorithms are increasingly used in parole and sentencing decisions.
208
658034
3998
mas os algoritmos são utilizados
para a liberdade condicional e as condenações.
11:02
He wanted to know: How is this score calculated?
209
662056
2955
Este réu queria saber como era calculada a pontuação.
11:05
It's a commercial black box.
210
665795
1665
É uma caixa preta comercial.
11:07
The company refused to have its algorithm be challenged in open court.
211
667484
4205
A empresa recusou-se a ver o seu algoritmo questionado em tribunal aberto.
11:12
But ProPublica, an investigative nonprofit, audited that very algorithm
212
672396
5532
Mas a ProPublica, uma agência de investigação sem fins lucrativos,
auditou esse algoritmo com os dados públicos que encontrou,
11:17
with what public data they could find,
213
677952
2016
11:19
and found that its outcomes were biased
214
679992
2316
e descobriu que os resultados eram tendenciosos
11:22
and its predictive power was dismal, barely better than chance,
215
682332
3629
e o poder de previsão era pouco melhor que o acaso.
11:25
and it was wrongly labeling black defendants as future criminals
216
685985
4416
E que estava a sinalizar erradamente réus negros como futuros criminosos
11:30
at twice the rate of white defendants.
217
690425
3895
duas vezes mais do que réus brancos.
11:35
So, consider this case:
218
695891
1564
Considerem o seguinte caso:
Esta mulher estava atrasada para ir buscar a afilhada
11:38
This woman was late picking up her godsister
219
698103
3852
11:41
from a school in Broward County, Florida,
220
701979
2075
a uma escola no condado de Broward, Flórida
11:44
running down the street with a friend of hers.
221
704757
2356
e corria pela rua abaixo com uma amiga.
11:47
They spotted an unlocked kid's bike and a scooter on a porch
222
707137
4099
Avistaram uma bicicleta e uma scooter, não amarradas, numa varanda
11:51
and foolishly jumped on it.
223
711260
1632
e, parvoíce... levaram-nas.
11:52
As they were speeding off, a woman came out and said,
224
712916
2599
Quando estavam a acelerar, apareceu uma mulher que disse:
11:55
"Hey! That's my kid's bike!"
225
715539
2205
"Ei! Essa bicicleta é do meu filho!"
11:57
They dropped it, they walked away, but they were arrested.
226
717768
3294
Largaram-nas e seguiram caminho, mas acabaram por ser presas.
12:01
She was wrong, she was foolish, but she was also just 18.
227
721086
3637
Foi errado, foi uma parvoíce, mas ela só tinha 18 anos.
12:04
She had a couple of juvenile misdemeanors.
228
724747
2544
Tinha alguns delitos juvenis.
12:07
Meanwhile, that man had been arrested for shoplifting in Home Depot --
229
727808
5185
Entretanto, aquele homem
já tinha sido preso por furto no Home Depot
— um roubo de 85 dólares, um crime menor.
12:13
85 dollars' worth of stuff, a similar petty crime.
230
733017
2924
12:16
But he had two prior armed robbery convictions.
231
736766
4559
Mas, para além disso, já tinha duas sentenças por assalto à mão armada.
12:21
But the algorithm scored her as high risk, and not him.
232
741955
3482
Mas o algoritmo marcou-a como de alto risco, e não a ele.
12:26
Two years later, ProPublica found that she had not reoffended.
233
746746
3874
Dois anos depois, a ProPublica verificou que ela não tinha reincidido,
12:30
It was just hard to get a job for her with her record.
234
750644
2550
mas tinha dificuldade em conseguir um emprego, devido ao cadastro.
12:33
He, on the other hand, did reoffend
235
753218
2076
Ele, por outro lado, reincidiu
12:35
and is now serving an eight-year prison term for a later crime.
236
755318
3836
e agora está a cumprir pena de oito anos por um crime cometido mais tarde.
Necessitamos, claramente, de auditar as nossas caixas-negras
12:40
Clearly, we need to audit our black boxes
237
760088
3369
12:43
and not have them have this kind of unchecked power.
238
763481
2615
e não deixá-las ter este poder sem controlo.
12:46
(Applause)
239
766120
2879
(Aplausos)
As auditorias são ótimas e importantes, mas não solucionam todos os problemas.
12:50
Audits are great and important, but they don't solve all our problems.
240
770087
4242
12:54
Take Facebook's powerful news feed algorithm --
241
774353
2748
Considerem o poderoso algoritmo de notícias do Facebook,
12:57
you know, the one that ranks everything and decides what to show you
242
777125
4843
aquele que classifica e decide tudo o que vos mostram
13:01
from all the friends and pages you follow.
243
781992
2284
de todos os amigos e das páginas que vocês seguem.
13:04
Should you be shown another baby picture?
244
784898
2275
Deverão mostrar-vos outra foto de um bebé?
13:07
(Laughter)
245
787197
1196
(Risos)
13:08
A sullen note from an acquaintance?
246
788417
2596
Uma nota mal-humorado de um conhecido?
13:11
An important but difficult news item?
247
791449
1856
Uma notícia importante, mas incomodativa?
13:13
There's no right answer.
248
793329
1482
Não há uma resposta certa.
13:14
Facebook optimizes for engagement on the site:
249
794835
2659
O Facebook otimiza para manter-vos ligado ao site:
13:17
likes, shares, comments.
250
797518
1415
"likes", partilhas, comentários.
Em agosto de 2014,
13:20
In August of 2014,
251
800168
2696
13:22
protests broke out in Ferguson, Missouri,
252
802888
2662
estalaram manifestações em Ferguson, no Missouri,
13:25
after the killing of an African-American teenager by a white police officer,
253
805574
4417
após a morte de um jovem afro-americano infligida por um polícia branco,
em circunstâncias pouco claras.
13:30
under murky circumstances.
254
810015
1570
13:31
The news of the protests was all over
255
811974
2007
As notícias dos protestos apareceram de todos o lados
13:34
my algorithmically unfiltered Twitter feed,
256
814005
2685
na minha conta de Twitter sem filtro de algoritmos,
13:36
but nowhere on my Facebook.
257
816714
1950
mas em parte alguma no meu Facebook.
13:39
Was it my Facebook friends?
258
819182
1734
Foram os meus amigos no Facebook?
13:40
I disabled Facebook's algorithm,
259
820940
2032
Desativei o algoritmo do Facebook
13:43
which is hard because Facebook keeps wanting to make you
260
823472
2848
— o que é difícil, pois o Facebook insiste em voltar a incluir-nos
13:46
come under the algorithm's control,
261
826344
2036
sob o controlo do algoritmo —
13:48
and saw that my friends were talking about it.
262
828404
2238
e vi que os meus amigos falavam disso.
13:50
It's just that the algorithm wasn't showing it to me.
263
830666
2509
O algoritmo é que não me mostrava essa informação.
13:53
I researched this and found this was a widespread problem.
264
833199
3042
Fiz pesquisas e verifiquei que era um problema generalizado.
13:56
The story of Ferguson wasn't algorithm-friendly.
265
836265
3813
A história de Ferguson não agradava ao algoritmo.
Não era "simpática".
14:00
It's not "likable."
266
840102
1171
14:01
Who's going to click on "like?"
267
841297
1552
Quem ia clicar em "Gosto"?"
14:03
It's not even easy to comment on.
268
843500
2206
Nem é fácil de comentar.
14:05
Without likes and comments,
269
845730
1371
Sem "gosto" e sem comentários,
14:07
the algorithm was likely showing it to even fewer people,
270
847125
3292
o algoritmo, provavelmente, mostrá-la-ia a menos pessoas,
14:10
so we didn't get to see this.
271
850441
1542
e assim nós não a conseguimos ver.
14:12
Instead, that week,
272
852946
1228
Em vez disso, nessa semana,
14:14
Facebook's algorithm highlighted this,
273
854198
2298
o algoritmo do Facebook destacava isto,
14:16
which is the ALS Ice Bucket Challenge.
274
856520
2226
o Desafio do Balde de Água Gelada.
14:18
Worthy cause; dump ice water, donate to charity, fine.
275
858770
3742
Uma causa digna: despejar água gelada; doar para a caridade. Tudo bem.
14:22
But it was super algorithm-friendly.
276
862536
1904
Mas, para o algoritmo, era super amigável.
14:25
The machine made this decision for us.
277
865219
2613
A máquina tomou essa decisão por nós.
14:27
A very important but difficult conversation
278
867856
3497
Uma conversa muito importante mas também difícil
14:31
might have been smothered,
279
871377
1555
poderia ter sido abafada,
14:32
had Facebook been the only channel.
280
872956
2696
se o Facebook fosse o único canal.
Finalmente, estes sistemas também podem cometer erros
14:36
Now, finally, these systems can also be wrong
281
876117
3797
14:39
in ways that don't resemble human systems.
282
879938
2736
diferentes dos erros dos sistemas humanos.
14:42
Do you guys remember Watson, IBM's machine-intelligence system
283
882698
2922
Lembram-se do Watson, a máquina de IA da IBM
14:45
that wiped the floor with human contestants on Jeopardy?
284
885644
3128
que eliminou os concorrentes humanos no Jeopardy?
Foi um grande jogador.
14:49
It was a great player.
285
889131
1428
14:50
But then, for Final Jeopardy, Watson was asked this question:
286
890583
3569
Mas depois, na final do Jeopardy, quando perguntaram ao Watson:
14:54
"Its largest airport is named for a World War II hero,
287
894659
2932
"O maior aeroporto com o nome de um herói da II Guerra Mundial,
14:57
its second-largest for a World War II battle."
288
897615
2252
"o segundo maior com o nome de uma batalha da II Guerra Mundial."
14:59
(Hums Final Jeopardy music)
289
899891
1378
15:01
Chicago.
290
901582
1182
Chicago.
15:02
The two humans got it right.
291
902788
1370
Os dois seres humanos acertaram.
15:04
Watson, on the other hand, answered "Toronto" --
292
904697
4348
Watson, por outro lado, respondeu "Toronto"
— para uma pergunta sobre cidades dos EUA!
15:09
for a US city category!
293
909069
1818
15:11
The impressive system also made an error
294
911596
2901
O impressionante sistema também cometeu um erro
15:14
that a human would never make, a second-grader wouldn't make.
295
914521
3651
que um ser humano nunca iria fazer, que uma criança do 1.º ciclo não faria.
15:18
Our machine intelligence can fail
296
918823
3109
A inteligência artificial pode falhar
15:21
in ways that don't fit error patterns of humans,
297
921956
3100
de formas que não se encaixam nos padrões de erro dos seres humanos.
15:25
in ways we won't expect and be prepared for.
298
925080
2950
de formas inesperadas e imprevistas.
Seria péssimo não conseguir um emprego para o qual estamos qualificados,
15:28
It'd be lousy not to get a job one is qualified for,
299
928054
3638
15:31
but it would triple suck if it was because of stack overflow
300
931716
3727
mas seria três vezes pior se fosse por causa de um erro
15:35
in some subroutine.
301
935467
1432
de processamento de alguma sub-rotina.
15:36
(Laughter)
302
936923
1579
(Risos)
15:38
In May of 2010,
303
938526
2786
Em maio de 2010,
15:41
a flash crash on Wall Street fueled by a feedback loop
304
941336
4044
um acidente relâmpago em Wall Street provocado por uma auto alimentação
15:45
in Wall Street's "sell" algorithm
305
945404
3028
no algoritmo de "vender", em Wall Street,
15:48
wiped a trillion dollars of value in 36 minutes.
306
948456
4184
fez perder um bilião de dólares em 36 minutos.
15:53
I don't even want to think what "error" means
307
953722
2187
Eu nem quero pensar o que significa "erro"
15:55
in the context of lethal autonomous weapons.
308
955933
3589
no contexto de armas mortais autónomas.
16:01
So yes, humans have always made biases.
309
961894
3790
Sim. Os seres humanos sempre alimentaram preconceitos.
16:05
Decision makers and gatekeepers,
310
965708
2176
Quem toma decisões e controla
16:07
in courts, in news, in war ...
311
967908
3493
nos tribunais, nas notícias, na guerra ... comete erros.
16:11
they make mistakes; but that's exactly my point.
312
971425
3038
É esse exatamente o meu ponto.
16:14
We cannot escape these difficult questions.
313
974487
3521
Nós não podemos fugir destas perguntas difíceis.
16:18
We cannot outsource our responsibilities to machines.
314
978596
3516
Não podemos atribuir as nossas responsabilidades às máquinas.
16:22
(Applause)
315
982676
4208
(Aplausos)
A inteligência artificial não nos dá um cartão "Liberte-se da ética".
16:29
Artificial intelligence does not give us a "Get out of ethics free" card.
316
989089
4447
16:34
Data scientist Fred Benenson calls this math-washing.
317
994742
3381
O cientista de dados Fred Benenson chama-lhe "lavagem de matemática".
Precisamos é do oposto.
16:38
We need the opposite.
318
998147
1389
16:39
We need to cultivate algorithm suspicion, scrutiny and investigation.
319
999560
5388
Temos de cultivar algoritmos de suspeita, de análise e de investigação.
16:45
We need to make sure we have algorithmic accountability,
320
1005380
3198
Precisamos de garantir que assumimos a responsabilidade dos algoritmos,
16:48
auditing and meaningful transparency.
321
1008602
2445
da auditoria e da transparência relevante.
16:51
We need to accept that bringing math and computation
322
1011380
3234
Precisamos de aceitar que trazer a matemática e a informática
16:54
to messy, value-laden human affairs
323
1014638
2970
para os assuntos humanos, complicados e carregados de valores,
16:57
does not bring objectivity;
324
1017632
2384
não nos dá objetividade.
17:00
rather, the complexity of human affairs invades the algorithms.
325
1020040
3633
Em vez disso, a complexidade dos assuntos humanos invade os algoritmos.
Sim, podemos e devemos usar a informática
17:04
Yes, we can and we should use computation
326
1024148
3487
17:07
to help us make better decisions.
327
1027659
2014
para nos ajudar a tomar melhores decisões.
17:09
But we have to own up to our moral responsibility to judgment,
328
1029697
5332
Mas temos que assumir a responsabilidade moral do julgamento.
e usar os algoritmos nesse âmbito,
17:15
and use algorithms within that framework,
329
1035053
2818
17:17
not as a means to abdicate and outsource our responsibilities
330
1037895
4935
não como um meio para abdicar e subcontratar a nossa responsabilidade
17:22
to one another as human to human.
331
1042854
2454
de ser humano para ser humano.
17:25
Machine intelligence is here.
332
1045807
2609
A inteligência artificial já chegou.
17:28
That means we must hold on ever tighter
333
1048440
3421
O que significa que mais que nunca temos de nos agarrar afincadamente
17:31
to human values and human ethics.
334
1051885
2147
aos valores e à ética humana.
Obrigada.
17:34
Thank you.
335
1054056
1154
17:35
(Applause)
336
1055234
5020
(Aplausos)
Sobre este site

Este sítio irá apresentar-lhe vídeos do YouTube que são úteis para a aprendizagem do inglês. Verá lições de inglês ensinadas por professores de primeira linha de todo o mundo. Faça duplo clique nas legendas em inglês apresentadas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas deslocam-se em sincronia com a reprodução do vídeo. Se tiver quaisquer comentários ou pedidos, por favor contacte-nos utilizando este formulário de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7