Your Right to Repair AI Systems | Rumman Chowdhury | TED

44,028 views ・ 2024-06-05

TED


Por favor, faça duplo clique nas legendas em inglês abaixo para reproduzir o vídeo.

Tradutor: Filipe Marques Revisora: Margarida Ferreira
00:04
I want to tell you a story
0
4543
1835
Quero contar-vos uma história
00:06
about artificial intelligence and farmers.
1
6419
4171
sobre inteligência artificial e agricultores.
00:10
Now, what a strange combination, right?
2
10966
3044
Que combinação estranha, não é?
00:14
Two topics could not sound more different from each other.
3
14010
4088
Dois temas que não podiam soar mais diferentes um do outro.
00:18
But did you know that modern farming actually involves a lot of technology?
4
18431
5047
Mas sabiam que a agricultura moderna envolve muita tecnologia?
00:23
So computer vision is used to predict crop yields.
5
23478
3796
A visão por computador é usada para prever o rendimento das colheitas.
00:27
And artificial intelligence is used to find,
6
27315
2836
E a inteligência artificial é usada para encontrar,
00:30
identify and get rid of insects.
7
30151
2878
identificar e eliminar os insetos.
A análise preditiva ajuda a prever condições climatéricas extremas
00:33
Predictive analytics helps figure out extreme weather conditions
8
33071
4129
00:37
like drought or hurricanes.
9
37242
1960
como secas ou furacões.
00:39
But this technology is also alienating to farmers.
10
39744
4547
Mas esta tecnologia também é alienante para os agricultores.
00:44
And this all came to a head in 2017
11
44291
3003
E tudo isto chegou ao seu auge em 2017
00:47
with the tractor company John Deere when they introduced smart tractors.
12
47335
4922
com a empresa de tratores John Deere, quando lançaram os tratores inteligentes.
00:52
So before then, if a farmer's tractor broke,
13
52299
2961
Antes disso, se o trator de um agricultor se avariasse,
00:55
they could just repair it themselves or take it to a mechanic.
14
55302
3920
eles próprios podiam repará-lo ou levá-lo a um mecânico.
00:59
Well, the company actually made it illegal
15
59222
2961
Bom, a empresa fez com que fosse ilegal
os agricultores consertarem o seu próprio equipamento.
01:02
for farmers to fix their own equipment.
16
62225
2586
01:04
You had to use a licensed technician
17
64811
2836
Tinham de recorrer a um técnico licenciado
01:07
and farmers would have to wait for weeks
18
67689
2628
e os agricultores esperavam semanas
01:10
while their crops rot and pests took over.
19
70317
3044
enquanto as suas colheitas apodreciam e as pragas tomavam conta delas.
01:14
So they took matters into their own hands.
20
74279
3170
Portanto, resolveram o problema com as suas próprias mãos.
01:17
Some of them learned to program,
21
77490
1544
Alguns aprenderam a programar
01:19
and they worked with hackers to create patches to repair their own systems.
22
79075
4922
e trabalharam com hackers para criar correções para reparar os sistemas.
01:23
In 2022,
23
83997
1418
Em 2022,
01:25
at one of the largest hacker conferences in the world, DEFCON,
24
85457
3712
numa das maiores conferências de hackers do mundo, a DEFCON,
01:29
a hacker named Sick Codes and his team
25
89210
2586
um hacker chamado Sick Codes e a sua equipa
01:31
showed everybody how to break into a John Deere tractor,
26
91838
3212
mostraram a todos como aceder a um trator John Deere,
01:35
showing that, first of all, the technology was vulnerable,
27
95091
3629
mostrando que, antes de mais, a tecnologia era vulnerável,
01:38
but also that you can and should own your own equipment.
28
98762
4337
mas também que podiam e deviam possuir o seu equipamento.
01:43
To be clear, this is illegal,
29
103683
2836
Para ser clara, isto é ilegal,
01:46
but there are people trying to change that.
30
106561
2795
mas há pessoas a tentar mudar isso.
01:49
Now that movement is called the “right to repair.”
31
109689
3796
Agora, esse movimento chama-se “direito à reparação”.
01:53
The right to repair goes something like this.
32
113526
2169
O direito à reparação é mais ou menos assim.
01:55
If you own a piece of technology,
33
115737
1668
Se possui uma peça de tecnologia,
01:57
it could be a tractor, a smart toothbrush,
34
117405
2544
pode ser um trator, uma escova de dentes inteligente,
01:59
a washing machine,
35
119991
1377
uma máquina de lavar roupa,
02:01
you should have the right to repair it if it breaks.
36
121368
3086
temos de ter o direito de a reparar em caso de avaria.
Porque é que estou a contar-vos esta história?
02:05
So why am I telling you this story?
37
125246
2253
02:08
The right to repair needs to extend to artificial intelligence.
38
128541
5214
O direito à reparação tem de se estender à inteligência artificial.
02:14
Now it seems like every week
39
134214
2127
Agora parece que todas as semanas
02:16
there is a new and mind-blowing innovation in AI.
40
136383
3336
há uma nova e alucinante inovação na IA.
02:19
But did you know that public confidence is actually declining?
41
139719
4880
Mas vocês sabiam que a confiança pública está a diminuir?
02:24
A recent Pew poll showed that more Americans are concerned
42
144599
4963
Uma sondagem recente da Pew mostrou que há mais americanos
mais preocupados do que entusiasmados com a tecnologia.
02:29
than they are excited about the technology.
43
149604
2503
02:32
This is echoed throughout the world.
44
152148
2211
Isto reflete-se em todo o mundo.
02:34
The World Risk Poll shows
45
154401
1418
A World Risk Poll mostra
02:35
that respondents from Central and South America and Africa
46
155860
3462
que os inquiridos da América Central e do Sul e da África
02:39
all said that they felt AI would lead to more harm than good for their people.
47
159322
6090
disseram que achavam que a IA
faria mais mal do que bem aos seus povos.
02:46
As a social scientist and an AI developer,
48
166287
2503
Como cientista social e criadora de IA, isto frustra-me.
02:48
this frustrates me.
49
168790
1585
02:50
I'm a tech optimist
50
170417
1293
Eu sou otimista tecnológica
02:51
because I truly believe this technology can lead to good.
51
171751
4338
e acredito realmente que esta tecnologia pode levar ao bem.
02:56
So what's the disconnect?
52
176464
1919
Então, qual é o problema?
02:58
Well, I've talked to hundreds of people over the last few years.
53
178758
3754
Bem, falei com centenas de pessoas nos últimos anos.
03:02
Architects and scientists, journalists and photographers,
54
182554
3670
Arquitetos e cientistas, jornalistas e fotógrafos,
03:06
ride-share drivers and doctors,
55
186224
1710
motoristas de serviços e médicos,
03:07
and they all say the same thing.
56
187976
2961
e todos dizem a mesma coisa.
03:12
People feel like an afterthought.
57
192272
3795
As pessoas sentem-se como se tivessem sido esquecidas.
03:17
They all know that their data is harvested often without their permission
58
197485
4338
Todos sabem que os seus dados são recolhidos muitas vezes sem permissão
03:21
to create these sophisticated systems.
59
201823
2461
para criar estes sistemas sofisticados.
03:24
They know that these systems are determining their life opportunities.
60
204325
4171
Sabem que estes sistemas estão a determinar as oportunidades da vida.
03:28
They also know that nobody ever bothered to ask them
61
208496
3545
Sabem também que nunca ninguém se preocupou em perguntar-lhes
03:32
how the system should be built,
62
212083
1502
como construir o sistema,
03:33
and they certainly have no idea where to go if something goes wrong.
63
213585
5964
e certamente não sabem a quem recorrer se algo correr mal.
03:40
We may not own AI systems,
64
220383
2336
Podemos não ser donos dos sistemas de IA,
03:42
but they are slowly dominating our lives.
65
222761
2794
mas eles estão a dominar lentamente a nossa vida.
03:45
We need a better feedback loop
66
225597
1501
Precisamos de um feedback melhor
03:47
between the people who are making these systems,
67
227140
2961
entre as pessoas que estão a fabricar estes sistemas,
03:50
and the people who are best determined to tell us
68
230101
3337
e as pessoas que estão mais determinadas a dizer-nos
03:53
how these AI systems should interact in their world.
69
233480
3628
como estes sistemas de IA devem interagir no seu mundo.
03:57
One step towards this is a process called red teaming.
70
237609
3837
Um passo nesse sentido é um processo chamado "red teaming".
04:01
Now, red teaming is a practice that was started in the military,
71
241821
3003
Ora, o red teaming é uma prática que começou nos meios militares
04:04
and it's used in cybersecurity.
72
244866
1919
e é usada na cibersegurança.
04:06
In a traditional red-teaming exercise,
73
246826
2628
Num exercício tradicional de red teaming,
04:09
external experts are brought in to break into a system,
74
249454
3920
são recrutados peritos externos para entrar num sistema,
04:13
sort of like what Sick Codes did with tractors, but legal.
75
253374
4338
tal como o Sick Codes fez com os tratores, mas de forma legal.
04:17
So red teaming acts as a way of testing your defenses
76
257712
3670
O red teaming funciona como uma forma de testar as nossas defesas
04:21
and when you can figure out where something will go wrong,
77
261424
3545
e quando conseguimos descobrir quando algo vai correr mal,
podemos descobrir como consertá-lo.
04:25
you can figure out how to fix it.
78
265011
3003
Mas quando os sistemas de IA se tornam desonestos,
04:28
But when AI systems go rogue,
79
268056
2377
04:30
it's more than just a hacker breaking in.
80
270433
2920
é pior do que a invasão de um hacker.
04:33
The model could malfunction or misrepresent reality.
81
273394
3754
O modelo pode funcionar mal ou deturpar a realidade.
Por exemplo, ainda há pouco tempo,
04:37
So, for example, not too long ago,
82
277190
2044
04:39
we saw an AI system attempting diversity
83
279234
2627
vimos um sistema de IA a tentar a diversidade
04:41
by showing historically inaccurate photos.
84
281903
3503
mostrando fotos historicamente imprecisas.
04:45
Anybody with a basic understanding of Western history
85
285406
2670
Qualquer um com compreensão básica da história ocidental
04:48
could have told you that neither the Founding Fathers
86
288076
2502
podia ter-vos dito que nem os Pais Fundadores
04:50
nor Nazi-era soldiers would have been Black.
87
290620
2169
nem os soldados da era nazi eram negros.
Num caso destes, quem é que pode ser considerado um perito?
04:54
In that case, who qualifies as an expert?
88
294123
3629
04:58
You.
89
298670
1168
Somos nós.
05:00
I'm working with thousands of people all around the world
90
300380
2836
Eu estou a trabalhar com milhares de pessoas em todo o mundo
05:03
on large and small red-teaming exercises,
91
303258
2252
em grandes e pequenos exercícios de red-teaming,
05:05
and through them we found and fixed mistakes in AI models.
92
305552
4629
e através deles encontrámos e corrigimos erros nos modelos de IA.
05:10
We also work with some of the biggest tech companies in the world:
93
310181
3587
Trabalhámos também
com algumas das maiores empresas tecnológicas mundo:
05:13
OpenAI, Meta, Anthropic, Google.
94
313810
2753
a OpenAI, a Meta, a Anthropic, a Google.
05:16
And through this, we've made models work better for more people.
95
316604
4630
E assim, fizemos com que os modelos funcionem melhor para mais pessoas.
Aqui está um pouco do que aprendemos.
05:22
Here's a bit of what we've learned.
96
322277
2168
05:24
We partnered with the Royal Society in London to do a scientific,
97
324988
3670
Fizemos uma parceria com a Royal Society em Londres
para realizar um evento científico de desinformação
05:28
mis- and disinformation event with disease scientists.
98
328658
3545
com cientistas de doenças.
05:32
What these scientists found
99
332203
1335
O que eles descobriram
05:33
is that AI models actually had a lot of protections
100
333580
2794
é que os modelos de IA tinham muitas proteções
05:36
against COVID misinformation.
101
336416
2294
contra a desinformação sobre o COVID.
05:38
But for other diseases like measles, mumps and the flu,
102
338751
3546
Mas para outras doenças como o sarampo, a papeira e a gripe,
05:42
the same protections didn't apply.
103
342297
2460
as mesmas proteções não se aplicavam.
05:44
We reported these changes,
104
344757
1293
Relatámos estas alterações,
05:46
they’re fixed and now we are all better protected
105
346050
3170
elas foram corrigidas e agora estamos todos mais protegidos
05:49
against scientific mis- and disinformation.
106
349220
2670
contra a desinformação científica e a desinformação.
05:52
We did a really similar exercise with architects at Autodesk University,
107
352724
4838
Fizemos um exercício muito semelhante com os arquitetos da Autodesk University,
05:57
and we asked them a simple question:
108
357562
1877
e fizemos-lhes uma pergunta simples:
05:59
Will AI put them out of a job?
109
359439
2961
A IA vai pô-los no desemprego?
06:02
Or more specifically,
110
362442
2169
Ou, mais especificamente,
06:04
could they imagine a modern AI system
111
364611
2043
conseguem imaginar um sistema de IA moderno
06:06
that would be able to design the specs of a modern art museum?
112
366696
3670
capaz de projetar as especificações de um museu de arte moderna?
06:10
The answer, resoundingly, was no.
113
370408
3962
A resposta foi, retumbantemente, não.
06:14
Here's why, architects do more than just draw buildings.
114
374787
3629
Eis porquê: os arquitetos não desenham apenas edifícios.
06:18
They have to understand physics and material science.
115
378458
3336
Têm de compreender a física e a ciência dos materiais.
06:21
They have to know building codes,
116
381836
1585
Têm de conhecer as normas de construção
06:23
and they have to do that
117
383463
1251
e têm de o fazer
06:24
while making something that evokes emotion.
118
384756
2794
enquanto criam algo que evoca emoção.
06:28
What the architects wanted was an AI system
119
388426
2169
O que eles queriam era um sistema de IA
06:30
that interacted with them, that would give them feedback,
120
390595
2753
que interagisse com eles, que lhes desse feedback,
06:33
maybe proactively offer design recommendations.
121
393389
2753
oferecesse proativamente recomendações de design.
06:36
And today's AI systems, not quite there yet.
122
396142
3670
E os sistemas de IA de hoje ainda não chegaram a esse ponto.
06:39
But those are technical problems.
123
399854
1752
Mas esses são problemas técnicos.
06:41
People building AI are incredibly smart,
124
401648
2043
Quem constrói IA é bastante inteligente
06:43
and maybe they could solve all that in a few years.
125
403733
2753
e talvez possam resolver tudo isso daqui a uns anos.
06:46
But that wasn't their biggest concern.
126
406527
1961
Mas essa não era a sua maior preocupação.
06:48
Their biggest concern was trust.
127
408529
2795
A sua maior preocupação era a confiança.
06:51
Now architects are liable if something goes wrong with their buildings.
128
411991
4546
Os arquitetos são responsáveis se algo correr mal com os seus edifícios.
06:56
They could lose their license,
129
416537
1669
Podem perder a licença,
06:58
they could be fined, they could even go to prison.
130
418206
3211
podem ser multados, podem até ir para a prisão.
07:01
And failures can happen in a million different ways.
131
421459
3086
E as falhas podem acontecer de um milhão de maneiras diferentes.
07:04
For example, exit doors that open the wrong way,
132
424545
3045
Por exemplo, portas de saída que abrem na direção errada
07:07
leading to people being crushed in an evacuation crisis,
133
427632
4296
levando as pessoas a serem esmagadas numa crise de evacuação,
07:11
or broken glass raining down onto pedestrians in the street
134
431928
4129
ou vidros partidos a chover sobre os peões na rua
porque o vento soprou demasiado forte e estilhaçou as janelas.
07:16
because the wind blows too hard and shatters windows.
135
436099
3837
07:20
So why would an architect trust an AI system with their job,
136
440311
3921
Porque é que um arquiteto confiará a um sistema de IA o seu trabalho,
07:24
with their literal freedom,
137
444273
2670
ou a sua liberdade literal,
07:26
if they couldn't go in and fix a mistake if they found it?
138
446943
3628
se não puder aceder ao mesmo e corrigir um erro se o encontrar?
É preciso resolver estes problemas hoje, e vou dizer-vos porquê.
07:31
So we need to figure out these problems today, and I'll tell you why.
139
451030
4171
A próxima vaga de sistemas de inteligência artificial,
07:35
The next wave of artificial intelligence systems, called agentic AI,
140
455201
5047
designada por IA de agente,
07:40
is a true tipping point
141
460289
1335
é um ponto de viragem
07:41
between whether or not we retain human agency,
142
461624
4213
entre se mantemos ou não a atividade humana,
07:45
or whether or not AI systems make our decisions for us.
143
465837
3795
ou se os sistemas de IA tomam ou não as nossas decisões por nós.
Imaginem um agente de IA como uma espécie de assistente pessoal.
07:50
Imagine an AI agent as kind of like a personal assistant.
144
470008
3211
07:53
So, for example, a medical agent might determine
145
473261
3712
Como, por exemplo, um médico pode determinar
07:57
whether or not your family needs doctor's appointments,
146
477015
2585
se a vossa família precisa ou não de consultas médicas,
07:59
it might refill prescription medications, or in case of an emergency,
147
479642
3379
poderá reabastecer medicamentos prescritos ou, em caso de emergência,
08:03
send medical records to the hospital.
148
483062
2586
enviar registos médicos para o hospital.
08:05
But AI agents can't and won't exist
149
485690
2836
Mas os agentes da IA não podem nem vão existir
08:08
unless we have a true right to repair.
150
488568
2210
a menos que tenhamos o direito à reparação.
08:10
What parent would trust their child's health to an AI system
151
490820
4922
Que pai confiaria a saúde do seu filho a um sistema de IA
08:15
unless you could run some basic diagnostics?
152
495783
2795
a não ser que pudesse efetuar alguns diagnósticos básicos?
08:18
What professional would trust an AI system with job decisions,
153
498619
4213
Que profissional confiaria a um sistema de IA, decisões de trabalho,
08:22
unless you could retrain it the way you might a junior employee?
154
502874
4296
a não ser que o pudesse treinar como faria com um colaborador júnior?
08:28
Now, a right to repair might look something like this.
155
508129
2878
Ora bem, o direito à reparação pode ser algo como isto.
08:31
You could have a diagnostics board
156
511007
2210
Poderá ter um quadro de diagnóstico
08:33
where you run basic tests that you design,
157
513259
3003
onde efetua testes básicos, concebidos por nós,
08:36
and if something's wrong, you could report it to the company
158
516304
2836
e, se algo estiver errado, pode comunicá-lo à empresa
e saber quando o erro estiver resolvido.
08:39
and hear back when it's fixed.
159
519140
1585
08:40
Or you could work with third parties like ethical hackers
160
520725
3128
Ou pode trabalhar com terceiros, como hackers éticos,
08:43
who make patches for systems like we do today.
161
523895
2586
que criam correções para sistemas como fazemos hoje.
08:46
You can download them and use them to improve your system
162
526481
2711
Pode transferi-las e usá-las para melhorar o seu sistema
08:49
the way you want it to be improved.
163
529233
1919
da forma como quer que seja melhorado.
08:51
Or you could be like these intrepid farmers and learn to program
164
531194
3628
Ou pode fazer como estes intrépidos agricultores
08:54
and fine-tune your own systems.
165
534864
3003
e aprender a programar e afinar os seus próprios sistemas.
08:58
We won't achieve the promised benefits of artificial intelligence
166
538618
4171
Só obteremos os benefícios prometidos da inteligência artificial
09:02
unless we figure out how to bring people into the development process.
167
542789
5046
se envolvermos as pessoas no processo do desenvolvimento.
09:08
I've dedicated my career to responsible AI,
168
548377
3504
Dediquei a minha carreira a uma IA responsável
09:11
and in that field we ask the question,
169
551923
3253
e, nessa área, fazemos a pergunta:
09:15
what can companies build to ensure that people trust AI?
170
555218
4963
o que podem as empresas construir para as pessoas confiarem na IA?
09:20
Now, through these red-teaming exercises, and by talking to you,
171
560723
3837
Agora, através destes exercícios de red-teaming e ao falar convosco,
09:24
I've come to realize that we've been asking the wrong question all along.
172
564602
5339
percebi que estivemos sempre a fazer a pergunta errada.
09:30
What we should have been asking is what tools can we build
173
570566
3921
O que devíamos ter perguntado é: que ferramentas podemos construir
09:34
so people can make AI beneficial for them?
174
574529
4045
para as pessoas poerem tornar a IA benéfica para se mesmas?
Os tecnólogos não podem fazê-lo sozinhos.
09:39
Technologists can't do it alone.
175
579117
2460
09:41
We can only do it with you.
176
581619
2419
Só o podemos fazer convosco.
09:44
Thank you.
177
584080
1168
Obrigada.
09:45
(Applause)
178
585248
2794
(Aplausos)
Sobre este site

Este sítio irá apresentar-lhe vídeos do YouTube que são úteis para a aprendizagem do inglês. Verá lições de inglês ensinadas por professores de primeira linha de todo o mundo. Faça duplo clique nas legendas em inglês apresentadas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas deslocam-se em sincronia com a reprodução do vídeo. Se tiver quaisquer comentários ou pedidos, por favor contacte-nos utilizando este formulário de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7