When AI Can Fake Reality, Who Can You Trust? | Sam Gregory | TED

121,686 views ・ 2023-12-26

TED


Por favor, clique duas vezes nas legendas em inglês abaixo para reproduzir o vídeo.

Tradutor: Arthur Guedes Revisor: Wanderley Jesus
00:03
It's getting harder, isn't it, to spot real from fake,
0
3583
3879
Está cada vez mais difícil, não é? Saber o que é real e o que é falso,
00:07
AI-generated from human-generated.
1
7504
2252
o que é inteligência artificial e o que não é.
00:10
With generative AI,
2
10340
1126
Com a IA generativa,
00:11
along with other advances in deep fakery,
3
11508
2419
e outros avanços na falsificação,
00:13
it doesn't take many seconds of your voice,
4
13969
2252
não são necessários muitos segundos de sua voz,
00:16
many images of your face,
5
16263
1459
muitas imagens de seu rosto,
00:17
to fake you,
6
17764
1251
para falsificá-lo,
00:19
and the realism keeps increasing.
7
19015
2628
e está cada vez mais realista.
00:21
I first started working on deepfakes in 2017,
8
21685
3086
Comecei a trabalhar com deepfakes em 2017,
00:24
when the threat to our trust in information was overhyped,
9
24813
3962
quando exagerávamos sua ameaça.com relação a confiabilidade na informação
00:28
and the big harm, in reality, was falsified sexual images.
10
28775
3670
e o grande problema era, na verdade, as imagens sexuais forjadas.
00:32
Now that problem keeps growing, harming women and girls worldwide.
11
32904
4171
Agora, o problema só piora, prejudicando mulheres e meninas em todo o mundo.
00:38
But also, with advances in generative AI, we're now also approaching a world
12
38159
4713
Mas também, com avanços na IA generativa, estamos chegando a um mundo
00:42
where it's broadly easier to make fake reality,
13
42872
3462
em que não apenas é muito mais fácil criar uma realidade falsa,
00:46
but also to dismiss reality as possibly faked.
14
46376
3879
mas também tratar o real como possivelmente falso.
00:50
Now, deceptive and malicious audiovisual AI
15
50755
3420
Agora, a IA audiovisual enganosa e maliciosa
00:54
is not the root of our societal problems,
16
54217
2669
não é a raiz de nossos problemas sociais,
00:56
but it's likely to contribute to them.
17
56928
2252
mas é provável que ela contribua com eles.
00:59
Audio clones are proliferating in a range of electoral contexts.
18
59180
4213
Os clones de áudio estão se espalhando entre diversos contextos eleitorais.
01:03
"Is it, isn't it" claims cloud human-rights evidence from war zones,
19
63435
5130
“É ou não é” ofuscam as evidências de direitos humano dos campos de batalha,
01:08
sexual deepfakes target women in public and in private,
20
68565
4129
mulheres são alvos de deepfakes sexuais em espaços públicos e privados
01:12
and synthetic avatars impersonate news anchors.
21
72736
3336
e avatares falsos se passam por apresentadores.
01:16
I lead WITNESS.
22
76656
1460
Eu lidero a WITNESS.
01:18
We're a human-rights group
23
78116
1376
Um grupo de direitos humanos
01:19
that helps people use video and technology to protect and defend their rights.
24
79492
3671
que auxilia as pessoas a utilizarem a mídia para assegurar seus direitos.
01:23
And for the last five years, we've coordinated a global effort,
25
83163
3003
E nos últimos cinco anos, coordenamos um esforço global,
01:26
"Prepare, Don't Panic,"
26
86333
1167
"Prepare-se, Sem Pânico"
01:27
around these new ways to manipulate and synthesize reality,
27
87500
3045
analisando se essas novas maneiras de manipular a realidade
01:30
and on how to fortify the truth
28
90587
2377
e como fortalecer a verdade
01:32
of critical frontline journalists and human-rights defenders.
29
92964
3420
dos jornalistas na linha de frente e defensores dos direitos humanos.
01:37
Now, one element in that is a deepfakes rapid-response task force,
30
97218
5423
O que temos aqui é uma força-tarefa de resposta rápida a deepfakes,
01:42
made up of media-forensics experts
31
102641
2127
formada por especialistas em mídia forense
01:44
and companies who donate their time and skills
32
104768
2168
e empresas que dedicam seu tempo e habilidades
01:46
to debunk deepfakes and claims of deepfakes.
33
106978
3087
para desmascarar deepfakes e denunciar deepfakes.
01:50
The task force recently received three audio clips,
34
110899
3211
Recentemente, a força-tarefa recebeu três clipes de áudio,
01:54
from Sudan, West Africa and India.
35
114110
2670
do Sudão, da África Ocidental e da Índia.
01:57
People were claiming that the clips were deepfaked, not real.
36
117155
3879
As pessoas alegavam que os clipes eram falsos, não reais.
02:01
In the Sudan case,
37
121451
1210
No caso do Sudão,
02:02
experts used a machine-learning algorithm
38
122702
2002
experts utilizaram um algoritmo inteligente
02:04
trained on over a million examples of synthetic speech
39
124746
2628
treinado com um milhão de exemplos da fala artificial
02:07
to prove, almost without a shadow of a doubt,
40
127374
2294
para provar, quase sem sombra de dúvida,
02:09
that it was authentic.
41
129709
1335
que era tudo autêntico.
02:11
In the West Africa case,
42
131586
1835
No caso da África Ocidental,
02:13
they couldn't reach a definitive conclusion
43
133463
2002
não chegaram a uma conclusão definitiva
02:15
because of the challenges of analyzing audio from Twitter,
44
135507
2794
devido à dificuldade de analisar áudios no Twitter
02:18
and with background noise.
45
138301
1752
com ruído de fundo.
02:20
The third clip was leaked audio of a politician from India.
46
140095
3712
O terceiro clipe foi um áudio vazado de um político da Índia.
02:23
Nilesh Christopher of “Rest of World” brought the case to the task force.
47
143848
3796
Nilesh Christopher, do “Rest of World”, levou o caso à força-tarefa.
02:27
The experts used almost an hour of samples
48
147644
2961
Os especialistas usaram quase uma hora de amostras
02:30
to develop a personalized model of the politician's authentic voice.
49
150605
3879
para desenvolver um modelo personalizado da voz autêntica do político.
02:35
Despite his loud and fast claims that it was all falsified with AI,
50
155151
4380
Apesar de afirmar categoricamente que tudo foi falsificado com IA
02:39
experts concluded that it at least was partially real, not AI.
51
159572
4255
especialistas concluíram que era pelo menos parcialmente real, não IA.
02:44
As you can see,
52
164369
1335
Como você pode ver,
02:45
even experts cannot rapidly and conclusively separate true from false,
53
165745
5089
mesmo os especialistas não conseguem separar o verdadeiro do falso precisamente
02:50
and the ease of calling "that's deepfaked" on something real
54
170875
4421
e a facilidade de chamar algo real de “deepfake”
02:55
is increasing.
55
175296
1168
só aumenta.
02:57
The future is full of profound challenges,
56
177132
2002
O futuro está cheio de desafios complexos,
02:59
both in protecting the real and detecting the fake.
57
179175
3420
tanto na proteção do real quanto na detecção do falso.
03:03
We're already seeing the warning signs
58
183888
1919
Já podemos ver os sinais
03:05
of this challenge of discerning fact from fiction.
59
185807
2711
desse desafio de discernir o fato da ficção.
03:08
Audio and video deepfakes have targeted politicians,
60
188560
3128
Os deepfakes de áudio e vídeo têm como alvo políticos,
03:11
major political leaders in the EU, Turkey and Mexico,
61
191688
3587
grandes líderes políticos da UE, Turquia e México
03:15
and US mayoral candidates.
62
195316
1710
e candidatos a prefeito nos EUA.
03:17
Political ads are incorporating footage of events that never happened,
63
197444
3503
Anúncios políticos utilizam imagens de eventos que nunca ocorreram.
03:20
and people are sharing AI-generated imagery from crisis zones,
64
200947
4546
e as pessoas compartilham imagens geradas por IA de zonas de conflito,
03:25
claiming it to be real.
65
205535
1418
alegando que são reais.
03:27
Now, again, this problem is not entirely new.
66
207454
3211
Agora, novamente, esse problema não é de todo recente.
03:31
The human-rights defenders and journalists I work with
67
211207
2628
Observo defensores dos direitos humanos e jornalistas
03:33
are used to having their stories dismissed,
68
213835
2794
habituados a terem suas histórias rejeitadas,
03:36
and they're used to widespread, deceptive, shallow fakes,
69
216671
3462
e são utilizados para a disseminação de vídeos e imagens
03:40
videos and images taken from one context or time or place
70
220175
3670
enganosos e superficiais, tirados de um contexto, tempo ou lugar
03:43
and claimed as if they're in another,
71
223887
2460
e apresentados como sendo de outro,
03:46
used to share confusion and spread disinformation.
72
226347
3129
usados para causar confusão e espalhar desinformação.
03:49
And of course, we live in a world that is full of partisanship
73
229934
3170
E, claro, vivemos em um mundo cheio de partidarismo
03:53
and plentiful confirmation bias.
74
233146
2127
e um grande viés de confirmação.
03:57
Given all that,
75
237317
1209
Diante de tudo isso,
03:58
the last thing we need is a diminishing baseline
76
238526
3045
a última coisa que precisamos é a redução da base
04:01
of the shared, trustworthy information upon which democracies thrive,
77
241613
3962
de informações confiáveis compartilhadas sobre as quais as democracias prosperam,
04:05
where the specter of AI
78
245617
1418
onde o espectro da IA
04:07
is used to plausibly believe things you want to believe,
79
247076
3462
é usado para acreditar de forma plausível em coisas em que se quer acreditar,
04:10
and plausibly deny things you want to ignore.
80
250538
2336
e de formar plausível negar coisas que você quer ignorar.
04:15
But I think there's a way we can prevent that future,
81
255084
2628
Mas acho que há uma maneira de evitar esse futuro,
04:17
if we act now;
82
257754
1501
se agirmos agora;
04:19
that if we "Prepare, Don't Panic,"
83
259255
2211
se nos "Prepararmos, Sem Pânico"
04:21
we'll kind of make our way through this somehow.
84
261508
3253
de alguma forma, acharemos uma solução para isso tudo.
04:25
Panic won't serve us well.
85
265929
2627
O pânico não nos ajudará.
04:28
[It] plays into the hands of governments and corporations
86
268681
2711
O pânico é usado pelos governos e corporações
04:31
who will abuse our fears,
87
271392
1669
que abusam do nosso medo
04:33
and into the hands of people who want a fog of confusion
88
273102
3045
e pessoas que adoram confusão
04:36
and will use AI as an excuse.
89
276147
2461
e usam a IA como desculpa.
04:40
How many people were taken in, just for a minute,
90
280610
2419
Quantos foram enganados, mesmo que brevemente,
04:43
by the Pope in his dripped-out puffer jacket?
91
283029
2336
pelo Papa com sua jaqueta estilosa e acolchoada?
04:45
You can admit it.
92
285406
1168
Pode falar a verdade.
04:46
(Laughter)
93
286574
1210
(Risos)
04:47
More seriously,
94
287784
1209
E mais sério ainda,
04:49
how many of you know someone who's been scammed
95
289035
2503
quem aí conhece alguém que já foi enganado
04:51
by an audio that sounds like their kid?
96
291579
2044
por um áudio parecido com o do seu filho?
04:54
And for those of you who are thinking "I wasn't taken in,
97
294624
2920
E para aqueles que estão pensando “você não me engana,
04:57
I know how to spot a deepfake,"
98
297544
1584
eu sei o que é uma deepfake”,
04:59
any tip you know now is already outdated.
99
299170
3003
qualquer dica que você conheça já está desatualizada.
05:02
Deepfakes didn't blink, they do now.
100
302757
2544
As deepfakes não piscavam, agora elas piscam.
05:06
Six-fingered hands were more common in deepfake land than real life --
101
306177
3587
Tínhamos mais mãos com seis dedos nas deepfakes do que na vida real --
05:09
not so much.
102
309806
1126
agora nem tanto.
05:11
Technical advances erase those visible and audible clues
103
311307
3754
Os avanços técnicos apagam aquelas pistas visíveis e audíveis
05:15
that we so desperately want to hang on to
104
315061
2002
que tanto queremos usar
05:17
as proof we can discern real from fake.
105
317105
2252
como prova de que sabemos o que é real ou falso
05:20
But it also really shouldn’t be on us to make that guess without any help.
106
320191
4713
Mas também não deveria caber a nós fazer essa suposição sem qualquer ajuda.
05:24
Between real deepfakes and claimed deepfakes,
107
324946
2127
Entre deepfakes reais e supostas deepfakes
05:27
we need big-picture, structural solutions.
108
327073
2961
precisamos de soluções estruturais abrangentes.
05:30
We need robust foundations
109
330034
1502
Precisamos de bases sólidas
05:31
that enable us to discern authentic from simulated,
110
331578
3128
que nos permitam distinguir o autêntico do simulado,
05:34
tools to fortify the credibility of critical voices and images,
111
334747
3921
ferramentas que fortaleçam a credibilidade de vozes e imagens
05:38
and powerful detection technology
112
338668
2336
e tecnologias poderosas de detecção
05:41
that doesn't raise more doubts than it fixes.
113
341045
2670
que não levantem mais dúvidas do que tirem.
05:45
There are three steps we need to take to get to that future.
114
345091
3045
Há três etapas que precisamos seguir para chegar a esse futuro.
05:48
Step one is to ensure that the detection skills and tools
115
348887
3712
Passo um: garantir que as habilidades e ferramentas de detecção
05:52
are in the hands of the people who need them.
116
352599
2168
estejam nas mãos das pessoas certas.
05:54
I've talked to hundreds of journalists,
117
354767
2253
Conversei com centenas de jornalistas,
05:57
community leaders and human-rights defenders,
118
357020
2252
líderes e defensores dos direitos humanos,
05:59
and they're in the same boat as you and me and us.
119
359272
2919
e estamos todos no mesmo barco.
06:02
They're listening to the audio, trying to think, "Can I spot a glitch?"
120
362191
3421
Eles ouvem o áudio, e tentam pensar: “Consigo identificar uma falha?”
06:05
Looking at the image, saying, "Oh, does that look right or not?"
121
365612
3295
Olhando para a imagem, dizendo: “Ah, isso parece real ou não?”
06:08
Or maybe they're going online to find a detector.
122
368907
3336
Ou talvez eles acessem a internet para encontrar um detector.
06:12
And the detector they find,
123
372285
1335
E o detector que encontram,
06:13
they don't know whether they're getting a false positive, a false negative,
124
373661
3545
não se sabe se os resultados são positivos, negativos
06:17
or a reliable result.
125
377248
1251
ou confiáveis.
06:18
Here's an example.
126
378541
1168
Por exemplo.
06:19
I used a detector, which got the Pope in the puffer jacket right.
127
379751
3712
Usei um detector, que acertou a do Papa com a jaqueta acolchoada.
06:23
But then, when I put in the Easter bunny image that I made for my kids,
128
383796
4255
Mas quando coloquei a imagem do coelhinho da Páscoa que fiz para meus filhos,
06:28
it said that it was human-generated.
129
388092
1961
ele disse que foi gerada por humanos.
06:30
This is because of some big challenges in deepfake detection.
130
390637
3253
Isso ocorre porque há grandes desafios na detecção de deepfakes.
06:34
Detection tools often only work on one single way to make a deepfake,
131
394474
3295
Ferramentas de detecção geralmente só funcionam com uma tecnologia,
06:37
so you need multiple tools,
132
397769
1543
o que requer muitas ferramentas
06:39
and they don't work well on low-quality social media content.
133
399354
4337
e elas não funcionam bem em materiais de baixa qualidade.
06:43
Confidence score, 0.76-0.87,
134
403691
3337
Índice de confiança: 0,76-0,87,
06:47
how do you know whether that's reliable,
135
407028
1919
como saber se isso é confiável,
06:48
if you don't know if the underlying technology is reliable,
136
408988
2795
se você não sabe se tais tecnologias são confiáveis,
06:51
or whether it works on the manipulation that is being used?
137
411824
2795
ou funcionam com a detecção de manipulação por IA?
06:54
And tools to spot an AI manipulation don't spot a manual edit.
138
414661
5046
E ferramentas contra a IA não detectam edições manuais.
07:00
These tools also won't be available to everyone.
139
420583
3587
Estas ferramentas também não estão disponíveis para todos.
07:04
There's a trade-off between security and access,
140
424212
3128
Há um acordo mútuo entre a segurança e o acesso,
07:07
which means if we make them available to anyone,
141
427382
2544
o que quer dizer que caso qualquer um possa acessá-las
07:09
they become useless to everybody,
142
429926
2586
elas se tornariam inúteis,
07:12
because the people designing the new deception techniques
143
432512
2711
porque as pessoas que projetam as novas técnicas de fraude
07:15
will test them on the publicly available detectors
144
435264
3087
as testariam nos detectores disponíveis para o público
07:18
and evade them.
145
438393
1209
e os burlariam.
07:20
But we do need to make sure these are available
146
440061
2920
Mas precisamos garantir que tais recursos estejam disponíveis
07:22
to the journalists, the community leaders,
147
442981
2085
para jornalistas, líderes comunitários
07:25
the election officials, globally, who are our first line of defense,
148
445108
3628
e mesários em nível global, que são a nossa primeira linha de defesa,
07:28
thought through with attention to real-world accessibility and use.
149
448736
3254
e tenham atenção com a acessibilidade e utilidade no mundo real.
07:32
Though at the best circumstances,
150
452991
2544
Embora, na melhor das hipóteses,
07:35
detection tools will be 85 to 95 percent effective,
151
455576
3003
tais ferramentas têm eficácia de de 85 a 95%,
07:38
they have to be in the hands of that first line of defense,
152
458579
2795
elas precisam estar nas mãos da primeira linha de defesa,
07:41
and they're not, right now.
153
461374
1543
e não estão, no momento.
07:43
So for step one, I've been talking about detection after the fact.
154
463710
3128
No primeiro passo, falei da detecção após o fato.
07:46
Step two -- AI is going to be everywhere in our communication,
155
466838
4462
Passo dois: a IA estará em toda parte em nossa comunicação,
07:51
creating, changing, editing.
156
471300
2169
criação, mudança e edição.
07:53
It's not going to be a simple binary of "yes, it's AI" or "phew, it's not."
157
473469
4755
Não será tão simples dizer: “sim, é IA” ou “ufa, não é”.
07:58
AI is part of all of our communication,
158
478224
3086
A IA faz parte de toda nossa comunicação,
08:01
so we need to better understand the recipe of what we're consuming.
159
481352
4046
por isso precisamos entender melhor a receita do que estamos consumindo.
08:06
Some people call this content provenance and disclosure.
160
486232
3754
Algumas pessoas chamam esse conteúdo de proveniência e divulgação.
08:10
Technologists have been building ways to add invisible watermarking
161
490028
3503
Os tecnólogos estão criando maneiras de adicionar marcas d’água invisíveis
08:13
to AI-generated media.
162
493573
1877
aos conteúdos gerados por IA.
08:15
They've also been designing ways --
163
495491
1752
Também estão projetando maneiras —
08:17
and I've been part of these efforts --
164
497243
1877
e eu fiz parte desses esforços —
08:19
within a standard called the C2PA,
165
499162
1710
dentro de um padrão chamado C2PA,
08:20
to add cryptographically signed metadata to files.
166
500872
2669
de adicionar metadados assinados criptograficamente aos arquivos.
08:24
This means data that provides details about the content,
167
504125
4379
Isso significa dados que fornecem detalhes sobre o conteúdo, assinados
08:28
cryptographically signed in a way that reinforces our trust
168
508546
3712
criptograficamente de forma a reforçar nossa confiança
08:32
in that information.
169
512300
1501
nessas informações.
08:33
It's an updating record of how AI was used to create or edit it,
170
513801
5297
É um registro atualizado de como a IA foi usada para criá-la ou editá-la,
08:39
where humans and other technologies were involved,
171
519098
2670
na qual humanos e outras tecnologias estavam envolvidos
08:41
and how it was distributed.
172
521809
1919
e como ela foi distribuída.
08:43
It's basically a recipe and serving instructions
173
523770
3003
É basicamente uma receita e serve de instruções
08:46
for the mix of AI and human
174
526814
1961
para a mistura de IA e humano
08:48
that's in what you're seeing and hearing.
175
528816
2336
que está no que você está vendo e ouvindo.
08:51
And it's a critical part of a new AI-infused media literacy.
176
531903
4462
E é uma parte essencial de uma nova alfabetização midiática baseada em IA.
08:57
And this actually shouldn't sound that crazy.
177
537116
2461
E isso realmente não deveria parecer tão louco.
08:59
Our communication is moving in this direction already.
178
539577
3212
Nossa comunicação já está se movendo nesta direção.
09:02
If you're like me -- you can admit it --
179
542789
2002
Se você é como eu, você pode admitir:
09:04
you browse your TikTok “For You” page,
180
544832
2419
você navega na página “Para você” do TikTok
09:07
and you're used to seeing videos that have an audio source,
181
547251
4213
e está acostumado a ver vídeos que têm uma fonte de áudio, um filtro de IA,
09:11
an AI filter, a green screen, a background,
182
551464
2419
uma tela verde, um plano de fundo,
09:13
a stitch with another edit.
183
553883
1752
um ponto com outra edição.
09:15
This, in some sense, is the alpha version of this transparency
184
555676
3337
Esta, em certo sentido, é a versão alfa dessa transparência
em algumas das principais plataformas que usamos atualmente.
09:19
in some of the major platforms we use today.
185
559055
2377
09:21
It's just that it does not yet travel across the internet,
186
561474
2753
Só que ele ainda não viaja pela internet,
09:24
it’s not reliable, updatable, and it’s not secure.
187
564268
3128
não é confiável, atualizável e não é seguro.
09:27
Now, there are also big challenges
188
567980
2628
Agora, também existem grandes desafios
09:30
in this type of infrastructure for authenticity.
189
570650
2544
nesse tipo de infraestrutura de autenticidade.
09:34
As we create these durable signs of how AI and human were mixed,
190
574278
4088
Conforme criamos esses sinais duradouros de como a IA e o ser humano se misturaram,
09:38
that carry across the trajectory of how media is made,
191
578366
3086
que acompanham a trajetória de como a mídia é produzida,
09:41
we need to ensure they don't compromise privacy or backfire globally.
192
581494
4129
precisamos garantir que eles não comprometam a privacidade
nem comprometam globalmente.
09:46
We have to get this right.
193
586249
1710
Temos de fazer isto bem.
09:48
We can't oblige a citizen journalist filming in a repressive context
194
588584
4255
Não podemos obrigar um jornalista cidadão filmando em um contexto repressivo
09:52
or a satirical maker using novel gen-AI tools
195
592839
3169
ou um criador satírico usando novas ferramentas de inteligência artificial
09:56
to parody the powerful ...
196
596008
1252
para parodiar os poderosos...
09:58
to have to disclose their identity or personally identifiable information
197
598845
4879
ter de divulgar sua identidade ou informações de identificação pessoal
10:03
in order to use their camera or ChatGPT.
198
603766
2961
para usar sua câmera ou ChatGPT.
10:08
Because it's important they be able to retain their ability to have anonymity,
199
608312
3712
Porque é importante que eles consigam manter a capacidade de manter o anonimato,
10:12
at the same time as the tool to create is transparent.
200
612066
3378
ao mesmo tempo em que a ferramenta de criação é transparente.
10:16
This needs to be about the how of AI-human media making,
201
616112
4171
Isto precisa ser o como criar mídia humana com IA,
10:20
not the who.
202
620283
1167
não sobre quem.
10:22
This brings me to the final step.
203
622952
2211
Isso me leva à etapa final.
10:25
None of this works without a pipeline of responsibility
204
625163
4462
Nada disso funciona sem um fluxo de responsabilidade
10:29
that runs from the foundation models and the open-source projects
205
629667
4254
que vai desde os modelos básicos e os projetos de código aberto
10:33
through to the way that is deployed into systems, APIs and apps,
206
633963
4213
até a forma como são implantados em sistemas, APIs e aplicativos,
10:38
to the platforms where we consume media and communicate.
207
638217
3379
até as plataformas em que consumimos mídia e nos comunicamos.
10:43
I've spent much of the last 15 years fighting, essentially, a rearguard action,
208
643139
4171
Passei boa parte dos últimos 15 anos lutando,
essencialmente, contra uma ação defensiva,
10:47
like so many of my colleagues in the human rights world,
209
647310
2919
como muitos dos meus colegas no mundo dos direitos humanos,
10:50
against the failures of social media.
210
650229
2169
contra as falhas das mídias sociais.
10:52
We can't make those mistakes again in this next generation of technology.
211
652899
5380
Não podemos cometer esses erros novamente nesta próxima geração de tecnologia.
10:59
What this means is that governments
212
659572
1835
O que significa que os governos
11:01
need to ensure that within this pipeline of responsibility for AI,
213
661449
4254
precisam garantir que, dentro desse fluxo de responsabilidade pela IA,
11:05
there is transparency, accountability and liability.
214
665703
3253
haja transparência, responsabilidade e responsabilização.
11:10
Without these three steps --
215
670666
2086
Sem estas três etapas —
11:12
detection for the people who need it most,
216
672793
3129
detecção das pessoas que mais precisam,
11:15
provenance that is rights-respecting
217
675922
2502
proveniência que respeite os direitos
11:18
and that pipeline of responsibility,
218
678466
2169
e esse fluxo de responsabilidade,
11:20
we're going to get stuck looking in vain for the six-fingered hand,
219
680635
3545
ficaremos presos procurando em vão a mão com seis dedos
11:24
or the eyes that don't blink.
220
684222
1543
ou os olhos que não piscam.
11:26
We need to take these steps.
221
686390
1836
Precisamos tomar essas medidas.
11:28
Otherwise, we risk a world where it gets easier and easier
222
688226
3294
Caso contrário, arriscamos um mundo em que fica cada vez mais fácil
11:31
to both fake reality
223
691520
1502
tanto fingir a realidade
11:33
and dismiss reality as potentially faked.
224
693064
2669
e descartá-la como potencialmente falsa.
11:36
And that is a world that the political philosopher Hannah Arendt
225
696234
3086
E esse é um mundo que a filósofa política Hannah Arendt
11:39
described in these terms:
226
699320
1460
descreveu nestes termos:
11:40
"A people that no longer can believe anything
227
700821
2628
“Um povo que não consegue mais acreditar em nada
11:43
cannot make up its own mind.
228
703491
2294
não consegue se decidir.
11:45
It is deprived not only of its capacity to act
229
705785
3211
Ela é privada não só de sua capacidade de agir
11:48
but also of its capacity to think and to judge.
230
708996
3504
mas também de sua capacidade de pensar e julgar.
11:52
And with such a people you can then do what you please."
231
712959
3211
E com essas pessoas, você pode fazer o que quiser.”
11:56
That's a world I know none of us want,
232
716712
2044
Esse é um mundo que eu sei que nenhum de nós quer,
11:58
that I think we can prevent.
233
718798
2002
que acho que podemos evitar.
12:00
Thanks.
234
720800
1168
Obrigado.
12:02
(Cheers and applause)
235
722009
2544
(Saudações e aplausos)
Sobre este site

Este site apresentará a você vídeos do YouTube que são úteis para o aprendizado do inglês. Você verá aulas de inglês ministradas por professores de primeira linha de todo o mundo. Clique duas vezes nas legendas em inglês exibidas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas rolarão em sincronia com a reprodução do vídeo. Se você tiver algum comentário ou solicitação, por favor, entre em contato conosco usando este formulário de contato.

https://forms.gle/WvT1wiN1qDtmnspy7