How to Keep AI Under Control | Max Tegmark | TED

154,949 views ・ 2023-11-02

TED


Por favor, faça duplo clique nas legendas em inglês abaixo para reproduzir o vídeo.

Tradutor: Margarida Ferreira Revisora: Eliana Santos
00:03
Five years ago,
0
3833
2461
Há cinco anos,
00:06
I stood on the TED stage
1
6294
1752
subi ao palco TED
00:08
and warned about the dangers of superintelligence.
2
8046
4379
e alertei para os perigos da superinteligência.
Eu estava enganado.
00:13
I was wrong.
3
13051
1710
00:16
It went even worse than I thought.
4
16513
1752
Correu ainda pior do que eu pensava.
00:18
(Laughter)
5
18306
1752
(Risos)
Nunca pensei que os governos deixassem as empresas de IA chegarem tão longe
00:20
I never thought governments would let AI companies get this far
6
20058
4379
00:24
without any meaningful regulation.
7
24479
2294
sem qualquer regulamentação significativa.
00:27
And the progress of AI went even faster than I predicted.
8
27732
4880
O progresso da IA foi ainda mais rápido do que eu previa.
00:32
Look, I showed this abstract landscape of tasks
9
32654
3587
Mostrei este panorama abstrato de tarefas
00:36
where the elevation represented how hard it was for AI
10
36241
3128
em que a elevação representava o quão difícil era
a IA fazer cada tarefa como um ser humano.
00:39
to do each task at human level.
11
39369
1919
00:41
And the sea level represented what AI could be back then.
12
41288
3753
O nível do mar representava o que a IA podia ser naquela época.
00:45
And boy or boy, has the sea been rising fast ever since.
13
45875
2962
O mar tem vindo a subir rapidamente desde então.
00:48
But a lot of these tasks have already gone blub blub blub blub blub blub.
14
48878
3587
Mas muitas destas tarefas já foram blub blub blub blub blub blub.
00:52
And the water is on track to submerge all land,
15
52882
3921
A água está em vias de submergir toda a terra,
00:56
matching human intelligence at all cognitive tasks.
16
56803
3420
equiparando-se à inteligência humana em todas as tarefas cognitivas.
01:00
This is a definition of artificial general intelligence, AGI,
17
60849
5756
Esta é uma definição de inteligência geral artificial, IGA,
01:06
which is the stated goal of companies like OpenAI,
18
66605
3837
que é o objetivo declarado de empresas como a OpenAI,
01:10
Google DeepMind and Anthropic.
19
70442
2002
a Google DeepMind e a Anthropic.
01:12
And these companies are also trying to build superintelligence,
20
72819
3587
Estas empresas também estão a tentar criar uma superinteligência
01:16
leaving human intelligence far behind.
21
76448
2919
que deixará a inteligência humana muito para trás.
01:19
And many think it'll only be a few years, maybe, from AGI to superintelligence.
22
79826
4379
Muita gente pensa que serão só uns anos, talvez, da IGA até à superinteligência.
01:24
So when are we going to get AGI?
23
84539
2795
Então, quando é que vamos ter uma IGA?
01:27
Well, until recently, most AI researchers thought it was at least decades away.
24
87375
5464
Até há pouco tempo, a maioria dos investigadores da IA pensava
que faltavam pelo menos umas décadas.
01:33
And now Microsoft is saying, "Oh, it's almost here."
25
93214
3504
Mas agora a Microsoft diz: “Oh, está quase aqui”.
01:36
We're seeing sparks of AGI in ChatGPT-4,
26
96760
3753
Estamos a ver lampejos de IGA no ChatGPT-4,
01:40
and the Metaculus betting site is showing the time left to AGI
27
100555
3796
e a página de previsões Metaculus mostra o tempo que falta
para a IGA cair de 20 anos para 3 anos, nos últimos 18 meses.
01:44
plummeting from 20 years away to three years away
28
104351
4129
01:48
in the last 18 months.
29
108521
1544
01:50
And leading industry people are now predicting
30
110106
4922
As principais pessoas da indústria estão agora a prever
que ainda temos dois ou três anos até sermos ultrapassados.
01:55
that we have maybe two or three years left until we get outsmarted.
31
115028
5047
02:00
So you better stop talking about AGI as a long-term risk,
32
120116
4421
É melhor deixarem de falar da IGA como um risco a longo prazo,
02:04
or someone might call you a dinosaur stuck in the past.
33
124579
3170
senão podem vir a chamar-vos dinossauros presos no passado.
02:08
It's really remarkable how AI has progressed recently.
34
128416
3837
É realmente espantoso como a IA progrediu recentemente.
02:12
Not long ago, robots moved like this.
35
132921
2419
Ainda há pouco tempo, os robôs moviam-se assim.
02:15
(Music)
36
135382
2085
(Música)
02:18
Now they can dance.
37
138551
1418
Agora já sabem dançar.
02:20
(Music)
38
140804
2711
(Música)
02:29
Just last year, Midjourney produced this image.
39
149979
3295
Ainda no ano passado, a Midjourney produziu esta imagem.
02:34
This year, the exact same prompt produces this.
40
154401
3253
Este ano, exatamente o mesmo pedido produz isto.
02:39
Deepfakes are getting really convincing.
41
159656
2544
Os deepfakes estão a tornar-se muito convincentes.
(Vídeo)
02:43
(Video) Deepfake Tom Cruise: I’m going to show you some magic.
42
163201
2920
Deepfake Tom Cruise: Vou mostrar-vos uma magia.
02:46
It's the real thing.
43
166913
1335
Isto é a coisa real.
02:48
(Laughs)
44
168289
2086
02:50
I mean ...
45
170375
1293
Quer dizer...
02:53
It's all ...
46
173920
1835
É tudo...
02:55
the real ...
47
175797
1710
a verdadeira coisa.
02:57
thing.
48
177549
1168
02:58
Max Tegmark: Or is it?
49
178717
1251
Max Tegmark: Será mesmo?
03:02
And Yoshua Bengio now argues
50
182387
2669
Yoshua Bengio defende agora
03:05
that large language models have mastered language
51
185056
3837
que os grandes modelos linguísticos dominaram a linguagem e o conhecimento,
03:08
and knowledge to the point that they pass the Turing test.
52
188893
2795
ao ponto de passarem no teste de Turing.
03:12
I know some skeptics are saying,
53
192355
1585
Sei que alguns céticos dizem:
03:13
"Nah, they're just overhyped stochastic parrots
54
193940
2711
“Não, são apenas papagaios aleatórios demasiado publicitados
03:16
that lack a model of the world,"
55
196693
1877
“que não têm um modelo do mundo”,
03:18
but they clearly have a representation of the world.
56
198611
2878
mas eles claramente têm uma representação do mundo.
03:21
In fact, we recently found that Llama-2 even has a literal map of the world in it.
57
201531
5839
Na verdade, descobrimos recentemente que o Llama-2
até contém um mapa literal do mundo.
03:28
And AI also builds
58
208121
3045
E a IA também cria representações geométricas
03:31
geometric representations of more abstract concepts
59
211207
3796
de conceitos mais abstratos
03:35
like what it thinks is true and false.
60
215003
3754
como o que pensa ser verdadeiro e falso.
03:40
So what's going to happen if we get AGI and superintelligence?
61
220467
5046
Então, o que acontecerá se obtivermos IGA e superinteligência?
03:46
If you only remember one thing from my talk, let it be this.
62
226514
3879
Se só se lembrarem de uma coisa de toda a minha palestra, que seja isto:
03:51
AI godfather, Alan Turing predicted
63
231311
3462
O padrinho da IA, Alan Turing,
03:54
that the default outcome is the machines take control.
64
234814
4797
previu que o resultado por defeito é que as máquinas assumam o controlo.
04:00
The machines take control.
65
240528
2211
As máquinas assumem o controlo.
04:04
I know this sounds like science fiction,
66
244240
2336
Eu sei que isto parece ficção científica,
04:06
but, you know, having AI as smart as GPT-4
67
246618
3503
mas ter uma IA tão esperta como o GPT-4
04:10
also sounded like science fiction not long ago.
68
250163
2919
também pareceu ser ficção científica há pouco tempo.
Se pensarem na IA,
04:13
And if you think of AI,
69
253124
2378
04:15
if you think of superintelligence in particular, as just another technology,
70
255502
6047
se pensarem na superinteligência, em particular,
apenas como mais uma tecnologia, como a eletricidade,
04:21
like electricity,
71
261591
2419
provavelmente não estarão muito preocupados.
04:24
you're probably not very worried.
72
264052
2002
04:26
But you see,
73
266095
1168
Mas Turing pensa na superinteligência
04:27
Turing thinks of superintelligence more like a new species.
74
267263
3837
mais como uma nova espécie.
04:31
Think of it,
75
271142
1168
Pensem nisso,
04:32
we are building creepy, super capable,
76
272310
3879
estamos a criar psicopatas assustadores, super capazes,
04:36
amoral psychopaths
77
276231
1585
psicopatas amorais
04:37
that don't sleep and think much faster than us,
78
277857
2711
que não dormem e pensam muito mais depressa do que nós,
04:40
can make copies of themselves
79
280610
1418
que fazem cópias de si mesmos
04:42
and have nothing human about them at all.
80
282070
2002
e não contêm nada de humano.
04:44
So what could possibly go wrong?
81
284072
1835
Então, o que é que pode correr mal?
04:45
(Laughter)
82
285949
1543
(Risos)
04:47
And it's not just Turing.
83
287951
1585
E não é só Turing.
04:49
OpenAI CEO Sam Altman, who gave us ChatGPT,
84
289536
2919
O CEO da OpenAI, Sam Altman, que nos deu o ChatGPT,
04:52
recently warned that it could be "lights out for all of us."
85
292497
3837
avisou recentemente que podem ser “luzes apagadas para todos nós”.
O diretor da Anthropic, Dario Amodei, até colocou um número nesse risco:
04:57
Anthropic CEO, Dario Amodei, even put a number on this risk:
86
297126
3754
10 a 25%.
05:02
10-25 percent.
87
302090
2210
05:04
And it's not just them.
88
304300
1335
E não são só eles.
05:05
Human extinction from AI went mainstream in May
89
305677
3086
A extinção humana devido à IA tornou-se popular em maio
05:08
when all the AGI CEOs and who's who of AI researchers
90
308763
4922
quando todos os CEO da IGA e quem é quem dos investigadores da IA
05:13
came on and warned about it.
91
313685
1376
apareceram a alertar sobre isto.
05:15
And last month, even the number one of the European Union
92
315061
2920
E no mês passado, até o número um da União Europeia
05:18
warned about human extinction by AI.
93
318022
3295
alertou para a extinção humana devido à IA.
05:21
So let me summarize everything I've said so far
94
321359
2211
Vou resumir tudo o que disse até agora
05:23
in just one slide of cat memes.
95
323611
2544
apenas num slide de memes de gatos.
05:27
Three years ago,
96
327282
1793
Há três anos, as pessoas diziam:
05:29
people were saying it's inevitable, superintelligence,
97
329117
4129
“A superinteligência é inevitável, vai tudo correr bem.
05:33
it'll be fine,
98
333288
1501
05:34
it's decades away.
99
334789
1210
“estamos a décadas de distância.”
05:35
Last year it was more like,
100
335999
1835
No ano passado foi mais tipo:
05:37
It's inevitable, it'll be fine.
101
337876
2043
“É inevitável, vai correr bem.”
05:40
Now it's more like,
102
340295
2460
Agora é mais assim:
05:42
It's inevitable.
103
342797
1251
“É inevitável.”
05:44
(Laughter)
104
344090
1126
(Risos)
05:47
But let's take a deep breath and try to raise our spirits
105
347260
3962
Mas vamos respirar fundo e tentar elevar o espírito
05:51
and cheer ourselves up,
106
351264
1168
e animar-nos,
05:52
because the rest of my talk is going to be about the good news,
107
352473
3045
porque o resto da minha palestra vai ser sobre as boas notícias,
05:55
that it's not inevitable, and we can absolutely do better,
108
355560
2919
o que não é inevitável, e o que podemos fazer melhor, ok?
05:58
alright?
109
358521
1168
(Aplausos)
06:00
(Applause)
110
360315
2002
06:02
So ...
111
362317
1209
Então...
06:04
The real problem is that we lack a convincing plan for AI safety.
112
364903
5296
O verdadeiro problema é que nos falta um plano convincente para uma IA segura.
06:10
People are working hard on evals
113
370700
3337
As pessoas estão a trabalhar arduamente em avaliações
que procuram comportamentos de risco da IA, e isso é bom,
06:14
looking for risky AI behavior, and that's good,
114
374037
4087
mas claramente não é suficiente.
06:18
but clearly not good enough.
115
378124
2044
06:20
They're basically training AI to not say bad things
116
380209
4797
Basicamente, estão a treinar a IA para não dizer coisas más
em vez de não fazer coisas más.
06:25
rather than not do bad things.
117
385006
2502
Além disso, as avaliações e a depuração são condições necessárias
06:28
Moreover, evals and debugging are really just necessary,
118
388176
4212
06:32
not sufficient, conditions for safety.
119
392430
2002
mas não suficientes para a segurança.
06:34
In other words,
120
394474
1751
Por outras palavras,
06:36
they can prove the presence of risk,
121
396225
3671
podem comprovar a presença de risco,
06:39
not the absence of risk.
122
399938
2168
mas não a ausência de risco.
06:42
So let's up our game, alright?
123
402148
2544
Então, vamos melhorar o nosso jogo, está bem?
06:44
Try to see how we can make provably safe AI that we can control.
124
404692
5631
Tentemos ver como podemos criar uma IA
comprovadamente segura que possamos controlar.
06:50
Guardrails try to physically limit harm.
125
410323
5047
As barreiras de proteção tentam limitar fisicamente os danos.
06:55
But if your adversary is superintelligence
126
415828
2211
Mas se o nosso adversário é uma superinteligência
ou um ser humano a usar uma superinteligência contra nós,
06:58
or a human using superintelligence against you, right,
127
418081
2544
07:00
trying is just not enough.
128
420625
1960
tentar não basta.
07:02
You need to succeed.
129
422585
1877
É preciso ter êxito.
07:04
Harm needs to be impossible.
130
424504
2169
Os danos têm de ser impossíveis.
07:06
So we need provably safe systems.
131
426714
2544
Por isso, precisamos de sistemas comprovadamente seguros.
07:09
Provable, not in the weak sense of convincing some judge,
132
429258
3838
Comprovado, não no sentido fraco de convencer algum juiz,
mas no sentido forte de haver algo
07:13
but in the strong sense of there being something that's impossible
133
433137
3128
que seja impossível segundo as leis da física.
07:16
according to the laws of physics.
134
436265
1585
07:17
Because no matter how smart an AI is,
135
437892
2002
Porque, por mais inteligente que seja uma IA,
07:19
it can't violate the laws of physics and do what's provably impossible.
136
439936
4046
não pode violar as leis da física e fazer o que se prova ser impossível.
07:24
Steve Omohundro and I wrote a paper about this,
137
444440
2836
Steve Omohundro e eu escrevemos um artigo sobre isto,
07:27
and we're optimistic that this vision can really work.
138
447318
5005
e estamos otimistas de que esta visão pode realmente funcionar.
07:32
So let me tell you a little bit about how.
139
452323
2169
Por isso, vou falar-vos um pouco sobre como será.
07:34
There's a venerable field called formal verification,
140
454993
4421
Há uma área venerável chamada verificação formal,
07:39
which proves stuff about code.
141
459455
2127
que prova coisas sobre código.
07:41
And I'm optimistic that AI will revolutionize automatic proving business
142
461624
6548
Eu estou otimista de que a IA vai revolucionar
o negócio das provas automáticas
07:48
and also revolutionize program synthesis,
143
468214
3337
e também revolucionar a síntese de programas,
07:51
the ability to automatically write really good code.
144
471592
3254
a capacidade de escrever automaticamente um código mesmo bom.
07:54
So here is how our vision works.
145
474887
1585
Eis como funciona a nossa visão.
07:56
You, the human, write a specification
146
476472
4213
Vocês, seres humanos, escrevem uma especificação
08:00
that your AI tool must obey,
147
480685
2711
a que a ferramenta da IA tem de obedecer,
08:03
that it's impossible to log in to your laptop
148
483438
2127
que é impossível entrar no nosso portátil sem a palavra-passe correta,
08:05
without the correct password,
149
485565
1793
08:07
or that a DNA printer cannot synthesize dangerous viruses.
150
487400
5714
ou que uma impressora de ADN não pode sintetizar vírus perigosos.
08:13
Then a very powerful AI creates both your AI tool
151
493156
5213
Então, uma IA muito avançada
cria uma ferramenta de IA e uma prova
08:18
and a proof that your tool meets your spec.
152
498369
3837
de que a vossa ferramenta obedece às vossas especificações.
08:22
Machine learning is uniquely good at learning algorithms,
153
502540
4254
A aprendizagem automática é especialmente boa na aprendizagem de algoritmos,
08:26
but once the algorithm has been learned,
154
506836
2169
mas, depois de aprendido o algoritmo,
08:29
you can re-implement it in a different computational architecture
155
509047
3169
podemos reimplementá-lo numa arquitetura computacional diferente
08:32
that's easier to verify.
156
512216
1627
que seja mais fácil de verificar.
Agora vocês podem preocupar-se.
08:35
Now you might worry,
157
515344
1210
08:36
how on earth am I going to understand this powerful AI
158
516554
3921
“Como é que vou entender esta poderosa inteligência artificial
08:40
and the powerful AI tool it built
159
520475
1626
“e a poderosa ferramenta de IA que ela criou, e a prova,
08:42
and the proof,
160
522143
1126
08:43
if they're all too complicated for any human to grasp?
161
523311
2794
“se são demasiado complicadas para qualquer ser humano entender?”
08:46
Here is the really great news.
162
526147
2127
Estas são as boas notícias.
08:48
You don't have to understand any of that stuff,
163
528316
2461
Não é preciso entender nada disso,
08:50
because it's much easier to verify a proof than to discover it.
164
530818
5297
porque é muito mais fácil verificar uma prova do que descobri-la.
08:56
So you only have to understand or trust your proof-checking code,
165
536115
5089
Só temos de entender ou confiar no nosso código de comprovação,
09:01
which could be just a few hundred lines long.
166
541245
2211
que pode ter apenas poucas centenas de linhas.
09:03
And Steve and I envision
167
543498
2252
E o Steve e eu imaginamos
09:05
that such proof checkers get built into all our compute hardware,
168
545750
4463
que essas provas são incorporadas em todo o nosso hardware computacional,
09:10
so it just becomes impossible to run very unsafe code.
169
550254
4213
e por isso torna-se impossível executar um código muito inseguro.
09:14
What if the AI, though, isn't able to write that AI tool for you?
170
554509
5505
E se a IA, no entanto, não conseguir escrever essa ferramenta de IA para nós?
Então, há outra possibilidade.
09:20
Then there's another possibility.
171
560056
3795
09:23
You train an AI to first just learn to do what you want
172
563851
3587
Primeiro treinamos uma IA para aprender a fazer o que queremos
09:27
and then you use a different AI
173
567480
3337
e depois usamos uma IA diferente
09:30
to extract out the learned algorithm and knowledge for you,
174
570858
3963
para extrair o algoritmo aprendido e o conhecimento para nós,
09:34
like an AI neuroscientist.
175
574862
2086
como um neurocientista da IA.
09:37
This is in the spirit of the field of mechanistic interpretability,
176
577281
3879
Isto está no espírito do campo da interpretabilidade mecanicista,
09:41
which is making really impressive rapid progress.
177
581160
3253
que está a fazer progressos rápidos verdadeiramente impressionantes.
09:44
Provably safe systems are clearly not impossible.
178
584455
3170
Sistemas comprovadamente seguros não são impossíveis.
09:47
Let's look at a simple example
179
587625
1502
Vejamos um exemplo simples.
09:49
of where we first machine-learn an algorithm from data
180
589168
4630
Primeiro, usamos a aprendizagem automática para um algoritmo a partir de dados
09:53
and then distill it out in the form of code
181
593840
4254
e depois destilamo-lo sob a forma de código
09:58
that provably meets spec, OK?
182
598136
2252
que, comprovadamente, cumpre as especificações.
10:00
Let’s do it with an algorithm that you probably learned in first grade,
183
600888
4922
Vamos fazer isso com um algoritmo
que, provavelmente, aprenderam no primeiro ano, a adição,
10:05
addition,
184
605810
1168
em que somamos os dígitos da direita para a esquerda
10:07
where you loop over the digits from right to left,
185
607019
2503
10:09
and sometimes you do a carry.
186
609564
1793
e, por vezes, fazemos um transporte.
10:11
We'll do it in binary,
187
611357
1752
Vamos fazê-lo em binário,
10:13
as if you were counting on two fingers instead of ten.
188
613151
2752
como se contassem com dois dedos em vez de dez.
10:16
And we first train a recurrent neural network,
189
616279
3378
Primeiro treinamos uma rede neuronal recorrente,
10:19
never mind the details,
190
619657
2211
sem nos preocuparmos com os pormenores,
10:21
to nail the task.
191
621909
1418
para realizar a tarefa.
10:23
So now you have this algorithm that you don't understand how it works
192
623828
3253
Agora temos um algoritmo que não percebemos como funciona
numa caixa negra
10:27
in a black box
193
627123
2753
10:29
defined by a bunch of tables of numbers that we, in nerd speak,
194
629917
4463
definida por uma série de tabelas de números
a que nós, em linguagem nerd, chamamos parâmetros.
10:34
call parameters.
195
634380
1502
10:35
Then we use an AI tool we built to automatically distill out from this
196
635882
5297
Depois usamos uma ferramenta de IA que criámos
para extrair automaticamente o algoritmo aprendido
10:41
the learned algorithm in the form of a Python program.
197
641179
3420
sob a forma de um programa Python.
10:44
And then we use the formal verification tool known as Daphne
198
644640
4838
Depois usamos a ferramenta de verificação formal conhecida por Daphne
10:49
to prove that this program correctly adds up any numbers,
199
649520
5422
para provar que este programa adiciona corretamente quaisquer números,
10:54
not just the numbers that were in your training data.
200
654942
2503
e não apenas os números que estavam nos dados da formação.
10:57
So in summary,
201
657778
1377
Resumindo, estou convencido de que é possível
10:59
provably safe AI, I'm convinced is possible,
202
659155
3962
uma IA comprovadamente segura,
11:03
but it's going to take time and work.
203
663117
3003
mas vai exigir tempo e trabalho.
11:06
And in the meantime,
204
666162
1209
Entretanto, não nos esqueçamos
11:07
let's remember that all the AI benefits
205
667413
4254
que todos os benefícios da IA
11:11
that most people are excited about
206
671709
3795
com que a maioria das pessoas estão entusiasmadas
11:15
actually don't require superintelligence.
207
675504
2628
não exigem uma superinteligência.
11:18
We can have a long and amazing future with AI.
208
678758
5005
Podemos ter um futuro longo e fantástico com a IA.
Por isso, não suspendamos a IA.
11:25
So let's not pause AI.
209
685014
2169
11:28
Let's just pause the reckless race to superintelligence.
210
688476
4129
Suspendamos apenas a corrida imprudente à superinteligência.
11:32
Let's stop obsessively training ever-larger models
211
692980
4255
Deixemos de treinar obsessivamente modelos cada vez maiores
11:37
that we don't understand.
212
697276
1669
que não compreendemos.
11:39
Let's heed the warning from ancient Greece
213
699737
3212
Oiçamos o aviso da Grécia antiga
11:42
and not get hubris, like in the story of Icarus.
214
702949
3712
e não usemos da arrogância, como na história de Ícaro.
11:46
Because artificial intelligence
215
706702
2711
Porque a inteligência artificial
11:49
is giving us incredible intellectual wings
216
709455
4463
está a dar-nos asas intelectuais incríveis
11:53
with which we can do things beyond our wildest dreams
217
713960
4045
com as quais podemos fazer coisas para além dos nossos sonhos mais loucos,
se deixarmos de tentar voar obsessivamente até ao sol.
11:58
if we stop obsessively trying to fly to the sun.
218
718047
4379
12:02
Thank you.
219
722802
1168
Obrigado.
12:03
(Applause)
220
723970
5880
(Aplausos)
Sobre este site

Este sítio irá apresentar-lhe vídeos do YouTube que são úteis para a aprendizagem do inglês. Verá lições de inglês ensinadas por professores de primeira linha de todo o mundo. Faça duplo clique nas legendas em inglês apresentadas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas deslocam-se em sincronia com a reprodução do vídeo. Se tiver quaisquer comentários ou pedidos, por favor contacte-nos utilizando este formulário de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7