How to get empowered, not overpowered, by AI | Max Tegmark

129,785 views ・ 2018-07-05

TED


Por favor, faça duplo clique nas legendas em inglês abaixo para reproduzir o vídeo.

Tradutor: Leticia Garcia Revisora: Margarida Ferreira
00:12
After 13.8 billion years of cosmic history,
0
12760
4416
Após 13 800 milhões de anos de história cósmica
00:17
our universe has woken up
1
17200
2096
o nosso universo acordou
00:19
and become aware of itself.
2
19320
1520
e tomou consciência de si mesmo.
00:21
From a small blue planet,
3
21480
1936
De um pequeno planeta azul,
00:23
tiny, conscious parts of our universe have begun gazing out into the cosmos
4
23440
4136
minúsculas partículas conscientes do nosso universo
começaram a explorar o cosmos com telescópios,
00:27
with telescopes,
5
27600
1376
00:29
discovering something humbling.
6
29000
1480
descobrindo uma coisa humilhante.
00:31
We've discovered that our universe is vastly grander
7
31320
2896
Descobrimos que o nosso universo
é muito maior do que imaginavam os nossos antepassados
00:34
than our ancestors imagined
8
34240
1336
00:35
and that life seems to be an almost imperceptibly small perturbation
9
35600
4256
e que a vida parecia ser uma perturbação quase impercetível
00:39
on an otherwise dead universe.
10
39880
1720
num universo que parecia morto.
00:42
But we've also discovered something inspiring,
11
42320
3016
Mas descobrimos também uma coisa inspiradora,
00:45
which is that the technology we're developing has the potential
12
45360
2976
a tecnologia que estamos a desenvolver tem o potencial
00:48
to help life flourish like never before,
13
48360
2856
de ajudar a vida a florescer como nunca anteriormente,
00:51
not just for centuries but for billions of years,
14
51240
3096
não só durante séculos, mas durante milhares de milhões de anos,
00:54
and not just on earth but throughout much of this amazing cosmos.
15
54360
4120
e não só na Terra, mas por esse incrível universo lá fora.
00:59
I think of the earliest life as "Life 1.0"
16
59680
3336
Vejo o início da vida como " Vida 1.0",
01:03
because it was really dumb,
17
63040
1376
porque era muito burra
01:04
like bacteria, unable to learn anything during its lifetime.
18
64440
4296
como as bactérias, incapaz de aprender o que fosse, durante a sua vida.
01:08
I think of us humans as "Life 2.0" because we can learn,
19
68760
3376
Vejo os seres humanos como "Vida 2.0", porque nós podemos aprender,
01:12
which we in nerdy, geek speak,
20
72160
1496
o que, na nossa forma "nerd" de falar,
01:13
might think of as installing new software into our brains,
21
73680
3216
podemos pensar como a instalação de um novo "software" no cérebro,
01:16
like languages and job skills.
22
76920
2120
como os idiomas e as competências profissionais,
01:19
"Life 3.0," which can design not only its software but also its hardware
23
79680
4296
A "Vida 3.0", que pode conceber, não só o "software", mas também o "hardware"
01:24
of course doesn't exist yet.
24
84000
1656
claramente ainda não existe.
01:25
But perhaps our technology has already made us "Life 2.1,"
25
85680
3776
Mas talvez a nossa tecnologia já nos tenha criado a "Vida 2.1",
01:29
with our artificial knees, pacemakers and cochlear implants.
26
89480
4336
com joelhos artificiais, "pacemakers" e transplantes cocleares.
01:33
So let's take a closer look at our relationship with technology, OK?
27
93840
3880
Então, olhemos mais atentamente para a nossa relação com a tecnologia.
01:38
As an example,
28
98800
1216
Um exemplo:
01:40
the Apollo 11 moon mission was both successful and inspiring,
29
100040
5296
A missão à Lua Apollo 11 foi bem sucedida e inspiradora,
01:45
showing that when we humans use technology wisely,
30
105360
3016
mostrando que, quando usamos a tecnologia com sabedoria,
01:48
we can accomplish things that our ancestors could only dream of.
31
108400
3936
podemos realizar coisas com que os nossos antepassados só podiam sonhar.
01:52
But there's an even more inspiring journey
32
112360
2976
Mas há uma viagem ainda mais inspiradora,
01:55
propelled by something more powerful than rocket engines,
33
115360
2680
propulsionada por algo muito mais potente que os motores de um foguetão,
01:59
where the passengers aren't just three astronauts
34
119200
2336
na qual os passageiros não são apenas três astronautas,
02:01
but all of humanity.
35
121560
1776
mas toda a humanidade.
02:03
Let's talk about our collective journey into the future
36
123360
2936
Vamos falar sobre a nossa viagem coletiva para o futuro
02:06
with artificial intelligence.
37
126320
2000
com inteligência artificial.
02:08
My friend Jaan Tallinn likes to point out that just as with rocketry,
38
128960
4536
O meu amigo Jaan Tallin costuma salientar que construir apenas foguetões
02:13
it's not enough to make our technology powerful.
39
133520
3160
não é o suficiente para tornar a nossa tecnologia poderosa.
02:17
We also have to figure out, if we're going to be really ambitious,
40
137560
3175
Se queremos ser realmente ambiciosos,
também precisamos de descobrir como conduzi-los
02:20
how to steer it
41
140759
1416
02:22
and where we want to go with it.
42
142199
1681
e onde queremos ir com eles.
02:24
So let's talk about all three for artificial intelligence:
43
144880
2840
Portanto, vamos falar dos três tipos de inteligência artificial:
02:28
the power, the steering and the destination.
44
148440
3056
a potência, a condução e o destino.
02:31
Let's start with the power.
45
151520
1286
Vamos começar pela potência.
02:33
I define intelligence very inclusively --
46
153600
3096
Eu defino inteligência de forma bastante abrangente
02:36
simply as our ability to accomplish complex goals,
47
156720
4336
- simplesmente como a nossa capacidade de concretizar objetivos complexos -
02:41
because I want to include both biological and artificial intelligence.
48
161080
3816
porque eu quero incluir a inteligência biológica e a artificial.
02:44
And I want to avoid the silly carbon-chauvinism idea
49
164920
4016
E quero afastar essa estúpida ideia chauvinista
02:48
that you can only be smart if you're made of meat.
50
168960
2360
de que só podemos ser inteligentes, se formos feitos de carne e osso.
02:52
It's really amazing how the power of AI has grown recently.
51
172880
4176
É incrível como a potência da IA vem crescendo ultimamente.
02:57
Just think about it.
52
177080
1256
Pensem nisso.
02:58
Not long ago, robots couldn't walk.
53
178360
3200
Há pouco tempo ainda, os robôs não andavam.
03:03
Now, they can do backflips.
54
183040
1720
Agora, podem dar mortais para trás.
03:06
Not long ago,
55
186080
1816
Há pouco tempo ainda,
03:07
we didn't have self-driving cars.
56
187920
1760
não tínhamos carros autónomos.
03:10
Now, we have self-flying rockets.
57
190920
2480
Agora, temos foguetões autónomos.
03:15
Not long ago,
58
195960
1416
Há pouco tempo ainda,
03:17
AI couldn't do face recognition.
59
197400
2616
a IA não sabia fazer reconhecimento facial.
03:20
Now, AI can generate fake faces
60
200040
2976
Agora, pode produzir rostos falsos
03:23
and simulate your face saying stuff that you never said.
61
203040
4160
e simular o nosso rosto, a dizer coisas que nunca dissemos.
03:28
Not long ago,
62
208400
1576
Há pouco tempo ainda,
03:30
AI couldn't beat us at the game of Go.
63
210000
1880
a IA não conseguia vencer-nos numa partida de Go.
03:32
Then, Google DeepMind's AlphaZero AI took 3,000 years of human Go games
64
212400
5096
Depois, a IA Alfa Zero do Google DeepMind absorveu 3000 anos de partidas humanas
03:37
and Go wisdom,
65
217520
1256
e os conhecimentos de Go,
03:38
ignored it all and became the world's best player by just playing against itself.
66
218800
4976
ignorou tudo isso e tornou-se o melhor jogador do mundo,
jogando apenas contra si mesmo.
03:43
And the most impressive feat here wasn't that it crushed human gamers,
67
223800
3696
O mais impressionante não é ela ter derrotado jogadores humanos,
03:47
but that it crushed human AI researchers
68
227520
2576
mas é ter derrotado os investigadores da IA
03:50
who had spent decades handcrafting game-playing software.
69
230120
3680
que tinham passado décadas a trabalhar em "software" de jogos.
03:54
And AlphaZero crushed human AI researchers not just in Go but even at chess,
70
234200
4656
O Alfa Zero não só derrotou os investigadores de IA no Go
como também no xadrez em que temos vindo a trabalhar desde 1950.
03:58
which we have been working on since 1950.
71
238880
2480
04:02
So all this amazing recent progress in AI really begs the question:
72
242000
4240
Portanto, este incrível progresso recente da IA leva-nos a perguntar:
04:07
How far will it go?
73
247280
1560
Até aonde irá?
04:09
I like to think about this question
74
249800
1696
Gosto de pensar nesta pergunta
04:11
in terms of this abstract landscape of tasks,
75
251520
2976
como uma paisagem abstrata de tarefas,
04:14
where the elevation represents how hard it is for AI to do each task
76
254520
3456
em que o nível elevado representa a dificuldade que a IA tem
para realizar cada tarefa a nível humano.
04:18
at human level,
77
258000
1216
04:19
and the sea level represents what AI can do today.
78
259240
2760
e o nível do mar representa o que a IA pode fazer hoje.
O nível do mar vai subindo à medida que a IA evolui,
04:23
The sea level is rising as AI improves,
79
263120
2056
04:25
so there's a kind of global warming going on here in the task landscape.
80
265200
3440
Assim, há uma espécie de aquecimento global nesta paisagem de tarefas.
04:30
And the obvious takeaway is to avoid careers at the waterfront --
81
270040
3335
A conclusão óbvia é evitar seguir carreiras aquáticas
04:33
(Laughter)
82
273399
1257
(Risos)
04:34
which will soon be automated and disrupted.
83
274680
2856
que em breve serão automatizadas e extintas.
04:37
But there's a much bigger question as well.
84
277560
2976
Mas ainda há uma pergunta mais relevante.
04:40
How high will the water end up rising?
85
280560
1810
Até que altura pode chegar a água?
04:43
Will it eventually rise to flood everything,
86
283440
3200
Será que sobe o suficiente para acabar por inundar tudo,
04:47
matching human intelligence at all tasks.
87
287840
2496
igualando a inteligência humana em todas as tarefas?
04:50
This is the definition of artificial general intelligence --
88
290360
3736
Esta é a definição de inteligência artificial geral
04:54
AGI,
89
294120
1296
a IAG,
04:55
which has been the holy grail of AI research since its inception.
90
295440
3080
que tem sido o Santo Graal da investigação da IA desde o seu início.
Com esta definição, as pessoas que dizem:
04:59
By this definition, people who say,
91
299000
1776
05:00
"Ah, there will always be jobs that humans can do better than machines,"
92
300800
3416
"Sempre haverá tarefas que os humanos podem fazer melhor que as máquinas,"
05:04
are simply saying that we'll never get AGI.
93
304240
2920
estão a afirmar que nunca teremos IAG.
05:07
Sure, we might still choose to have some human jobs
94
307680
3576
Claro, nós ainda podemos optar por usar mão-de-obra humana
05:11
or to give humans income and purpose with our jobs,
95
311280
3096
ou dar aos seres humanos receitas ou um objetivo sem empregos,
05:14
but AGI will in any case transform life as we know it
96
314400
3736
mas a IAG irá, de qualquer forma, transformar a vida como a conhecemos
05:18
with humans no longer being the most intelligent.
97
318160
2736
em que os seres humanos já não serão os mais inteligentes.
05:20
Now, if the water level does reach AGI,
98
320920
3696
Mas, se, de facto, o nível da água alcançar a IAG,
05:24
then further AI progress will be driven mainly not by humans but by AI,
99
324640
5296
então, o progresso futuro da IA estará, principalmente, nas suas próprias mãos.
05:29
which means that there's a possibility
100
329960
1856
Sendo assim, existe uma possibilidade
05:31
that further AI progress could be way faster
101
331840
2336
de que o progresso da IA seja muito mais rápido
05:34
than the typical human research and development timescale of years,
102
334200
3376
do que a escala temporal em anos da investigação realizada pelos homens.
05:37
raising the controversial possibility of an intelligence explosion
103
337600
4016
criando a possibilidade controversa de uma explosão de inteligência
05:41
where recursively self-improving AI
104
341640
2296
em que, novamente, uma IA que evolui por si mesma,
05:43
rapidly leaves human intelligence far behind,
105
343960
3416
rapidamente deixará para trás a inteligência humana,
05:47
creating what's known as superintelligence.
106
347400
2440
criando o que é conhecido por superinteligência.
05:51
Alright, reality check:
107
351800
2280
Ok, verifiquemos a realidade:
05:55
Are we going to get AGI any time soon?
108
355120
2440
Teremos uma IAG em breve?
05:58
Some famous AI researchers, like Rodney Brooks,
109
358360
2696
Alguns investigadores famosos de IA, como Rodney Brooks,
pensam que isso não acontecerá nas próximas centenas de anos.
06:01
think it won't happen for hundreds of years.
110
361080
2496
06:03
But others, like Google DeepMind founder Demis Hassabis,
111
363600
3896
Mas outros, como Demis Hassabis, o fundador do Google DeepMind,
06:07
are more optimistic
112
367520
1256
são mais otimistas
06:08
and are working to try to make it happen much sooner.
113
368800
2576
e trabalham para fazer que isso aconteça muito mais cedo.
06:11
And recent surveys have shown that most AI researchers
114
371400
3296
Pesquisas recentes mostram que a maioria dos investigadores de IA,
06:14
actually share Demis's optimism,
115
374720
2856
partilham do otimismo de Demis,
06:17
expecting that we will get AGI within decades,
116
377600
3080
defendendo que teremos uma IAG dentro de décadas,
06:21
so within the lifetime of many of us,
117
381640
2256
ou seja, durante a vida de muitos de nós,
06:23
which begs the question -- and then what?
118
383920
1960
o que nos levar a perguntar: e depois?
06:27
What do we want the role of humans to be
119
387040
2216
Que papel queremos para o ser humano
06:29
if machines can do everything better and cheaper than us?
120
389280
2680
se as máquinas puderem fazer tudo melhor e mais barato que nós?
06:35
The way I see it, we face a choice.
121
395000
2000
Na minha opinião, temos que escolher.
06:38
One option is to be complacent.
122
398000
1576
Uma opção é ser complacente.
06:39
We can say, "Oh, let's just build machines that can do everything we can do
123
399600
3776
Dizemos: "Só vamos construir máquinas que façam tudo o que nós fazemos.
06:43
and not worry about the consequences.
124
403400
1816
"Não nos preocupemos com as consequências,
06:45
Come on, if we build technology that makes all humans obsolete,
125
405240
3256
"A sério, se criarmos uma tecnologia que torne obsoletos os seres humanos,
06:48
what could possibly go wrong?"
126
408520
2096
"o que é que pode correr mal?"
06:50
(Laughter)
127
410640
1656
(Risos)
06:52
But I think that would be embarrassingly lame.
128
412320
2760
Mas eu acho que isso seria terrivelmente patético.
06:56
I think we should be more ambitious -- in the spirit of TED.
129
416080
3496
Acho que nós devemos ser mais ambiciosos - no espírito da TED.
06:59
Let's envision a truly inspiring high-tech future
130
419600
3496
Imaginemos um futuro com alta tecnologia, verdadeiramente inspirador
07:03
and try to steer towards it.
131
423120
1400
e vamos tentar chegar até lá.
07:05
This brings us to the second part of our rocket metaphor: the steering.
132
425720
3536
Isso leva-nos à segunda parte da nossa teoria do foguetão: a condução.
07:09
We're making AI more powerful,
133
429280
1896
Nós estamos a tornar a IA mais poderosa,
07:11
but how can we steer towards a future
134
431200
3816
mas como podemos guiar para um futuro,
07:15
where AI helps humanity flourish rather than flounder?
135
435040
3080
em que a IA ajude a humanidade a prosperar e a não se debater?
07:18
To help with this,
136
438760
1256
Para ajudar nessa questão,
07:20
I cofounded the Future of Life Institute.
137
440040
1976
fui cofundador do Instituto Futuro da Vida.
07:22
It's a small nonprofit promoting beneficial technology use,
138
442040
2776
É uma organização sem fins lucrativos, que promove o uso benéfico da tecnologia.
07:24
and our goal is simply for the future of life to exist
139
444840
2736
Queremos que exista futuro para a vida
07:27
and to be as inspiring as possible.
140
447600
2056
e seja o mais inspiradora possível.
07:29
You know, I love technology.
141
449680
3176
Sabem, eu adoro a tecnologia.
07:32
Technology is why today is better than the Stone Age.
142
452880
2920
A tecnologia é a razão de o presente ser melhor que a Idade da Pedra.
07:36
And I'm optimistic that we can create a really inspiring high-tech future ...
143
456600
4080
E eu acredito que nós podemos criar um futuro de alta tecnologia
verdadeiramente inspirador
07:41
if -- and this is a big if --
144
461680
1456
se - e este é um grande se -
07:43
if we win the wisdom race --
145
463160
2456
se nós vencermos a corrida dos conhecimentos,
07:45
the race between the growing power of our technology
146
465640
2856
a corrida entre o crescente poder da nossa tecnologia
07:48
and the growing wisdom with which we manage it.
147
468520
2200
e a crescente sabedoria com que a vamos controlando.
07:51
But this is going to require a change of strategy
148
471240
2296
Mas isso vai exigir uma mudança de estratégia,
07:53
because our old strategy has been learning from mistakes.
149
473560
3040
pois a estratégia antiga era aprender com os erros
07:57
We invented fire,
150
477280
1536
Nós inventámos o fogo,
07:58
screwed up a bunch of times --
151
478840
1536
fizemos erros muitas vezes,
08:00
invented the fire extinguisher.
152
480400
1816
inventámos o extintor de incêndios.
08:02
(Laughter)
153
482240
1336
(Risos)
08:03
We invented the car, screwed up a bunch of times --
154
483600
2416
Inventámos o automóvel, fizemos erros muitas vezes,
08:06
invented the traffic light, the seat belt and the airbag,
155
486040
2667
inventámos os semáforos, o cinto de segurança e o "airbag".
08:08
but with more powerful technology like nuclear weapons and AGI,
156
488731
3845
Mas com uma tecnologia mais potente, como a das armas nucleares e a da IAG,
08:12
learning from mistakes is a lousy strategy,
157
492600
3376
aprender com os erros é uma estratégia péssima, não acham?
08:16
don't you think?
158
496000
1216
(Risos)
08:17
(Laughter)
159
497240
1016
É muito melhor ser proativo do que reativo,
08:18
It's much better to be proactive rather than reactive;
160
498280
2576
08:20
plan ahead and get things right the first time
161
500880
2296
planear o futuro e acertar à primeira,
08:23
because that might be the only time we'll get.
162
503200
2496
porque essa pode ser a nossa única oportunidade.
08:25
But it is funny because sometimes people tell me,
163
505720
2336
Mas é engraçado porque, às vezes, as pessoas dizem-me:
08:28
"Max, shhh, don't talk like that.
164
508080
2736
"Max, chiu, não fales assim.
08:30
That's Luddite scaremongering."
165
510840
1720
"Isso é um alarmismo ludita."
08:34
But it's not scaremongering.
166
514040
1536
Mas não é alarmismo.
08:35
It's what we at MIT call safety engineering.
167
515600
2880
Isto é aquilo a que o ITM chama engenharia de segurança.
08:39
Think about it:
168
519200
1216
Pensem nisto.
08:40
before NASA launched the Apollo 11 mission,
169
520440
2216
Antes de a NASA lançar a missão Apollo 11,
08:42
they systematically thought through everything that could go wrong
170
522680
3136
pensaram, sistematicamente, em tudo o que podia correr mal,
08:45
when you put people on top of explosive fuel tanks
171
525840
2376
quando colocaram pessoas em cima de tanques de combustível explosivo
08:48
and launch them somewhere where no one could help them.
172
528240
2616
e as lançaram para onde ninguém as podia ajudar.
08:50
And there was a lot that could go wrong.
173
530880
1936
E havia muitas coisas que podiam correr mal.
08:52
Was that scaremongering?
174
532840
1480
Isso foi alarmismo?
08:55
No.
175
535159
1217
Não.
08:56
That's was precisely the safety engineering
176
536400
2016
Foi precisamente a engenharia de segurança
08:58
that ensured the success of the mission,
177
538440
1936
que garantiu o sucesso da missão.
09:00
and that is precisely the strategy I think we should take with AGI.
178
540400
4176
É essa a estratégia que eu penso que devemos adotar com a IAG.
09:04
Think through what can go wrong to make sure it goes right.
179
544600
4056
Pensar no que pode correr mal, para garantir que corra bem.
09:08
So in this spirit, we've organized conferences,
180
548680
2536
Com esse pensamento, organizámos conferências,
09:11
bringing together leading AI researchers and other thinkers
181
551240
2816
reunindo os melhores investigadores de IA e outros estudiosos
09:14
to discuss how to grow this wisdom we need to keep AI beneficial.
182
554080
3736
para analisar como desenvolver o saber para manter os benefícios da IA.
09:17
Our last conference was in Asilomar, California last year
183
557840
3296
A nossa última conferência foi no ano passado, em Asilomar, na Califórnia
09:21
and produced this list of 23 principles
184
561160
3056
e dela saiu uma lista com 23 princípios,
09:24
which have since been signed by over 1,000 AI researchers
185
564240
2896
que já foi assinada por mais de mil investigadores de IA
09:27
and key industry leaders,
186
567160
1296
e por importantes líderes da indústria.
09:28
and I want to tell you about three of these principles.
187
568480
3176
Vou falar um pouco sobre três desses princípios.
09:31
One is that we should avoid an arms race and lethal autonomous weapons.
188
571680
4960
Um, é que devemos evitar uma corrida às armas e armas letais autónomas.
09:37
The idea here is that any science can be used for new ways of helping people
189
577480
3616
A ideia aqui é que nenhuma ciência pode ser usada como uma nova forma
de ajudar ou de prejudicar as pessoas,
09:41
or new ways of harming people.
190
581120
1536
09:42
For example, biology and chemistry are much more likely to be used
191
582680
3936
Por exemplo, a Biologia e a Química, provavelmente, serão mais usadas
09:46
for new medicines or new cures than for new ways of killing people,
192
586640
4856
em novos medicamentos ou novas curas do que em novas formas de matar pessoas,
09:51
because biologists and chemists pushed hard --
193
591520
2176
já que biólogos e químicos lutaram - e com sucesso -
09:53
and successfully --
194
593720
1256
pela proibição de armas químicas e biológicas.
09:55
for bans on biological and chemical weapons.
195
595000
2176
09:57
And in the same spirit,
196
597200
1256
Dentro desse mesmo espírito, a maioria dos investigadores de IA
09:58
most AI researchers want to stigmatize and ban lethal autonomous weapons.
197
598480
4440
gostaria de estigmatizar e banir as armas letais autónomas.
10:03
Another Asilomar AI principle
198
603600
1816
Outro princípio criado em Asilomar determina que devemos reduzir
10:05
is that we should mitigate AI-fueled income inequality.
199
605440
3696
a desigualdade de receitas impulsionada pela IA.
10:09
I think that if we can grow the economic pie dramatically with AI
200
609160
4456
Acho que, se o bolo da economia aumentar drasticamente, com a IA,
10:13
and we still can't figure out how to divide this pie
201
613640
2456
mas não conseguirmos imaginar como dividir esse bolo,
10:16
so that everyone is better off,
202
616120
1576
para beneficiar toda a gente,
10:17
then shame on us.
203
617720
1256
será uma vergonha para nós.
10:19
(Applause)
204
619000
4096
(Aplausos)
10:23
Alright, now raise your hand if your computer has ever crashed.
205
623120
3600
Então, levante a mão quem já sofreu uma falha de sistema no computador.
10:27
(Laughter)
206
627480
1256
(Risos)
10:28
Wow, that's a lot of hands.
207
628760
1656
Meu Deus, quantas mãos!
10:30
Well, then you'll appreciate this principle
208
630440
2176
Então vocês vão gostar deste princípio
10:32
that we should invest much more in AI safety research,
209
632640
3136
de que devemos investir muito mais na investigação da segurança de IA,
10:35
because as we put AI in charge of even more decisions and infrastructure,
210
635800
3656
pois, quando colocamos a IA responsável por mais decisões e infraestruturas,
10:39
we need to figure out how to transform today's buggy and hackable computers
211
639480
3616
precisamos de imaginar como transformar esses computadores defeituosos e frágeis
10:43
into robust AI systems that we can really trust,
212
643120
2416
em sistemas de IA robustos, em que podemos confiar.
10:45
because otherwise,
213
645560
1216
Caso contrário, toda essa nova tecnologia incrível
10:46
all this awesome new technology can malfunction and harm us,
214
646800
2816
pode funcionar mal e prejudicar-nos ou ser pirateada e voltar-se contra nós.
10:49
or get hacked and be turned against us.
215
649640
1976
10:51
And this AI safety work has to include work on AI value alignment,
216
651640
5696
Esse trabalho de segurança de IA tem que incluir um alinhamento de valores,
10:57
because the real threat from AGI isn't malice,
217
657360
2816
pois a verdadeira ameaça da IAG não é a maldade,
11:00
like in silly Hollywood movies,
218
660200
1656
como nos filmes idiotas de Hollywood,
11:01
but competence --
219
661880
1736
mas a competência
11:03
AGI accomplishing goals that just aren't aligned with ours.
220
663640
3416
- os objetivos da IAG não estarem alinhados com os nossos.
11:07
For example, when we humans drove the West African black rhino extinct,
221
667080
4736
Por exemplo, quando nós causámos a extinção do Rinoceronte Negro africano
11:11
we didn't do it because we were a bunch of evil rhinoceros haters, did we?
222
671840
3896
não o fizemos porque odiamos os rinocerontes,
11:15
We did it because we were smarter than them
223
675760
2056
mas porque somos mais inteligentes que eles
11:17
and our goals weren't aligned with theirs.
224
677840
2576
e os nossos objetivos não estavam alinhados com os deles.
11:20
But AGI is by definition smarter than us,
225
680440
2656
Mas, por definição, a IAG é mais inteligente que nós.
11:23
so to make sure that we don't put ourselves in the position of those rhinos
226
683120
3576
Assim, para garantir que não acabamos como os rinocerontes,
11:26
if we create AGI,
227
686720
1976
se criarmos a IAG,
11:28
we need to figure out how to make machines understand our goals,
228
688720
4176
precisamos de descobrir como fazer com que as máquinas entendam,
11:32
adopt our goals and retain our goals.
229
692920
3160
adotem e mantenham os nossos objetivos.
11:37
And whose goals should these be, anyway?
230
697320
2856
Aliás, de quem devem ser esses objetivos?
11:40
Which goals should they be?
231
700200
1896
Quais devem ser esses objetivos?
11:42
This brings us to the third part of our rocket metaphor: the destination.
232
702120
3560
Isto leva-nos à terceira parte da nossa metáfora do foguetão: o destino.
11:47
We're making AI more powerful,
233
707160
1856
Estamos a tornar a IA mais poderosa,
11:49
trying to figure out how to steer it,
234
709040
1816
tentando descobrir como a guiar.
11:50
but where do we want to go with it?
235
710880
1680
Mas onde queremos chegar com ela?
11:53
This is the elephant in the room that almost nobody talks about --
236
713760
3656
Este é o elefante na sala de que quase ninguém fala
11:57
not even here at TED --
237
717440
1856
- nem mesmo aqui na TED -
11:59
because we're so fixated on short-term AI challenges.
238
719320
4080
porque estamos muito focados nos desafios da IA a curto prazo.
12:04
Look, our species is trying to build AGI,
239
724080
4656
A nossa espécie está a tentar criar uma IAG,
12:08
motivated by curiosity and economics,
240
728760
3496
motivada pela curiosidade e pela economia,
12:12
but what sort of future society are we hoping for if we succeed?
241
732280
3680
mas que tipo de sociedade futura estamos a esperar, se o conseguirmos?
Fizemos uma sondagem de opinião sobre isso recentemente.
12:16
We did an opinion poll on this recently,
242
736680
1936
12:18
and I was struck to see
243
738640
1216
Fiquei surpreendido ao ver
12:19
that most people actually want us to build superintelligence:
244
739880
2896
que a maioria das pessoas quer a criação de uma superinteligência,
12:22
AI that's vastly smarter than us in all ways.
245
742800
3160
a IA que, seja como for, é muito mais inteligente do que nós.
12:27
What there was the greatest agreement on was that we should be ambitious
246
747120
3416
O maior consenso era que devemos ser ambiciosos
12:30
and help life spread into the cosmos,
247
750560
2016
e ajudar a vida a espalhar-se pelo cosmos.
12:32
but there was much less agreement about who or what should be in charge.
248
752600
4496
Mas houve muito menos consenso sobre quem ou o quê deve ser o responsável.
12:37
And I was actually quite amused
249
757120
1736
Na verdade, fiquei bastante divertido
12:38
to see that there's some some people who want it to be just machines.
250
758880
3456
ao ver que há pessoas que querem que sejam apenas as máquinas
12:42
(Laughter)
251
762360
1696
(Risos)
12:44
And there was total disagreement about what the role of humans should be,
252
764080
3856
E não houve consenso algum sobre o papel do ser humano,
12:47
even at the most basic level,
253
767960
1976
mesmo ao nível mais básico.
12:49
so let's take a closer look at possible futures
254
769960
2816
Então, vamos olhar com mais atenção para os possíveis futuros
12:52
that we might choose to steer toward, alright?
255
772800
2736
que podemos escolher.
12:55
So don't get me wrong here.
256
775560
1336
Não me interpretem mal.
12:56
I'm not talking about space travel,
257
776920
2056
Eu não estou a falar de uma viagem espacial,
12:59
merely about humanity's metaphorical journey into the future.
258
779000
3200
mas de uma viagem metafórica da humanidade para o futuro.
13:02
So one option that some of my AI colleagues like
259
782920
3496
Uma opção que alguns dos meus colegas de IA gostam
13:06
is to build superintelligence and keep it under human control,
260
786440
3616
é a de criar uma superinteligência e mantê-la sob o controlo humano,
13:10
like an enslaved god,
261
790080
1736
como um deus escravizado,
13:11
disconnected from the internet
262
791840
1576
desligado da Internet
13:13
and used to create unimaginable technology and wealth
263
793440
3256
e usado para criar uma riqueza e uma tecnologia inimagináveis
13:16
for whoever controls it.
264
796720
1240
para quem a controlar.
13:18
But Lord Acton warned us
265
798800
1456
Mas Lorde Acton avisou-nos que o poder corrompe
13:20
that power corrupts, and absolute power corrupts absolutely,
266
800280
3616
e o poder absoluto corrompe absolutamente.
13:23
so you might worry that maybe we humans just aren't smart enough,
267
803920
4056
Assim, podemos temer que talvez não sejamos inteligentes o suficiente,
13:28
or wise enough rather,
268
808000
1536
ou sábios o bastante,
13:29
to handle this much power.
269
809560
1240
para lidar com tanto poder.
13:31
Also, aside from any moral qualms you might have
270
811640
2536
Além disso, para além de qualquer receio moral que possamos ter
13:34
about enslaving superior minds,
271
814200
2296
de escravizar mentes superiores,
13:36
you might worry that maybe the superintelligence could outsmart us,
272
816520
3976
podemos temer que talvez a superinteligência nos possa ultrapassar,
13:40
break out and take over.
273
820520
2240
libertar-se e assumir o controlo.
13:43
But I also have colleagues who are fine with AI taking over
274
823560
3416
Mas eu também tenho colegas que aceitam que a IA assuma o controlo
13:47
and even causing human extinction,
275
827000
2296
e, até mesmo, cause a extinção humana,
13:49
as long as we feel the the AIs are our worthy descendants,
276
829320
3576
contanto que vejamos a IA como nossos descendentes diretos,
13:52
like our children.
277
832920
1736
tal como os nossos filhos.
13:54
But how would we know that the AIs have adopted our best values
278
834680
5616
Mas como é que sabemos se as IAs adotaram os nossos melhores valores
14:00
and aren't just unconscious zombies tricking us into anthropomorphizing them?
279
840320
4376
e não são apenas zombies inconscientes que nos enganam com a sua forma humana?
14:04
Also, shouldn't those people who don't want human extinction
280
844720
2856
Além do mais, aqueles que não querem a extinção humana
14:07
have a say in the matter, too?
281
847600
1440
não deviam também ter algo a dizer sobre essa questão?
14:10
Now, if you didn't like either of those two high-tech options,
282
850200
3376
Se nós não gostamos de nenhuma destas duas opções de alta tecnologia,
14:13
it's important to remember that low-tech is suicide
283
853600
3176
é importante lembrar que a baixa tecnologia é um suicídio,
14:16
from a cosmic perspective,
284
856800
1256
numa perspetiva cósmica,
14:18
because if we don't go far beyond today's technology,
285
858080
2496
porque, se não formos muito além da tecnologia de hoje,
14:20
the question isn't whether humanity is going to go extinct,
286
860600
2816
a questão não será apenas se a humanidade será extinta,
14:23
merely whether we're going to get taken out
287
863440
2016
mas se nós seremos dizimados
14:25
by the next killer asteroid, supervolcano
288
865480
2136
por um asteroide assassino, por um super vulcão
14:27
or some other problem that better technology could have solved.
289
867640
3096
ou por qualquer outra coisa que uma tecnologia melhor podia resolver.
14:30
So, how about having our cake and eating it ...
290
870760
3576
Então, que tal conciliarmos as duas coisas?
14:34
with AGI that's not enslaved
291
874360
1840
Com uma IGA, que não seja escrava, mas que nos trate bem,
14:37
but treats us well because its values are aligned with ours?
292
877120
3176
porque os valores estão alinhados com os nossos?
14:40
This is the gist of what Eliezer Yudkowsky has called "friendly AI,"
293
880320
4176
É esta a essência do que Eliezer Yudkowsky chamou uma "IA amigável".
14:44
and if we can do this, it could be awesome.
294
884520
2680
Se o conseguirmos, será maravilhoso.
14:47
It could not only eliminate negative experiences like disease, poverty,
295
887840
4816
Poderíamos eliminar experiências negativas, como as doenças, a pobreza,
14:52
crime and other suffering,
296
892680
1456
o crime e outros sofrimentos
14:54
but it could also give us the freedom to choose
297
894160
2816
e também poderíamos ter a liberdade de escolha
a partir de novas experiências fantásticas e positivas
14:57
from a fantastic new diversity of positive experiences --
298
897000
4056
15:01
basically making us the masters of our own destiny.
299
901080
3160
tornando-nos, basicamente, nos mestres do nosso próprio destino.
15:06
So in summary,
300
906280
1376
Em resumo,
15:07
our situation with technology is complicated,
301
907680
3096
a nossa situação com a tecnologia é complicada,
15:10
but the big picture is rather simple.
302
910800
2416
mas o cenário geral é bastante simples.
15:13
Most AI researchers expect AGI within decades,
303
913240
3456
A maioria dos investigadores de IA esperam a IAG dentro de décadas.
15:16
and if we just bumble into this unprepared,
304
916720
3136
Se nós não estivermos preparados,
15:19
it will probably be the biggest mistake in human history --
305
919880
3336
será, provavelmente, o maior erro na história da humanidade,
15:23
let's face it.
306
923240
1416
convenhamos.
15:24
It could enable brutal, global dictatorship
307
924680
2576
Ela poderá permitir uma brutal ditadura global,
15:27
with unprecedented inequality, surveillance and suffering,
308
927280
3536
com desigualdade, vigilância e sofrimento sem precedentes,
15:30
and maybe even human extinction.
309
930840
1976
e talvez, até mesmo a extinção humana.
15:32
But if we steer carefully,
310
932840
2320
Mas, se conduzirmos com cuidado,
15:36
we could end up in a fantastic future where everybody's better off:
311
936040
3896
podemos chegar a um futuro fantástico onde toda a gente fica a ganhar:
15:39
the poor are richer, the rich are richer,
312
939960
2376
os pobres ficam mais ricos e os ricos ficam mais ricos,
15:42
everybody is healthy and free to live out their dreams.
313
942360
3960
toda a gente é mais saudável e livre para viver os seus sonhos.
15:47
Now, hang on.
314
947000
1536
Agora, esperem um pouco.
15:48
Do you folks want the future that's politically right or left?
315
948560
4576
Vocês querem um futuro político de esquerda ou de direita?
15:53
Do you want the pious society with strict moral rules,
316
953160
2856
Vocês querem uma sociedade obediente às normas morais rigorosas
15:56
or do you an hedonistic free-for-all,
317
956040
1816
ou querem uma liberdade hedonista,
15:57
more like Burning Man 24/7?
318
957880
2216
tipo Burning Man, permanentemente?
16:00
Do you want beautiful beaches, forests and lakes,
319
960120
2416
Vocês querem belas praias, florestas e lagos,
16:02
or would you prefer to rearrange some of those atoms with the computers,
320
962560
3416
ou preferem reorganizar alguns desses átomos com os computadores,
16:06
enabling virtual experiences?
321
966000
1715
permitindo experiências virtuais?
16:07
With friendly AI, we could simply build all of these societies
322
967739
3157
Com uma IA amigável nós podemos construir todas essas sociedades
16:10
and give people the freedom to choose which one they want to live in
323
970920
3216
e dar às pessoas a liberdade de escolher em qual delas querem viver,
16:14
because we would no longer be limited by our intelligence,
324
974160
3096
porque deixamos de estar limitados pela nossa inteligência,
16:17
merely by the laws of physics.
325
977280
1456
mas apenas pelas leis da Física.
16:18
So the resources and space for this would be astronomical --
326
978760
4616
Os recursos e o espaço para isso serão astronómicos,
16:23
literally.
327
983400
1320
literalmente.
16:25
So here's our choice.
328
985320
1200
Então eis as nossas opções.
16:27
We can either be complacent about our future,
329
987880
2320
Podemos ser complacentes sobre o nosso futuro,
16:31
taking as an article of blind faith
330
991440
2656
aceitando cegamente
16:34
that any new technology is guaranteed to be beneficial,
331
994120
4016
que nenhuma nova tecnologia garante ser benéfica,
16:38
and just repeat that to ourselves as a mantra over and over and over again
332
998160
4136
e repetir isso várias vezes, como um mantra, vezes sem conta,
16:42
as we drift like a rudderless ship towards our own obsolescence.
333
1002320
3680
enquanto andamos à deriva como um navio sem leme,
em direção a nossa própria obsolescência.
16:46
Or we can be ambitious --
334
1006920
1880
Ou podemos ser ambiciosos.
16:49
thinking hard about how to steer our technology
335
1009840
2456
analisando como dominar a nossa tecnologia
16:52
and where we want to go with it
336
1012320
1936
e onde queremos chegar com ela
16:54
to create the age of amazement.
337
1014280
1760
para criar a era da admiração.
16:57
We're all here to celebrate the age of amazement,
338
1017000
2856
Estamos todos aqui para festejar a era da admiração,
16:59
and I feel that its essence should lie in becoming not overpowered
339
1019880
4440
e eu sinto que a sua essência não deve ser superada,
17:05
but empowered by our technology.
340
1025240
2616
mas dominar o poder pela nossa tecnologia.
17:07
Thank you.
341
1027880
1376
Obrigado.
17:09
(Applause)
342
1029280
3080
(Aplausos)
Sobre este site

Este sítio irá apresentar-lhe vídeos do YouTube que são úteis para a aprendizagem do inglês. Verá lições de inglês ensinadas por professores de primeira linha de todo o mundo. Faça duplo clique nas legendas em inglês apresentadas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas deslocam-se em sincronia com a reprodução do vídeo. Se tiver quaisquer comentários ou pedidos, por favor contacte-nos utilizando este formulário de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7