Can we build AI without losing control over it? | Sam Harris

3,792,802 views ・ 2016-10-19

TED


Por favor, faça duplo clique nas legendas em inglês abaixo para reproduzir o vídeo.

Tradutor: Carla Berjano Revisora: Margarida Ferreira
Eu vou falar de uma falha de intuição
00:13
I'm going to talk about a failure of intuition
0
13000
2216
00:15
that many of us suffer from.
1
15240
1600
de que muitos de nós sofremos.
00:17
It's really a failure to detect a certain kind of danger.
2
17480
3040
É uma falha em detetar um certo tipo de perigo.
00:21
I'm going to describe a scenario
3
21360
1736
Vou descrever um cenário
00:23
that I think is both terrifying
4
23120
3256
que considero tão aterrador
00:26
and likely to occur,
5
26400
1760
como provável de acontecer.
00:28
and that's not a good combination,
6
28840
1656
Acontece que isto não é uma boa combinação.
00:30
as it turns out.
7
30520
1536
No entanto, em vez de assustados,
00:32
And yet rather than be scared, most of you will feel
8
32080
2456
a maioria de vocês acha que aquilo de que estou a falar é fixe.
00:34
that what I'm talking about is kind of cool.
9
34560
2080
00:37
I'm going to describe how the gains we make
10
37200
2976
Eu vou descrever como as vantagens obtidas
00:40
in artificial intelligence
11
40200
1776
com a inteligência artificial
00:42
could ultimately destroy us.
12
42000
1776
podem acabar por nos destruir.
00:43
And in fact, I think it's very difficult to see how they won't destroy us
13
43800
3456
Penso que é muito difícil ver como não nos vão destruir
ou inspirar a destruirmo-nos a nós mesmos.
00:47
or inspire us to destroy ourselves.
14
47280
1680
00:49
And yet if you're anything like me,
15
49400
1856
Mas se vocês forem minimamente como eu,
00:51
you'll find that it's fun to think about these things.
16
51280
2656
vão descobrir que é divertido pensar nestas coisas.
00:53
And that response is part of the problem.
17
53960
3376
Essa resposta faz parte do problema.
00:57
OK? That response should worry you.
18
57360
1720
Essa resposta devia preocupar-vos.
00:59
And if I were to convince you in this talk
19
59920
2656
Se eu vos convencesse nesta palestra
01:02
that we were likely to suffer a global famine,
20
62600
3416
que vamos, provavelmente, sofrer uma fome mundial,
devido à mudança climática ou devido a alguma outra catástrofe,
01:06
either because of climate change or some other catastrophe,
21
66040
3056
01:09
and that your grandchildren, or their grandchildren,
22
69120
3416
e que os vossos netos, ou os netos deles,
01:12
are very likely to live like this,
23
72560
1800
têm a probabilidade de viver assim,
01:15
you wouldn't think,
24
75200
1200
não pensariam:
01:17
"Interesting.
25
77440
1336
"Que interessante.
01:18
I like this TED Talk."
26
78800
1200
"Gosto desta palestra TED."
01:21
Famine isn't fun.
27
81200
1520
A fome não tem graça.
01:23
Death by science fiction, on the other hand, is fun,
28
83800
3376
Mas a morte pela ficção científica é divertida.
01:27
and one of the things that worries me most about the development of AI at this point
29
87200
3976
Uma das coisas que mais me preocupa no desenvolvimento da IA, neste ponto,
é que parecemos incapazes de mobilizar uma resposta emocional apropriada
01:31
is that we seem unable to marshal an appropriate emotional response
30
91200
4096
01:35
to the dangers that lie ahead.
31
95320
1816
para os perigos que nos esperam.
01:37
I am unable to marshal this response, and I'm giving this talk.
32
97160
3200
Sou incapaz de conseguir esta resposta, e estou a fazer esta palestra.
É como se estivéssemos diante de duas portas.
01:42
It's as though we stand before two doors.
33
102120
2696
01:44
Behind door number one,
34
104840
1256
Atrás da porta número um,
01:46
we stop making progress in building intelligent machines.
35
106120
3296
deixamos de fazer progressos na construção de máquinas inteligentes.
01:49
Our computer hardware and software just stops getting better for some reason.
36
109440
4016
O hardware e o software dos computadores deixam de melhorar, por alguma razão.
01:53
Now take a moment to consider why this might happen.
37
113480
3000
Agora, pensem um momento na razão de isto poder acontecer.
Ou seja, sendo a inteligência e a automação tão valiosas,
01:57
I mean, given how valuable intelligence and automation are,
38
117080
3656
02:00
we will continue to improve our technology if we are at all able to.
39
120760
3520
vamos continuar a melhorar a tecnologia, se formos capazes disso.
02:05
What could stop us from doing this?
40
125200
1667
O que é que nos pode impedir de o fazer?
02:07
A full-scale nuclear war?
41
127800
1800
Uma guerra nuclear a larga escala?
Uma pandemia mundial?
02:11
A global pandemic?
42
131000
1560
02:14
An asteroid impact?
43
134320
1320
O impacto de um asteroide?
02:17
Justin Bieber becoming president of the United States?
44
137640
2576
Justin Bieber tornar-se presidente dos EUA?
02:20
(Laughter)
45
140240
2280
(Risos)
02:24
The point is, something would have to destroy civilization as we know it.
46
144760
3920
A questão é, algo teria de destruir a civilização, tal como a conhecemos
02:29
You have to imagine how bad it would have to be
47
149360
4296
Temos que imaginar quão mau teria que ser
02:33
to prevent us from making improvements in our technology
48
153680
3336
para nos impedir de fazer melhoramentos na tecnologia
de forma permanente,
02:37
permanently,
49
157040
1216
02:38
generation after generation.
50
158280
2016
geração após geração.
02:40
Almost by definition, this is the worst thing
51
160320
2136
Quase por definição, isto é a pior coisa
02:42
that's ever happened in human history.
52
162480
2016
que já aconteceu na história da Humanidade.
02:44
So the only alternative,
53
164520
1296
Por isso, a única alternativa,
02:45
and this is what lies behind door number two,
54
165840
2336
— e é o que está detrás da porta dois —
02:48
is that we continue to improve our intelligent machines
55
168200
3136
é que continuemos a melhorar as nossas máquinas inteligentes
02:51
year after year after year.
56
171360
1600
ano após ano após ano.
02:53
At a certain point, we will build machines that are smarter than we are,
57
173720
3640
A certa altura, iremos construir máquinas mais inteligentes que nós,
e assim que tivermos máquinas mais inteligentes que nós,
02:58
and once we have machines that are smarter than we are,
58
178080
2616
03:00
they will begin to improve themselves.
59
180720
1976
elas vão começar a melhorar-se a si mesmas.
03:02
And then we risk what the mathematician IJ Good called
60
182720
2736
Então arriscamo-nos ao que o matemático I.J. Good chamou
03:05
an "intelligence explosion,"
61
185480
1776
uma "explosão de inteligência,"
03:07
that the process could get away from us.
62
187280
2000
que o processo poderá sair das nossas mãos.
Isto é normalmente caricaturado, como vemos aqui,
03:10
Now, this is often caricatured, as I have here,
63
190120
2816
03:12
as a fear that armies of malicious robots
64
192960
3216
como o medo de que tropas de robôs malignos nos vão atacar.
03:16
will attack us.
65
196200
1256
03:17
But that isn't the most likely scenario.
66
197480
2696
Mas este não é o cenário mais provável.
03:20
It's not that our machines will become spontaneously malevolent.
67
200200
4856
As nossas máquinas não se tornarão espontaneamente maléficas.
03:25
The concern is really that we will build machines
68
205080
2616
O problema é se construímos máquinas
03:27
that are so much more competent than we are
69
207720
2056
que são muito mais competentes que nós
03:29
that the slightest divergence between their goals and our own
70
209800
3776
que à mínima divergência entre os seus objetivos e os nossos
03:33
could destroy us.
71
213600
1200
podem destruir-nos.
03:35
Just think about how we relate to ants.
72
215960
2080
Basta pensar na nossa ligação às formigas.
03:38
We don't hate them.
73
218600
1656
Não as odiamos.
03:40
We don't go out of our way to harm them.
74
220280
2056
Não saímos do nosso caminho para as magoar.
03:42
In fact, sometimes we take pains not to harm them.
75
222360
2376
Até fazemos o necessário para não as magoar.
03:44
We step over them on the sidewalk.
76
224760
2016
Passamos por cima delas no passeio.
03:46
But whenever their presence
77
226800
2136
Mas quando a sua presença
03:48
seriously conflicts with one of our goals,
78
228960
2496
representa um conflito com um dos nossos objetivos,
03:51
let's say when constructing a building like this one,
79
231480
2477
digamos, quando construindo um edifício como este,
03:53
we annihilate them without a qualm.
80
233981
1960
eliminamo-las sem hesitação.
03:56
The concern is that we will one day build machines
81
236480
2936
O problema é que iremos um dia construir máquinas
03:59
that, whether they're conscious or not,
82
239440
2736
que, conscientes ou não,
04:02
could treat us with similar disregard.
83
242200
2000
podem tratar-nos com o mesmo desprezo.
04:05
Now, I suspect this seems far-fetched to many of you.
84
245760
2760
Suspeito que isto pareça exagerado para a maioria.
04:09
I bet there are those of you who doubt that superintelligent AI is possible,
85
249360
6336
Aposto que são os mesmos que duvidam da possibilidade duma IA superinteligente,
04:15
much less inevitable.
86
255720
1656
e, mais ainda, inevitável.
04:17
But then you must find something wrong with one of the following assumptions.
87
257400
3620
Então, devem encontrar algo de errado nas seguintes premissas.
04:21
And there are only three of them.
88
261044
1572
Só existem três.
04:23
Intelligence is a matter of information processing in physical systems.
89
263800
4719
A inteligência é uma questão de processamento de informação
em sistemas físicos.
04:29
Actually, this is a little bit more than an assumption.
90
269320
2615
Na verdade, isto é mais que uma premissa.
04:31
We have already built narrow intelligence into our machines,
91
271959
3457
Já construímos inteligência limitada nas nossas máquinas,
04:35
and many of these machines perform
92
275440
2016
e muitas dessas máquinas já funcionam
04:37
at a level of superhuman intelligence already.
93
277480
2640
a um nível de inteligência super-humana.
04:40
And we know that mere matter
94
280840
2576
Sabemos que mera matéria
04:43
can give rise to what is called "general intelligence,"
95
283440
2616
pode dar origem ao que chamamos "inteligência geral,"
04:46
an ability to think flexibly across multiple domains,
96
286080
3656
a capacidade de pensar flexivelmente em múltiplos domínios,
04:49
because our brains have managed it. Right?
97
289760
3136
porque o nosso cérebros conseguiu isso.
04:52
I mean, there's just atoms in here,
98
292920
3936
Quero dizer, aqui só há átomos.
04:56
and as long as we continue to build systems of atoms
99
296880
4496
Enquanto continuamos a construir sistemas de átomos
05:01
that display more and more intelligent behavior,
100
301400
2696
que demonstram cada vez mais um comportamento inteligente,
05:04
we will eventually, unless we are interrupted,
101
304120
2536
acabaremos — a não ser que sejamos interrompidos —
05:06
we will eventually build general intelligence
102
306680
3376
acabaremos por construir inteligência geral
05:10
into our machines.
103
310080
1296
nas nossas máquinas.
05:11
It's crucial to realize that the rate of progress doesn't matter,
104
311400
3656
É crucial entender que a velocidade do progresso não importa,
pois qualquer progresso é suficiente para nos levar ao final.
05:15
because any progress is enough to get us into the end zone.
105
315080
3176
05:18
We don't need Moore's law to continue. We don't need exponential progress.
106
318280
3776
Não precisamos da Lei de Moore nem de progresso exponencial
para continuar.
05:22
We just need to keep going.
107
322080
1600
Só precisamos de continuar.
05:25
The second assumption is that we will keep going.
108
325480
2920
A segunda premissa é que iremos continuar.
Continuaremos a melhorar as nossas máquinas inteligentes.
05:29
We will continue to improve our intelligent machines.
109
329000
2760
E devido ao valor da inteligência
05:33
And given the value of intelligence --
110
333000
4376
05:37
I mean, intelligence is either the source of everything we value
111
337400
3536
— quer dizer, inteligência ou é a fonte de tudo que valorizamos
05:40
or we need it to safeguard everything we value.
112
340960
2776
ou precisamos dela para salvaguardar tudo o que valorizamos.
05:43
It is our most valuable resource.
113
343760
2256
É o nosso recurso mais valioso.
05:46
So we want to do this.
114
346040
1536
Por isso, queremos fazer isto.
05:47
We have problems that we desperately need to solve.
115
347600
3336
Temos problemas que queremos desesperadamente resolver.
05:50
We want to cure diseases like Alzheimer's and cancer.
116
350960
3200
Queremos curar doenças como Alzheimer ou cancro.
05:54
We want to understand economic systems. We want to improve our climate science.
117
354960
3936
Queremos entender sistemas económicos e melhorar a nossa ciência climatérica.
05:58
So we will do this, if we can.
118
358920
2256
Por isso iremos fazê-lo, se conseguirmos,
06:01
The train is already out of the station, and there's no brake to pull.
119
361200
3286
O comboio já saiu da estação, e não há travão para acionar.
06:05
Finally, we don't stand on a peak of intelligence,
120
365880
5456
Finalmente, não estamos num pico da inteligência,
06:11
or anywhere near it, likely.
121
371360
1800
provavelmente, nem perto dela.
06:13
And this really is the crucial insight.
122
373640
1896
E isto é a visão crucial.
06:15
This is what makes our situation so precarious,
123
375560
2416
Isto é o que torna a nossa situação tão precária.
06:18
and this is what makes our intuitions about risk so unreliable.
124
378000
4040
Isto é o que torna tão incertas as nossas intuições de risco.
06:23
Now, just consider the smartest person who has ever lived.
125
383120
2720
Agora, pensem na pessoa mais inteligente de sempre.
06:26
On almost everyone's shortlist here is John von Neumann.
126
386640
3416
Na lista de quase toda a gente está John von Neumann.
A impressão que von Neumann deixou nas pessoas ao seu redor,
06:30
I mean, the impression that von Neumann made on the people around him,
127
390080
3336
06:33
and this included the greatest mathematicians and physicists of his time,
128
393440
4056
incluindo os melhores matemáticos e físicos do seu tempo,
06:37
is fairly well-documented.
129
397520
1936
está bem documentada.
06:39
If only half the stories about him are half true,
130
399480
3776
Se metade das histórias sobre ele são meio verdadeiras,
06:43
there's no question
131
403280
1216
não há dúvida
06:44
he's one of the smartest people who has ever lived.
132
404520
2456
que ele foi uma das pessoas mais inteligentes que existiu.
06:47
So consider the spectrum of intelligence.
133
407000
2520
Considerem o espetro da inteligência.
06:50
Here we have John von Neumann.
134
410320
1429
Aqui temos John von Neumann.
06:53
And then we have you and me.
135
413560
1334
E aqui estamos nós.
E aqui temos uma galinha.
06:56
And then we have a chicken.
136
416120
1296
06:57
(Laughter)
137
417440
1936
(Risos)
06:59
Sorry, a chicken.
138
419400
1216
Desculpem, uma galinha.
07:00
(Laughter)
139
420640
1256
(Risos)
07:01
There's no reason for me to make this talk more depressing than it needs to be.
140
421920
3736
Não preciso de tornar esta palestra ainda mais deprimente.
07:05
(Laughter)
141
425680
1600
(Risos)
07:08
It seems overwhelmingly likely, however, that the spectrum of intelligence
142
428339
3477
Mas parece muito provável que o espetro da inteligência
07:11
extends much further than we currently conceive,
143
431840
3120
se alargue muito mais além do que imaginamos.
07:15
and if we build machines that are more intelligent than we are,
144
435880
3216
Se construirmos máquinas mais inteligentes que nós,
iremos muito provavelmente explorar este espetro
07:19
they will very likely explore this spectrum
145
439120
2296
07:21
in ways that we can't imagine,
146
441440
1856
de formas inimagináveis,
07:23
and exceed us in ways that we can't imagine.
147
443320
2520
e superar-nos em formas, que não imaginávamos.
07:27
And it's important to recognize that this is true by virtue of speed alone.
148
447000
4336
É importante reconhecer que isto é verdade só por virtude da velocidade.
07:31
Right? So imagine if we just built a superintelligent AI
149
451360
5056
Imaginem que construímos uma IA superinteligente
07:36
that was no smarter than your average team of researchers
150
456440
3456
que não é mais inteligente que uma equipa normal de investigadores
07:39
at Stanford or MIT.
151
459920
2296
de Stanford ou do MIT.
Os circuitos eletrónicos funcionam um milhão de vezes mais depressa
07:42
Well, electronic circuits function about a million times faster
152
462240
2976
07:45
than biochemical ones,
153
465240
1256
do que os circuitos bioquímicos,
07:46
so this machine should think about a million times faster
154
466520
3136
por isso essa máquina iria pensar um milhão de vezes mais rápido
07:49
than the minds that built it.
155
469680
1816
do que as mentes que a construíram.
07:51
So you set it running for a week,
156
471520
1656
Pomo-la a funcionar durante uma semana,
07:53
and it will perform 20,000 years of human-level intellectual work,
157
473200
4560
e ela irá realizar 20 000 anos de trabalho intelectual humano,
07:58
week after week after week.
158
478400
1960
semana após semana.
08:01
How could we even understand, much less constrain,
159
481640
3096
Como podemos entender, e muito menos restringir,
08:04
a mind making this sort of progress?
160
484760
2280
uma mente que faz tal progresso?
08:08
The other thing that's worrying, frankly,
161
488840
2136
A outra coisa preocupante, honestamente...
08:11
is that, imagine the best case scenario.
162
491000
4976
Imaginem o melhor cenário possível.
Imaginem que chegamos ao "design" de uma IA superinteligente
08:16
So imagine we hit upon a design of superintelligent AI
163
496000
4176
08:20
that has no safety concerns.
164
500200
1376
sem problemas de segurança.
08:21
We have the perfect design the first time around.
165
501600
3256
Temos o "design" perfeito na primeira tentativa.
08:24
It's as though we've been handed an oracle
166
504880
2216
Seria como se nos tivessem dado um oráculo
08:27
that behaves exactly as intended.
167
507120
2016
cujo comportamento seria o esperado.
08:29
Well, this machine would be the perfect labor-saving device.
168
509160
3720
Esta máquina poderia ser a máquina perfeita para poupar trabalho.
08:33
It can design the machine that can build the machine
169
513680
2429
Poderia conceber a máquina para construir a máquina
08:36
that can do any physical work,
170
516133
1763
que pode fazer qualquer trabalho físico,
08:37
powered by sunlight,
171
517920
1456
usando energia solar,
08:39
more or less for the cost of raw materials.
172
519400
2696
mais ou menos ao custo das matérias-primas.
08:42
So we're talking about the end of human drudgery.
173
522120
3256
Estamos a falar do fim do trabalho duro humano
08:45
We're also talking about the end of most intellectual work.
174
525400
2800
Estamos também a falar do fim de maior parte do trabalho intelectual.
08:49
So what would apes like ourselves do in this circumstance?
175
529200
3056
O que fariam macacos como nós nestas circunstâncias?
08:52
Well, we'd be free to play Frisbee and give each other massages.
176
532280
4080
Teríamos tempo para jogar ao disco, e dar massagens uns aos outros.
08:57
Add some LSD and some questionable wardrobe choices,
177
537840
2856
Adicionem LSD e algumas escolhas duvidosas de roupa,
09:00
and the whole world could be like Burning Man.
178
540720
2176
e seria como o festival Burning Man por todo o mundo.
09:02
(Laughter)
179
542920
1640
(Risos)
09:06
Now, that might sound pretty good,
180
546320
2000
Isto até pode soar bem,
09:09
but ask yourself what would happen
181
549280
2376
mas questionem-se o que poderia aconteceu
09:11
under our current economic and political order?
182
551680
2736
na nossa ordem atual económica e política?
09:14
It seems likely that we would witness
183
554440
2416
Parece que poderíamos testemunhar
09:16
a level of wealth inequality and unemployment
184
556880
4136
um nível de desigualdade de riqueza
e desemprego como nunca vimos antes.
09:21
that we have never seen before.
185
561040
1496
09:22
Absent a willingness to immediately put this new wealth
186
562560
2616
Se não existir a vontade de colocar essa riqueza
imediatamente ao serviço de toda a humanidade,
09:25
to the service of all humanity,
187
565200
1480
09:27
a few trillionaires could grace the covers of our business magazines
188
567640
3616
alguns multimilionários poderiam figurar nas capas das nossas revistas de negócios
09:31
while the rest of the world would be free to starve.
189
571280
2440
enquanto o resto do mundo estaria à fome.
09:34
And what would the Russians or the Chinese do
190
574320
2296
E o que fariam os russos ou os chineses
09:36
if they heard that some company in Silicon Valley
191
576640
2616
se soubessem que alguma companhia em Silicon Valley
09:39
was about to deploy a superintelligent AI?
192
579280
2736
estaria prestes a implementar uma IA superinteligente?
09:42
This machine would be capable of waging war,
193
582040
2856
Essa máquina seria capaz de fazer a guerra,
09:44
whether terrestrial or cyber,
194
584920
2216
terrestre ou cibernética,
09:47
with unprecedented power.
195
587160
1680
com um poder inédito.
Isto é um cenário de "o vencedor leva tudo".
09:50
This is a winner-take-all scenario.
196
590120
1856
09:52
To be six months ahead of the competition here
197
592000
3136
Estar seis meses adiantado nesta competição
09:55
is to be 500,000 years ahead,
198
595160
2776
é como estar 500 000 anos adiantado,
09:57
at a minimum.
199
597960
1496
no mínimo.
09:59
So it seems that even mere rumors of this kind of breakthrough
200
599480
4736
Parece que os meros rumores deste tipo de inovação
10:04
could cause our species to go berserk.
201
604240
2376
poderiam descontrolar a nossa espécie.
10:06
Now, one of the most frightening things,
202
606640
2896
Uma das coisas mais assustadoras,
10:09
in my view, at this moment,
203
609560
2776
na minha perspetiva, neste momento,
10:12
are the kinds of things that AI researchers say
204
612360
4296
são o tipo de coisas que os investigadores da IA dizem
10:16
when they want to be reassuring.
205
616680
1560
quando querem tranquilizar-nos.
10:19
And the most common reason we're told not to worry is time.
206
619000
3456
O motivo mais comum que invocam para não nos preocuparmos é o tempo.
10:22
This is all a long way off, don't you know.
207
622480
2056
"Não sabem que isto ainda vem longe?
10:24
This is probably 50 or 100 years away.
208
624560
2440
"Só daqui a 50 ou 100 anos".
10:27
One researcher has said,
209
627720
1256
Um investigador disse:
10:29
"Worrying about AI safety
210
629000
1576
"Preocupar-se com a segurança da IA
10:30
is like worrying about overpopulation on Mars."
211
630600
2280
"é como preocupar-se com o excesso de população em Marte."
Esta é a versão de Silicon Valley
10:34
This is the Silicon Valley version
212
634116
1620
10:35
of "don't worry your pretty little head about it."
213
635760
2376
de "não preocupem a vossa cabeça com isto."
10:38
(Laughter)
214
638160
1336
(Risos)
10:39
No one seems to notice
215
639520
1896
Ninguém parece notar
10:41
that referencing the time horizon
216
641440
2616
que mencionar o horizonte do tempo
10:44
is a total non sequitur.
217
644080
2576
é um total "não se segue".
10:46
If intelligence is just a matter of information processing,
218
646680
3256
Se a inteligência é apenas uma questão de processamento de informação,
10:49
and we continue to improve our machines,
219
649960
2656
e continuarmos a melhorar as nossas máquinas,
10:52
we will produce some form of superintelligence.
220
652640
2880
iremos produzir alguma forma de superinteligência.
10:56
And we have no idea how long it will take us
221
656320
3656
Não fazemos ideia quanto tempo iremos demorar
a criar as condições para o fazer em segurança.
11:00
to create the conditions to do that safely.
222
660000
2400
11:04
Let me say that again.
223
664200
1296
Vou repetir.
11:05
We have no idea how long it will take us
224
665520
3816
Não sabemos quanto tempo vamos demorar
11:09
to create the conditions to do that safely.
225
669360
2240
para criar as condições para fazê-lo em segurança.
11:12
And if you haven't noticed, 50 years is not what it used to be.
226
672920
3456
Se ainda não repararam, 50 anos não é o que era dantes.
11:16
This is 50 years in months.
227
676400
2456
Isto são 50 anos em meses.
11:18
This is how long we've had the iPhone.
228
678880
1840
Isto é o tempo desde que temos o iPhone.
11:21
This is how long "The Simpsons" has been on television.
229
681440
2600
Isto é o tempo em que "Os Simpsons" têm estado na TV.
11:24
Fifty years is not that much time
230
684680
2376
50 anos não é assim tanto tempo
11:27
to meet one of the greatest challenges our species will ever face.
231
687080
3160
para ir de encontro aos maiores desafios que a nossa espécie irá enfrentar.
11:31
Once again, we seem to be failing to have an appropriate emotional response
232
691640
4016
Mais uma vez, parecemos estar a falhar em ter uma resposta emocional apropriada
11:35
to what we have every reason to believe is coming.
233
695680
2696
para o que acreditamos que está para vir.
11:38
The computer scientist Stuart Russell has a nice analogy here.
234
698400
3976
O cientista informático Stuart Russell tem uma boa analogia para isto.
11:42
He said, imagine that we received a message from an alien civilization,
235
702400
4896
Disse: "Imaginem que recebemos uma mensagem de uma civilização alienígena,
11:47
which read:
236
707320
1696
"que diz:
" 'Habitantes da Terra,
11:49
"People of Earth,
237
709040
1536
11:50
we will arrive on your planet in 50 years.
238
710600
2360
" vamos chegar ao vosso planeta dentro de 50 anos.
11:53
Get ready."
239
713800
1576
" 'Preparem-se'."
11:55
And now we're just counting down the months until the mothership lands?
240
715400
4256
Vamos contar os meses até a nave-mãe aterrar?
11:59
We would feel a little more urgency than we do.
241
719680
3000
Sentiríamos mais urgência do que o habitual.
12:04
Another reason we're told not to worry
242
724680
1856
Outro motivo que nos dão para não nos preocuparmos
12:06
is that these machines can't help but share our values
243
726560
3016
é que estas máquinas vão partilhar os nossos valores
12:09
because they will be literally extensions of ourselves.
244
729600
2616
pois serão literalmente extensões de nós próprios.
12:12
They'll be grafted onto our brains,
245
732240
1816
Serão implantadas no nosso cérebro,
12:14
and we'll essentially become their limbic systems.
246
734080
2360
e seremos os seus sistemas límbicos.
Parem um momento para considerar
12:17
Now take a moment to consider
247
737120
1416
12:18
that the safest and only prudent path forward,
248
738560
3176
que o caminho mais prudente e seguro,
12:21
recommended,
249
741760
1336
o caminho recomendado,
12:23
is to implant this technology directly into our brains.
250
743120
2800
é implantar esta tecnologia diretamente no nosso cérebro.
12:26
Now, this may in fact be the safest and only prudent path forward,
251
746600
3376
Isso poderá de facto ser o caminho mais prudente e seguro,
12:30
but usually one's safety concerns about a technology
252
750000
3056
mas normalmente as questões de segurança de uma tecnologia
12:33
have to be pretty much worked out before you stick it inside your head.
253
753080
3656
devem estar bem trabalhadas antes de serem enfiadas na nossa cabeça.
12:36
(Laughter)
254
756760
2016
(Risos)
12:38
The deeper problem is that building superintelligent AI on its own
255
758800
5336
O maior problema é que construir IA superinteligente, por si só,
parece ser mais fácil
12:44
seems likely to be easier
256
764160
1736
12:45
than building superintelligent AI
257
765920
1856
do que construir IA superinteligente
12:47
and having the completed neuroscience
258
767800
1776
e ter a neurociência completa
12:49
that allows us to seamlessly integrate our minds with it.
259
769600
2680
que nos permita integrar facilmente as nossas mentes com isso.
12:52
And given that the companies and governments doing this work
260
772800
3176
Sabendo que as companhias e os governos que fazem este trabalho
12:56
are likely to perceive themselves as being in a race against all others,
261
776000
3656
provavelmente se consideram numa corrida contra todos os outros,
12:59
given that to win this race is to win the world,
262
779680
3256
sendo que ganhar esta corrida, é ganhar o mundo,
13:02
provided you don't destroy it in the next moment,
263
782960
2456
desde que não o destruam logo a seguir,
13:05
then it seems likely that whatever is easier to do
264
785440
2616
então é evidente que o que for mais fácil
13:08
will get done first.
265
788080
1200
será o primeiro a ser feito.
13:10
Now, unfortunately, I don't have a solution to this problem,
266
790560
2856
Infelizmente, não tenho a solução para este problema,
13:13
apart from recommending that more of us think about it.
267
793440
2616
apenas posso recomendar que pensemos mais nisto.
Acho que precisamos de algo como o Projeto Manhattan
13:16
I think we need something like a Manhattan Project
268
796080
2376
13:18
on the topic of artificial intelligence.
269
798480
2016
no tópico da inteligência artificial.
13:20
Not to build it, because I think we'll inevitably do that,
270
800520
2736
Não para a construir —acho que o faremos inevitavelmente —
13:23
but to understand how to avoid an arms race
271
803280
3336
mas para compreender como evitar uma corrida ao armamento
13:26
and to build it in a way that is aligned with our interests.
272
806640
3496
e para a construir de forma a estar alinhada com os nossos interesses.
Quando falamos na IA superinteligente
13:30
When you're talking about superintelligent AI
273
810160
2136
13:32
that can make changes to itself,
274
812320
2256
que pode alterar-se a si mesma,
13:34
it seems that we only have one chance to get the initial conditions right,
275
814600
4616
parece que só temos uma hipótese
para conseguir as condições iniciais corretas,
13:39
and even then we will need to absorb
276
819240
2056
e mesmo assim precisaremos de absorver
13:41
the economic and political consequences of getting them right.
277
821320
3040
as consequências económicas e politicas para conseguir tal.
13:45
But the moment we admit
278
825760
2056
Mas a partir do momento em que admitirmos
13:47
that information processing is the source of intelligence,
279
827840
4000
que o processamento de informação é a fonte de inteligência,
13:52
that some appropriate computational system is what the basis of intelligence is,
280
832720
4800
que algum sistema informático apropriado é a base de inteligência,
13:58
and we admit that we will improve these systems continuously,
281
838360
3760
e admitirmos que iremos melhorar estes sistemas de forma contínua,
14:03
and we admit that the horizon of cognition very likely far exceeds
282
843280
4456
e admitirmos que o horizonte da cognição
provavelmente ultrapassa o que conhecemos agora,
14:07
what we currently know,
283
847760
1200
então temos de admitir
14:10
then we have to admit
284
850120
1216
14:11
that we are in the process of building some sort of god.
285
851360
2640
que estamos no processo de construir uma espécie de deus.
14:15
Now would be a good time
286
855400
1576
Agora seria uma boa altura de certificarmo-nos
14:17
to make sure it's a god we can live with.
287
857000
1953
que seja um deus com quem queremos viver.
Muito obrigado.
14:20
Thank you very much.
288
860120
1536
14:21
(Applause)
289
861680
5093
(Aplausos)
Sobre este site

Este sítio irá apresentar-lhe vídeos do YouTube que são úteis para a aprendizagem do inglês. Verá lições de inglês ensinadas por professores de primeira linha de todo o mundo. Faça duplo clique nas legendas em inglês apresentadas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas deslocam-se em sincronia com a reprodução do vídeo. Se tiver quaisquer comentários ou pedidos, por favor contacte-nos utilizando este formulário de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7