Can we build AI without losing control over it? | Sam Harris

3,795,136 views ・ 2016-10-19

TED


Por favor, clique duas vezes nas legendas em inglês abaixo para reproduzir o vídeo.

Tradutor: Laura Amaral Revisor: Cristiano Garcia
00:13
I'm going to talk about a failure of intuition
0
13000
2216
Vou falar sobre uma falha intuitiva
00:15
that many of us suffer from.
1
15240
1600
que afeta muitos de nós.
00:17
It's really a failure to detect a certain kind of danger.
2
17480
3040
É a falha de reconhecer certo perigo.
00:21
I'm going to describe a scenario
3
21360
1736
Eu vou descrever uma situação
00:23
that I think is both terrifying
4
23120
3256
que considero aterrorizante
00:26
and likely to occur,
5
26400
1760
e provável de acontecer,
00:28
and that's not a good combination,
6
28840
1656
e não é uma boa combinação,
00:30
as it turns out.
7
30520
1536
ao que parece.
Mesmo assim, em vez de sentir medo,
00:32
And yet rather than be scared, most of you will feel
8
32080
2456
a maioria vai achar legal o que vou falar.
00:34
that what I'm talking about is kind of cool.
9
34560
2080
00:37
I'm going to describe how the gains we make
10
37200
2976
Vou descrever como nossas conquistas
00:40
in artificial intelligence
11
40200
1776
na área da inteligência artificial
00:42
could ultimately destroy us.
12
42000
1776
poderão nos destruir.
00:43
And in fact, I think it's very difficult to see how they won't destroy us
13
43800
3456
Na verdade, acho muito difícil ver como elas não vão nos destruir,
00:47
or inspire us to destroy ourselves.
14
47280
1680
ou nos inspirar a nos destruirmos.
00:49
And yet if you're anything like me,
15
49400
1856
E se você é como eu,
00:51
you'll find that it's fun to think about these things.
16
51280
2656
vai descobrir que é divertido pensar sobre essas coisas.
00:53
And that response is part of the problem.
17
53960
3376
E essa resposta é parte do problema.
00:57
OK? That response should worry you.
18
57360
1720
OK? Essa resposta deve te preocupar.
00:59
And if I were to convince you in this talk
19
59920
2656
Se eu quisesse te convencer nessa palestra
01:02
that we were likely to suffer a global famine,
20
62600
3416
de que a fome mundial é provável,
01:06
either because of climate change or some other catastrophe,
21
66040
3056
por causa do aquecimento global ou qualquer outra catástrofe,
01:09
and that your grandchildren, or their grandchildren,
22
69120
3416
e de que seus netos e os netos dos seus netos
01:12
are very likely to live like this,
23
72560
1800
provavelmente viverão assim,
01:15
you wouldn't think,
24
75200
1200
você não pensaria:
01:17
"Interesting.
25
77440
1336
"Interessante.
01:18
I like this TED Talk."
26
78800
1200
Gostei dessa Palestra TED."
01:21
Famine isn't fun.
27
81200
1520
Fome não é divertido.
01:23
Death by science fiction, on the other hand, is fun,
28
83800
3376
Morte por ficção científica, por outro lado, é divertida,
01:27
and one of the things that worries me most about the development of AI at this point
29
87200
3976
e uma das coisas que mais me preocupa no desenvolvimento de IA nesse ponto
é que somos incapazes de organizar uma resposta emocional apropriada
01:31
is that we seem unable to marshal an appropriate emotional response
30
91200
4096
01:35
to the dangers that lie ahead.
31
95320
1816
para os perigos que estão à frente.
01:37
I am unable to marshal this response, and I'm giving this talk.
32
97160
3200
Eu sou incapaz de ordenar essa resposta, e estou dando esta palestra.
01:42
It's as though we stand before two doors.
33
102120
2696
É como se estivéssemos diante de duas portas.
01:44
Behind door number one,
34
104840
1256
Na porta de número 1,
01:46
we stop making progress in building intelligent machines.
35
106120
3296
paramos de progredir na área de IA.
01:49
Our computer hardware and software just stops getting better for some reason.
36
109440
4016
Nossos softwares e hardwares param de melhorar por algum motivo.
01:53
Now take a moment to consider why this might happen.
37
113480
3000
Pare um pouco para refletir por que isso pode acontecer.
01:57
I mean, given how valuable intelligence and automation are,
38
117080
3656
Dado que automação e inteligência são valiosos,
02:00
we will continue to improve our technology if we are at all able to.
39
120760
3520
continuaremos a melhorar nossa tecnologia, se isso for possível.
02:05
What could stop us from doing this?
40
125200
1667
O que poderia nos impedir de fazer isso?
02:07
A full-scale nuclear war?
41
127800
1800
Uma guerra nuclear em grande escala?
02:11
A global pandemic?
42
131000
1560
Uma pandemia global?
02:14
An asteroid impact?
43
134320
1320
A colisão de um asteroide?
02:17
Justin Bieber becoming president of the United States?
44
137640
2576
Justin Bieber como presidente dos Estado Unidos?
02:20
(Laughter)
45
140240
2280
(Risadas)
02:24
The point is, something would have to destroy civilization as we know it.
46
144760
3920
A questão é que algo teria que destruir a civilização que nós conhecemos.
02:29
You have to imagine how bad it would have to be
47
149360
4296
Você precisa imaginar o quão ruim teria que ser
02:33
to prevent us from making improvements in our technology
48
153680
3336
para impedir os avanços da nossa tecnologia
02:37
permanently,
49
157040
1216
permanentemente,
02:38
generation after generation.
50
158280
2016
geração após geração.
02:40
Almost by definition, this is the worst thing
51
160320
2136
Quase que por definição, essa é a pior coisa
02:42
that's ever happened in human history.
52
162480
2016
que já aconteceu na história humana.
02:44
So the only alternative,
53
164520
1296
A única alternativa,
02:45
and this is what lies behind door number two,
54
165840
2336
e é o que está atrás da porta de número 2,
02:48
is that we continue to improve our intelligent machines
55
168200
3136
é que continuemos a aprimorar nossas máquinas inteligentes,
02:51
year after year after year.
56
171360
1600
ano após ano.
02:53
At a certain point, we will build machines that are smarter than we are,
57
173720
3640
Em algum ponto, construiremos máquinas mais inteligentes que nós,
02:58
and once we have machines that are smarter than we are,
58
178080
2616
e uma vez que isso acontecer,
03:00
they will begin to improve themselves.
59
180720
1976
elas aperfeiçoarão a si mesmas.
03:02
And then we risk what the mathematician IJ Good called
60
182720
2736
E nós arriscamos o que o matemático I. J. Good chamou
03:05
an "intelligence explosion,"
61
185480
1776
de "explosão de inteligência",
03:07
that the process could get away from us.
62
187280
2000
que o processo poderia fugir do controle.
03:10
Now, this is often caricatured, as I have here,
63
190120
2816
Isso é frequentemente caricaturado, desse jeito aqui,
03:12
as a fear that armies of malicious robots
64
192960
3216
como medo de que exércitos de robôs malignos
03:16
will attack us.
65
196200
1256
nos ataquem.
03:17
But that isn't the most likely scenario.
66
197480
2696
Mas essa não é a situação mais provável.
03:20
It's not that our machines will become spontaneously malevolent.
67
200200
4856
Não é que nossas máquinas se tornarão espontaneamente más.
03:25
The concern is really that we will build machines
68
205080
2616
A preocupação é que construiremos máquinas
03:27
that are so much more competent than we are
69
207720
2056
que são muito mais competentes do que nós,
03:29
that the slightest divergence between their goals and our own
70
209800
3776
e que a menor das divergências entre nosso propósito e o delas
03:33
could destroy us.
71
213600
1200
possa nos destruir.
03:35
Just think about how we relate to ants.
72
215960
2080
Pense na nossa relação com as formigas.
03:38
We don't hate them.
73
218600
1656
Nós não as odiamos.
03:40
We don't go out of our way to harm them.
74
220280
2056
Nós não as machucamos de propósito.
03:42
In fact, sometimes we take pains not to harm them.
75
222360
2376
Na verdade, nós tentamos não machucar elas.
03:44
We step over them on the sidewalk.
76
224760
2016
Evitamos pisá-las na calçada.
03:46
But whenever their presence
77
226800
2136
Mas sempre que a presença delas
03:48
seriously conflicts with one of our goals,
78
228960
2496
colide com um dos nossos objetivos,
03:51
let's say when constructing a building like this one,
79
231480
2477
digamos que ao construirmos um prédio como este,
03:53
we annihilate them without a qualm.
80
233981
1960
nós exterminamos elas sem a menor cerimônia.
03:56
The concern is that we will one day build machines
81
236480
2936
A preocupação é que um dia vamos construir máquinas
03:59
that, whether they're conscious or not,
82
239440
2736
que, conscientes ou não,
04:02
could treat us with similar disregard.
83
242200
2000
poderão nos tratar com o mesmo desprezo.
04:05
Now, I suspect this seems far-fetched to many of you.
84
245760
2760
Eu suspeito que isso pareça difícil de acreditar para vocês.
04:09
I bet there are those of you who doubt that superintelligent AI is possible,
85
249360
6336
Aposto que alguns de vocês duvidam que uma IA superinteligente seja possível,
04:15
much less inevitable.
86
255720
1656
muito menos inevitável.
04:17
But then you must find something wrong with one of the following assumptions.
87
257400
3620
Mas então você precisar achar algo de errado com as seguintes suposições.
04:21
And there are only three of them.
88
261044
1572
E existem apenas três.
04:23
Intelligence is a matter of information processing in physical systems.
89
263800
4719
Inteligência é uma questão de processamento de informação
em sistemas físicos.
04:29
Actually, this is a little bit more than an assumption.
90
269320
2615
Na verdade, isso é mais do que uma suposição.
04:31
We have already built narrow intelligence into our machines,
91
271959
3457
Nós já construímos inteligência limitada em nossas máquinas,
04:35
and many of these machines perform
92
275440
2016
e muitas delas já trabalham num nível de inteligência sobre-humano.
04:37
at a level of superhuman intelligence already.
93
277480
2640
04:40
And we know that mere matter
94
280840
2576
E sabemos que matéria comum
04:43
can give rise to what is called "general intelligence,"
95
283440
2616
pode dar origem ao que é chamado de "inteligência geral",
04:46
an ability to think flexibly across multiple domains,
96
286080
3656
a habilidade de pensar de forma flexível em vários domínios,
04:49
because our brains have managed it. Right?
97
289760
3136
porque nossos cérebros conseguiram isso. Certo?
04:52
I mean, there's just atoms in here,
98
292920
3936
Existem apenas átomos aqui,
04:56
and as long as we continue to build systems of atoms
99
296880
4496
e desde que continuemos a construir sistemas de átomos
05:01
that display more and more intelligent behavior,
100
301400
2696
que mostrem mais e mais comportamento inteligente,
05:04
we will eventually, unless we are interrupted,
101
304120
2536
a não ser que nos interrompam,
05:06
we will eventually build general intelligence
102
306680
3376
vamos acabar construindo inteligência geral
05:10
into our machines.
103
310080
1296
dentro de nossas máquinas.
05:11
It's crucial to realize that the rate of progress doesn't matter,
104
311400
3656
É crucial perceber que a taxa de progresso não importa,
05:15
because any progress is enough to get us into the end zone.
105
315080
3176
porque qualquer progresso é suficiente para nos levar até a zona final.
05:18
We don't need Moore's law to continue. We don't need exponential progress.
106
318280
3776
Não precisamos da Lei de Moore para continuar,
Não precisamos de progresso exponencial, só precisamos continuar.
05:22
We just need to keep going.
107
322080
1600
05:25
The second assumption is that we will keep going.
108
325480
2920
A segunda suposição é que vamos continuar.
05:29
We will continue to improve our intelligent machines.
109
329000
2760
Continuaremos a melhorar nossas máquinas inteligentes.
05:33
And given the value of intelligence --
110
333000
4376
E dado o valor da inteligência...
05:37
I mean, intelligence is either the source of everything we value
111
337400
3536
Inteligência ou é a fonte de tudo aquilo que valorizamos
05:40
or we need it to safeguard everything we value.
112
340960
2776
ou precisamos dela para que proteja aquilo que valorizamos.
05:43
It is our most valuable resource.
113
343760
2256
É a nossa fonte mais valiosa.
05:46
So we want to do this.
114
346040
1536
Então nós queremos fazer isso.
05:47
We have problems that we desperately need to solve.
115
347600
3336
Temos problemas que precisamos resolver urgentemente.
05:50
We want to cure diseases like Alzheimer's and cancer.
116
350960
3200
Queremos curar doenças como Alzheimer e câncer.
05:54
We want to understand economic systems. We want to improve our climate science.
117
354960
3936
Queremos entender sistemas econômicos. Queremos aprimorar a ciência climática.
05:58
So we will do this, if we can.
118
358920
2256
Nós faremos isso, se pudermos.
06:01
The train is already out of the station, and there's no brake to pull.
119
361200
3286
O trem já saiu da estação, e não há freio para puxar.
06:05
Finally, we don't stand on a peak of intelligence,
120
365880
5456
Finalmente, não estamos em um pico de inteligência,
06:11
or anywhere near it, likely.
121
371360
1800
não estamos nem perto disso.
06:13
And this really is the crucial insight.
122
373640
1896
E essa é a percepção crucial.
06:15
This is what makes our situation so precarious,
123
375560
2416
Isso é o que faz a nossa situação ser tão precária
06:18
and this is what makes our intuitions about risk so unreliable.
124
378000
4040
e a nossa intuição sobre riscos não ser confiável.
06:23
Now, just consider the smartest person who has ever lived.
125
383120
2720
Pense na pessoa mais inteligente que já existiu.
06:26
On almost everyone's shortlist here is John von Neumann.
126
386640
3416
Na lista de quase todos aqui está John von Neumann.
06:30
I mean, the impression that von Neumann made on the people around him,
127
390080
3336
A impressão que ele causou nas pessoas ao seu redor,
06:33
and this included the greatest mathematicians and physicists of his time,
128
393440
4056
e isso inclui os melhores matemáticos e físicos de seu tempo,
06:37
is fairly well-documented.
129
397520
1936
está muito bem documentada.
06:39
If only half the stories about him are half true,
130
399480
3776
Se apenas metade das histórias sobre ele forem meio verdadeiras,
06:43
there's no question
131
403280
1216
não há dúvida de que ele foi uma das pessoas mais inteligentes que já existiu.
06:44
he's one of the smartest people who has ever lived.
132
404520
2456
Considere o espectro da inteligência.
06:47
So consider the spectrum of intelligence.
133
407000
2520
06:50
Here we have John von Neumann.
134
410320
1429
Aqui temos John von Neumann.
06:53
And then we have you and me.
135
413560
1334
E aqui temos eu e você.
06:56
And then we have a chicken.
136
416120
1296
E aqui temos uma galinha.
06:57
(Laughter)
137
417440
1936
(Risadas)
06:59
Sorry, a chicken.
138
419400
1216
Perdão, uma galinha.
07:00
(Laughter)
139
420640
1256
(Risadas)
07:01
There's no reason for me to make this talk more depressing than it needs to be.
140
421920
3736
Não existe razão pra que eu torne isso mais depressivo do que precisa ser.
07:05
(Laughter)
141
425680
1600
(Risadas)
07:08
It seems overwhelmingly likely, however, that the spectrum of intelligence
142
428339
3477
Parece extremamente provável, no entanto, que esse espectro da inteligência
07:11
extends much further than we currently conceive,
143
431840
3120
se estenda muito além do que pensamos,
07:15
and if we build machines that are more intelligent than we are,
144
435880
3216
e se construirmos máquinas mais inteligentes do que nós,
07:19
they will very likely explore this spectrum
145
439120
2296
elas provavelmente vão explorar esse espectro
07:21
in ways that we can't imagine,
146
441440
1856
de maneiras que não podemos imaginar,
07:23
and exceed us in ways that we can't imagine.
147
443320
2520
e vão nos ultrapassar de formas inimagináveis.
07:27
And it's important to recognize that this is true by virtue of speed alone.
148
447000
4336
E é importante reconhecer que isso é verdade apenas pela velocidade.
07:31
Right? So imagine if we just built a superintelligent AI
149
451360
5056
Imagine se construíssemos uma IA superinteligente
07:36
that was no smarter than your average team of researchers
150
456440
3456
que não fosse mais inteligente do que seu time mediano de pesquisadores
07:39
at Stanford or MIT.
151
459920
2296
em Stanford ou no MIT.
07:42
Well, electronic circuits function about a million times faster
152
462240
2976
Circuitos eletrônicos funcionam quase 1 milhão de vezes mais rápido
07:45
than biochemical ones,
153
465240
1256
do que os biológicos,
07:46
so this machine should think about a million times faster
154
466520
3136
então essa máquina deve pensar 1 milhão de vezes mais rápido
07:49
than the minds that built it.
155
469680
1816
do que a mente que a criou.
07:51
So you set it running for a week,
156
471520
1656
Você deixa ela funcionando por uma semana,
07:53
and it will perform 20,000 years of human-level intellectual work,
157
473200
4560
e ela vai realizar 20 mil anos humanos de trabalho intelectual,
07:58
week after week after week.
158
478400
1960
semana após semana.
08:01
How could we even understand, much less constrain,
159
481640
3096
Como poderíamos entender, muito menos restringir,
08:04
a mind making this sort of progress?
160
484760
2280
uma mente progredindo dessa maneira?
08:08
The other thing that's worrying, frankly,
161
488840
2136
Outra coisa que é preocupante, francamente,
08:11
is that, imagine the best case scenario.
162
491000
4976
é... imagine o melhor cenário possível.
08:16
So imagine we hit upon a design of superintelligent AI
163
496000
4176
Imagine que nos deparamos com o design de uma IA superinteligente
08:20
that has no safety concerns.
164
500200
1376
que não tem problemas de segurança.
08:21
We have the perfect design the first time around.
165
501600
3256
Temos o design perfeito pela primeira vez.
08:24
It's as though we've been handed an oracle
166
504880
2216
É como se tivéssemos recebido um oráculo
08:27
that behaves exactly as intended.
167
507120
2016
que se comporta como deve.
08:29
Well, this machine would be the perfect labor-saving device.
168
509160
3720
Essa máquina seria o perfeito dispositivo de economia de trabalho.
08:33
It can design the machine that can build the machine
169
513680
2429
Pode desenvolver a máquina que pode construir a máquina
que pode executar qualquer trabalho físico,
08:36
that can do any physical work,
170
516133
1763
08:37
powered by sunlight,
171
517920
1456
movido à luz solar,
08:39
more or less for the cost of raw materials.
172
519400
2696
por mais ou menos o custo da matéria-prima.
08:42
So we're talking about the end of human drudgery.
173
522120
3256
Estamos falando do fim do esforço físico humano.
08:45
We're also talking about the end of most intellectual work.
174
525400
2800
Também estamos falando do fim da maior parte do trabalho intelectual.
08:49
So what would apes like ourselves do in this circumstance?
175
529200
3056
O que símios como nós fariam nessas circunstâncias?
08:52
Well, we'd be free to play Frisbee and give each other massages.
176
532280
4080
Estaríamos livres para jogar Frisbee e massagear uns aos outros.
08:57
Add some LSD and some questionable wardrobe choices,
177
537840
2856
Adicione LSD e escolhas de roupas questionáveis,
09:00
and the whole world could be like Burning Man.
178
540720
2176
e o mundo inteiro seria como o Festival Burning Man.
09:02
(Laughter)
179
542920
1640
(Risadas)
09:06
Now, that might sound pretty good,
180
546320
2000
Pode até parecer muito bom,
09:09
but ask yourself what would happen
181
549280
2376
mas se pergunte: o que aconteceria
09:11
under our current economic and political order?
182
551680
2736
sob a atual economia e ordem política?
09:14
It seems likely that we would witness
183
554440
2416
Possivelmente, iríamos presenciar
09:16
a level of wealth inequality and unemployment
184
556880
4136
um nível de desigualdade de riqueza e desemprego
09:21
that we have never seen before.
185
561040
1496
nunca visto antes.
09:22
Absent a willingness to immediately put this new wealth
186
562560
2616
Sem a vontade de colocar imediatamente essa riqueza
09:25
to the service of all humanity,
187
565200
1480
a serviço da humanidade,
09:27
a few trillionaires could grace the covers of our business magazines
188
567640
3616
alguns poucos trilionários apareceriam nas capas das revistas de negócios,
09:31
while the rest of the world would be free to starve.
189
571280
2440
enquanto o resto do mundo passaria fome.
09:34
And what would the Russians or the Chinese do
190
574320
2296
E o que os russos e os chineses fariam
09:36
if they heard that some company in Silicon Valley
191
576640
2616
se soubessem que uma empresa no Vale do Silício
09:39
was about to deploy a superintelligent AI?
192
579280
2736
estivesse pronta para implantar uma IA superinteligente?
09:42
This machine would be capable of waging war,
193
582040
2856
Essa máquina seria capaz de travar uma guerra,
09:44
whether terrestrial or cyber,
194
584920
2216
terrestre ou cibernética,
09:47
with unprecedented power.
195
587160
1680
com poder sem precedente.
09:50
This is a winner-take-all scenario.
196
590120
1856
É um cenário onde o vencedor leva tudo.
09:52
To be six months ahead of the competition here
197
592000
3136
Estar seis meses à frente da competição
09:55
is to be 500,000 years ahead,
198
595160
2776
é como estar 500 mil anos adiantado,
09:57
at a minimum.
199
597960
1496
no mínimo.
09:59
So it seems that even mere rumors of this kind of breakthrough
200
599480
4736
Parece que mesmo os meros rumores desse tipo de avanço
10:04
could cause our species to go berserk.
201
604240
2376
poderiam causar fúria em nossa espécie.
10:06
Now, one of the most frightening things,
202
606640
2896
Uma das coisas mais assustadoras,
10:09
in my view, at this moment,
203
609560
2776
na minha opinião, nesse momento,
10:12
are the kinds of things that AI researchers say
204
612360
4296
são os tipos de coisas que os pesquisadores de IA dizem
10:16
when they want to be reassuring.
205
616680
1560
quando querem nos tranquilizar.
10:19
And the most common reason we're told not to worry is time.
206
619000
3456
E eles nos dizem para não nos preocuparmos com o tempo.
10:22
This is all a long way off, don't you know.
207
622480
2056
Esse é um caminho longo, se você não sabe.
10:24
This is probably 50 or 100 years away.
208
624560
2440
Provavelmente está a 50, 100 anos de distância.
10:27
One researcher has said,
209
627720
1256
Um pesquisador disse:
10:29
"Worrying about AI safety
210
629000
1576
"Se preocupar com a segurança de IA
10:30
is like worrying about overpopulation on Mars."
211
630600
2280
é como se preocupar com a superpopulação em Marte."
10:34
This is the Silicon Valley version
212
634116
1620
Essa é a versão do Vale do Silício
10:35
of "don't worry your pretty little head about it."
213
635760
2376
para que você "não esquente sua cabecinha linda."
10:38
(Laughter)
214
638160
1336
(Risadas)
10:39
No one seems to notice
215
639520
1896
Ninguém parece perceber
10:41
that referencing the time horizon
216
641440
2616
que fazer referência ao tempo
10:44
is a total non sequitur.
217
644080
2576
é um argumento inválido.
10:46
If intelligence is just a matter of information processing,
218
646680
3256
Se inteligência é questão de processamento de informação,
10:49
and we continue to improve our machines,
219
649960
2656
e se continuarmos a aperfeiçoar nossas máquinas,
10:52
we will produce some form of superintelligence.
220
652640
2880
produziremos alguma forma de superinteligência.
10:56
And we have no idea how long it will take us
221
656320
3656
E não temos ideia de quanto tempo vai demorar
11:00
to create the conditions to do that safely.
222
660000
2400
para fazer isso de forma segura.
11:04
Let me say that again.
223
664200
1296
Vou dizer novamente.
11:05
We have no idea how long it will take us
224
665520
3816
Não temos ideia de quanto tempo vai levar
11:09
to create the conditions to do that safely.
225
669360
2240
para fazer isso de forma segura.
11:12
And if you haven't noticed, 50 years is not what it used to be.
226
672920
3456
E se você não percebeu, 50 anos não são mais o que costumavam ser.
11:16
This is 50 years in months.
227
676400
2456
Isso são 50 anos em meses.
11:18
This is how long we've had the iPhone.
228
678880
1840
Esta é a idade que tem o iPhone.
11:21
This is how long "The Simpsons" has been on television.
229
681440
2600
Este é o tempo que Os Simpsons está na televisão.
11:24
Fifty years is not that much time
230
684680
2376
Cinquenta anos não é muito tempo
11:27
to meet one of the greatest challenges our species will ever face.
231
687080
3160
para conhecer um dos maiores desafios que nossa espécie enfrentará.
11:31
Once again, we seem to be failing to have an appropriate emotional response
232
691640
4016
Novamente, parece que estamos falhando em uma reação emocional adequada
11:35
to what we have every reason to believe is coming.
233
695680
2696
a algo que, com certeza, está vindo.
11:38
The computer scientist Stuart Russell has a nice analogy here.
234
698400
3976
O cientista de computação Stuart Russell possui uma bela analogia:
11:42
He said, imagine that we received a message from an alien civilization,
235
702400
4896
imagine que recebamos uma mensagem de uma civilização alienígena,
11:47
which read:
236
707320
1696
que diz:
"Pessoas da Terra,
11:49
"People of Earth,
237
709040
1536
11:50
we will arrive on your planet in 50 years.
238
710600
2360
chegaremos ao seu planeta em 50 anos.
11:53
Get ready."
239
713800
1576
Se preparem."
11:55
And now we're just counting down the months until the mothership lands?
240
715400
4256
E agora estamos contando os meses até a chegada da nave-mãe?
11:59
We would feel a little more urgency than we do.
241
719680
3000
Nós teríamos mais urgência do que temos agora.
12:04
Another reason we're told not to worry
242
724680
1856
Outro motivo dito para não nos preocuparmos
12:06
is that these machines can't help but share our values
243
726560
3016
é que essas máquinas não podem evitar compartilhar nossos valores
12:09
because they will be literally extensions of ourselves.
244
729600
2616
porque eles serão literalmente extensões de nós mesmos.
12:12
They'll be grafted onto our brains,
245
732240
1816
Eles serão transplantados em nossos cérebros
12:14
and we'll essentially become their limbic systems.
246
734080
2360
e nos tornaremos parte de seus sistemas límbicos.
12:17
Now take a moment to consider
247
737120
1416
Reserve um momento para considerar
12:18
that the safest and only prudent path forward,
248
738560
3176
que o único caminho prudente e seguro recomendado,
12:21
recommended,
249
741760
1336
12:23
is to implant this technology directly into our brains.
250
743120
2800
é implantar essa tecnologia diretamente em nossos cérebros.
12:26
Now, this may in fact be the safest and only prudent path forward,
251
746600
3376
Esse pode ser o caminho mais seguro e prudente,
12:30
but usually one's safety concerns about a technology
252
750000
3056
mas, normalmente, os problemas de segurança da tecnologia
12:33
have to be pretty much worked out before you stick it inside your head.
253
753080
3656
precisam ser resolvidos antes de ser implantado dentro da sua cabeça.
12:36
(Laughter)
254
756760
2016
(Risadas)
12:38
The deeper problem is that building superintelligent AI on its own
255
758800
5336
O maior problema é que construir uma IA superinteligente por si só
12:44
seems likely to be easier
256
764160
1736
parece ser mais fácil
12:45
than building superintelligent AI
257
765920
1856
do que construir IA superinteligente
12:47
and having the completed neuroscience
258
767800
1776
e ter a neurociência completa
12:49
that allows us to seamlessly integrate our minds with it.
259
769600
2680
que nos permita integrar perfeitamente nossas mentes.
12:52
And given that the companies and governments doing this work
260
772800
3176
E dado que empresas e governos que estão trabalhando nisso
12:56
are likely to perceive themselves as being in a race against all others,
261
776000
3656
se encontram numa corrida uns contra os outros,
12:59
given that to win this race is to win the world,
262
779680
3256
dado que vencer essa corrida é conquistar o mundo,
13:02
provided you don't destroy it in the next moment,
263
782960
2456
supondo que você não o destrua no momento seguinte,
13:05
then it seems likely that whatever is easier to do
264
785440
2616
então parece que o que for mais fácil de se fazer
13:08
will get done first.
265
788080
1200
será feito primeiro.
13:10
Now, unfortunately, I don't have a solution to this problem,
266
790560
2856
Infelizmente, eu não tenho a solução para esse problema,
13:13
apart from recommending that more of us think about it.
267
793440
2616
a não ser recomendar que outros pensem sobre isso.
Acho que precisamos de algo como o Projeto Manhattan
13:16
I think we need something like a Manhattan Project
268
796080
2376
13:18
on the topic of artificial intelligence.
269
798480
2016
na área de inteligência artificial.
13:20
Not to build it, because I think we'll inevitably do that,
270
800520
2736
Não para construir uma IA, porque vamos inevitavelmente fazer isso,
13:23
but to understand how to avoid an arms race
271
803280
3336
mas para entender como evitar uma corrida armamentista
13:26
and to build it in a way that is aligned with our interests.
272
806640
3496
e construir uma IA que esteja alinhada aos nossos interesses.
13:30
When you're talking about superintelligent AI
273
810160
2136
Quando se fala de uma IA superinteligente
13:32
that can make changes to itself,
274
812320
2256
que pode modificar a si mesma,
13:34
it seems that we only have one chance to get the initial conditions right,
275
814600
4616
parece que temos apenas uma chance para acertar as condições primárias
13:39
and even then we will need to absorb
276
819240
2056
e, mesmo assim, teremos que assimilar
13:41
the economic and political consequences of getting them right.
277
821320
3040
as consequências econômicas e políticas desse acerto.
13:45
But the moment we admit
278
825760
2056
Mas no momento em que admitirmos
13:47
that information processing is the source of intelligence,
279
827840
4000
que o processamento de informação é a fonte da inteligência,
13:52
that some appropriate computational system is what the basis of intelligence is,
280
832720
4800
que um sistema computacional apropriado é a base do que é a inteligência,
13:58
and we admit that we will improve these systems continuously,
281
838360
3760
e admitirmos que continuaremos a aprimorar esse sistema,
e que o horizonte do conhecimento provavelmente ultrapassa
14:03
and we admit that the horizon of cognition very likely far exceeds
282
843280
4456
14:07
what we currently know,
283
847760
1200
tudo o que sabemos agora,
14:10
then we have to admit
284
850120
1216
então teremos que admitir
14:11
that we are in the process of building some sort of god.
285
851360
2640
que estamos no processo de criação de algum tipo de deus.
14:15
Now would be a good time
286
855400
1576
Agora seria um ótimo momento de ter a certeza
14:17
to make sure it's a god we can live with.
287
857000
1953
de que é um deus com o qual podemos viver.
14:20
Thank you very much.
288
860120
1536
Muito obrigado.
14:21
(Applause)
289
861680
5093
(Aplausos)
Sobre este site

Este site apresentará a você vídeos do YouTube que são úteis para o aprendizado do inglês. Você verá aulas de inglês ministradas por professores de primeira linha de todo o mundo. Clique duas vezes nas legendas em inglês exibidas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas rolarão em sincronia com a reprodução do vídeo. Se você tiver algum comentário ou solicitação, por favor, entre em contato conosco usando este formulário de contato.

https://forms.gle/WvT1wiN1qDtmnspy7