Can we build AI without losing control over it? | Sam Harris

3,769,729 views ・ 2016-10-19

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Máximo Hdez Revisor: Denise RQ
00:13
I'm going to talk about a failure of intuition
0
13000
2216
Voy a hablar de un fallo intuitivo
00:15
that many of us suffer from.
1
15240
1600
que muchos sufrimos.
00:17
It's really a failure to detect a certain kind of danger.
2
17480
3040
En realidad es la capacidad de detectar cierto tipo de peligro.
00:21
I'm going to describe a scenario
3
21360
1736
Describiré una situación que creo que es tan aterradora como posible
00:23
that I think is both terrifying
4
23120
3256
00:26
and likely to occur,
5
26400
1760
00:28
and that's not a good combination,
6
28840
1656
y veremos que eso no es una buena combinación.
00:30
as it turns out.
7
30520
1536
Y sin embargo, en lugar de sentir miedo,
00:32
And yet rather than be scared, most of you will feel
8
32080
2456
la mayoría pensará que es algo bastante interesante.
00:34
that what I'm talking about is kind of cool.
9
34560
2080
00:37
I'm going to describe how the gains we make
10
37200
2976
Describiré cómo los avances en el campo de la inteligencia artificial,
00:40
in artificial intelligence
11
40200
1776
en última instancia, podrían destruirnos.
00:42
could ultimately destroy us.
12
42000
1776
00:43
And in fact, I think it's very difficult to see how they won't destroy us
13
43800
3456
Y, de hecho, me resulta muy difícil ver
que no nos destruirían o nos ayudaran a destruirnos.
00:47
or inspire us to destroy ourselves.
14
47280
1680
00:49
And yet if you're anything like me,
15
49400
1856
Y sin embargo, si son como yo,
00:51
you'll find that it's fun to think about these things.
16
51280
2656
encontrarán que es divertido pensar en estas cosas.
00:53
And that response is part of the problem.
17
53960
3376
Y esta manera de ver las cosas es parte del problema.
00:57
OK? That response should worry you.
18
57360
1720
Esa reacción debería preocuparles.
00:59
And if I were to convince you in this talk
19
59920
2656
Si tuviera que convencerles con esta charla
01:02
that we were likely to suffer a global famine,
20
62600
3416
de que estamos al borde de sufrir una hambruna a nivel mundial,
debido al calentamiento global o cualquier otra catástrofe,
01:06
either because of climate change or some other catastrophe,
21
66040
3056
01:09
and that your grandchildren, or their grandchildren,
22
69120
3416
y que sus nietos o sus bisnietos,
01:12
are very likely to live like this,
23
72560
1800
vivirán muy probablemente así,
01:15
you wouldn't think,
24
75200
1200
no pensarían:
01:17
"Interesting.
25
77440
1336
"Interesante.
01:18
I like this TED Talk."
26
78800
1200
Me gusta esta charla TED".
01:21
Famine isn't fun.
27
81200
1520
El hambre no es divertida
01:23
Death by science fiction, on the other hand, is fun,
28
83800
3376
La muerte en la ciencia ficción, por el contrario, es algo divertido,
01:27
and one of the things that worries me most about the development of AI at this point
29
87200
3976
y lo más preocupante en el desarrollo de la IA hoy en día
01:31
is that we seem unable to marshal an appropriate emotional response
30
91200
4096
es que parecemos incapaces de ofrecer una respuesta emocional adecuada
01:35
to the dangers that lie ahead.
31
95320
1816
frente a los peligros que se avecinan.
01:37
I am unable to marshal this response, and I'm giving this talk.
32
97160
3200
Yo mismo soy incapaz de ello y estoy dando esta charla.
01:42
It's as though we stand before two doors.
33
102120
2696
Es como si nos encontráramos ante dos puertas.
01:44
Behind door number one,
34
104840
1256
Detrás de la puerta número uno
01:46
we stop making progress in building intelligent machines.
35
106120
3296
detenemos el progreso de máquinas inteligentes.
01:49
Our computer hardware and software just stops getting better for some reason.
36
109440
4016
Nuestro hardware y software se estancan simplemente, por alguna razón.
01:53
Now take a moment to consider why this might happen.
37
113480
3000
Traten de reflexionar por un momento por qué podría suceder esto.
01:57
I mean, given how valuable intelligence and automation are,
38
117080
3656
Dada la valía de la inteligencia y la automatización,
02:00
we will continue to improve our technology if we are at all able to.
39
120760
3520
seguiremos mejorando nuestra tecnología si es posible.
02:05
What could stop us from doing this?
40
125200
1667
¿Qué podría impedirnos hacer eso?
02:07
A full-scale nuclear war?
41
127800
1800
¿Una guerra nuclear a gran escala?
02:11
A global pandemic?
42
131000
1560
¿Una pandemia mundial?
02:14
An asteroid impact?
43
134320
1320
¿El impacto de un asteroide?
02:17
Justin Bieber becoming president of the United States?
44
137640
2576
¿El hecho que Justin Bieber podría ser el presidente de los EE.UU.?
02:20
(Laughter)
45
140240
2280
(Risas)
02:24
The point is, something would have to destroy civilization as we know it.
46
144760
3920
El caso es que algo tendría que destruir la civilización tal como la conocemos.
02:29
You have to imagine how bad it would have to be
47
149360
4296
Realmente deberíamos imaginar algo terrible
02:33
to prevent us from making improvements in our technology
48
153680
3336
para dejar de desarrollar nuestra tecnología
para siempre,
02:37
permanently,
49
157040
1216
02:38
generation after generation.
50
158280
2016
generación tras generación.
02:40
Almost by definition, this is the worst thing
51
160320
2136
Casi por definición, sería lo peor
02:42
that's ever happened in human history.
52
162480
2016
en la historia humana.
02:44
So the only alternative,
53
164520
1296
La única alternativa,
02:45
and this is what lies behind door number two,
54
165840
2336
y esto es lo que hay detrás de la puerta número dos,
02:48
is that we continue to improve our intelligent machines
55
168200
3136
es seguir mejorando nuestras máquinas inteligentes
02:51
year after year after year.
56
171360
1600
año tras año tras año.
02:53
At a certain point, we will build machines that are smarter than we are,
57
173720
3640
En algún momento construiremos máquinas más inteligentes que nosotros,
y una vez que las tengamos
02:58
and once we have machines that are smarter than we are,
58
178080
2616
03:00
they will begin to improve themselves.
59
180720
1976
empezarán a mejorarse a sí mismas.
03:02
And then we risk what the mathematician IJ Good called
60
182720
2736
Y entonces corremos el riesgo teorizado por el matemático IJ Good
03:05
an "intelligence explosion,"
61
185480
1776
llamado "explosión de inteligencia"
03:07
that the process could get away from us.
62
187280
2000
donde el proceso podría salirse de control.
03:10
Now, this is often caricatured, as I have here,
63
190120
2816
Esto es a menudo caricaturizado, como lo he hecho aquí,
03:12
as a fear that armies of malicious robots
64
192960
3216
como el miedo a que nos ataquen ejércitos de robots maliciosos.
03:16
will attack us.
65
196200
1256
03:17
But that isn't the most likely scenario.
66
197480
2696
Pero ese no es el escenario más probable.
03:20
It's not that our machines will become spontaneously malevolent.
67
200200
4856
No es que nuestras máquinas se volverán malignas espontáneamente.
La preocupación verdadera
03:25
The concern is really that we will build machines
68
205080
2616
al construir máquinas mucho más competentes que nosotros
03:27
that are so much more competent than we are
69
207720
2056
03:29
that the slightest divergence between their goals and our own
70
209800
3776
es que la menor diferencia entre sus objetivos y los nuestros
03:33
could destroy us.
71
213600
1200
nos podría destruir.
03:35
Just think about how we relate to ants.
72
215960
2080
Basta con pensar en nuestra relación con las hormigas.
03:38
We don't hate them.
73
218600
1656
No las odiamos.
03:40
We don't go out of our way to harm them.
74
220280
2056
No vamos por la vida lastimándolas.
De hecho, a veces nos tomamos la molestia de no hacerles daño.
03:42
In fact, sometimes we take pains not to harm them.
75
222360
2376
03:44
We step over them on the sidewalk.
76
224760
2016
Evitamos pisarlas en la acera.
03:46
But whenever their presence
77
226800
2136
Pero cada vez que su presencia entra seriamente en conflicto
03:48
seriously conflicts with one of our goals,
78
228960
2496
con alguno de nuestros objetivos,
03:51
let's say when constructing a building like this one,
79
231480
2477
digamos, en la construcción de un edificio como este,
03:53
we annihilate them without a qualm.
80
233981
1960
las aniquilamos sin escrúpulos.
03:56
The concern is that we will one day build machines
81
236480
2936
La preocupación es que algún día construyamos máquinas
03:59
that, whether they're conscious or not,
82
239440
2736
que, ya sea conscientemente o no,
nos puedan tratar con una indiferencia similar.
04:02
could treat us with similar disregard.
83
242200
2000
04:05
Now, I suspect this seems far-fetched to many of you.
84
245760
2760
Sospecho que esto pueda parece inverosímil para muchos.
04:09
I bet there are those of you who doubt that superintelligent AI is possible,
85
249360
6336
Apuesto a que hay quienes dudan de que la superinteligente IA sea posible
04:15
much less inevitable.
86
255720
1656
y mucho menos inevitable.
04:17
But then you must find something wrong with one of the following assumptions.
87
257400
3620
Pero en este caso hay que refutar uno de los siguientes supuestos.
Y hay solo tres.
04:21
And there are only three of them.
88
261044
1572
04:23
Intelligence is a matter of information processing in physical systems.
89
263800
4719
La inteligencia es el procesamiento de información en un sistema físico.
04:29
Actually, this is a little bit more than an assumption.
90
269320
2615
En realidad, esto es poco más que una suposición.
04:31
We have already built narrow intelligence into our machines,
91
271959
3457
Ya hemos incorporado inteligencia limitada en nuestras máquinas,
04:35
and many of these machines perform
92
275440
2016
y aún así, muchas de estas máquinas actúan a un nivel de inteligencia sobrehumana.
04:37
at a level of superhuman intelligence already.
93
277480
2640
04:40
And we know that mere matter
94
280840
2576
Y sabemos que la mera materia da lugar a lo que se llama "inteligencia general",
04:43
can give rise to what is called "general intelligence,"
95
283440
2616
04:46
an ability to think flexibly across multiple domains,
96
286080
3656
la capacidad de pensar con flexibilidad en múltiples campos
04:49
because our brains have managed it. Right?
97
289760
3136
porque nuestros cerebro humano ya lo ha conseguido.
04:52
I mean, there's just atoms in here,
98
292920
3936
Es decir, solo hay átomos aquí,
04:56
and as long as we continue to build systems of atoms
99
296880
4496
y mientras continuemos construyendo sistemas de átomos
05:01
that display more and more intelligent behavior,
100
301400
2696
que exhiban un comportamiento más y más inteligente,
terminaremos implementando, a menos que lo interrumpamos, inteligencia general
05:04
we will eventually, unless we are interrupted,
101
304120
2536
05:06
we will eventually build general intelligence
102
306680
3376
en nuestras máquinas.
05:10
into our machines.
103
310080
1296
05:11
It's crucial to realize that the rate of progress doesn't matter,
104
311400
3656
Es crucial comprender que la velocidad no es el problema
porque cualquier velocidad es suficiente para llegar al fin.
05:15
because any progress is enough to get us into the end zone.
105
315080
3176
05:18
We don't need Moore's law to continue. We don't need exponential progress.
106
318280
3776
No necesitamos la ley de Moore para continuar ni un aumento exponencial.
05:22
We just need to keep going.
107
322080
1600
Solo tenemos que seguir adelante.
05:25
The second assumption is that we will keep going.
108
325480
2920
El segundo supuesto es que vamos a seguir adelante.
05:29
We will continue to improve our intelligent machines.
109
329000
2760
Vamos a seguir mejorando nuestras máquinas inteligentes.
05:33
And given the value of intelligence --
110
333000
4376
Y teniendo en cuenta el valor de la inteligencia,
05:37
I mean, intelligence is either the source of everything we value
111
337400
3536
es decir, la inteligencia es o bien la fuente de todo lo que valoramos
05:40
or we need it to safeguard everything we value.
112
340960
2776
o la necesidad por preservar todo lo que valoramos.
05:43
It is our most valuable resource.
113
343760
2256
Es nuestro recurso más valioso.
Por eso lo queremos hacer.
05:46
So we want to do this.
114
346040
1536
05:47
We have problems that we desperately need to solve.
115
347600
3336
Tenemos problemas que necesitamos desesperadamente resolver.
05:50
We want to cure diseases like Alzheimer's and cancer.
116
350960
3200
Queremos curar enfermedades como el Alzheimer y el cáncer.
05:54
We want to understand economic systems. We want to improve our climate science.
117
354960
3936
Queremos entender los sistemas económicos.
Queremos mejorar el clima.
05:58
So we will do this, if we can.
118
358920
2256
Vamos a hacer esto, si podemos.
06:01
The train is already out of the station, and there's no brake to pull.
119
361200
3286
El tren ya salió de la estación y no hay frenos.
06:05
Finally, we don't stand on a peak of intelligence,
120
365880
5456
Por último, no estamos en la cima de la inteligencia,
06:11
or anywhere near it, likely.
121
371360
1800
ni siquiera cerca, probablemente.
06:13
And this really is the crucial insight.
122
373640
1896
Y esto realmente es crucial.
06:15
This is what makes our situation so precarious,
123
375560
2416
Esto es lo que hace nuestra situación tan precaria,
y esto es lo que hace que nuestras intuiciones
06:18
and this is what makes our intuitions about risk so unreliable.
124
378000
4040
sobre los riesgos sean poco fiables.
06:23
Now, just consider the smartest person who has ever lived.
125
383120
2720
Piensen en la persona más inteligente que jamás haya vivido.
06:26
On almost everyone's shortlist here is John von Neumann.
126
386640
3416
En la lista de casi todos está John Von Neumann.
06:30
I mean, the impression that von Neumann made on the people around him,
127
390080
3336
La impresión que hacía Von Neumann en las personas a su alrededor,
06:33
and this included the greatest mathematicians and physicists of his time,
128
393440
4056
incluyendo los más grandes matemáticos y físicos de su época,
06:37
is fairly well-documented.
129
397520
1936
está bastante bien documentada.
06:39
If only half the stories about him are half true,
130
399480
3776
Si solo la mitad de las historias sobre él fueran una verdad a medias,
06:43
there's no question
131
403280
1216
no hay duda
06:44
he's one of the smartest people who has ever lived.
132
404520
2456
de que es una de las personas más inteligentes que ha vivido.
06:47
So consider the spectrum of intelligence.
133
407000
2520
Así que consideren el espectro de la inteligencia.
06:50
Here we have John von Neumann.
134
410320
1429
Aquí tenemos a John Von Neumann.
06:53
And then we have you and me.
135
413560
1334
Y aquí estamos tú y yo.
06:56
And then we have a chicken.
136
416120
1296
Y luego tenemos un pollo.
06:57
(Laughter)
137
417440
1936
06:59
Sorry, a chicken.
138
419400
1216
Lo sentimos, una gallina.
07:00
(Laughter)
139
420640
1256
07:01
There's no reason for me to make this talk more depressing than it needs to be.
140
421920
3736
No hay por qué hacer esta charla más deprimente de lo que ya es.
07:05
(Laughter)
141
425680
1600
(Risas)
07:08
It seems overwhelmingly likely, however, that the spectrum of intelligence
142
428339
3477
Sin embargo, parece muy probable que el espectro de la inteligencia
07:11
extends much further than we currently conceive,
143
431840
3120
se extienda mucho más allá de lo que actualmente concebimos,
07:15
and if we build machines that are more intelligent than we are,
144
435880
3216
y si construimos máquinas más inteligentes que nosotros,
07:19
they will very likely explore this spectrum
145
439120
2296
muy probablemente explorarán este espectro
07:21
in ways that we can't imagine,
146
441440
1856
de maneras que no podemos imaginar,
07:23
and exceed us in ways that we can't imagine.
147
443320
2520
y nos superarán de maneras inimaginables.
07:27
And it's important to recognize that this is true by virtue of speed alone.
148
447000
4336
Y es importante saber que esto es cierto solo debido a la velocidad.
07:31
Right? So imagine if we just built a superintelligent AI
149
451360
5056
Así que imaginen que acabamos de construir una IA superinteligente
07:36
that was no smarter than your average team of researchers
150
456440
3456
que no fuera más inteligente
que el promedio del equipo de investigadores en Stanford o el MIT.
07:39
at Stanford or MIT.
151
459920
2296
07:42
Well, electronic circuits function about a million times faster
152
462240
2976
Los circuitos electrónicos funcionan
aproximadamente un millón de veces más rápido que los bioquímicos,
07:45
than biochemical ones,
153
465240
1256
07:46
so this machine should think about a million times faster
154
466520
3136
así que esta máquina debe pensar un millón de veces más rápido
07:49
than the minds that built it.
155
469680
1816
que las mentes que la construyeron.
07:51
So you set it running for a week,
156
471520
1656
Con una semana funcionando
07:53
and it will perform 20,000 years of human-level intellectual work,
157
473200
4560
llevará a cabo 20 000 años de trabajo intelectual a nivel humano,
07:58
week after week after week.
158
478400
1960
semana tras semana tras semana.
08:01
How could we even understand, much less constrain,
159
481640
3096
¿Cómo podríamos siquiera comprender, mucho menos restringir,
08:04
a mind making this sort of progress?
160
484760
2280
una mente que progresa de esta manera?
08:08
The other thing that's worrying, frankly,
161
488840
2136
Algo más que es francamente preocupante
es imaginar el mejor de los casos.
08:11
is that, imagine the best case scenario.
162
491000
4976
Imaginemos que diseñamos una IA superinteligente
08:16
So imagine we hit upon a design of superintelligent AI
163
496000
4176
que no tiene problemas de seguridad.
08:20
that has no safety concerns.
164
500200
1376
08:21
We have the perfect design the first time around.
165
501600
3256
Tenemos el diseño perfecto a la primera.
08:24
It's as though we've been handed an oracle
166
504880
2216
Es como si nos dieran un oráculo
08:27
that behaves exactly as intended.
167
507120
2016
que se comporta exactamente como se espera.
08:29
Well, this machine would be the perfect labor-saving device.
168
509160
3720
Esta máquina sería el dispositivo de ahorro de mano de obra perfecta.
08:33
It can design the machine that can build the machine
169
513680
2429
Puede diseñar la máquina que puede construir la máquina
08:36
that can do any physical work,
170
516133
1763
que pueda hacer cualquier trabajo físico,
08:37
powered by sunlight,
171
517920
1456
impulsada por la luz solar,
08:39
more or less for the cost of raw materials.
172
519400
2696
más o menos por el costo de las materias primas.
08:42
So we're talking about the end of human drudgery.
173
522120
3256
Estamos hablando del fin del trabajo pesado humano.
08:45
We're also talking about the end of most intellectual work.
174
525400
2800
También estamos hablando del fin de la mayoría del trabajo intelectual.
08:49
So what would apes like ourselves do in this circumstance?
175
529200
3056
Entonces, ¿qué harían simios como nosotros en estas circunstancias?
08:52
Well, we'd be free to play Frisbee and give each other massages.
176
532280
4080
Pues, podríamos jugar al Frisbee y darnos masajes.
08:57
Add some LSD and some questionable wardrobe choices,
177
537840
2856
Tomar un poco de LSD e inventar modas ridículas
09:00
and the whole world could be like Burning Man.
178
540720
2176
y todo el mundo podríamos parecernos a un festival de rock.
09:02
(Laughter)
179
542920
1640
(Risas)
09:06
Now, that might sound pretty good,
180
546320
2000
Puede parecer muy bueno, pero hay que preguntarse
09:09
but ask yourself what would happen
181
549280
2376
qué pasaría con nuestro orden económico y político actual.
09:11
under our current economic and political order?
182
551680
2736
09:14
It seems likely that we would witness
183
554440
2416
Podríamos presenciar
09:16
a level of wealth inequality and unemployment
184
556880
4136
un nivel de desigualdad de la riqueza y el desempleo
nunca antes visto
09:21
that we have never seen before.
185
561040
1496
09:22
Absent a willingness to immediately put this new wealth
186
562560
2616
sin la voluntad de poner esta nueva riqueza inmediatamente
09:25
to the service of all humanity,
187
565200
1480
al servicio de toda la humanidad,
09:27
a few trillionaires could grace the covers of our business magazines
188
567640
3616
y unos poco trillonarios estarían en las portadas de las revistas de negocios
09:31
while the rest of the world would be free to starve.
189
571280
2440
mientras que el resto del mundo tendría la libertad de morirse de hambre.
09:34
And what would the Russians or the Chinese do
190
574320
2296
Y ¿qué pasaría si los rusos o los chinos se enteraran
09:36
if they heard that some company in Silicon Valley
191
576640
2616
de que alguna empresa en Silicon Valley
09:39
was about to deploy a superintelligent AI?
192
579280
2736
está a punto de crear una IA superinteligente?
Esta máquina podría ser capaz de hacer la guerra,
09:42
This machine would be capable of waging war,
193
582040
2856
09:44
whether terrestrial or cyber,
194
584920
2216
ya sea terrestre o cibernética,
09:47
with unprecedented power.
195
587160
1680
con un poder sin precedentes.
En este escenario el ganador se lleva todo.
09:50
This is a winner-take-all scenario.
196
590120
1856
Seis meses adelante en la competencia
09:52
To be six months ahead of the competition here
197
592000
3136
09:55
is to be 500,000 years ahead,
198
595160
2776
sería una ventaja de 500 000 años,
09:57
at a minimum.
199
597960
1496
como mínimo.
09:59
So it seems that even mere rumors of this kind of breakthrough
200
599480
4736
Parecería que incluso meros rumores de este tipo de avance
10:04
could cause our species to go berserk.
201
604240
2376
podría causar que nuestra especie se vuelva loca.
10:06
Now, one of the most frightening things,
202
606640
2896
Una de las cosas más aterradoras,
10:09
in my view, at this moment,
203
609560
2776
en mi opinión, en este momento,
10:12
are the kinds of things that AI researchers say
204
612360
4296
son el tipo de cosas que dicen los investigadores de IA
10:16
when they want to be reassuring.
205
616680
1560
cuando quieren tranquilizarnos.
Y el motivo invocado más frecuentemente de que no nos preocupemos es el tiempo.
10:19
And the most common reason we're told not to worry is time.
206
619000
3456
10:22
This is all a long way off, don't you know.
207
622480
2056
Falta mucho para eso, no se preocupen.
10:24
This is probably 50 or 100 years away.
208
624560
2440
Eso será probablemente dentro de 50 o 100 años.
10:27
One researcher has said,
209
627720
1256
Un investigador dijo,
"Preocuparse por la seguridad y todo lo relacionado con la IA
10:29
"Worrying about AI safety
210
629000
1576
10:30
is like worrying about overpopulation on Mars."
211
630600
2280
es como preocuparse por la superpoblación en Marte".
10:34
This is the Silicon Valley version
212
634116
1620
Esta es la manera de Silicon Valley de mostrarse condescendiente.
10:35
of "don't worry your pretty little head about it."
213
635760
2376
(Risas)
10:38
(Laughter)
214
638160
1336
10:39
No one seems to notice
215
639520
1896
Nadie parece darse cuenta
10:41
that referencing the time horizon
216
641440
2616
que tomar el tiempo con referencia
10:44
is a total non sequitur.
217
644080
2576
es una incongruencia total.
10:46
If intelligence is just a matter of information processing,
218
646680
3256
Si la inteligencia es solo una cuestión de procesamiento de la información
10:49
and we continue to improve our machines,
219
649960
2656
y seguimos mejorando nuestras máquinas,
10:52
we will produce some form of superintelligence.
220
652640
2880
produciremos algún tipo de superinteligencia.
10:56
And we have no idea how long it will take us
221
656320
3656
Y no tenemos idea de cuánto tiempo nos llevará crear las condiciones
11:00
to create the conditions to do that safely.
222
660000
2400
para hacerlo de forma segura.
11:04
Let me say that again.
223
664200
1296
Voy a decirlo de nuevo.
11:05
We have no idea how long it will take us
224
665520
3816
Y no tenemos idea de cuánto tiempo nos llevará crear las condiciones
11:09
to create the conditions to do that safely.
225
669360
2240
para hacerlo de forma segura.
11:12
And if you haven't noticed, 50 years is not what it used to be.
226
672920
3456
Y si no lo han notado, 50 años ya no son lo que solían ser.
11:16
This is 50 years in months.
227
676400
2456
Estos son 50 años en meses.
11:18
This is how long we've had the iPhone.
228
678880
1840
Este es el tiempo que hemos tenido el iPhone.
11:21
This is how long "The Simpsons" has been on television.
229
681440
2600
Este es el tiempo que "Los Simpson" ha estado en la televisión.
11:24
Fifty years is not that much time
230
684680
2376
Cincuenta años no es tanto tiempo
11:27
to meet one of the greatest challenges our species will ever face.
231
687080
3160
para lograr uno de los mayores desafíos al que nuestra especie se ha enfrentado.
11:31
Once again, we seem to be failing to have an appropriate emotional response
232
691640
4016
Una vez más, parece que no tenemos una respuesta emocional adecuada
11:35
to what we have every reason to believe is coming.
233
695680
2696
para lo que, con toda probabilidad, va a pasar.
11:38
The computer scientist Stuart Russell has a nice analogy here.
234
698400
3976
El científico de la computación Stuart Russell ofrece una gran analogía:
11:42
He said, imagine that we received a message from an alien civilization,
235
702400
4896
"Imaginen que recibimos un mensaje de una civilización extraterrestre que diga:
11:47
which read:
236
707320
1696
11:49
"People of Earth,
237
709040
1536
'Gente de la Tierra,
11:50
we will arrive on your planet in 50 years.
238
710600
2360
llegaremos en su planeta en 50 años.
11:53
Get ready."
239
713800
1576
Prepárense'".
11:55
And now we're just counting down the months until the mothership lands?
240
715400
4256
¿Estaremos contando los meses hasta que llegue la nave nodriza?
11:59
We would feel a little more urgency than we do.
241
719680
3000
¿No estaríamos un poco más preocupados?
12:04
Another reason we're told not to worry
242
724680
1856
Otra razón que se nos da para no preocuparnos
12:06
is that these machines can't help but share our values
243
726560
3016
es que estas máquinas no podrán no compartir nuestros valores
12:09
because they will be literally extensions of ourselves.
244
729600
2616
porque van a ser literalmente extensiones de nosotros mismos.
12:12
They'll be grafted onto our brains,
245
732240
1816
Se injertarán en nuestro cerebro,
12:14
and we'll essentially become their limbic systems.
246
734080
2360
y prácticamente seremos su sistema límbico.
12:17
Now take a moment to consider
247
737120
1416
Consideren por un momento
12:18
that the safest and only prudent path forward,
248
738560
3176
que el camino más seguro y prudente hacia adelante,
12:21
recommended,
249
741760
1336
el recomendado,
es la implantación de esta tecnología directamente en nuestro cerebro.
12:23
is to implant this technology directly into our brains.
250
743120
2800
12:26
Now, this may in fact be the safest and only prudent path forward,
251
746600
3376
Ahora bien, esto puede ser de hecho,
la manera más segura y prudente de avanzar,
12:30
but usually one's safety concerns about a technology
252
750000
3056
pero por lo general, los problemas de seguridad de una nueva tecnología
12:33
have to be pretty much worked out before you stick it inside your head.
253
753080
3656
hay que resolverlos antes de implementarla en una cabeza.
12:36
(Laughter)
254
756760
2016
(Risas)
12:38
The deeper problem is that building superintelligent AI on its own
255
758800
5336
El mayor problema es
que construir una IA superinteligente y autónoma parece más fácil
12:44
seems likely to be easier
256
764160
1736
12:45
than building superintelligent AI
257
765920
1856
que diseñar una IA superinteligente
12:47
and having the completed neuroscience
258
767800
1776
mientras se controla la neurociencia
12:49
that allows us to seamlessly integrate our minds with it.
259
769600
2680
para integrar la máquina y la mente sin problemas.
12:52
And given that the companies and governments doing this work
260
772800
3176
Y dado que las empresas y los gobiernos que trabajan sobre ello
probablemente se vean a sí mismos en una carrera contra todos los demás,
12:56
are likely to perceive themselves as being in a race against all others,
261
776000
3656
12:59
given that to win this race is to win the world,
262
779680
3256
y tomando en cuenta que ganar esta carrera es ganar el mundo,
13:02
provided you don't destroy it in the next moment,
263
782960
2456
siempre y cuando no lo destruyan en el momento siguiente,
13:05
then it seems likely that whatever is easier to do
264
785440
2616
entonces parece probable que lo más fácil de hacer
13:08
will get done first.
265
788080
1200
se hará primero.
13:10
Now, unfortunately, I don't have a solution to this problem,
266
790560
2856
Ahora, por desgracia, no tengo una solución a este problema,
13:13
apart from recommending that more of us think about it.
267
793440
2616
además de recomendarles que piensen más sobre ello.
13:16
I think we need something like a Manhattan Project
268
796080
2376
Creo que necesitamos un Proyecto Manhattan
13:18
on the topic of artificial intelligence.
269
798480
2016
sobre el tema de la inteligencia artificial.
13:20
Not to build it, because I think we'll inevitably do that,
270
800520
2736
No para construirlo, porque creo que eso es inevitable,
13:23
but to understand how to avoid an arms race
271
803280
3336
sino para entender cómo evitar una carrera armamentística
13:26
and to build it in a way that is aligned with our interests.
272
806640
3496
y construirla de manera que concuerde con nuestros intereses.
13:30
When you're talking about superintelligent AI
273
810160
2136
Cuando hablamos de IA superinteligente
13:32
that can make changes to itself,
274
812320
2256
que puede modificarse a sí misma,
13:34
it seems that we only have one chance to get the initial conditions right,
275
814600
4616
solo tenemos una oportunidad de fijar las condiciones iniciales correctas,
13:39
and even then we will need to absorb
276
819240
2056
e incluso entonces necesitaremos gestionar
13:41
the economic and political consequences of getting them right.
277
821320
3040
las consecuencias económicas y políticas de dicho diseño.
13:45
But the moment we admit
278
825760
2056
Pero en el momento en que admitamos
13:47
that information processing is the source of intelligence,
279
827840
4000
que el procesamiento de la información es la fuente de la inteligencia,
13:52
that some appropriate computational system is what the basis of intelligence is,
280
832720
4800
que algún sistema computacional adecuado es la base de la inteligencia,
13:58
and we admit that we will improve these systems continuously,
281
838360
3760
y admitamos que los vamos a mejorar de forma continua,
14:03
and we admit that the horizon of cognition very likely far exceeds
282
843280
4456
y admitamos que el horizonte del conocimiento supera por mucho
14:07
what we currently know,
283
847760
1200
lo que actualmente conocemos,
14:10
then we have to admit
284
850120
1216
entonces tenemos que admitir
14:11
that we are in the process of building some sort of god.
285
851360
2640
que estamos en el proceso de construir una especie de dios.
14:15
Now would be a good time
286
855400
1576
Ahora sería un buen momento
para asegurarse de que sea un dios con el que podamos vivir.
14:17
to make sure it's a god we can live with.
287
857000
1953
14:20
Thank you very much.
288
860120
1536
Muchas gracias.
14:21
(Applause)
289
861680
5093
(Aplausos)
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7