How to get empowered, not overpowered, by AI | Max Tegmark

129,785 views ・ 2018-07-05

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Ciro Gomez Revisor: Lidia Cámara de la Fuente
00:12
After 13.8 billion years of cosmic history,
0
12760
4416
Después de 13,8 mil millones de años de historia cósmica,
00:17
our universe has woken up
1
17200
2096
nuestro universo ha despertado
00:19
and become aware of itself.
2
19320
1520
y toma conciencia de sí mismo.
00:21
From a small blue planet,
3
21480
1936
Desde un pequeño planeta azul,
00:23
tiny, conscious parts of our universe have begun gazing out into the cosmos
4
23440
4136
pequeñas partes conscientes de nuestro universo
han comenzado a mirar hacia el cosmos con telescopios,
00:27
with telescopes,
5
27600
1376
00:29
discovering something humbling.
6
29000
1480
descubriendo un poco de humildad.
00:31
We've discovered that our universe is vastly grander
7
31320
2896
Descubrimos que nuestro universo es mucho más grandioso
de lo que nuestros antepasados ​​imaginaron
00:34
than our ancestors imagined
8
34240
1336
00:35
and that life seems to be an almost imperceptibly small perturbation
9
35600
4256
y esa vida parece ser una perturbación casi imperceptiblemente pequeña
00:39
on an otherwise dead universe.
10
39880
1720
en un universo por lo demás muerto.
00:42
But we've also discovered something inspiring,
11
42320
3016
Pero también descubrimos algo inspirador,
00:45
which is that the technology we're developing has the potential
12
45360
2976
que es que la tecnología que estamos desarrollando tiene el potencial
00:48
to help life flourish like never before,
13
48360
2856
de ayudar a que la vida florezca como nunca antes,
00:51
not just for centuries but for billions of years,
14
51240
3096
no solo por siglos, sino por miles de millones de años,
00:54
and not just on earth but throughout much of this amazing cosmos.
15
54360
4120
y no solo en la Tierra sino a lo largo de gran parte de este increíble cosmos.
00:59
I think of the earliest life as "Life 1.0"
16
59680
3336
Pienso en la vida más temprana como "Vida 1.0"
01:03
because it was really dumb,
17
63040
1376
porque era realmente tonta,
01:04
like bacteria, unable to learn anything during its lifetime.
18
64440
4296
como las bacterias, incapaces de aprender nada durante su vida.
01:08
I think of us humans as "Life 2.0" because we can learn,
19
68760
3376
Pienso en nosotros los humanos como "Vida 2.0" porque podemos aprender,
01:12
which we in nerdy, geek speak,
20
72160
1496
que en 'nerdy', hablando 'geek',
01:13
might think of as installing new software into our brains,
21
73680
3216
podría pensarse como instalar un nuevo software en nuestros cerebros,
01:16
like languages and job skills.
22
76920
2120
como idiomas y habilidades laborales.
01:19
"Life 3.0," which can design not only its software but also its hardware
23
79680
4296
La "Vida 3.0", que puede diseñar no solo su software sino también su hardware,
01:24
of course doesn't exist yet.
24
84000
1656
por supuesto no existe todavía.
01:25
But perhaps our technology has already made us "Life 2.1,"
25
85680
3776
Pero tal vez nuestra tecnología ya nos haya hecho "Vida 2.1"
01:29
with our artificial knees, pacemakers and cochlear implants.
26
89480
4336
con nuestras rodillas artificiales, marcapasos e implantes cocleares.
01:33
So let's take a closer look at our relationship with technology, OK?
27
93840
3880
Echemos un vistazo más de cerca a nuestra relación con la tecnología, ¿vale?
01:38
As an example,
28
98800
1216
Como ejemplo,
01:40
the Apollo 11 moon mission was both successful and inspiring,
29
100040
5296
la misión Apolo 11 a la Luna fue exitosa e inspiradora,
01:45
showing that when we humans use technology wisely,
30
105360
3016
mostrando que cuando los humanos usamos la tecnología sabiamente,
01:48
we can accomplish things that our ancestors could only dream of.
31
108400
3936
podemos lograr cosas que nuestros antepasados ​​solo podían soñar.
01:52
But there's an even more inspiring journey
32
112360
2976
Pero hay un viaje aún más inspirador
01:55
propelled by something more powerful than rocket engines,
33
115360
2680
propulsado por algo más poderoso que un cohete,
01:59
where the passengers aren't just three astronauts
34
119200
2336
en el que los pasajeros no son solo tres astronautas,
02:01
but all of humanity.
35
121560
1776
sino toda la humanidad.
02:03
Let's talk about our collective journey into the future
36
123360
2936
Hablemos de nuestro viaje colectivo hacia el futuro
02:06
with artificial intelligence.
37
126320
2000
con inteligencia artificial.
02:08
My friend Jaan Tallinn likes to point out that just as with rocketry,
38
128960
4536
A mi amigo Jaan Tallinn le gusta señalar que al igual que con los cohetes,
02:13
it's not enough to make our technology powerful.
39
133520
3160
no es suficiente con que nuestra tecnología sea poderosa.
02:17
We also have to figure out, if we're going to be really ambitious,
40
137560
3175
También hay que descubrir, si seremos lo suficientemente ambiciosos,
02:20
how to steer it
41
140759
1416
como dirigirla
02:22
and where we want to go with it.
42
142199
1681
y a dónde queremos ir con eso.
02:24
So let's talk about all three for artificial intelligence:
43
144880
2840
Así que hablemos de las tres para la inteligencia artificial:
02:28
the power, the steering and the destination.
44
148440
3056
el poder, la dirección y el destino.
02:31
Let's start with the power.
45
151520
1286
Comencemos con el poder.
02:33
I define intelligence very inclusively --
46
153600
3096
Yo defino la inteligencia de forma muy inclusiva...
02:36
simply as our ability to accomplish complex goals,
47
156720
4336
simplemente como nuestra capacidad para lograr objetivos complejos,
02:41
because I want to include both biological and artificial intelligence.
48
161080
3816
porque quiero incluir inteligencia biológica y artificial.
02:44
And I want to avoid the silly carbon-chauvinism idea
49
164920
4016
Y quiero evitar la tonta idea del chauvinismo de carbono:
02:48
that you can only be smart if you're made of meat.
50
168960
2360
que solo se puede ser inteligente si se está hecho de carne.
02:52
It's really amazing how the power of AI has grown recently.
51
172880
4176
Es realmente sorprendente cómo el poder de la IA ha crecido recientemente.
02:57
Just think about it.
52
177080
1256
Solo piensen en ello.
02:58
Not long ago, robots couldn't walk.
53
178360
3200
No hace mucho tiempo, los robots no podían caminar.
03:03
Now, they can do backflips.
54
183040
1720
Hoy pueden hacer volteretas hacia atrás.
03:06
Not long ago,
55
186080
1816
No hace mucho tiempo,
03:07
we didn't have self-driving cars.
56
187920
1760
no teníamos autos sin conductor.
03:10
Now, we have self-flying rockets.
57
190920
2480
Ahora, tenemos cohetes que vuelan de forma autónoma.
03:15
Not long ago,
58
195960
1416
No hace mucho tiempo,
03:17
AI couldn't do face recognition.
59
197400
2616
la IA no podía hacer reconocimiento facial.
03:20
Now, AI can generate fake faces
60
200040
2976
Ahora la IA puede generar caras falsas
03:23
and simulate your face saying stuff that you never said.
61
203040
4160
y simula tu cara diciendo cosas que nunca dijiste.
03:28
Not long ago,
62
208400
1576
No hace mucho tiempo,
03:30
AI couldn't beat us at the game of Go.
63
210000
1880
la IA no podía vencernos en el juego de Go.
03:32
Then, Google DeepMind's AlphaZero AI took 3,000 years of human Go games
64
212400
5096
AlphaZero AI de Google DeepMind tomó 3000 años de juegos de Go humanos
03:37
and Go wisdom,
65
217520
1256
y la sabiduría Go,
03:38
ignored it all and became the world's best player by just playing against itself.
66
218800
4976
lo ignoró todo y se convirtió en el mejor jugador del mundo
simplemente jugando contra sí misma.
03:43
And the most impressive feat here wasn't that it crushed human gamers,
67
223800
3696
Y la hazaña más impresionante aquí no fue que aplastara a los jugadores humanos,
03:47
but that it crushed human AI researchers
68
227520
2576
sino que aplastó a los investigadores humanos de IA
03:50
who had spent decades handcrafting game-playing software.
69
230120
3680
que habían pasado décadas elaborando software de juegos a mano.
03:54
And AlphaZero crushed human AI researchers not just in Go but even at chess,
70
234200
4656
Y AlphaZero aplastó a los investigadores de IA humana no solo en Go
sino incluso en ajedrez,
03:58
which we have been working on since 1950.
71
238880
2480
en el que hemos estado trabajando desde 1950.
04:02
So all this amazing recent progress in AI really begs the question:
72
242000
4240
Así que este increíble progreso reciente en IA realmente plantea la pregunta:
04:07
How far will it go?
73
247280
1560
¿hasta dónde llegará?
04:09
I like to think about this question
74
249800
1696
Me gusta pensar en esta pregunta
04:11
in terms of this abstract landscape of tasks,
75
251520
2976
en términos de este paisaje abstracto de tareas,
04:14
where the elevation represents how hard it is for AI to do each task
76
254520
3456
en el que la elevación representa lo difícil que es para la IA hacer cada tarea
04:18
at human level,
77
258000
1216
a nivel humano,
04:19
and the sea level represents what AI can do today.
78
259240
2760
y el nivel del mar representa lo que la IA puede hacer hoy.
04:23
The sea level is rising as AI improves,
79
263120
2056
El nivel del mar aumenta a medida que mejora la IA,
04:25
so there's a kind of global warming going on here in the task landscape.
80
265200
3440
así hay una especie de calentamiento global en el paisaje de tareas.
04:30
And the obvious takeaway is to avoid careers at the waterfront --
81
270040
3335
Y lo obvio es evitar las carreras en el paseo marítimo...
04:33
(Laughter)
82
273399
1257
(Risas)
04:34
which will soon be automated and disrupted.
83
274680
2856
que pronto será automatizado e interrumpido.
04:37
But there's a much bigger question as well.
84
277560
2976
Pero también hay una pregunta mucho más relevante.
04:40
How high will the water end up rising?
85
280560
1810
¿Qué tan alto llegará el agua?
04:43
Will it eventually rise to flood everything,
86
283440
3200
¿Finalmente se aumentará hasta inundar todo,
04:47
matching human intelligence at all tasks.
87
287840
2496
coincidir la inteligencia humana en todas las tareas?
04:50
This is the definition of artificial general intelligence --
88
290360
3736
Esta es la definición de inteligencia general artificial...
04:54
AGI,
89
294120
1296
IAG,
04:55
which has been the holy grail of AI research since its inception.
90
295440
3080
que ha sido el santo grial de la investigación de IA desde su inicio.
Según esta definición, las personas que dicen,
04:59
By this definition, people who say,
91
299000
1776
05:00
"Ah, there will always be jobs that humans can do better than machines,"
92
300800
3416
"Siempre habrá trabajos que los humanos puedan hacer mejor que las máquinas",
05:04
are simply saying that we'll never get AGI.
93
304240
2920
simplemente están diciendo que nunca tendremos IAG.
05:07
Sure, we might still choose to have some human jobs
94
307680
3576
Claro, aún podríamos elegir tener algunos trabajos humanos
05:11
or to give humans income and purpose with our jobs,
95
311280
3096
o darles a los humanos un ingreso y un propósito con nuestros trabajos,
05:14
but AGI will in any case transform life as we know it
96
314400
3736
pero la IAG en cualquier caso transformará la vida tal como la conocemos
05:18
with humans no longer being the most intelligent.
97
318160
2736
al no ser ya los humanos los más inteligentes.
05:20
Now, if the water level does reach AGI,
98
320920
3696
Ahora, si el nivel del agua llega a IAG,
05:24
then further AI progress will be driven mainly not by humans but by AI,
99
324640
5296
entonces, el progreso de la IA no será impulsado
principalmente por humanos, sino por la IA,
05:29
which means that there's a possibility
100
329960
1856
lo que significa que hay la posibilidad
05:31
that further AI progress could be way faster
101
331840
2336
de que ese progreso adicional de la IA sea mucho más rápido
05:34
than the typical human research and development timescale of years,
102
334200
3376
que la escala de tiempo típica
de investigación y desarrollo humano de años,
05:37
raising the controversial possibility of an intelligence explosion
103
337600
4016
planteando la posibilidad controvertida de una explosión de inteligencia
05:41
where recursively self-improving AI
104
341640
2296
donde la IA recursivamente automejorada
05:43
rapidly leaves human intelligence far behind,
105
343960
3416
rápidamente deja muy atrás la inteligencia humana,
05:47
creating what's known as superintelligence.
106
347400
2440
creando lo que se conoce como superinteligencia.
05:51
Alright, reality check:
107
351800
2280
Bien, verificación de la realidad:
05:55
Are we going to get AGI any time soon?
108
355120
2440
¿Vamos a lograr IAG en el corto plazo?
05:58
Some famous AI researchers, like Rodney Brooks,
109
358360
2696
Algunos investigadores famosos de IA, como Rodney Brooks,
06:01
think it won't happen for hundreds of years.
110
361080
2496
creen que no sucederá en cientos de años.
06:03
But others, like Google DeepMind founder Demis Hassabis,
111
363600
3896
Pero otros, como el fundador de Google DeepMind, Demis Hassabis,
06:07
are more optimistic
112
367520
1256
son más optimistas
06:08
and are working to try to make it happen much sooner.
113
368800
2576
y están trabajando para tratar de que suceda mucho antes.
06:11
And recent surveys have shown that most AI researchers
114
371400
3296
Y encuestas recientes han mostrado que la mayoría de los investigadores IA
06:14
actually share Demis's optimism,
115
374720
2856
en realidad comparten el optimismo de Demis,
06:17
expecting that we will get AGI within decades,
116
377600
3080
esperando que obtengamos IAG en décadas,
06:21
so within the lifetime of many of us,
117
381640
2256
en la vida de muchos de nosotros,
06:23
which begs the question -- and then what?
118
383920
1960
lo cual plantea la pregunta, ¿y luego qué?
06:27
What do we want the role of humans to be
119
387040
2216
¿Cuál queremos que sea el papel de los humanos
06:29
if machines can do everything better and cheaper than us?
120
389280
2680
si las máquinas pueden hacer todo mejor y más barato que nosotros?
06:35
The way I see it, we face a choice.
121
395000
2000
De la forma en que lo veo, enfrentamos una elección.
06:38
One option is to be complacent.
122
398000
1576
Una opción es ser complacientes.
06:39
We can say, "Oh, let's just build machines that can do everything we can do
123
399600
3776
Decir: "Construyamos máquinas que puedan hacer todo lo que podemos hacer
06:43
and not worry about the consequences.
124
403400
1816
y no preocuparnos por las consecuencias.
06:45
Come on, if we build technology that makes all humans obsolete,
125
405240
3256
Es decir, si construimos tecnología que hace a todos los humanos obsoletos,
06:48
what could possibly go wrong?"
126
408520
2096
¿qué podrá salir mal?".
06:50
(Laughter)
127
410640
1656
(Risas)
06:52
But I think that would be embarrassingly lame.
128
412320
2760
Pero creo que eso sería vergonzosamente flojo.
06:56
I think we should be more ambitious -- in the spirit of TED.
129
416080
3496
Creo que deberíamos ser más ambiciosos... en el espíritu de TED.
06:59
Let's envision a truly inspiring high-tech future
130
419600
3496
Imaginemos un futuro de alta tecnología verdaderamente inspirador
07:03
and try to steer towards it.
131
423120
1400
y tratemos de dirigirnos a él.
07:05
This brings us to the second part of our rocket metaphor: the steering.
132
425720
3536
Esto nos lleva a la segunda parte de nuestra metáfora del cohete: la dirección.
07:09
We're making AI more powerful,
133
429280
1896
Estamos haciendo que la IA sea más poderosa,
07:11
but how can we steer towards a future
134
431200
3816
pero ¿cómo podemos dirigirnos hacia un futuro
07:15
where AI helps humanity flourish rather than flounder?
135
435040
3080
en el que la IA ayude a la humanidad a florecer en lugar de al desconcierto?
07:18
To help with this,
136
438760
1256
Para esto,
cofundé Future of Life Institute,
07:20
I cofounded the Future of Life Institute.
137
440040
1976
una organización sin fines de lucro
07:22
It's a small nonprofit promoting beneficial technology use,
138
442040
2776
que promueve el uso de tecnología beneficiosa,
07:24
and our goal is simply for the future of life to exist
139
444840
2736
y nuestro objetivo es que exista
07:27
and to be as inspiring as possible.
140
447600
2056
el futuro de la vida
y ser lo más inspiradores posible.
07:29
You know, I love technology.
141
449680
3176
Ya saben, me encanta la tecnología.
07:32
Technology is why today is better than the Stone Age.
142
452880
2920
La tecnología es el por qué hoy es mejor que la Edad de Piedra.
07:36
And I'm optimistic that we can create a really inspiring high-tech future ...
143
456600
4080
Y soy optimista de que podemos crear un futuro
de alta tecnología realmente inspirador...
07:41
if -- and this is a big if --
144
461680
1456
si —y esto es un gran si—
07:43
if we win the wisdom race --
145
463160
2456
si ganamos la carrera de sabiduría,
07:45
the race between the growing power of our technology
146
465640
2856
la carrera entre el poder creciente de nuestra tecnología
07:48
and the growing wisdom with which we manage it.
147
468520
2200
y la creciente sabiduría con la que lo administramos.
07:51
But this is going to require a change of strategy
148
471240
2296
Pero esto requerirá un cambio de estrategia
07:53
because our old strategy has been learning from mistakes.
149
473560
3040
porque nuestra vieja estrategia ha sido aprender de los errores.
07:57
We invented fire,
150
477280
1536
Inventamos el fuego,
07:58
screwed up a bunch of times --
151
478840
1536
nos afectó un montón de veces...
08:00
invented the fire extinguisher.
152
480400
1816
se inventó el extintor de incendios.
08:02
(Laughter)
153
482240
1336
(Risas)
08:03
We invented the car, screwed up a bunch of times --
154
483600
2416
Inventamos el auto, arruinado un montón de veces
se inventó el semáforo, el cinturón de seguridad y el airbag,
08:06
invented the traffic light, the seat belt and the airbag,
155
486040
2667
08:08
but with more powerful technology like nuclear weapons and AGI,
156
488731
3845
pero con tecnología más poderosa como armas nucleares e IAG,
08:12
learning from mistakes is a lousy strategy,
157
492600
3376
aprender de los errores es una estrategia pésima,
08:16
don't you think?
158
496000
1216
¿no creen?
08:17
(Laughter)
159
497240
1016
(Risas)
Es mucho mejor ser proactivo en lugar de reactivo;
08:18
It's much better to be proactive rather than reactive;
160
498280
2576
08:20
plan ahead and get things right the first time
161
500880
2296
planificar y hacer las cosas bien la primera vez
08:23
because that might be the only time we'll get.
162
503200
2496
porque podría ser la única vez que lo consiguiéramos.
08:25
But it is funny because sometimes people tell me,
163
505720
2336
Pero es extraño porque a veces la gente me dice:
08:28
"Max, shhh, don't talk like that.
164
508080
2736
"Max, shhh, no hables así.
08:30
That's Luddite scaremongering."
165
510840
1720
Ese es el alarmismo ludista".
08:34
But it's not scaremongering.
166
514040
1536
Pero no es alarmismo.
08:35
It's what we at MIT call safety engineering.
167
515600
2880
Es lo que en MIT llamamos ingeniería de seguridad.
08:39
Think about it:
168
519200
1216
Piénsenlo:
08:40
before NASA launched the Apollo 11 mission,
169
520440
2216
antes de que la NASA lanzara la misión Apolo 11,
08:42
they systematically thought through everything that could go wrong
170
522680
3136
pensaron sistemáticamente en todo lo que podría salir mal
08:45
when you put people on top of explosive fuel tanks
171
525840
2376
al poner gente sobre tanques de combustible explosivos
08:48
and launch them somewhere where no one could help them.
172
528240
2616
y lanzarla a un lugar donde nadie podía ayudarla.
08:50
And there was a lot that could go wrong.
173
530880
1936
Y había muchas cosas que podrían salir mal.
08:52
Was that scaremongering?
174
532840
1480
¿Era eso alarmismo?
08:55
No.
175
535159
1217
No.
08:56
That's was precisely the safety engineering
176
536400
2016
Fue precisamente la ingeniería de seguridad
08:58
that ensured the success of the mission,
177
538440
1936
la que aseguró el éxito de la misión,
09:00
and that is precisely the strategy I think we should take with AGI.
178
540400
4176
y esa es precisamente la estrategia que creo que deberíamos tomar con IAG.
09:04
Think through what can go wrong to make sure it goes right.
179
544600
4056
Pensar en lo que puede salir mal para asegurarnos de que va a salir bien.
09:08
So in this spirit, we've organized conferences,
180
548680
2536
En este espíritu, organizamos conferencias,
con los principales investigadores de la IA y otros pensadores
09:11
bringing together leading AI researchers and other thinkers
181
551240
2816
para discutir cómo crecer esta sabiduría para mantener la IA beneficiosa.
09:14
to discuss how to grow this wisdom we need to keep AI beneficial.
182
554080
3736
09:17
Our last conference was in Asilomar, California last year
183
557840
3296
Nuestra última conferencia fue en Asilomar, California, el año pasado
09:21
and produced this list of 23 principles
184
561160
3056
y produjo esta lista de 23 principios
que desde entonces han sido firmados por más de 1000 investigadores de IA
09:24
which have since been signed by over 1,000 AI researchers
185
564240
2896
09:27
and key industry leaders,
186
567160
1296
y líderes clave de la industria,
09:28
and I want to tell you about three of these principles.
187
568480
3176
y quiero contarles acerca de tres de estos principios.
09:31
One is that we should avoid an arms race and lethal autonomous weapons.
188
571680
4960
Uno es que debemos evitar una carrera armamentista y armas letales autónomas.
09:37
The idea here is that any science can be used for new ways of helping people
189
577480
3616
La idea aquí es que toda ciencia puede usarse para nuevas formas de ayudar
o nuevas formas de dañar personas.
09:41
or new ways of harming people.
190
581120
1536
09:42
For example, biology and chemistry are much more likely to be used
191
582680
3936
Por ejemplo, es mucho más probable que se usen la biología y la química
09:46
for new medicines or new cures than for new ways of killing people,
192
586640
4856
para nuevas medicinas o nuevas curas que para nuevas formas de matar personas,
09:51
because biologists and chemists pushed hard --
193
591520
2176
porque los biólogos y los químicos presionaron mucho
09:53
and successfully --
194
593720
1256
y exitosamente...
09:55
for bans on biological and chemical weapons.
195
595000
2176
para prohibir las armas biológicas y químicas.
09:57
And in the same spirit,
196
597200
1256
Y en el mismo espíritu,
09:58
most AI researchers want to stigmatize and ban lethal autonomous weapons.
197
598480
4440
la mayoría de los investigadores de IA
quieren estigmatizar y prohibir las armas letales autónomas.
10:03
Another Asilomar AI principle
198
603600
1816
Otro principio de IA Asilomar
10:05
is that we should mitigate AI-fueled income inequality.
199
605440
3696
es que debemos mitigar la desigualdad de ingresos alimentada con IA.
10:09
I think that if we can grow the economic pie dramatically with AI
200
609160
4456
Creo que si podemos hacer crecer el pastel económico radicalmente con la IA
10:13
and we still can't figure out how to divide this pie
201
613640
2456
y no podemos entender cómo dividir este pastel
10:16
so that everyone is better off,
202
616120
1576
para que todos estén mejor,
10:17
then shame on us.
203
617720
1256
entonces avergoncémonos.
10:19
(Applause)
204
619000
4096
(Aplausos)
10:23
Alright, now raise your hand if your computer has ever crashed.
205
623120
3600
Ahora levanten la mano si su computadora se ha dañado alguna vez.
10:27
(Laughter)
206
627480
1256
(Risas)
10:28
Wow, that's a lot of hands.
207
628760
1656
Uy, son muchas manos.
10:30
Well, then you'll appreciate this principle
208
630440
2176
Bueno, entonces apreciarán este principio
10:32
that we should invest much more in AI safety research,
209
632640
3136
que deberíamos invertir mucho más en la investigación de seguridad de IA,
10:35
because as we put AI in charge of even more decisions and infrastructure,
210
635800
3656
porque al poner a la IA a cargo de más decisiones e infraestructura,
10:39
we need to figure out how to transform today's buggy and hackable computers
211
639480
3616
tenemos que encontrar cómo transformar
las computadoras pirateables y con errores
10:43
into robust AI systems that we can really trust,
212
643120
2416
en sistemas robustos de IA en los que poder confiar,
10:45
because otherwise,
213
645560
1216
porque de otra manera,
10:46
all this awesome new technology can malfunction and harm us,
214
646800
2816
toda esta nueva tecnología puede funcionar mal y dañarnos,
10:49
or get hacked and be turned against us.
215
649640
1976
o ser pirateada y volverse contra nosotros.
10:51
And this AI safety work has to include work on AI value alignment,
216
651640
5696
Y este trabajo de seguridad de IA
debe incluir trabajo sobre la alineación de valores de IA,
10:57
because the real threat from AGI isn't malice,
217
657360
2816
porque la amenaza real de la IAG no es la malicia,
como en las tontas películas de Hollywood,
11:00
like in silly Hollywood movies,
218
660200
1656
11:01
but competence --
219
661880
1736
sino la competencia...
11:03
AGI accomplishing goals that just aren't aligned with ours.
220
663640
3416
La IAG logrando metas que simplemente no están alineadas con las nuestras.
11:07
For example, when we humans drove the West African black rhino extinct,
221
667080
4736
Por ejemplo, cuando los humanos llevamos
al rinoceronte negro africano occidental a la extinción,
11:11
we didn't do it because we were a bunch of evil rhinoceros haters, did we?
222
671840
3896
no lo hicimos porque fuéramos malvados enemigos del rinoceronte, ¿verdad?
11:15
We did it because we were smarter than them
223
675760
2056
Fue porque éramos más inteligentes que ellos
11:17
and our goals weren't aligned with theirs.
224
677840
2576
y nuestros objetivos no estaban alineados con los suyos.
11:20
But AGI is by definition smarter than us,
225
680440
2656
Pero la IAG es, por definición, más inteligente que nosotros,
11:23
so to make sure that we don't put ourselves in the position of those rhinos
226
683120
3576
así que para asegurarnos de no ponernos en la posición de esos rinocerontes
11:26
if we create AGI,
227
686720
1976
si creamos la IAG,
11:28
we need to figure out how to make machines understand our goals,
228
688720
4176
necesitamos descubrir cómo hacer que las máquinas comprendan nuestros objetivos,
11:32
adopt our goals and retain our goals.
229
692920
3160
adopten nuestros objetivos y retengan nuestros objetivos.
11:37
And whose goals should these be, anyway?
230
697320
2856
¿Y de quién son los objetivos, de todos modos?
11:40
Which goals should they be?
231
700200
1896
¿Cuáles objetivos deberían ser?
11:42
This brings us to the third part of our rocket metaphor: the destination.
232
702120
3560
Esto nos lleva a la tercera parte de nuestra metáfora del cohete: el destino.
11:47
We're making AI more powerful,
233
707160
1856
Estamos haciendo que la IA sea más poderosa,
11:49
trying to figure out how to steer it,
234
709040
1816
tratando de descubrir cómo dirigirla,
11:50
but where do we want to go with it?
235
710880
1680
pero ¿a dónde queremos llegar?
11:53
This is the elephant in the room that almost nobody talks about --
236
713760
3656
Este es el elefante en la habitación del que casi nadie habla...
11:57
not even here at TED --
237
717440
1856
ni siquiera aquí en TED,
11:59
because we're so fixated on short-term AI challenges.
238
719320
4080
porque estamos muy obsesionados con los desafíos de la IA a corto plazo.
12:04
Look, our species is trying to build AGI,
239
724080
4656
Miren, nuestra especie está tratando de construir la IAG,
12:08
motivated by curiosity and economics,
240
728760
3496
motivada por la curiosidad y la economía,
12:12
but what sort of future society are we hoping for if we succeed?
241
732280
3680
pero ¿qué tipo de sociedad futura estamos esperando si lo logramos?
12:16
We did an opinion poll on this recently,
242
736680
1936
Una encuesta de opinión sobre esto recientemente,
12:18
and I was struck to see
243
738640
1216
y me llamó la atención ver
12:19
that most people actually want us to build superintelligence:
244
739880
2896
que la mayoría de la gente quiere que construyamos superinteligencia:
12:22
AI that's vastly smarter than us in all ways.
245
742800
3160
La IA es mucho más inteligente que nosotros en todos los sentidos.
12:27
What there was the greatest agreement on was that we should be ambitious
246
747120
3416
El mayor acuerdo fue que deberíamos ser ambiciosos
12:30
and help life spread into the cosmos,
247
750560
2016
y ayudar a la vida a extenderse al cosmos,
12:32
but there was much less agreement about who or what should be in charge.
248
752600
4496
pero había mucho menos acuerdo sobre quién o qué debería estar a cargo.
12:37
And I was actually quite amused
249
757120
1736
Y en realidad era bastante entretenido
12:38
to see that there's some some people who want it to be just machines.
250
758880
3456
ver que hay algunas personas que quieren que sean solo máquinas.
12:42
(Laughter)
251
762360
1696
(Risas)
12:44
And there was total disagreement about what the role of humans should be,
252
764080
3856
Y hubo desacuerdo total sobre cuál debería ser el papel de los humanos,
12:47
even at the most basic level,
253
767960
1976
incluso en el nivel más básico,
12:49
so let's take a closer look at possible futures
254
769960
2816
así que echemos un vistazo más de cerca a los posibles futuros
12:52
that we might choose to steer toward, alright?
255
772800
2736
a los que podríamos elegir dirigirnos, ¿está bien?
12:55
So don't get me wrong here.
256
775560
1336
No se equivoquen aquí.
12:56
I'm not talking about space travel,
257
776920
2056
No estoy hablando de viajes espaciales
12:59
merely about humanity's metaphorical journey into the future.
258
779000
3200
solo del viaje metafórico de la humanidad hacia el futuro.
13:02
So one option that some of my AI colleagues like
259
782920
3496
Entonces, una opción que a algunos de mis colegas de IA les gusta
13:06
is to build superintelligence and keep it under human control,
260
786440
3616
es construir superinteligencia y mantenerla bajo control humano,
13:10
like an enslaved god,
261
790080
1736
como un dios esclavizado,
13:11
disconnected from the internet
262
791840
1576
desconectado de internet
13:13
and used to create unimaginable technology and wealth
263
793440
3256
y que se usa para crear tecnología y riqueza inimaginables
13:16
for whoever controls it.
264
796720
1240
para quien la controla.
13:18
But Lord Acton warned us
265
798800
1456
Pero Lord Acton nos advirtió que
13:20
that power corrupts, and absolute power corrupts absolutely,
266
800280
3616
ese poder corrompe, y el poder absoluto corrompe absolutamente,
13:23
so you might worry that maybe we humans just aren't smart enough,
267
803920
4056
podrían preocuparse de que, tal vez, los humanos no somos lo inteligentes
13:28
or wise enough rather,
268
808000
1536
o suficientemente sabios,
13:29
to handle this much power.
269
809560
1240
como para manejar tanto poder.
13:31
Also, aside from any moral qualms you might have
270
811640
2536
Además, aparte de cualquier reparo moral que puedan tener
13:34
about enslaving superior minds,
271
814200
2296
sobre esclavizar mentes superiores,
13:36
you might worry that maybe the superintelligence could outsmart us,
272
816520
3976
podrían preocuparse de que tal vez la superinteligencia
pueda ser más astuta que nosotros,
13:40
break out and take over.
273
820520
2240
evadirse y tomar el control.
13:43
But I also have colleagues who are fine with AI taking over
274
823560
3416
Pero también tengo colegas que están de acuerdo con que la IA se haga cargo
13:47
and even causing human extinction,
275
827000
2296
e incluso cause la extinción humana,
13:49
as long as we feel the the AIs are our worthy descendants,
276
829320
3576
siempre y cuando sientan que las IAs son nuestras dignas descendientes,
13:52
like our children.
277
832920
1736
como nuestros hijos
13:54
But how would we know that the AIs have adopted our best values
278
834680
5616
Pero ¿cómo sabríamos que la IA ha adoptado nuestros mejores valores?
14:00
and aren't just unconscious zombies tricking us into anthropomorphizing them?
279
840320
4376
y no son solo zombis inconscientes engañándonos antropomorfizándose?
14:04
Also, shouldn't those people who don't want human extinction
280
844720
2856
Además, ¿no deberían las personas que no quieren la extinción humana
14:07
have a say in the matter, too?
281
847600
1440
poder algo decir al respecto también?
14:10
Now, if you didn't like either of those two high-tech options,
282
850200
3376
Ahora, si no les gustó ninguna de esas dos opciones de alta tecnología,
14:13
it's important to remember that low-tech is suicide
283
853600
3176
es importante recordar que la baja tecnología es un suicidio
14:16
from a cosmic perspective,
284
856800
1256
desde una perspectiva cósmica,
14:18
because if we don't go far beyond today's technology,
285
858080
2496
porque si no vamos más allá de la tecnología actual,
14:20
the question isn't whether humanity is going to go extinct,
286
860600
2816
la pregunta no es si la humanidad se va a extinguir,
14:23
merely whether we're going to get taken out
287
863440
2016
simplemente si nos van a acabar
14:25
by the next killer asteroid, supervolcano
288
865480
2136
el próximo asteroide asesino, un supervolcán
14:27
or some other problem that better technology could have solved.
289
867640
3096
u otro problema que una mejor tecnología podría haber resuelto.
14:30
So, how about having our cake and eating it ...
290
870760
3576
Entonces, ¿qué tal tener nuestro pastel y comérnoslo...
14:34
with AGI that's not enslaved
291
874360
1840
con la IAG que no esté esclavizada
sino que nos trata bien porque sus valores están alineados con los nuestros?
14:37
but treats us well because its values are aligned with ours?
292
877120
3176
14:40
This is the gist of what Eliezer Yudkowsky has called "friendly AI,"
293
880320
4176
Es la esencia de lo que Eliezer Yudkowsky llama "amigable inteligencia artificial".
14:44
and if we can do this, it could be awesome.
294
884520
2680
y si podemos hacer esto, podría ser increíble.
14:47
It could not only eliminate negative experiences like disease, poverty,
295
887840
4816
No solo podría eliminar las experiencias negativas como la enfermedad, la pobreza,
14:52
crime and other suffering,
296
892680
1456
el crimen u otro sufrimiento,
14:54
but it could also give us the freedom to choose
297
894160
2816
sino también podría darnos la libertad de elegir
14:57
from a fantastic new diversity of positive experiences --
298
897000
4056
de una nueva y fantástica diversidad de experiencias positivas
15:01
basically making us the masters of our own destiny.
299
901080
3160
básicamente haciéndonos dueños de nuestro propio destino.
15:06
So in summary,
300
906280
1376
Entonces, en resumen,
15:07
our situation with technology is complicated,
301
907680
3096
nuestra situación con la tecnología es complicada,
15:10
but the big picture is rather simple.
302
910800
2416
pero el panorama general es bastante simple.
15:13
Most AI researchers expect AGI within decades,
303
913240
3456
La mayoría de los investigadores de IA esperan la IAG en décadas,
15:16
and if we just bumble into this unprepared,
304
916720
3136
y si nos equivocamos en esto sin preparación,
15:19
it will probably be the biggest mistake in human history --
305
919880
3336
probablemente sea el error más grande en la historia de la humanidad...
15:23
let's face it.
306
923240
1416
afrontémoslo.
15:24
It could enable brutal, global dictatorship
307
924680
2576
Podría permitir una dictadura brutal y global
15:27
with unprecedented inequality, surveillance and suffering,
308
927280
3536
con desigualdad, vigilancia y sufrimiento sin precedentes,
15:30
and maybe even human extinction.
309
930840
1976
y tal vez incluso la extinción humana.
15:32
But if we steer carefully,
310
932840
2320
Pero si nos dirigimos con cuidado,
15:36
we could end up in a fantastic future where everybody's better off:
311
936040
3896
podríamos terminar en un futuro fantástico en el que todos estemos mejor:
15:39
the poor are richer, the rich are richer,
312
939960
2376
los pobres son más ricos, los ricos son más ricos,
15:42
everybody is healthy and free to live out their dreams.
313
942360
3960
todos están sanos y son libres de vivir sus sueños.
15:47
Now, hang on.
314
947000
1536
Ahora, esperen.
15:48
Do you folks want the future that's politically right or left?
315
948560
4576
¿Uds. quieren el futuro políticamente de derecha o de izquierda?
15:53
Do you want the pious society with strict moral rules,
316
953160
2856
¿Quieren la sociedad piadosa con estrictas reglas morales,
15:56
or do you an hedonistic free-for-all,
317
956040
1816
o una libertad hedonista para todos,
15:57
more like Burning Man 24/7?
318
957880
2216
más como Burning Man 24/7?
16:00
Do you want beautiful beaches, forests and lakes,
319
960120
2416
¿Quieren hermosas playas, bosques y lagos,
16:02
or would you prefer to rearrange some of those atoms with the computers,
320
962560
3416
o prefieren reorganizar algunos de esos átomos con las computadoras,
16:06
enabling virtual experiences?
321
966000
1715
permitiendo experiencias virtuales?
16:07
With friendly AI, we could simply build all of these societies
322
967739
3157
Con una IA amigable, podríamos construir todas estas sociedades
16:10
and give people the freedom to choose which one they want to live in
323
970920
3216
y dar a las personas la libertad de elegir en cuál quieren vivir
16:14
because we would no longer be limited by our intelligence,
324
974160
3096
porque ya no estaríamos limitados por nuestra inteligencia,
16:17
merely by the laws of physics.
325
977280
1456
solo por las leyes de la física.
16:18
So the resources and space for this would be astronomical --
326
978760
4616
Entonces, los recursos y el espacio para esto serían astronómicos,
16:23
literally.
327
983400
1320
literalmente.
16:25
So here's our choice.
328
985320
1200
Así que aquí está nuestra elección.
16:27
We can either be complacent about our future,
329
987880
2320
Podemos ser complacientes con nuestro futuro,
16:31
taking as an article of blind faith
330
991440
2656
tomando como un artículo de fe ciega
16:34
that any new technology is guaranteed to be beneficial,
331
994120
4016
que cualquier nueva tecnología garantiza ser beneficiosa,
16:38
and just repeat that to ourselves as a mantra over and over and over again
332
998160
4136
y solo repetírnoslo a nosotros mismos como un mantra una y otra y otra vez
16:42
as we drift like a rudderless ship towards our own obsolescence.
333
1002320
3680
mientras navegamos como un barco sin timón hacia nuestra propia obsolescencia.
16:46
Or we can be ambitious --
334
1006920
1880
O podemos ser ambiciosos
16:49
thinking hard about how to steer our technology
335
1009840
2456
pensando mucho acerca de cómo dirigir nuestra tecnología
16:52
and where we want to go with it
336
1012320
1936
y a dónde queremos ir con eso
16:54
to create the age of amazement.
337
1014280
1760
para crear la era del asombro.
16:57
We're all here to celebrate the age of amazement,
338
1017000
2856
Todos estamos aquí para celebrar la era del asombro,
16:59
and I feel that its essence should lie in becoming not overpowered
339
1019880
4440
y siento que su esencia debe estar en no ser poderosos en exceso
17:05
but empowered by our technology.
340
1025240
2616
sino empoderados por nuestra tecnología.
17:07
Thank you.
341
1027880
1376
Gracias.
17:09
(Applause)
342
1029280
3080
(Aplausos)
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7