Don't fear superintelligent AI | Grady Booch

270,234 views ・ 2017-03-13

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Claudia Viveros Revisor: Frank Zegarra
Cuando era niño, era un nerd por excelencia.
00:12
When I was a kid, I was the quintessential nerd.
0
12580
3840
00:17
I think some of you were, too.
1
17140
2176
Creo que algunos de Uds. también.
00:19
(Laughter)
2
19340
1216
(Risas)
00:20
And you, sir, who laughed the loudest, you probably still are.
3
20580
3216
Y Ud. señor, el que se rio más fuerte, probablemente aún lo sea.
00:23
(Laughter)
4
23820
2256
(Risas)
00:26
I grew up in a small town in the dusty plains of north Texas,
5
26100
3496
Crecí en un pueblo pequeño en los llanos del norte de Tejas,
00:29
the son of a sheriff who was the son of a pastor.
6
29620
3336
hijo de un comisario, que fue hijo de un pastor.
00:32
Getting into trouble was not an option.
7
32980
1920
Meterse en problemas no era una opción.
00:35
And so I started reading calculus books for fun.
8
35860
3256
Así es que comencé a leer libros de cálculo por diversión.
00:39
(Laughter)
9
39140
1536
(Risas)
00:40
You did, too.
10
40700
1696
Uds. también lo hicieron.
00:42
That led me to building a laser and a computer and model rockets,
11
42420
3736
Eso me llevó a crear un láser, una computadora y modelos de cohetes,
00:46
and that led me to making rocket fuel in my bedroom.
12
46180
3000
y eso me llevó a hacer combustible para cohetes en mi habitación.
00:49
Now, in scientific terms,
13
49780
3656
En términos científicos,
00:53
we call this a very bad idea.
14
53460
3256
esta es una muy mala idea.
00:56
(Laughter)
15
56740
1216
(Risas)
00:57
Around that same time,
16
57980
2176
Por esos días
01:00
Stanley Kubrick's "2001: A Space Odyssey" came to the theaters,
17
60180
3216
se estrenó "2001: Una Odisea en el Espacio" de Stanley Kubrick,
01:03
and my life was forever changed.
18
63420
2200
y mi vida cambió para siempre.
01:06
I loved everything about that movie,
19
66100
2056
Me encantó todo de esa película,
01:08
especially the HAL 9000.
20
68180
2536
especialmente el HAL 9000.
01:10
Now, HAL was a sentient computer
21
70740
2056
HAL era un computador sensible
01:12
designed to guide the Discovery spacecraft
22
72820
2456
diseñado para guiar la aeronave Discovery
01:15
from the Earth to Jupiter.
23
75300
2536
de la Tierra a Júpiter.
01:17
HAL was also a flawed character,
24
77860
2056
HAL además era imperfecto,
01:19
for in the end he chose to value the mission over human life.
25
79940
4280
porque eligió el valor de la misión sobre la vida humana.
01:24
Now, HAL was a fictional character,
26
84660
2096
HAL era un personaje ficticio,
01:26
but nonetheless he speaks to our fears,
27
86780
2656
y sin embargo habla sobre nuestros temores,
01:29
our fears of being subjugated
28
89460
2096
nuestros temores a ser subyugados
01:31
by some unfeeling, artificial intelligence
29
91580
3016
por alguna insensible inteligencia artificial
01:34
who is indifferent to our humanity.
30
94620
1960
indiferente a nuestra humanidad.
01:37
I believe that such fears are unfounded.
31
97700
2576
Creo que esos temores son infundados.
01:40
Indeed, we stand at a remarkable time
32
100300
2696
De hecho, estamos en un tiempo notable
01:43
in human history,
33
103020
1536
en la historia de la humanidad,
01:44
where, driven by refusal to accept the limits of our bodies and our minds,
34
104580
4976
donde, motivados por la negación a aceptar los límites del cuerpo y mente,
01:49
we are building machines
35
109580
1696
construimos máquinas
01:51
of exquisite, beautiful complexity and grace
36
111300
3616
de complejidad y gracia exquisita y hermosa
01:54
that will extend the human experience
37
114940
2056
que expanden la experiencia humana
01:57
in ways beyond our imagining.
38
117020
1680
más allá de nuestra imaginación.
01:59
After a career that led me from the Air Force Academy
39
119540
2576
Tras una carrera que me llevó de la Academia de la Fuerza Aérea
02:02
to Space Command to now,
40
122140
1936
a comandante de estación espacial,
02:04
I became a systems engineer,
41
124100
1696
me volví ingeniero de sistemas,
02:05
and recently I was drawn into an engineering problem
42
125820
2736
y recientemente me encontré con un problema de ingeniería
02:08
associated with NASA's mission to Mars.
43
128580
2576
relacionado con la misión de la NASA a Marte.
02:11
Now, in space flights to the Moon,
44
131180
2496
En vuelos espaciales a la Luna,
02:13
we can rely upon mission control in Houston
45
133700
3136
dependemos del control de la misión en Houston
02:16
to watch over all aspects of a flight.
46
136860
1976
para vigilar todos los aspectos de un vuelo.
02:18
However, Mars is 200 times further away,
47
138860
3536
Sin embargo, Marte está 200 veces más lejos,
02:22
and as a result it takes on average 13 minutes
48
142420
3216
como resultado toma en promedio 13 minutos
02:25
for a signal to travel from the Earth to Mars.
49
145660
3136
para que una señal viaje de la Tierra a Marte.
02:28
If there's trouble, there's not enough time.
50
148820
3400
Si hay algún percance, no hay suficiente tiempo.
02:32
And so a reasonable engineering solution
51
152660
2496
Una solución razonable de ingeniería
02:35
calls for us to put mission control
52
155180
2576
nos incita a instalar el control de la misión
02:37
inside the walls of the Orion spacecraft.
53
157780
3016
dentro de las paredes de la aeronave Orión.
02:40
Another fascinating idea in the mission profile
54
160820
2896
Otra idea fascinante en el perfil de la misión
02:43
places humanoid robots on the surface of Mars
55
163740
2896
es colocar robots humanoides en la superficie de Marte
02:46
before the humans themselves arrive,
56
166660
1856
antes de que los humanos mismos lleguen,
02:48
first to build facilities
57
168540
1656
primero para construir instalaciones
02:50
and later to serve as collaborative members of the science team.
58
170220
3360
y luego para servir como colaboradores en el equipo científico.
02:55
Now, as I looked at this from an engineering perspective,
59
175220
2736
Al mirar esto desde la ingeniería,
02:57
it became very clear to me that what I needed to architect
60
177980
3176
me quedó claro que lo que necesitaba diseñar
03:01
was a smart, collaborative,
61
181180
2176
era una inteligencia artificial muy lista,
03:03
socially intelligent artificial intelligence.
62
183380
2376
colaborativa y social.
03:05
In other words, I needed to build something very much like a HAL
63
185780
4296
En otras palabras, necesitaba construir algo muy parecido a HAL
03:10
but without the homicidal tendencies.
64
190100
2416
pero sin las tendencias homicidas.
03:12
(Laughter)
65
192540
1360
(Risas)
03:14
Let's pause for a moment.
66
194740
1816
Detengámonos un momento.
03:16
Is it really possible to build an artificial intelligence like that?
67
196580
3896
¿Es realmente posible construir inteligencia artificial así?
03:20
Actually, it is.
68
200500
1456
De hecho, sí lo es.
03:21
In many ways,
69
201980
1256
En muchas maneras,
03:23
this is a hard engineering problem
70
203260
1976
este es un problema difícil de la ingeniería
03:25
with elements of AI,
71
205260
1456
con elementos de IA,
03:26
not some wet hair ball of an AI problem that needs to be engineered.
72
206740
4696
no es un simple problema de IA que necesite diseñarse.
03:31
To paraphrase Alan Turing,
73
211460
2656
Parafraseando a Alan Turing,
03:34
I'm not interested in building a sentient machine.
74
214140
2376
no me interesa construir una máquina sensible.
03:36
I'm not building a HAL.
75
216540
1576
No voy a construir un HAL.
03:38
All I'm after is a simple brain,
76
218140
2416
Todo lo que busco es un cerebro sencillo,
03:40
something that offers the illusion of intelligence.
77
220580
3120
algo que ofrezca una ilusión de inteligencia.
03:44
The art and the science of computing have come a long way
78
224820
3136
El arte y la ciencia de la computación ha pasado por mucho
03:47
since HAL was onscreen,
79
227980
1496
desde la aparición de HAL,
03:49
and I'd imagine if his inventor Dr. Chandra were here today,
80
229500
3216
e imagino que si su inventor Dr. Chandra estuviera aquí hoy,
03:52
he'd have a whole lot of questions for us.
81
232740
2336
tendría mucho que preguntarnos.
03:55
Is it really possible for us
82
235100
2096
¿Es realmente posible
03:57
to take a system of millions upon millions of devices,
83
237220
4016
tomar un sistema de millones y millones de dispositivos,
04:01
to read in their data streams,
84
241260
1456
para leer flujos de datos,
04:02
to predict their failures and act in advance?
85
242740
2256
para predecir fallas y actuar con antelación?
04:05
Yes.
86
245020
1216
Sí.
04:06
Can we build systems that converse with humans in natural language?
87
246260
3176
¿Podemos construir sistemas que se comuniquen con humanos?
04:09
Yes.
88
249460
1216
Sí.
04:10
Can we build systems that recognize objects, identify emotions,
89
250700
2976
¿Podemos construir sistemas que reconozcan objetos, emociones,
04:13
emote themselves, play games and even read lips?
90
253700
3376
que se emocionen, jueguen e incluso que lean los labios?
04:17
Yes.
91
257100
1216
Sí.
04:18
Can we build a system that sets goals,
92
258340
2136
¿Podemos construir un sistema que fije objetivos,
04:20
that carries out plans against those goals and learns along the way?
93
260500
3616
que lleve a cabo planes contra esos objetivos y siga aprendiendo más?
04:24
Yes.
94
264140
1216
Sí.
04:25
Can we build systems that have a theory of mind?
95
265380
3336
¿Podemos construir sistemas que piensen por sí mismos?
04:28
This we are learning to do.
96
268740
1496
Estamos aprendiendo a hacerlo.
04:30
Can we build systems that have an ethical and moral foundation?
97
270260
3480
¿Podemos construir sistemas con fundamentos éticos y morales?
04:34
This we must learn how to do.
98
274300
2040
Debemos aprender cómo hacerlo.
04:37
So let's accept for a moment
99
277180
1376
Aceptemos por un momento
04:38
that it's possible to build such an artificial intelligence
100
278580
2896
que es posible construir tal inteligencia artificial
04:41
for this kind of mission and others.
101
281500
2136
para estas misiones y otras.
04:43
The next question you must ask yourself is,
102
283660
2536
La siguiente pregunta que deben formularse es,
04:46
should we fear it?
103
286220
1456
¿deberíamos temerle?
04:47
Now, every new technology
104
287700
1976
Toda nueva tecnología
04:49
brings with it some measure of trepidation.
105
289700
2896
trae consigo algunos temores.
04:52
When we first saw cars,
106
292620
1696
Cuando vimos autos por primera vez,
04:54
people lamented that we would see the destruction of the family.
107
294340
4016
la gente temía que viéramos la destrucción de la familia.
04:58
When we first saw telephones come in,
108
298380
2696
Cuando se inventaron los teléfonos,
05:01
people were worried it would destroy all civil conversation.
109
301100
2896
la gente temía que arruinara la conversación civilizada.
05:04
At a point in time we saw the written word become pervasive,
110
304020
3936
En algún momento, vimos a la palabra escrita aparecer en todos lados,
05:07
people thought we would lose our ability to memorize.
111
307980
2496
la gente creyó que perderíamos la habilidad de memorizar.
05:10
These things are all true to a degree,
112
310500
2056
Todo esto es cierto hasta cierto grado,
05:12
but it's also the case that these technologies
113
312580
2416
pero estas tecnologías también
05:15
brought to us things that extended the human experience
114
315020
3376
nos dieron cosas que expandieron la experiencia humana
05:18
in some profound ways.
115
318420
1880
de manera profunda.
05:21
So let's take this a little further.
116
321660
2280
Así que vayamos más lejos.
05:24
I do not fear the creation of an AI like this,
117
324940
4736
No temo la creación de una IA así,
05:29
because it will eventually embody some of our values.
118
329700
3816
porque finalmente encarnará algunos de nuestros valores.
05:33
Consider this: building a cognitive system is fundamentally different
119
333540
3496
Consideren lo siguiente: construir un sistema cognitivo es muy distinto
05:37
than building a traditional software-intensive system of the past.
120
337060
3296
a construir uno tradicional intensivo en software como en el pasado.
05:40
We don't program them. We teach them.
121
340380
2456
No los programamos. Les enseñamos.
05:42
In order to teach a system how to recognize flowers,
122
342860
2656
Para enseñarle a un sistema a reconocer flores,
05:45
I show it thousands of flowers of the kinds I like.
123
345540
3016
le muestro miles de flores que me gustan.
05:48
In order to teach a system how to play a game --
124
348580
2256
Para enseñarle a jugar...
05:50
Well, I would. You would, too.
125
350860
1960
Bueno, lo haría y Uds. también.
05:54
I like flowers. Come on.
126
354420
2040
Me gustan las flores.
05:57
To teach a system how to play a game like Go,
127
357260
2856
Para enseñarle a un sistema a jugar un juego como Go,
06:00
I'd have it play thousands of games of Go,
128
360140
2056
lo pondría a jugar miles de juegos de Go,
06:02
but in the process I also teach it
129
362220
1656
y en el proceso también le enseñaría
06:03
how to discern a good game from a bad game.
130
363900
2416
a discernir un buen juego de uno malo.
06:06
If I want to create an artificially intelligent legal assistant,
131
366340
3696
Si quiero crear un asistente legal con inteligencia artificial,
06:10
I will teach it some corpus of law
132
370060
1776
le enseñaría algo del corpus legislativo
06:11
but at the same time I am fusing with it
133
371860
2856
combinando al mismo tiempo
06:14
the sense of mercy and justice that is part of that law.
134
374740
2880
el sentido de la piedad y la justicia que también son parte de la ley.
06:18
In scientific terms, this is what we call ground truth,
135
378380
2976
En términos científicos, lo llamamos verdad en tierra firme,
06:21
and here's the important point:
136
381380
2016
este es el punto importante:
06:23
in producing these machines,
137
383420
1456
al producir estas máquinas,
06:24
we are therefore teaching them a sense of our values.
138
384900
3416
les estamos enseñando también el sentido de nuestros valores.
06:28
To that end, I trust an artificial intelligence
139
388340
3136
Para este fin, confío en la inteligencia artificial
06:31
the same, if not more, as a human who is well-trained.
140
391500
3640
tanto, si no más, que en un humano bien entrenado.
06:35
But, you may ask,
141
395900
1216
Quizá se pregunten
06:37
what about rogue agents,
142
397140
2616
¿qué hay de los agentes rebeldes,
06:39
some well-funded nongovernment organization?
143
399780
3336
algunas organizaciones sólidas no gubernamentales?
06:43
I do not fear an artificial intelligence in the hand of a lone wolf.
144
403140
3816
No le temo a la inteligencia artificial en manos de un lobo solitario.
06:46
Clearly, we cannot protect ourselves against all random acts of violence,
145
406980
4536
Claramente no podemos protegernos de todo tipo de violencia,
06:51
but the reality is such a system
146
411540
2136
en realidad, un sistema así
06:53
requires substantial training and subtle training
147
413700
3096
requiere entrenamiento importante y sutil
06:56
far beyond the resources of an individual.
148
416820
2296
más allá de los recursos de un individuo.
06:59
And furthermore,
149
419140
1216
Además,
07:00
it's far more than just injecting an internet virus to the world,
150
420380
3256
se trata de algo más que inyectar un virus en el internet global,
07:03
where you push a button, all of a sudden it's in a million places
151
423660
3096
donde al presionar un botón, se esparce a millones de lugares
07:06
and laptops start blowing up all over the place.
152
426780
2456
y las laptops comienzan a estallar en pedazos.
07:09
Now, these kinds of substances are much larger,
153
429260
2816
Este tipo de sustancias son más grandes
07:12
and we'll certainly see them coming.
154
432100
1715
y se les ve venir.
07:14
Do I fear that such an artificial intelligence
155
434340
3056
¿Temo que ese tipo de inteligencia artificial
07:17
might threaten all of humanity?
156
437420
1960
amenace a la humanidad?
07:20
If you look at movies such as "The Matrix," "Metropolis,"
157
440100
4376
Si miran películas como "Matrix", "Metrópolis",
07:24
"The Terminator," shows such as "Westworld,"
158
444500
3176
"Terminator" y shows como "Westworld",
07:27
they all speak of this kind of fear.
159
447700
2136
todos hablan de este miedo.
07:29
Indeed, in the book "Superintelligence" by the philosopher Nick Bostrom,
160
449860
4296
El libro "Superinteligencia" del filósofo Nick Bostrom,
07:34
he picks up on this theme
161
454180
1536
habla de este tema
07:35
and observes that a superintelligence might not only be dangerous,
162
455740
4016
y opina que una superinteligencia no solo puede ser peligrosa,
07:39
it could represent an existential threat to all of humanity.
163
459780
3856
sino que podría representar una amenaza existencial para la humanidad.
07:43
Dr. Bostrom's basic argument
164
463660
2216
El argumento fundamental del Dr. Bostrom
07:45
is that such systems will eventually
165
465900
2736
es que dichos sistemas finalmente
07:48
have such an insatiable thirst for information
166
468660
3256
tendrán una necesidad insaciable de información
07:51
that they will perhaps learn how to learn
167
471940
2896
que quizá aprendan cómo aprender
07:54
and eventually discover that they may have goals
168
474860
2616
y finalmente descubran que pueden tener objetivos
07:57
that are contrary to human needs.
169
477500
2296
contrarios a las necesidades humanas.
07:59
Dr. Bostrom has a number of followers.
170
479820
1856
El Dr. Bostrom tiene varios seguidores.
08:01
He is supported by people such as Elon Musk and Stephen Hawking.
171
481700
4320
Gente como Elon Musk y Stephen Hawking lo apoyan.
08:06
With all due respect
172
486700
2400
Con todo respeto
08:09
to these brilliant minds,
173
489980
2016
a estas mentes brillantes,
08:12
I believe that they are fundamentally wrong.
174
492020
2256
creo que están completamente equivocados.
08:14
Now, there are a lot of pieces of Dr. Bostrom's argument to unpack,
175
494300
3176
Hay muchas partes del argumento del Dr. Bostrom que analizar,
08:17
and I don't have time to unpack them all,
176
497500
2136
y no tengo tiempo para hacerlo,
08:19
but very briefly, consider this:
177
499660
2696
pero brevemente, piensen esto:
08:22
super knowing is very different than super doing.
178
502380
3736
el superconocimiento es muy distinto al superhacer.
HAL era una amenaza para la flota del Discovery
08:26
HAL was a threat to the Discovery crew
179
506140
1896
08:28
only insofar as HAL commanded all aspects of the Discovery.
180
508060
4416
en la medida en que controlaba todos los aspectos del Discovery.
08:32
So it would have to be with a superintelligence.
181
512500
2496
Se necesitaría una superinteligencia.
08:35
It would have to have dominion over all of our world.
182
515020
2496
Y un dominio total de nuestro mundo.
08:37
This is the stuff of Skynet from the movie "The Terminator"
183
517540
2816
Skynet de la película "Terminator"
08:40
in which we had a superintelligence
184
520380
1856
tenía una superinteligencia
08:42
that commanded human will,
185
522260
1376
que controlaba la voluntad humana,
08:43
that directed every device that was in every corner of the world.
186
523660
3856
y controlaba cada dispositivo en todos los rincones del mundo.
08:47
Practically speaking,
187
527540
1456
Siendo prácticos,
08:49
it ain't gonna happen.
188
529020
2096
eso no pasará.
08:51
We are not building AIs that control the weather,
189
531140
3056
No estamos construyendo IAs que controlen el clima,
08:54
that direct the tides,
190
534220
1336
que controlen las mareas,
08:55
that command us capricious, chaotic humans.
191
535580
3376
que nos controlen a nosotros, caprichosos y caóticos humanos.
08:58
And furthermore, if such an artificial intelligence existed,
192
538980
3896
Además, si tal inteligencia artificial existiera,
09:02
it would have to compete with human economies,
193
542900
2936
tendría que competir contra las economías del hombre,
09:05
and thereby compete for resources with us.
194
545860
2520
y por tanto competir por recursos contra nosotros.
09:09
And in the end --
195
549020
1216
Y al final
09:10
don't tell Siri this --
196
550260
1240
--no le digan a Siri--
09:12
we can always unplug them.
197
552260
1376
siempre podremos desconectarlos.
09:13
(Laughter)
198
553660
2120
(Risas)
09:17
We are on an incredible journey
199
557180
2456
Estamos en una increíble aventura
09:19
of coevolution with our machines.
200
559660
2496
de coevolución con nuestras máquinas.
09:22
The humans we are today
201
562180
2496
Los humanos que somos hoy
09:24
are not the humans we will be then.
202
564700
2536
no son los humanos que seremos.
09:27
To worry now about the rise of a superintelligence
203
567260
3136
Preocuparse ahorita del ascenso de una superinteligencia
09:30
is in many ways a dangerous distraction
204
570420
3056
es una distracción peligrosa en muchos sentidos
09:33
because the rise of computing itself
205
573500
2336
porque el ascenso de la computación
09:35
brings to us a number of human and societal issues
206
575860
3016
trajo consigo muchos problemas humanos y sociales
09:38
to which we must now attend.
207
578900
1640
de los que debemos ocuparnos ahora.
09:41
How shall I best organize society
208
581180
2816
¿Cómo organizar a la sociedad
09:44
when the need for human labor diminishes?
209
584020
2336
cuando la necesidad de trabajo humano decrece?
09:46
How can I bring understanding and education throughout the globe
210
586380
3816
¿Cómo llevar conocimiento y educación a través del mundo
09:50
and still respect our differences?
211
590220
1776
respetando nuestras diferencias?
09:52
How might I extend and enhance human life through cognitive healthcare?
212
592020
4256
¿Cómo expandir y mejorar la vida con la atención médica cognitiva?
09:56
How might I use computing
213
596300
2856
¿Cómo usar la computación
09:59
to help take us to the stars?
214
599180
1760
para ayudarnos a alcanzar las estrellas?
10:01
And that's the exciting thing.
215
601580
2040
Eso es lo emocionante.
10:04
The opportunities to use computing
216
604220
2336
Las oportunidades para usar la computación
10:06
to advance the human experience
217
606580
1536
y fomentar la experiencia humana
10:08
are within our reach,
218
608140
1416
están a nuestro alcance,
10:09
here and now,
219
609580
1856
aquí y ahora,
10:11
and we are just beginning.
220
611460
1680
y apenas hemos comenzado.
10:14
Thank you very much.
221
614100
1216
Muchas gracias.
10:15
(Applause)
222
615340
4286
(Aplausos)
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7