3 principles for creating safer AI | Stuart Russell

139,486 views ・ 2017-06-06

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Denise RQ Revisor: Marta Palacio
00:12
This is Lee Sedol.
0
12532
1552
Este es Lee Sedol.
00:14
Lee Sedol is one of the world's greatest Go players,
1
14108
3997
Lee Sedol es uno de los mejores jugadores de Go del mundo.
Y está teniendo lo que mis amigos de Silicon Valley llaman
00:18
and he's having what my friends in Silicon Valley call
2
18129
2885
un momento "¡Bendito Dios!".
00:21
a "Holy Cow" moment --
3
21038
1510
00:22
(Laughter)
4
22572
1073
(Risas)
00:23
a moment where we realize
5
23669
2188
Un momento en el que nos damos cuenta
00:25
that AI is actually progressing a lot faster than we expected.
6
25881
3296
de que la IA está avanzando mucho más rápido de lo que esperábamos.
00:29
So humans have lost on the Go board. What about the real world?
7
29974
3047
Los humanos han perdido en el tablero de Go.
¿Y en el mundo real?
00:33
Well, the real world is much bigger,
8
33045
2100
Bueno, el mundo real es mucho más grande y complicado
00:35
much more complicated than the Go board.
9
35169
2249
que el tablero de Go.
00:37
It's a lot less visible,
10
37442
1819
Es mucho menos visible.
Pero sigue siendo un problema de decisión.
00:39
but it's still a decision problem.
11
39285
2038
00:42
And if we think about some of the technologies
12
42768
2321
Y si pensamos en algunas de las tecnologías que están por venir
00:45
that are coming down the pike ...
13
45113
1749
00:47
Noriko [Arai] mentioned that reading is not yet happening in machines,
14
47558
4335
Noriko [Arai] mencionó que las máquinas aún no saben leer,
00:51
at least with understanding.
15
51917
1500
al menos no comprendiendo,
00:53
But that will happen,
16
53441
1536
pero lo harán, y cuando eso suceda,
00:55
and when that happens,
17
55001
1771
00:56
very soon afterwards,
18
56796
1187
poco después las máquinas habrán leído todo lo que la raza humana ha escrito.
00:58
machines will have read everything that the human race has ever written.
19
58007
4572
01:03
And that will enable machines,
20
63670
2030
Eso permitirá a las máquinas,
01:05
along with the ability to look further ahead than humans can,
21
65724
2920
junto a su habilidad mirar más allá de lo que pueden los humanos,
01:08
as we've already seen in Go,
22
68668
1680
como ya hemos visto en el Go,
si también tienen acceso a más información,
01:10
if they also have access to more information,
23
70372
2164
01:12
they'll be able to make better decisions in the real world than we can.
24
72560
4268
serán capaces de tomar mejores decisiones en el mundo real
que nosotros.
01:18
So is that a good thing?
25
78612
1606
¿Es eso bueno?
01:21
Well, I hope so.
26
81718
2232
Bueno, espero que sí.
01:26
Our entire civilization, everything that we value,
27
86514
3255
Toda nuestra civilización, todo lo que valoramos,
01:29
is based on our intelligence.
28
89793
2068
se basa en nuestra inteligencia.
01:31
And if we had access to a lot more intelligence,
29
91885
3694
Y si tuviéramos acceso a mucha más inteligencia,
01:35
then there's really no limit to what the human race can do.
30
95603
3302
entonces no existirían límites para lo que la raza humana pueda hacer.
01:40
And I think this could be, as some people have described it,
31
100485
3325
Y creo que este podría ser, como han dicho algunos,
01:43
the biggest event in human history.
32
103834
2016
el mayor acontecimiento de la historia de la humanidad.
01:48
So why are people saying things like this,
33
108485
2829
Entonces, ¿por qué la gente afirma cosas como esta?
01:51
that AI might spell the end of the human race?
34
111338
2876
Que la inteligencia artificial podría significar el fin de la raza humana.
01:55
Is this a new thing?
35
115258
1659
¿Es esto algo nuevo?
01:56
Is it just Elon Musk and Bill Gates and Stephen Hawking?
36
116941
4110
¿Se trata solo de Elon Musk y Bill Gates y Stephen Hawking?
02:01
Actually, no. This idea has been around for a while.
37
121773
3262
En realidad, no. Esta idea no es nueva.
02:05
Here's a quotation:
38
125059
1962
He aquí una cita:
02:07
"Even if we could keep the machines in a subservient position,
39
127045
4350
"Incluso si pudiéramos mantener las máquinas en una posición servil,
02:11
for instance, by turning off the power at strategic moments" --
40
131419
2984
por ejemplo, desconectándolas en momentos estratégicos"
02:14
and I'll come back to that "turning off the power" idea later on --
41
134427
3237
--volveré a esa idea de "quitar la corriente" más adelante--
02:17
"we should, as a species, feel greatly humbled."
42
137688
2804
"deberíamos, como especie, sentirnos humillados".
02:21
So who said this? This is Alan Turing in 1951.
43
141997
3448
¿Quién dijo esto? Este es Alan Turing, en 1951.
02:26
Alan Turing, as you know, is the father of computer science
44
146120
2763
Alan Turing, como Uds. saben, es el padre de la informática
02:28
and in many ways, the father of AI as well.
45
148907
3048
y en muchos sentidos también el padre de la IA.
02:33
So if we think about this problem,
46
153059
1882
Así que si pensamos en este problema,
02:34
the problem of creating something more intelligent than your own species,
47
154965
3787
el problema de crear algo más inteligente que tu propia especie,
02:38
we might call this "the gorilla problem,"
48
158776
2622
podríamos llamar a esto "el problema del gorila".
02:42
because gorillas' ancestors did this a few million years ago,
49
162165
3750
Porque los antepasados de los gorilas hicieron esto hace unos millones de años,
02:45
and now we can ask the gorillas:
50
165939
1745
y ahora podríamos preguntar a los gorilas:
02:48
Was this a good idea?
51
168572
1160
¿Fue una buena idea?
02:49
So here they are having a meeting to discuss whether it was a good idea,
52
169756
3530
Aquí están, reunidos para discutir si fue una buena idea,
02:53
and after a little while, they conclude, no,
53
173310
3346
y pasado un tiempo concluyen que no.
02:56
this was a terrible idea.
54
176680
1345
Fue una idea terrible.
02:58
Our species is in dire straits.
55
178049
1782
Nuestra especie está en apuros.
03:00
In fact, you can see the existential sadness in their eyes.
56
180358
4263
De hecho, pueden ver la tristeza existencial en sus ojos.
03:04
(Laughter)
57
184645
1640
(Risas)
03:06
So this queasy feeling that making something smarter than your own species
58
186309
4840
Así que esta sensación mareante de que crear algo más inteligente
que tu propia especie tal vez no sea buena idea...
03:11
is maybe not a good idea --
59
191173
2365
03:14
what can we do about that?
60
194308
1491
¿Qué podemos hacer al respecto?
03:15
Well, really nothing, except stop doing AI,
61
195823
4767
Bueno, nada en realidad, excepto dejar de hacer IA.
03:20
and because of all the benefits that I mentioned
62
200614
2510
Y por todos los beneficios que he mencionado
03:23
and because I'm an AI researcher,
63
203148
1716
y porque soy un investigador de IA,
03:24
I'm not having that.
64
204888
1791
no voy a tomar eso.
03:27
I actually want to be able to keep doing AI.
65
207103
2468
Sin duda quiero seguir creando IA.
03:30
So we actually need to nail down the problem a bit more.
66
210435
2678
Así que necesitamos precisar el problema un poco más.
03:33
What exactly is the problem?
67
213137
1371
¿Cuál es el problema?
03:34
Why is better AI possibly a catastrophe?
68
214532
3246
¿Por qué tener mejor IA puede ser una catástrofe?
03:39
So here's another quotation:
69
219218
1498
Aquí hay otra cita:
03:41
"We had better be quite sure that the purpose put into the machine
70
221755
3335
"Más nos vale estar seguros de que el propósito
que introducimos en la máquina es el que de verdad deseamos".
03:45
is the purpose which we really desire."
71
225114
2298
Esto fue dicho por Norbert Wiener en 1960,
03:48
This was said by Norbert Wiener in 1960,
72
228102
3498
03:51
shortly after he watched one of the very early learning systems
73
231624
4002
poco después de ver a uno de los primeros sistemas de aprendizaje
03:55
learn to play checkers better than its creator.
74
235650
2583
aprender a jugar a las damas mejor que su creador.
04:00
But this could equally have been said
75
240422
2683
Pero esto podría haberlo dicho de igual modo el Rey Midas.
04:03
by King Midas.
76
243129
1167
El Rey Midas dijo, "Deseo que todo lo que toque se convierta en oro".
04:04
King Midas said, "I want everything I touch to turn to gold,"
77
244903
3134
Y obtuvo justo lo que pidió.
04:08
and he got exactly what he asked for.
78
248061
2473
04:10
That was the purpose that he put into the machine,
79
250558
2751
Fue el propósito que introdujo en la máquina, por así decirlo.
04:13
so to speak,
80
253333
1450
04:14
and then his food and his drink and his relatives turned to gold
81
254807
3444
Y luego su comida, su bebida y sus familiares se convirtieron en oro
04:18
and he died in misery and starvation.
82
258275
2281
y murió miserable y muerto de hambre.
04:22
So we'll call this "the King Midas problem"
83
262264
2341
Así que llamaremos a esto "el problema del rey Midas",
04:24
of stating an objective which is not, in fact,
84
264629
3305
el de indicar un objetivo que no está realmente
04:27
truly aligned with what we want.
85
267958
2413
alineado con lo que de verdad queremos.
04:30
In modern terms, we call this "the value alignment problem."
86
270395
3253
En términos modernos, lo llamamos "el problema de alineación de valor".
04:36
Putting in the wrong objective is not the only part of the problem.
87
276867
3485
Introducir un objetivo equivocado no es la única parte del problema.
04:40
There's another part.
88
280376
1152
Hay otra parte.
04:41
If you put an objective into a machine,
89
281980
1943
Al introducir un objetivo en una máquina
04:43
even something as simple as, "Fetch the coffee,"
90
283947
2448
incluso algo tan simple como "Trae el café",
04:47
the machine says to itself,
91
287728
1841
la máquina se dice a sí misma,
04:50
"Well, how might I fail to fetch the coffee?
92
290553
2623
"¿Cómo podría fallar yendo a buscar el café?
Alguien podría desconectarme.
04:53
Someone might switch me off.
93
293200
1580
Vale, debo tomar medidas para evitarlo.
04:55
OK, I have to take steps to prevent that.
94
295465
2387
04:57
I will disable my 'off' switch.
95
297876
1906
Desactivaré mi interruptor de 'apagado'.
Haré cualquier cosa para protegerme de interferencias
05:00
I will do anything to defend myself against interference
96
300354
2959
05:03
with this objective that I have been given."
97
303337
2629
con este objetivo que me han dado.
05:05
So this single-minded pursuit
98
305990
2012
Así que esta persecución obsesiva
de un modo muy defensivo para lograr un objetivo
05:09
in a very defensive mode of an objective that is, in fact,
99
309033
2945
que no está alineado con los verdaderos objetivos
05:12
not aligned with the true objectives of the human race --
100
312002
2814
de la raza humana...
05:15
that's the problem that we face.
101
315942
1862
ese es el problema al que nos enfrentamos.
05:18
And in fact, that's the high-value takeaway from this talk.
102
318827
4767
Y de hecho esa es la lección más valiosa de esta charla.
05:23
If you want to remember one thing,
103
323618
2055
Si quieren recordar una cosa
05:25
it's that you can't fetch the coffee if you're dead.
104
325697
2675
es que no se puede ir a buscar el café si se está muerto.
05:28
(Laughter)
105
328396
1061
(Risas)
05:29
It's very simple. Just remember that. Repeat it to yourself three times a day.
106
329481
3829
Es muy simple. Solo recuerden eso. Repítanlo tres veces al día.
05:33
(Laughter)
107
333334
1821
(Risas)
05:35
And in fact, this is exactly the plot
108
335179
2754
Y de hecho, este es el mismo argumento
05:37
of "2001: [A Space Odyssey]"
109
337957
2648
de "2001: [Una odisea del espacio]".
05:41
HAL has an objective, a mission,
110
341046
2090
HAL tiene un objetivo, una misión,
05:43
which is not aligned with the objectives of the humans,
111
343160
3732
que no está alineada con los objetivos de los humanos,
05:46
and that leads to this conflict.
112
346916
1810
y eso conduce a este conflicto.
05:49
Now fortunately, HAL is not superintelligent.
113
349314
2969
Por suerte HAL no es superinteligente.
05:52
He's pretty smart, but eventually Dave outwits him
114
352307
3587
Es bastante inteligente, pero llegado el momento,
Dave lo supera y logra apagarlo.
05:55
and manages to switch him off.
115
355918
1849
06:01
But we might not be so lucky.
116
361648
1619
Pero tal vez no tengamos tanta suerte.
06:08
So what are we going to do?
117
368013
1592
Entonces, ¿qué vamos a hacer?
06:12
I'm trying to redefine AI
118
372191
2601
Estoy tratando de redefinir la IA
06:14
to get away from this classical notion
119
374816
2061
para alejarnos de esta noción clásica
06:16
of machines that intelligently pursue objectives.
120
376901
4567
de máquinas que persiguen objetivos de manera inteligente.
06:22
There are three principles involved.
121
382532
1798
Hay tres principios implicados.
06:24
The first one is a principle of altruism, if you like,
122
384354
3289
El primero es un principio de altruismo, por así decirlo,
06:27
that the robot's only objective
123
387667
3262
el único objetivo del robot
06:30
is to maximize the realization of human objectives,
124
390953
4246
es maximizar la realización de los objetivos humanos,
06:35
of human values.
125
395223
1390
de los valores humanos.
06:36
And by values here I don't mean touchy-feely, goody-goody values.
126
396637
3330
Y por valores aquí no me refiero a valores sentimentales o de bondad.
06:39
I just mean whatever it is that the human would prefer
127
399991
3787
Solo quiero decir aquello más similar a la vida
06:43
their life to be like.
128
403802
1343
que un humano preferiría.
06:47
And so this actually violates Asimov's law
129
407184
2309
Y esto viola la ley de Asimov
06:49
that the robot has to protect its own existence.
130
409517
2329
de que el robot debe proteger su propia existencia.
06:51
It has no interest in preserving its existence whatsoever.
131
411870
3723
No tiene ningún interés en preservar su existencia en absoluto.
06:57
The second law is a law of humility, if you like.
132
417240
3768
La segunda ley es una ley de humildad, digamos.
07:01
And this turns out to be really important to make robots safe.
133
421794
3743
Y resulta muy importante para que los robots sean seguros.
07:05
It says that the robot does not know
134
425561
3142
Dice que el robot no sabe
07:08
what those human values are,
135
428727
2028
cuáles son esos valores humanos,
07:10
so it has to maximize them, but it doesn't know what they are.
136
430779
3178
así que debe maximizarlos, pero no sabe lo que son.
07:15
And that avoids this problem of single-minded pursuit
137
435074
2626
Lo cual evita el problema de la búsqueda obsesiva
07:17
of an objective.
138
437724
1212
de un objetivo.
07:18
This uncertainty turns out to be crucial.
139
438960
2172
Esta incertidumbre resulta crucial.
07:21
Now, in order to be useful to us,
140
441546
1639
Claro que para sernos útiles,
07:23
it has to have some idea of what we want.
141
443209
2731
deben tener alguna idea de lo que queremos.
07:27
It obtains that information primarily by observation of human choices,
142
447043
5427
Obtiene esa información sobre todo observando elecciones humanas,
07:32
so our own choices reveal information
143
452494
2801
para que nuestras propias decisiones revelen información
07:35
about what it is that we prefer our lives to be like.
144
455319
3300
sobre lo que nosotros preferimos para nuestras vidas.
07:40
So those are the three principles.
145
460452
1683
Estos son los tres principios.
07:42
Let's see how that applies to this question of:
146
462159
2318
Veamos cómo se aplica a esta cuestión
07:44
"Can you switch the machine off?" as Turing suggested.
147
464501
2789
de "apagar la máquina", como sugirió Turing.
07:48
So here's a PR2 robot.
148
468893
2120
He aquí un robot PR2.
Es uno que tenemos en nuestro laboratorio,
07:51
This is one that we have in our lab,
149
471037
1821
07:52
and it has a big red "off" switch right on the back.
150
472882
2903
y tiene un gran botón rojo de 'apagado' en la parte posterior.
07:56
The question is: Is it going to let you switch it off?
151
476361
2615
La pregunta es: ¿Va a dejar que lo apaguen?
Si lo hacemos a la manera clásica,
07:59
If we do it the classical way,
152
479000
1465
08:00
we give it the objective of, "Fetch the coffee, I must fetch the coffee,
153
480489
3482
le damos el objetivo de traer el café. "Debo traer el café.
08:03
I can't fetch the coffee if I'm dead,"
154
483995
2580
No puedo traer el café si estoy muerto".
08:06
so obviously the PR2 has been listening to my talk,
155
486599
3341
Obviamente el PR2 ha escuchado mi charla,
08:09
and so it says, therefore, "I must disable my 'off' switch,
156
489964
3753
y por tanto, decide
"Debo inhabilitar mi botón de 'apagado'".
08:14
and probably taser all the other people in Starbucks
157
494796
2694
"Y probablemente electrocutar al resto de personas en el Starbucks
08:17
who might interfere with me."
158
497514
1560
que podrían interferir".
08:19
(Laughter)
159
499098
2062
(Risas)
08:21
So this seems to be inevitable, right?
160
501184
2153
Así que esto parece ser inevitable, ¿verdad?
08:23
This kind of failure mode seems to be inevitable,
161
503361
2398
Este tipo de error parece ser inevitable,
08:25
and it follows from having a concrete, definite objective.
162
505783
3543
y sucede por tener un objetivo concreto, definido.
08:30
So what happens if the machine is uncertain about the objective?
163
510632
3144
Entonces, ¿qué pasa si la máquina no tiene claro el objetivo?
08:33
Well, it reasons in a different way.
164
513800
2127
Bueno, razona de una manera diferente.
08:35
It says, "OK, the human might switch me off,
165
515951
2424
Dice, "El humano podría desconectarme, pero solo si hago algo malo.
08:38
but only if I'm doing something wrong.
166
518964
1866
08:41
Well, I don't really know what wrong is,
167
521567
2475
No tengo claro lo que es malo pero sé que no quiero hacerlo".
08:44
but I know that I don't want to do it."
168
524066
2044
Ahí están el primer y el segundo principio.
08:46
So that's the first and second principles right there.
169
526134
3010
08:49
"So I should let the human switch me off."
170
529168
3359
"Así que debería dejar que el humano me desconecte".
08:53
And in fact you can calculate the incentive that the robot has
171
533541
3956
De hecho se puede calcular el incentivo que tiene el robot
08:57
to allow the human to switch it off,
172
537521
2493
para permitir que el humano lo apague.
09:00
and it's directly tied to the degree
173
540038
1914
Y está directamente ligado al grado de incertidumbre
09:01
of uncertainty about the underlying objective.
174
541976
2746
sobre el objetivo subyacente.
09:05
And then when the machine is switched off,
175
545797
2949
Y entonces cuando la máquina está apagada,
09:08
that third principle comes into play.
176
548770
1805
el tercer principio entra en juego.
09:10
It learns something about the objectives it should be pursuing,
177
550599
3062
Aprende algo sobre los objetivos que debe perseguir,
09:13
because it learns that what it did wasn't right.
178
553685
2533
porque aprende que lo que hizo no estaba bien.
09:16
In fact, we can, with suitable use of Greek symbols,
179
556242
3570
De hecho, podemos, con el uso adecuado de los símbolos griegos,
09:19
as mathematicians usually do,
180
559836
2131
como suelen hacer los matemáticos,
09:21
we can actually prove a theorem
181
561991
1984
podemos probar un teorema
09:23
that says that such a robot is provably beneficial to the human.
182
563999
3553
que dice que tal robot es probablemente beneficioso para el humano.
09:27
You are provably better off with a machine that's designed in this way
183
567576
3803
Se está demostrablemente mejor con una máquina que se diseña de esta manera
09:31
than without it.
184
571403
1246
que sin ella.
09:33
So this is a very simple example, but this is the first step
185
573057
2906
Este es un ejemplo muy simple, pero este es el primer paso
09:35
in what we're trying to do with human-compatible AI.
186
575987
3903
en lo que estamos tratando de hacer con IA compatible con humanos.
09:42
Now, this third principle,
187
582477
3257
Ahora, este tercer principio,
09:45
I think is the one that you're probably scratching your head over.
188
585758
3112
es probablemente el que está haciendo que se rasquen la cabeza.
09:48
You're probably thinking, "Well, you know, I behave badly.
189
588894
3239
Probablemente piensen: "Yo me comporto mal.
No quiero que mi robot se comporte como yo.
09:52
I don't want my robot to behave like me.
190
592157
2929
Me escabullo en mitad de la noche y tomo cosas de la nevera,
09:55
I sneak down in the middle of the night and take stuff from the fridge.
191
595110
3434
09:58
I do this and that."
192
598568
1168
hago esto y hago aquello".
09:59
There's all kinds of things you don't want the robot doing.
193
599760
2797
Hay todo tipo de cosas que no quieres que haga el robot.
10:02
But in fact, it doesn't quite work that way.
194
602581
2071
Pero lo cierto es que no funciona así.
10:04
Just because you behave badly
195
604676
2155
Solo porque uno se comporte mal
10:06
doesn't mean the robot is going to copy your behavior.
196
606855
2623
no significa que el robot vaya a copiar su comportamiento.
10:09
It's going to understand your motivations and maybe help you resist them,
197
609502
3910
Va a entender sus motivaciones y tal vez a ayudarle a resistirlas,
10:13
if appropriate.
198
613436
1320
si es apropiado.
10:16
But it's still difficult.
199
616026
1464
Pero sigue siendo difícil.
10:18
What we're trying to do, in fact,
200
618122
2545
Lo que estamos tratando de hacer, de hecho,
10:20
is to allow machines to predict for any person and for any possible life
201
620691
5796
es permitir que las máquinas predigan para cualquier persona
y para cualquier vida posible que podrían vivir,
10:26
that they could live,
202
626511
1161
10:27
and the lives of everybody else:
203
627696
1597
y las vidas de todos los demás
10:29
Which would they prefer?
204
629317
2517
lo que preferirían.
10:33
And there are many, many difficulties involved in doing this;
205
633881
2954
Y hay muchas, muchas dificultades ligadas a hacer esto.
10:36
I don't expect that this is going to get solved very quickly.
206
636859
2932
No espero que vaya a resolverse pronto.
10:39
The real difficulties, in fact, are us.
207
639815
2643
Las verdaderas dificultades, de hecho, somos nosotros.
10:43
As I have already mentioned, we behave badly.
208
643969
3117
Como ya he mencionado, nos comportamos mal.
10:47
In fact, some of us are downright nasty.
209
647110
2321
De hecho, algunos de nosotros somos francamente desagradables.
10:50
Now the robot, as I said, doesn't have to copy the behavior.
210
650251
3052
Como he dicho, el robot no tiene que copiar el comportamiento.
10:53
The robot does not have any objective of its own.
211
653327
2791
El robot no tiene ningún objetivo propio.
10:56
It's purely altruistic.
212
656142
1737
Es puramente altruista.
10:59
And it's not designed just to satisfy the desires of one person, the user,
213
659113
5221
Y no está diseñado solo para satisfacer los deseos de una persona, el usuario,
11:04
but in fact it has to respect the preferences of everybody.
214
664358
3138
sino que tiene que respetar las preferencias de todos.
11:09
So it can deal with a certain amount of nastiness,
215
669083
2570
Así que puede lidiar con cierta cantidad de maldad,
11:11
and it can even understand that your nastiness, for example,
216
671677
3701
e incluso puede entender que su maldad, por ejemplo...
11:15
you may take bribes as a passport official
217
675402
2671
Ud. puede aceptar sobornos como controlador de pasaportes
11:18
because you need to feed your family and send your kids to school.
218
678097
3812
porque necesita alimentar a su familia y que sus hijos vayan a la escuela.
11:21
It can understand that; it doesn't mean it's going to steal.
219
681933
2906
Puede entender eso; no significa que vaya a robar.
11:24
In fact, it'll just help you send your kids to school.
220
684863
2679
De hecho, solo le ayudará a que sus hijos vayan al colegio.
11:28
We are also computationally limited.
221
688796
3012
También estamos limitados computacionalmente.
11:31
Lee Sedol is a brilliant Go player,
222
691832
2505
Lee Sedol es un jugador brillante de Go,
11:34
but he still lost.
223
694361
1325
pero aun así perdió.
11:35
So if we look at his actions, he took an action that lost the game.
224
695710
4239
Si nos fijamos en sus acciones, tomó una decisión que le hizo perder.
11:39
That doesn't mean he wanted to lose.
225
699973
2161
Eso no significa que él quisiera perder.
11:43
So to understand his behavior,
226
703160
2040
Así que para entender su comportamiento,
11:45
we actually have to invert through a model of human cognition
227
705224
3644
en realidad tenemos que invertir, a través de un modelo cognitivo humano
11:48
that includes our computational limitations -- a very complicated model.
228
708892
4977
que incluye nuestras limitaciones computacionales,
y se trata de un modelo muy complicado.
11:53
But it's still something that we can work on understanding.
229
713893
2993
Pero es algo en lo que podemos trabajar para comprender.
11:57
Probably the most difficult part, from my point of view as an AI researcher,
230
717696
4320
Puede que la parte más difícil, desde mi punto de vista
como investigador de IA,
es el hecho de que hay muchos de nosotros,
12:02
is the fact that there are lots of us,
231
722040
2575
12:06
and so the machine has to somehow trade off, weigh up the preferences
232
726114
3581
con lo cual la máquina tiene que sopesar
las preferencias de mucha gente diferente.
12:09
of many different people,
233
729719
2225
12:11
and there are different ways to do that.
234
731968
1906
Hay diferentes maneras de hacer eso.
12:13
Economists, sociologists, moral philosophers have understood that,
235
733898
3689
Economistas, sociólogos, filósofos morales han comprendido esto
12:17
and we are actively looking for collaboration.
236
737611
2455
y estamos buscando colaboración de manera activa.
12:20
Let's have a look and see what happens when you get that wrong.
237
740090
3251
Vamos a ver lo que sucede cuando esto se hace mal.
12:23
So you can have a conversation, for example,
238
743365
2133
Ud. puede estar hablando, por ejemplo,
12:25
with your intelligent personal assistant
239
745522
1944
con su asistente personal inteligente
12:27
that might be available in a few years' time.
240
747490
2285
que podría estar disponible dentro de unos años.
12:29
Think of a Siri on steroids.
241
749799
2524
Piensen en Siri con esteroides.
12:33
So Siri says, "Your wife called to remind you about dinner tonight."
242
753447
4322
Siri dice "Su esposa llamó para recordarle la cena de esta noche".
12:38
And of course, you've forgotten. "What? What dinner?
243
758436
2508
Por supuesto, lo había olvidado. ¿Qué cena? ¿De qué está hablando?
12:40
What are you talking about?"
244
760968
1425
12:42
"Uh, your 20th anniversary at 7pm."
245
762417
3746
"Su 20 aniversario, a las 7pm".
12:48
"I can't do that. I'm meeting with the secretary-general at 7:30.
246
768735
3719
"No puedo, me reúno con el secretario general a las 7:30.
¿Cómo ha podido suceder esto?".
12:52
How could this have happened?"
247
772478
1692
12:54
"Well, I did warn you, but you overrode my recommendation."
248
774194
4660
"Bueno, le advertí, pero ignoró mi recomendación".
"¿Qué voy a hacer? No puedo decirles que estoy demasiado ocupado".
12:59
"Well, what am I going to do? I can't just tell him I'm too busy."
249
779966
3328
"No se preocupe, he hecho que su avión se retrase".
13:04
"Don't worry. I arranged for his plane to be delayed."
250
784310
3281
13:07
(Laughter)
251
787615
1682
(Risas)
13:10
"Some kind of computer malfunction."
252
790069
2101
"Algún tipo de error en el ordenador".
13:12
(Laughter)
253
792194
1212
(Risas)
13:13
"Really? You can do that?"
254
793430
1617
"¿En serio? ¿Puede hacer eso?".
13:16
"He sends his profound apologies
255
796220
2179
"Le envía sinceras disculpas
13:18
and looks forward to meeting you for lunch tomorrow."
256
798423
2555
y espera poder conocerle mañana para el almuerzo".
13:21
(Laughter)
257
801002
1299
(Risas)
13:22
So the values here -- there's a slight mistake going on.
258
802325
4403
Así que los valores aquí... aquí hay un pequeño fallo.
13:26
This is clearly following my wife's values
259
806752
3009
Claramente está siguiendo los valores de mi esposa
13:29
which is "Happy wife, happy life."
260
809785
2069
que son "esposa feliz, vida feliz".
13:31
(Laughter)
261
811878
1583
(Risas)
13:33
It could go the other way.
262
813485
1444
Podría suceder al revés.
13:35
You could come home after a hard day's work,
263
815641
2201
Podría llegar a casa tras un duro día de trabajo,
13:37
and the computer says, "Long day?"
264
817866
2195
y el ordenador dice "¿Un día duro?".
13:40
"Yes, I didn't even have time for lunch."
265
820085
2288
"Sí, ni tuve tiempo de almorzar".
"Debe tener mucha hambre".
13:42
"You must be very hungry."
266
822397
1282
13:43
"Starving, yeah. Could you make some dinner?"
267
823703
2646
"Me muero de hambre, sí, ¿podría preparar algo de cena?".
13:47
"There's something I need to tell you."
268
827890
2090
"Hay algo que necesito decirle".
13:50
(Laughter)
269
830004
1155
(Risas)
13:52
"There are humans in South Sudan who are in more urgent need than you."
270
832013
4905
"Hay humanos en Sudán del Sur más necesitados que Ud.".
13:56
(Laughter)
271
836942
1104
(Risas)
13:58
"So I'm leaving. Make your own dinner."
272
838070
2075
"Así que me voy, hágase su propia cena".
14:00
(Laughter)
273
840169
2000
(Risas)
14:02
So we have to solve these problems,
274
842643
1739
Así que tenemos que resolver estos problemas,
14:04
and I'm looking forward to working on them.
275
844406
2515
y tengo ganas de trabajar en ellos.
14:06
There are reasons for optimism.
276
846945
1843
Hay razones para ser optimistas.
14:08
One reason is,
277
848812
1159
Una razón es que hay gran cantidad de datos
14:09
there is a massive amount of data.
278
849995
1868
14:11
Because remember -- I said they're going to read everything
279
851887
2794
Recuerden, leerán todo lo que la raza humana ha escrito.
14:14
the human race has ever written.
280
854705
1546
La mayoría de lo que escribimos trata sobre humanos haciendo cosas
14:16
Most of what we write about is human beings doing things
281
856275
2724
y cómo estas molestan a otras personas.
14:19
and other people getting upset about it.
282
859023
1914
14:20
So there's a massive amount of data to learn from.
283
860961
2398
Así que hay muchos datos de los que aprender.
14:23
There's also a very strong economic incentive
284
863383
2236
También hay un fuerte incentivo económico
para que esto funcione bien.
14:27
to get this right.
285
867151
1186
14:28
So imagine your domestic robot's at home.
286
868361
2001
Imagine que su robot doméstico está en casa
14:30
You're late from work again and the robot has to feed the kids,
287
870386
3067
Ud. llega tarde del trabajo,
el robot tiene que dar de comer a los niños,
14:33
and the kids are hungry and there's nothing in the fridge.
288
873477
2823
los niños tienen hambre y no hay nada en la nevera.
14:36
And the robot sees the cat.
289
876324
2605
Y el robot ve al gato.
14:38
(Laughter)
290
878953
1692
(Risas)
14:40
And the robot hasn't quite learned the human value function properly,
291
880669
4190
Y el robot no ha aprendido del todo bien la función del valor humano
14:44
so it doesn't understand
292
884883
1251
por lo que no entiende
14:46
the sentimental value of the cat outweighs the nutritional value of the cat.
293
886158
4844
que el valor sentimental del gato supera el valor nutricional del gato.
(Risas)
14:51
(Laughter)
294
891026
1095
Entonces, ¿qué pasa?
14:52
So then what happens?
295
892145
1748
14:53
Well, it happens like this:
296
893917
3297
Bueno, sucede lo siguiente:
14:57
"Deranged robot cooks kitty for family dinner."
297
897238
2964
"Robot desquiciado cocina a un gatito para la cena familiar".
15:00
That one incident would be the end of the domestic robot industry.
298
900226
4523
Ese único incidente acabaría con la industria de robots domésticos.
15:04
So there's a huge incentive to get this right
299
904773
3372
Así que hay un gran incentivo para hacer esto bien.
15:08
long before we reach superintelligent machines.
300
908169
2715
mucho antes de llegar a las máquinas superinteligentes.
15:11
So to summarize:
301
911948
1535
Así que para resumir:
15:13
I'm actually trying to change the definition of AI
302
913507
2881
Estoy intentando cambiar la definición de IA
15:16
so that we have provably beneficial machines.
303
916412
2993
para que tengamos máquinas demostrablemente beneficiosas.
15:19
And the principles are:
304
919429
1222
Y los principios son:
15:20
machines that are altruistic,
305
920675
1398
Máquinas que son altruistas,
15:22
that want to achieve only our objectives,
306
922097
2804
que desean lograr solo nuestros objetivos,
15:24
but that are uncertain about what those objectives are,
307
924925
3116
pero que no están seguras de cuáles son esos objetivos
y nos observarán a todos
15:28
and will watch all of us
308
928065
1998
15:30
to learn more about what it is that we really want.
309
930087
3203
para aprender qué es lo que realmente queremos.
15:34
And hopefully in the process, we will learn to be better people.
310
934193
3559
Y con suerte, en el proceso, aprenderemos a ser mejores personas.
15:37
Thank you very much.
311
937776
1191
Muchas gracias.
15:38
(Applause)
312
938991
3709
(Aplausos)
15:42
Chris Anderson: So interesting, Stuart.
313
942724
1868
Chris Anderson: Muy interesante, Stuart.
15:44
We're going to stand here a bit because I think they're setting up
314
944616
3170
Vamos a estar aquí un poco porque creo que están preparando
15:47
for our next speaker.
315
947810
1151
a nuestro próximo orador.
15:48
A couple of questions.
316
948985
1538
Un par de preguntas.
15:50
So the idea of programming in ignorance seems intuitively really powerful.
317
950547
5453
La idea de programar ignorancia parece intuitivamente muy poderosa.
Al llegar a la superinteligencia,
15:56
As you get to superintelligence,
318
956024
1594
15:57
what's going to stop a robot
319
957642
2258
¿qué puede impedir que un robot
15:59
reading literature and discovering this idea that knowledge
320
959924
2852
lea literatura y descubra esta idea de que el conocimiento
16:02
is actually better than ignorance
321
962800
1572
es mejor que la ignorancia,
16:04
and still just shifting its own goals and rewriting that programming?
322
964396
4218
cambiando sus propios objetivos y reescribiendo su programación?
16:09
Stuart Russell: Yes, so we want it to learn more, as I said,
323
969512
6356
Stuart Russell: Queremos que aprenda más, como he dicho,
16:15
about our objectives.
324
975892
1287
sobre nuestros objetivos.
16:17
It'll only become more certain as it becomes more correct,
325
977203
5521
Solo ganará seguridad cuanto más acierte.
16:22
so the evidence is there
326
982748
1945
La evidencia estará ahí,
16:24
and it's going to be designed to interpret it correctly.
327
984717
2724
y estará diseñado para interpretarla adecuadamente.
16:27
It will understand, for example, that books are very biased
328
987465
3956
Comprenderá, por ejemplo, que los libros son muy sesgados
16:31
in the evidence they contain.
329
991445
1483
en la evidencia que contienen.
16:32
They only talk about kings and princes
330
992952
2397
Solo hablan de reyes y príncipes
16:35
and elite white male people doing stuff.
331
995373
2800
y hombres blancos poderosos haciendo cosas.
16:38
So it's a complicated problem,
332
998197
2096
Es un problema complicado,
16:40
but as it learns more about our objectives
333
1000317
3872
pero conforme aprenda más sobre nuestros objetivos
16:44
it will become more and more useful to us.
334
1004213
2063
será cada vez más útil para nosotros.
16:46
CA: And you couldn't just boil it down to one law,
335
1006300
2526
CA: Y no podría reducirse a una ley,
16:48
you know, hardwired in:
336
1008850
1650
ya sabe, grabada a fuego,
16:50
"if any human ever tries to switch me off,
337
1010524
3293
"Si un humano alguna vez intenta apagarme
16:53
I comply. I comply."
338
1013841
1935
yo obedezco, obedezco".
16:55
SR: Absolutely not.
339
1015800
1182
SR: Absolutamente no.
16:57
That would be a terrible idea.
340
1017006
1499
Sería una idea terrible.
16:58
So imagine that you have a self-driving car
341
1018529
2689
Imagine, tiene un auto que se conduce solo
17:01
and you want to send your five-year-old
342
1021242
2433
y quiere llevar a su hijo de cinco años al jardín de infancia.
17:03
off to preschool.
343
1023699
1174
17:04
Do you want your five-year-old to be able to switch off the car
344
1024897
3101
¿Quiere que su hijo de cinco años pueda apagar el coche mientras conduce?
17:08
while it's driving along?
345
1028022
1213
Probablemente no.
17:09
Probably not.
346
1029259
1159
Por tanto necesita entender cuán racional y sensata es la persona.
17:10
So it needs to understand how rational and sensible the person is.
347
1030442
4703
17:15
The more rational the person,
348
1035169
1676
Cuanto más racional sea la persona,
17:16
the more willing you are to be switched off.
349
1036869
2103
más dispuesto estará a dejar que lo apaguen.
17:18
If the person is completely random or even malicious,
350
1038996
2543
Si la persona es impredecible o incluso malintencionada
17:21
then you're less willing to be switched off.
351
1041563
2512
estará menos dispuesto a permitir que lo apaguen.
17:24
CA: All right. Stuart, can I just say,
352
1044099
1866
CA: Stuart, permítame decir
17:25
I really, really hope you figure this out for us.
353
1045989
2314
que de veras espero que resuelva esto por todos nosotros.
17:28
Thank you so much for that talk. That was amazing.
354
1048327
2375
Muchas gracias por su charla. Ha sido increíble, gracias.
17:30
SR: Thank you.
355
1050726
1167
(Aplausos)
17:31
(Applause)
356
1051917
1837
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7