How will AI change the world?

2,024,306 views ・ 2022-12-06

TED-Ed


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Fiama Canul Revisor: Sebastian Sanchez
En algunos años, la inteligencia artificial
00:07
In the coming years, artificial intelligence
0
7336
2169
probablemente cambiará tu vida, y la del resto del mundo.
00:09
is probably going to change your life, and likely the entire world.
1
9505
3629
Pero la gente no se pone de acuerdo sobre cómo exactamente.
00:13
But people have a hard time agreeing on exactly how.
2
13301
3295
Los siguientes fragmentos son de una entrevista
00:16
The following are excerpts from an interview
3
16804
2127
00:18
where renowned computer science professor and AI expert Stuart Russell
4
18931
3504
en la que Stuart Russell, un conocido profesor de informática y experto en IA,
00:22
helps separate the sense from the nonsense.
5
22435
2586
ayuda a separar el sentido del sinsentido.
00:25
There’s a big difference between asking a human to do something
6
25313
3754
Hay una gran diferencia entre pedirle a un humano que haga algo
00:29
and giving that as the objective to an AI system.
7
29067
3461
y asignar eso como objetivo a un sistema de IA.
00:32
When you ask a human to get you a cup of coffee,
8
32528
2628
Cuando le pides a un humano que traiga una taza de café,
00:35
you don’t mean this should be their life’s mission,
9
35156
2586
no quieres decir que esta deba ser la misión de su vida
00:37
and nothing else in the universe matters.
10
37742
1960
y que nada más importa en el universo.
00:39
Even if they have to kill everybody else in Starbucks
11
39702
2586
Deben de hacerlo, incluso si tienen que matar a todos en el Starbucks
00:42
to get you the coffee before it closes— they should do that.
12
42288
2836
para conseguirlo antes de que cierre,
00:45
No, that’s not what you mean.
13
45124
1627
Eso no es lo que quiero decir.
00:46
All the other things that we mutually care about,
14
46751
2294
Todas las cosas que nos importan mutuamente
00:49
they should factor into your behavior as well.
15
49045
2169
también deberían influir en tu comportamiento.
00:51
And the problem with the way we build AI systems now
16
51214
3169
El problema con la forma en que construimos sistemas de IA hoy
00:54
is we give them a fixed objective.
17
54383
1627
es que les damos un objetivo fijo.
00:56
The algorithms require us to specify everything in the objective.
18
56010
3545
Los algoritmos necesitan que especifiquemos todo en el objetivo.
00:59
And if you say, can we fix the acidification of the oceans?
19
59555
3420
Y si dijeras: “¿Podemos solucionar la acidificación de los océanos?”
01:02
Yeah, you could have a catalytic reaction that does that extremely efficiently,
20
62975
4046
Sí, podrías conseguir una reacción catalítica que haga eso eficientemente,
01:07
but it consumes a quarter of the oxygen in the atmosphere,
21
67021
3253
pero consumiría un cuarto del oxígeno de la atmósfera,
01:10
which would apparently cause us to die fairly slowly and unpleasantly
22
70274
3712
lo que causaría nuestra muerte de manera lenta y desagradable
01:13
over the course of several hours.
23
73986
1752
en el transcurso de varias horas.
01:15
So, how do we avoid this problem?
24
75780
3211
Entonces, ¿cómo evitamos este problema?
01:18
You might say, okay, well, just be more careful about specifying the objective—
25
78991
4088
Podrías decir: “sólo hay que ser más cuidadoso al especificar el objetivo;
01:23
don’t forget the atmospheric oxygen.
26
83079
2544
no olvidar el oxígeno atmosférico”.
01:25
And then, of course, some side effect of the reaction in the ocean
27
85873
3545
Y luego, por supuesto, algún efecto secundario de la reacción en el océano
01:29
poisons all the fish.
28
89418
1377
envenena a todos los peces.
01:30
Okay, well I meant don’t kill the fish either.
29
90795
2669
“Bueno, lo que quise decir es que no maten a los peces”.
01:33
And then, well, what about the seaweed?
30
93464
1919
Y entonces, ¿qué pasa con las algas?
01:35
Don’t do anything that’s going to cause all the seaweed to die.
31
95383
2961
“No hagas nada que cause la muerte de las algas”.
01:38
And on and on and on.
32
98344
1210
Y así sucesivamente.
01:39
And the reason that we don’t have to do that with humans is that
33
99679
3920
La razón por la que no tenemos que hacer eso con los humanos es que
01:43
humans often know that they don’t know all the things that we care about.
34
103599
4505
los humanos a menudo saben que no conocen todas las cosas que nos importan.
01:48
If you ask a human to get you a cup of coffee,
35
108354
2961
Si le pides a un humano que te traiga una taza de café,
01:51
and you happen to be in the Hotel George Sand in Paris,
36
111315
2878
y resulta que tú estás en el hotel George Sand en París,
01:54
where the coffee is 13 euros a cup,
37
114193
2628
donde la taza de café cuesta 13 euros,
01:56
it’s entirely reasonable to come back and say, well, it’s 13 euros,
38
116821
4171
es completamente razonable, que la persona vuelva y diga:
“son 13 euros,
02:00
are you sure you want it, or I could go next door and get one?
39
120992
2961
¿seguro lo quieres o podría ir a otro lado a comprarlo?”
02:03
And it’s a perfectly normal thing for a person to do.
40
123953
2878
Y es algo completamente normal que hace una persona.
02:07
To ask, I’m going to repaint your house—
41
127039
3003
Si preguntas, voy a re-pintar tu casa.
02:10
is it okay if I take off the drainpipes and then put them back?
42
130042
3337
¿Está bien si quito las cañerías y luego las vuelvo a poner?
02:13
We don't think of this as a terribly sophisticated capability,
43
133504
3128
No pensamos que esto es una capacidad muy sofisticada,
02:16
but AI systems don’t have it because the way we build them now,
44
136632
3087
pero los sistemas de IA no la poseen, ya que por su construcción
02:19
they have to know the full objective.
45
139719
1793
requieren de un objetivo completo.
02:21
If we build systems that know that they don’t know what the objective is,
46
141721
3753
Si construimos sistemas que no conocen cuál es el objetivo,
02:25
then they start to exhibit these behaviors,
47
145474
2586
estos comienzan a manifestar comportamientos
02:28
like asking permission before getting rid of all the oxygen in the atmosphere.
48
148060
4046
tales como pedir permiso antes de eliminar todo el oxígeno de la tierra.
02:32
In all these senses, control over the AI system
49
152565
3378
En todos los sentidos, el control sobre el sistema de IA
02:35
comes from the machine’s uncertainty about what the true objective is.
50
155943
4463
proviene de la incertidumbre de la máquina sobre cuál es el verdadero objetivo.
02:41
And it’s when you build machines that believe with certainty
51
161282
3086
Y es que cuando construyes máquinas que creen con certeza
02:44
that they have the objective,
52
164368
1418
que cuentan con el objetivo,
02:45
that’s when you get this sort of psychopathic behavior.
53
165786
2753
se obtiene este comportamiento psicópata.
02:48
And I think we see the same thing in humans.
54
168539
2127
Y creo que vemos lo mismo en humanos.
02:50
What happens when general purpose AI hits the real economy?
55
170750
4254
¿Qué pasará cuando la IA de propósito general impacte la economía real?
02:55
How do things change? Can we adapt?
56
175379
3587
¿Cómo cambiarán las cosas? ¿Podremos adaptarnos?
02:59
This is a very old point.
57
179175
1835
Este es un planteamiento muy antiguo.
03:01
Amazingly, Aristotle actually has a passage where he says,
58
181010
3587
Sorprendentemente, hay un pasaje de Aristóteles que dice
03:04
look, if we had fully automated weaving machines
59
184597
3045
que si tuviéramos máquinas de tejer totalmente automatizadas
03:07
and plectrums that could pluck the lyre and produce music without any humans,
60
187642
3837
y plectros que pudieran tocar la lira y producir música sin ningún humano,
03:11
then we wouldn’t need any workers.
61
191604
2002
entonces no necesitaríamos trabajadores.
03:13
That idea, which I think it was Keynes
62
193814
2878
Esta idea, la cual creo que fue Keynes
03:16
who called it technological unemployment in 1930,
63
196692
2836
quien la llamó desempleo tecnológico en 1930,
03:19
is very obvious to people.
64
199528
1919
es bastante obvia para la gente.
03:21
They think, yeah, of course, if the machine does the work,
65
201447
3086
Ellos piensan: “obviamente, si la máquina hace todo el trabajo
03:24
then I'm going to be unemployed.
66
204533
1669
entonces voy a estar desempleado”.
03:26
You can think about the warehouses that companies are currently operating
67
206369
3503
Piensa en los almacenes que las compañías utilizan actualmente
03:29
for e-commerce, they are half automated.
68
209872
2711
para el comercio online,
estos son semi-automatizados.
03:32
The way it works is that an old warehouse— where you’ve got tons of stuff piled up
69
212583
4046
En un viejo almacén, donde hay toneladas de cosas apiladas por todas partes
03:36
all over the place and humans go and rummage around
70
216629
2461
donde humanos van a hurgar
03:39
and then bring it back and send it off—
71
219090
1877
y luego traen de vuelta para enviar,
03:40
there’s a robot who goes and gets the shelving unit
72
220967
3586
hay un robot que va y toma lo que necesitas
03:44
that contains the thing that you need,
73
224553
1919
de la estantería que la contiene,
03:46
but the human has to pick the object out of the bin or off the shelf,
74
226472
3629
pero el humano tiene que tomar el objeto del contenedor o estantería,
03:50
because that’s still too difficult.
75
230101
1877
porque esto sigue siendo muy difícil.
03:52
But, at the same time,
76
232019
2002
Pero, al mismo tiempo,
03:54
would you make a robot that is accurate enough to be able to pick
77
234021
3921
¿podrías crear un robot que sea lo suficientemente preciso como para recoger
03:57
pretty much any object within a very wide variety of objects that you can buy?
78
237942
4338
prácticamente cualquier objeto de una amplia variedad que puedes comprar?
04:02
That would, at a stroke, eliminate 3 or 4 million jobs?
79
242280
4004
Esto eliminaría de golpe 3 o 4 millones de trabajos.
04:06
There's an interesting story that E.M. Forster wrote,
80
246409
3336
Hay una historia interesante escrita por E.M Foster,
04:09
where everyone is entirely machine dependent.
81
249745
3504
donde todos son completamente dependientes de las máquinas,
04:13
The story is really about the fact that if you hand over
82
253499
3754
En realidad, la historia es sobre el hecho de que si le entregas
04:17
the management of your civilization to machines,
83
257253
2961
la gestión de tu civilización a las máquinas,
04:20
you then lose the incentive to understand it yourself
84
260214
3504
pierdes el incentivo para comprenderla tu mismo
04:23
or to teach the next generation how to understand it.
85
263718
2544
o enseñarle a la siguiente generación a comprendela.
04:26
You can see “WALL-E” actually as a modern version,
86
266262
3003
Puedes ver a “WALL-E”, como una versión moderna
04:29
where everyone is enfeebled and infantilized by the machine,
87
269265
3628
donde todos están debilitados e infantilizados por las máquinas,
04:32
and that hasn’t been possible up to now.
88
272893
1961
y esto no había sido posible hasta ahora.
04:34
We put a lot of our civilization into books,
89
274854
2419
Ponemos gran parte de nuestra civilización en los libros,
04:37
but the books can’t run it for us.
90
277273
1626
que no pueden reemplazarnos.
04:38
And so we always have to teach the next generation.
91
278899
2795
Debemos instruir a la próxima generación.
04:41
If you work it out, it’s about a trillion person years of teaching and learning
92
281736
4212
Si lo calculas, es alrededor de un billón
de años-persona de enseñanza y aprendizaje
04:45
and an unbroken chain that goes back tens of thousands of generations.
93
285948
3962
y una cadena intacta que remonta
a decenas de miles de generaciones atrás.
04:50
What happens if that chain breaks?
94
290119
1919
¿Qué pasa si se rompe esa cadena?
04:52
I think that’s something we have to understand as AI moves forward.
95
292038
3461
Creo que es algo que tenemos que entender a medida que la IA avanza.
04:55
The actual date of arrival of general purpose AI—
96
295624
3587
La fecha real de llegada de la IA de propósito general.
04:59
you’re not going to be able to pinpoint, it isn’t a single day.
97
299211
3087
no se puede identificar, no es sólo un día
05:02
It’s also not the case that it’s all or nothing.
98
302298
2294
y tampoco es todo o nada.
05:04
The impact is going to be increasing.
99
304592
2461
El impacto va a aumentar.
05:07
So with every advance in AI,
100
307053
2043
Con cada avance de la IA,
05:09
it significantly expands the range of tasks.
101
309096
2962
se amplia mucho el rango de tareas.
05:12
So in that sense, I think most experts say by the end of the century,
102
312058
5338
En ese sentido, creo que la mayoría de
los expertos dicen que para fines de siglo,
05:17
we’re very, very likely to have general purpose AI.
103
317396
3337
muy probablemente tengamos IA de propósito general.
05:20
The median is something around 2045.
104
320733
3754
Se estima alrededor del 2045.
05:24
I'm a little more on the conservative side.
105
324487
2002
Yo soy un poco más conservador.
05:26
I think the problem is harder than we think.
106
326489
2085
Creo que aún falta mucho para llegar a eso.
05:28
I like what John McAfee, he was one of the founders of AI,
107
328574
3253
Me gusta lo que John McAfee decía, uno de los creadores de la IA,
05:31
when he was asked this question, he said, somewhere between five and 500 years.
108
331911
3837
cuando le hicieron la pregunta, dijo:
“en algún punto entre 5 y 500 años,
05:35
And we're going to need, I think, several Einsteins to make it happen.
109
335748
3337
y creo que vamos a requerir de varios Einsteins para lograrlo”.

Original video on YouTube.com
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7