Is AI the most important technology of the century?

365,293 views ・ 2023-04-04

TED-Ed


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Eugenia Tain Revisor: Sebastian Betti
00:07
What's the most important century in human history?
0
7003
3587
¿Cuál es el siglo más importante de la historia de la humanidad?
00:11
Some might argue it’s a period of extensive military campaigning,
1
11049
3920
Para algunos, sería un período con una campaña militar extensiva,
00:14
like Alexander the Great’s in the 300s BCE,
2
14969
3545
como la de Alejandro Magno en el siglo IV a.C.,
00:18
which reshaped political and cultural borders.
3
18848
3253
que redefinió las fronteras políticas y culturales.
00:23
Others might cite the emergence of a major religion,
4
23936
3087
Otros mencionarían el nacimiento de una religión trascendental,
00:27
such as Islam in the 7th century,
5
27023
2127
como el islam en el siglo VII,
00:29
which codified and spread values across such borders.
6
29525
3504
que codificó y difundió valores a través de esas fronteras.
00:35
Or perhaps it’s the Industrial Revolution of the 1700s
7
35531
3462
O quizás sea la Revolución Industrial del siglo XVIII,
00:38
that transformed global commerce
8
38993
1752
que transformó el comercio global
00:40
and redefined humanity's relationship with labor.
9
40745
3128
y reformó la relación de la humanidad con el trabajo.
00:44
Whatever the answer, it seems like any century vying for that top spot
10
44165
4129
Sea cual fuere, parece que los siglos que compiten por el primer lugar
00:48
is at a moment of great change—
11
48294
2377
presenciaron tiempos de grandes cambios...
00:51
when the actions of our ancestors shifted humanity’s trajectory
12
51631
4171
acciones de nuestros ancestros que cambiaron el rumbo de la humanidad
00:55
for centuries to come.
13
55802
1584
por siglos venideros.
00:57
So if this is our metric, is it possible that right now—
14
57720
3921
Si tomamos esto como medida,
¿es posible que, ahora mismo, este siglo sea el más importante de todos?
01:01
this century— is the most important one yet?
15
61641
3086
01:05
The 21st century has already proven to be a period of rapid technological growth.
16
65770
5213
El siglo XXI ya demostró ser un período de veloz desarrollo tecnológico.
01:11
Phones and computers have accelerated the pace of life.
17
71234
3128
Los teléfonos y las computadoras aceleraron el ritmo de la vida.
01:14
And we’re likely on the cusp of developing new transformative technologies,
18
74403
4171
Y es probable que estemos cerca de desarrollar
nuevas tecnologías transformadoras, como inteligencia artificial avanzada,
01:18
like advanced artificial intelligence,
19
78574
2294
01:20
that could entirely change the way people live.
20
80868
2878
que podrían cambiar el vivir de las personas por completo.
01:25
Meanwhile, many technologies we already have
21
85414
3045
Así mismo, muchas tecnologías que ya tenemos
01:28
contribute to humanity’s unprecedented levels of existential risk—
22
88459
4838
contribuyen a niveles inauditos de riesgos existenciales para la humanidad.
01:33
that’s the risk of our species going extinct
23
93381
2377
Es decir, que nuestra especie se extinga
01:35
or experiencing some kind of disaster that permanently limits
24
95758
3420
o experimente algún tipo de calamidad que limite permanentemente
01:39
humanity’s ability to grow and thrive.
25
99178
2670
nuestra capacidad de crecer y prosperar.
01:43
The invention of the atomic bomb marked a major rise in existential risk,
26
103266
4629
La invención de la bomba atómica produjo un gran aumento de riesgos existenciales,
01:48
and since then we’ve only increased the odds against us.
27
108396
3879
y, desde entonces, las probabilidades en nuestra contra no pararon de subir.
01:52
It’s profoundly difficult to estimate the odds
28
112900
2628
Es extremadamente difícil calcular las probabilidades
01:55
of an existential collapse occurring this century.
29
115528
2628
de que un colapso existencial ocurra en este siglo.
01:58
Very rough guesses put the risk of existential catastrophe
30
118239
3462
Conjeturas muy aproximadas indican que el riesgo de que las causas
02:01
due to nuclear winter and climate change at around 0.1%,
31
121701
4880
sean invierno nuclear y cambio climático es de alrededor de 0,1 %,
02:08
with the odds of a pandemic causing the same kind of collapse
32
128291
3211
mientras que las probabilidades de que al colapso lo cause
02:11
at a frightening 3%.
33
131502
1960
una pandemia son de un alarmante 3 %.
02:14
Given that any of these disasters could mean the end of life as we know it,
34
134005
4880
Ya que cualquiera de estos desastres podría acabar con la vida que conocemos,
02:19
these aren’t exactly small figures,
35
139177
2127
estos números no son tan bajos como parecen.
02:21
And it’s possible this century could see the rise of new technologies
36
141304
4004
Y es posible que este siglo vea un aumento de nuevas tecnologías
02:25
that introduce more existential risks.
37
145308
2794
que introduzcan más riesgos existenciales.
02:29
AI experts have a wide range of estimates regarding
38
149103
2628
Hay una gran variedad de estimaciones respecto
02:31
when artificial general intelligence will emerge,
39
151731
2961
a cuándo surgirá la inteligencia artificial fuerte,
02:34
but according to some surveys, many believe it could happen this century.
40
154734
4087
pero algunos estudios indican que puede ser en este siglo.
02:39
Currently, we have relatively narrow forms of artificial intelligence,
41
159655
3837
Por ahora, tenemos formas relativamente débiles de IA,
02:43
which are designed to do specific tasks like play chess or recognize faces.
42
163492
4588
diseñadas para funciones específicas, como jugar al ajedrez o reconocer rostros.
02:49
Even narrow AIs that do creative work are limited to their singular specialty.
43
169040
5213
Incluso las que hacen trabajos creativos están limitadas a una única especialidad.
02:54
But artificial general intelligences, or AGIs,
44
174503
3629
Pero las inteligencias artificiales fuertes, o las IAF,
02:58
would be able to adapt to and perform any number of tasks,
45
178132
3837
serían capaces de adaptarse para cumplir cualquier cantidad de funciones
03:02
quickly outpacing their human counterparts.
46
182678
2878
y pronto superarían a sus equivalentes humanos.
03:06
There are a huge variety of guesses about what AGI could look like,
47
186849
4088
Existen muchísimas conjeturas sobre el aspecto que tendría la IAF
03:11
and what it would mean for humanity to share the Earth
48
191646
2836
y lo que significaría para la humanidad compartir la Tierra
03:14
with another sentient entity.
49
194482
2127
con otra entidad sensible.
03:18
AGIs might help us achieve our goals,
50
198653
2544
Las IAF podrían ayudarnos a cumplir nuestras metas,
03:21
they might regard us as inconsequential,
51
201197
2294
podrían considerarnos intrascendentes
03:23
or, they might see us as an obstacle to swiftly remove.
52
203491
3170
o podrían vernos como un obstáculo que quieran remover con rapidez.
03:26
So in terms of existential risk,
53
206869
2169
Así que, en materia de riesgos existenciales,
03:29
it's imperative the values of this new technology align with our own.
54
209038
4087
es fundamental que esta nueva tecnología comparta nuestros valores.
03:33
This is an incredibly difficult philosophical and engineering challenge
55
213501
3879
Es un desafío sumamente difícil para la ingeniería y la filosofía
03:37
that will require a lot of delicate, thoughtful work.
56
217380
3086
que requerirá mucha reflexión y sensibilidad.
03:40
Yet, even if we succeed, AGI could still lead to another complicated outcome.
57
220967
5213
Pero, aunque lo lográsemos, la IAF podría traer otro resultado complejo.
03:46
Let’s imagine an AGI emerges with deep respect for human life
58
226847
3796
Imaginemos que surge una IAF con un fuerte respeto por la vida humana
03:50
and a desire to solve all humanity’s troubles.
59
230643
2961
y el deseo de resolver todos los problemas de la humanidad.
03:55
But to avoid becoming misaligned,
60
235231
2169
Pero, para evitar que se desaliñe,
03:57
it's been developed to be incredibly rigid about its beliefs.
61
237400
3628
es diseñada con una increíble rigidez en sus creencias.
04:01
If these machines became the dominant power on Earth,
62
241237
3086
Si se convirtieran en el poder dominante de la Tierra,
04:04
their strict values might become hegemonic,
63
244323
2711
los valores de estas máquinas se volverían hegemónicos
04:07
locking humanity into one ideology that would be incredibly resistant to change.
64
247034
5214
y forzarían a la humanidad a seguir una ideología casi inescapable.
04:14
History has taught us that no matter how enlightened
65
254792
2503
La historia nos enseña que, aunque una civilización
04:17
a civilization thinks they are,
66
257295
1793
se considere la más progresista,
04:19
they are rarely up to the moral standards of later generations.
67
259088
3795
rara vez está a la altura moral de las generaciones que le siguen.
04:23
And this kind of value lock in could permanently distort or constrain
68
263009
4629
Y esta especie de bloqueo ético podría distorsionar o restringir
04:27
humanity’s moral growth.
69
267638
1919
el crecimiento moral de la humanidad.
04:30
There's a ton of uncertainty around AGI,
70
270016
2585
Hay mucha incertidumbre acerca de la IAF,
04:32
and it’s profoundly difficult to predict how any existential risks
71
272601
3713
y es extremadamente difícil predecir cómo se manifestarán
los riesgos existenciales en el próximo siglo.
04:36
will play out over the next century.
72
276314
2002
04:38
It’s also possible that new, more pressing concerns
73
278649
2920
También es posible que, si surgen inquietudes más apremiantes,
04:41
might render these risks moot.
74
281569
2002
estos riesgos se vuelvan cuestionables.
04:43
But even if we can't definitively say that ours is the most important century,
75
283904
4713
Pero, aunque no podamos afirmar que este sea el siglo más importante,
04:48
it still seems like the decisions we make might have a major impact
76
288617
3754
parece que las decisiones que tomemos podrían tener una enorme repercusión
04:52
on humanity’s future.
77
292371
1502
en el futuro de la humanidad.
04:54
So maybe we should all live like the future depends on us—
78
294415
3211
Tal vez deberíamos vivir como si el futuro dependiera de nosotros,
04:57
because actually, it just might.
79
297626
2211
porque lo más probable es que así sea.
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7