The Dark Side of Competition in AI | Liv Boeree | TED

141,601 views ・ 2023-11-09

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Sebastian Betti Revisor: Anna Sobota
00:04
Competition.
0
4000
1502
La competición es una parte fundamental de la naturaleza humana.
00:05
It's a fundamental part of human nature.
1
5502
3003
00:09
I was a professional poker player for 10 years,
2
9047
2628
He sido jugadora profesional de póquer durante 10 años,
00:11
so I've very much seen all the good, bad and ugly ways it can manifest.
3
11675
4421
así que he visto todas las formas buenas, y malas en las que puede manifestarse.
00:16
When it's done right,
4
16763
1502
Cuando se hace bien,
puede llevarnos a hazañas increíbles en el ámbito del deporte y la innovación,
00:18
it can drive us to incredible feats in sports and innovation,
5
18306
5589
como cuando las empresas automovilísticas compiten
00:23
like when car companies compete over who can build the safest cars
6
23895
4380
por quién puede fabricar los coches más seguros
o los paneles solares más eficientes.
00:28
or the most efficient solar panels.
7
28275
2544
Todos estos son ejemplos de competencia sana,
00:30
Those are all examples of healthy competition,
8
30860
2169
porque, si bien las empresas individuales pueden ir y venir,
00:33
because even though individual companies might come and go,
9
33029
3170
a la larga, el juego entre ellas crea resultados
00:36
in the long run,
10
36199
1168
00:37
the game between them creates win-win outcomes
11
37409
2419
los que todos salen ganando y, al final, todos se benefician.
00:39
where everyone benefits in the end.
12
39828
2043
00:42
But sometimes competition is not so great
13
42581
3003
Pero a veces la competencia no es tan genial
00:45
and can create lose-lose outcomes where everyone's worse off than before.
14
45625
5464
y puede generar resultados en los que todos pierden,
en los que todos están peor que antes.
00:51
Take these AI beauty filters, for example.
15
51715
2878
Tomemos, por ejemplo, estos filtros de belleza de IA.
00:54
As you can see, they're a very impressive technology.
16
54968
2586
Como puedes ver, son una tecnología muy impresionante.
00:57
They can salvage almost any picture.
17
57596
2210
Pueden salvar casi cualquier imagen.
Pueden incluso embellecer a Angelina y Margot.
01:00
They can even make Angelina and Margot more beautiful.
18
60181
5297
01:05
So they're very handy,
19
65520
1335
Por eso son muy útiles, especialmente para las personas influyentes
01:06
especially for influencers who, now, at the click of a button,
20
66896
3045
que, con solo hacer clic en un botón,
01:09
can transform into the most beautiful Hollywood versions of themselves.
21
69983
3795
pueden transformarse en las versiones más hermosas de Hollywood de sí mismas.
01:13
But handy doesn't always mean healthy.
22
73778
2419
Pero práctico no siempre significa saludable.
01:16
And I've personally noticed how quickly these things can train you
23
76573
3879
Y personalmente me he dado cuenta de lo rápido que estas cosas
01:20
to hate your natural face.
24
80493
2378
pueden hacer que odies tu rostro natural.
01:22
And there's growing evidence that they're creating issues
25
82912
2795
Y cada vez hay más pruebas de que están creando problemas
01:25
like body dysmorphia, especially in young people.
26
85707
3420
como la dismorfia corporal, especialmente en los jóvenes.
01:29
Nonetheless, these things are now endemic to social media
27
89502
4421
Sin embargo, estas cosas ahora son endémicas en las redes sociales
01:33
because the nature of the game demands it.
28
93965
2461
porque la naturaleza del juego así lo exige.
Se incentiva a las plataformas a ofrecerlas,
01:37
The platforms are incentivized to provide them
29
97093
2211
ya que imágenes más atractivas
01:39
because hotter pictures means more hijacked limbic systems,
30
99346
3253
implican más sistemas límbicos secuestrados,
01:42
which means more scrolling and thus more ad revenue.
31
102641
2502
más scrolling
y, por ende, más ingresos por publicidad.
01:45
And users are incentivized to use them
32
105644
2210
Además, se incentiva a los usuarios a utilizarlas
01:47
because hotter pictures get you more followers.
33
107896
2377
porque imágenes más atractivas generan más seguidores.
01:50
But this is a trap,
34
110815
2461
Pero esto es una trampa,
01:53
because once you start using these things,
35
113318
2044
porque una vez que empiezas a usar estas cosas,
01:55
it's really hard to go back.
36
115362
2127
es muy difícil volver atrás.
01:57
Plus, you don't even get a competitive advantage from them anymore
37
117530
3254
Además, ya ni siquiera obtienes una ventaja competitiva
02:00
because everyone else is already using them too.
38
120784
2502
porque todos los demás ya los están usando.
02:03
So influencers are stuck using these things
39
123787
3461
Por lo tanto, las personas influyentes se limitan a usar estas cosas
02:07
with all the downsides
40
127290
1460
con todas las desventajas
02:08
and very little upside.
41
128792
1793
y muy pocas ventajas.
02:10
A lose-lose game.
42
130627
1334
Un juego en el que todos pierden.
02:12
A similar kind of trap is playing out in our news media right now,
43
132462
4504
Un tipo de trampa similar se está produciendo
en nuestros medios de comunicación ahora mismo,
02:16
but with much worse consequences.
44
136966
2712
pero con consecuencias mucho peores.
02:19
You'd think since the internet came along
45
139719
1961
Con la llegada de Internet, se podría pensar
02:21
that the increased competition between news outlets
46
141680
3169
que el aumento de la competencia entre los medios de comunicación
02:24
would create a sort of positive spiral,
47
144891
2044
crearía una especie de espiral positiva, como una carrera hacia la cima
02:26
like a race to the top of nuanced, impartial, accurate journalism.
48
146976
4839
del periodismo matizado, imparcial y preciso.
02:32
Instead, we're seeing a race to the bottom of clickbait and polarization,
49
152565
6132
En lugar de eso, asistimos a una carrera hacia abajo
de noticias capciosas y polarización,
en la que incluso los periódicos más respetables
02:38
where even respectable papers are increasingly leaning
50
158697
2836
recurren a este tipo de tácticas vulgares y parciales
02:41
into these kind of low-brow partisan tactics.
51
161533
3253
comúnmente asociadas con la política partidista
02:45
Again, this is due to crappy incentives.
52
165537
3170
Una vez más, esto se debe a los pésimos incentivos.
02:49
Today, we no longer just read our news.
53
169374
2669
Hoy, ya no nos limitamos a leer nuestras noticias.
02:52
We interact with it by sharing and commenting.
54
172085
3378
Interactuamos con ellas compartiéndolo y comentándolo.
Y los titulares que provocan emociones como el miedo o la ira
02:56
And headlines that trigger emotions like fear or anger
55
176131
4170
tienen muchas más probabilidades de hacerse virales
03:00
are far more likely to go viral than neutral or positive ones.
56
180343
4088
que los neutrales o positivos.
En muchos sentidos, los editores de noticias
03:05
So in many ways, news editors are in a similar kind of trap
57
185098
4087
caen en una trampa similar a la de las personas influyentes,
03:09
as the influencers,
58
189185
1544
03:10
where, the more their competitors lean into clickbaity tactics,
59
190770
4171
que, cuanto más se inclinan sus competidores
por las tácticas de noticas capciosas
03:14
the more they have to as well.
60
194983
1960
más tienen que hacerlo ellos también.
03:16
Otherwise, their stories just get lost in the noise.
61
196943
2628
De lo contrario, sus historias simplemente se pierden en el ruido.
03:20
But this is terrible for everybody,
62
200029
2420
Pero esto es terrible para todos,
03:22
because now the media get less trust from the public,
63
202490
3295
porque el público ahora confía menos en los medios de comunicación
03:25
but also it becomes harder and harder for anyone to discern truth from fiction,
64
205785
4463
pero también se hace cada vez más difícil para cualquiera
distinguir la verdad de la ficción,
03:30
which is a really big problem for democracy.
65
210248
2127
lo cual es un gran problema para la democracia.
03:33
Now, this process of competition gone wrong
66
213251
3420
Ahora bien, este proceso de competencia que ha fracasado
03:36
is actually the driving force behind so many of our biggest issues.
67
216713
4880
es en realidad la fuerza impulsora
de muchos de nuestros problemas más importantes.
La contaminación plástica,
03:42
Plastic pollution,
68
222427
1877
la deforestación,
03:44
deforestation,
69
224345
2128
03:46
antibiotic overuse in farming,
70
226514
2711
el uso excesivo de antibióticos en la ganadería,
03:49
arms races,
71
229225
1627
las carreras de armamentos
03:50
greenhouse gas emissions.
72
230894
1918
y las emisiones de gases de efecto invernadero.
03:52
These are all a result of crappy incentives,
73
232854
3754
Todo esto es el resultado de unos pésimos incentivos,
03:56
of poorly designed games that push their players --
74
236649
3420
de juegos mal diseñados que obligan a sus jugadores,
sean personas, empresas o gobiernos, a adoptar estrategias y tácticas
04:00
be them people, companies or governments --
75
240069
2753
04:02
into taking strategies and tactics that defer costs and harms to the future.
76
242864
5714
que aplacen los costos y los daños para el futuro.
04:09
And what's so ridiculous is that most of the time,
77
249454
2919
Y lo más ridículo es que la mayoría de las veces,
04:12
these guys don't even want to be doing this.
78
252415
2878
estos tipos ni siquiera quieren hacer esto.
04:15
You know, it's not like packaging companies
79
255335
2169
No es que las empresas de envasado quieran llenar los océanos de plástico
04:17
want to fill the oceans with plastic
80
257545
1919
04:19
or farmers want to worsen antibiotic resistance.
81
259506
2836
o que los ganaderos quieran empeorar la resistencia a los antibióticos.
04:22
But they’re all stuck in the same dilemma of:
82
262759
3420
Pero todas están atrapadas en el mismo dilema:
04:26
"If I don't use this tactic,
83
266221
2294
«Si no uso esta táctica,
04:28
I’ll get outcompeted by all the others who do.
84
268515
3211
me superarán los demás que sí la usen.
04:31
So I have to do it, too.”
85
271768
1835
Así que yo también tengo que hacerlo».
04:34
This is the mechanism we need to fix as a civilization.
86
274604
3545
Este es el mecanismo que necesitamos arreglar como civilización.
04:38
And I know what you're probably all thinking, "So it's capitalism."
87
278858
3170
Y sé que todos estarán pensando: «Así es el capitalismo».
04:42
No, it's not capitalism.
88
282028
1543
No, no es el capitalismo.
04:43
Which, yes, can cause problems,
89
283613
1793
Lo cual, sí, puede causar problemas,
04:45
but it can also solve them and has been fantastic in general.
90
285448
3170
pero también puede solucionarlos y, en general, ha sido fantástico.
04:48
It's something much deeper.
91
288618
2127
Es algo mucho más profundo.
04:51
It's a force of misaligned incentives of game theory itself.
92
291287
5005
Es una fuerza de incentivos desalineados de la propia teoría de juegos.
04:57
So a few years ago, I retired from poker,
93
297001
2378
Hace unos años me retiré del póquer,
04:59
in part because I wanted to understand this mechanism better.
94
299420
3671
en parte porque quería entender mejor este mecanismo.
05:03
Because it takes many different forms, and it goes by many different names.
95
303633
4213
Porque adopta muchas formas diferentes y tiene muchos nombres diferentes.
[juegos de suma negativa,
05:08
These are just some of those names.
96
308346
2085
trampas multipolares, equilibrio de Nash inadecuado, etc.]
05:11
You can see they're a little bit abstract and clunky, right?
97
311015
3337
Puedes ver que son un poco abstractos y torpes, ¿verdad?
05:14
They don't exactly roll off the tongue.
98
314394
2002
No salen exactamente de la lengua.
05:16
And given how insidious and connected all of these problems are,
99
316771
5089
Y dado lo insidiosos y conectados que están todos estos problemas,
05:21
it helps to have a more visceral way of recognizing them.
100
321901
3963
ayuda tener una forma más visceral de reconocerlos.
Así que probablemente esta sea la única vez
05:27
So this is probably the only time
101
327073
1585
05:28
you're going to hear about the Bible at this conference.
102
328658
2711
que oirás hablar de la Biblia en esta conferencia.
05:31
But I want to tell you a quick story from it,
103
331369
2127
Pero quiero contarles una breve historia basada en ella,
05:33
because allegedly, back in the Canaanite days,
104
333496
2544
porque supuestamente, en los días cananeos,
05:36
there was a cult who wanted money and power so badly,
105
336040
5256
había una secta que deseaba tanto el dinero y el poder que
05:41
they were willing to sacrifice their literal children for it.
106
341296
3587
estaban dispuestos a sacrificar literalmente a sus hijos por ello.
05:45
And they did this by burning them alive in an effigy
107
345592
4212
Y lo hicieron quemándolos vivos en una efigie
05:49
of a God that they believed would then reward them
108
349846
2711
de un dios que, según ellos,
05:52
for this ultimate sacrifice.
109
352599
2127
les recompensaría por este sacrificio supremo.
05:55
And the name of this god was Moloch.
110
355643
2962
Y el nombre de este dios era Moloch.
05:59
Bit of a bummer, as stories go.
111
359772
2461
Un poco molesto, según cuentan las historias.
06:02
But you can see why it's an apt metaphor,
112
362233
2586
Pero ya ves por qué es una metáfora acertada,
06:04
because sometimes we get so lost in winning the game right in front of us,
113
364861
6673
porque a veces nos perdemos tanto en ganar la partida que tenemos delante,
06:11
we lose sight of the bigger picture
114
371534
1960
que perdemos de vista el panorama general
06:13
and sacrifice too much in our pursuit of victory.
115
373536
3754
y sacrificamos demasiado en nuestra búsqueda de la victoria.
06:17
So just like these guys were sacrificing their children for power,
116
377832
4088
Así como estos tipos sacrificaban a sus hijos por el poder,
06:21
those influencers are sacrificing their happiness for likes.
117
381961
4588
esos influencers están sacrificando su felicidad por los “me gusta”.
Esos editores de noticias
06:27
Those news editors are sacrificing their integrity for clicks,
118
387008
4087
están sacrificando su integridad por los clics,
06:31
and polluters are sacrificing the biosphere for profit.
119
391137
3796
y los que contaminan están sacrificando la biosfera para obtener ganancias.
06:35
In all these examples,
120
395767
1793
En todos estos ejemplos,
06:37
the short-term incentives of the games themselves are pushing,
121
397602
3962
los incentivos a corto plazo que ofrecen los propios juegos
son cada vez más fuertes, ya que están tentando
06:41
they're tempting their players
122
401606
1752
06:43
to sacrifice more and more of their future,
123
403358
3378
a los jugadores a sacrificar cada vez más su futuro,
06:46
trapping them in a death spiral where they all lose in the end.
124
406778
4129
atrapándolos en una espiral mortal en la que al final todos pierden.
06:52
That's Moloch's trap.
125
412158
2127
Esa es “la trampa de Moloch”.
06:54
The mechanism of unhealthy competition.
126
414661
2752
El mecanismo de una competencia malsana.
06:58
And the same is now happening in the AI industry.
127
418164
3337
Y lo mismo está ocurriendo ahora en la industria de la IA.
Sabemos que se está intensificando la carrera
07:02
We're all aware of the race that's heating up
128
422251
2128
entre empresas para obtener
07:04
between companies right now
129
424379
1293
07:05
over who can score the most compute,
130
425713
2253
la mayor puntuación en cómputo,
la mayor ronda de financiación
07:08
who can get the biggest funding round or get the top talent.
131
428007
3379
o los mejores talentos.
07:11
Well, as more and more companies enter this race,
132
431386
3461
Pues bien, conforme más y más empresas participan en esta carrera,
07:14
the greater the pressure for everyone to go as fast as possible
133
434847
3629
mayor es la presión para que todos vayan lo más rápido posible
07:18
and sacrifice other important stuff like safety testing.
134
438476
4171
y sacrifiquen otras cosas importantes, como las pruebas de seguridad.
07:23
This has all the hallmarks of a Moloch trap.
135
443189
3253
Tiene todas las características de una trampa Moloch.
Porque, por ejemplo, imagina que eres un director ejecutivo que,
07:27
Because, like, imagine you're a CEO who, you know, in your heart of hearts,
136
447068
3587
07:30
believes that your team is the best
137
450655
2586
cree en el fondo de su corazón que su equipo es el mejor
07:33
to be able to safely build extremely powerful AI.
138
453241
3462
para poder crear de forma segura una IA extremadamente poderosa.
07:37
Well, if you go too slowly, then you run the risk of other,
139
457120
4170
Bueno, si vas demasiado despacio, corres el riesgo de que otros equipos,
07:41
much less cautious teams getting there first
140
461332
2628
mucho menos cautelosos lleguen primero
07:44
and deploying their systems before you can.
141
464002
2168
y desplieguen sus sistemas antes que tú.
07:46
So that in turn pushes you to be more reckless yourself.
142
466212
3378
Eso, a su vez, te empuja a ser más imprudente.
07:49
And given how many different experts and researchers,
143
469966
3628
Y como muchos expertos e investigadores diferentes,
07:53
both within these companies
144
473594
1585
tanto de estas empresas como de otras completamente independientes,
07:55
but also completely independent ones,
145
475179
2545
07:57
have been warning us about the extreme risks of rushed AI,
146
477765
4296
nos han estado advirtiendo sobre los riesgos extremos de una IA precipitada,
08:02
this approach is absolutely mad.
147
482103
2711
este enfoque es absolutamente descabellado.
08:05
Plus, almost all AI companies
148
485398
3170
Además, casi todas las empresas de inteligencia artificial
08:08
are beholden to satisfying their investors,
149
488609
3003
tienen la obligación de satisfacer a sus inversores,
08:11
a short-term incentive which, over time, will inevitably start to conflict
150
491612
4255
un incentivo a corto plazo que, con el tiempo,
inevitablemente empezará a entrar en conflicto
08:15
with any benevolent mission.
151
495867
1751
con cualquier misión benévola.
08:18
And this wouldn't be a big deal
152
498202
1502
Y esto no sería gran cosa
08:19
if this was really just toasters we're talking about here.
153
499704
3337
si realmente se tratara de tostadoras de las que estamos hablando aquí.
08:23
But AI, and especially AGI,
154
503041
2752
Sin embargo, la IA, y especialmente la IAG,
08:25
is set to be a bigger paradigm shift
155
505835
1752
está llamada a suponer un cambio de paradigma
08:27
than the agricultural or industrial revolutions.
156
507587
2669
mayor que las revoluciones agrícola o industrial.
08:30
A moment in time so pivotal,
157
510590
2544
Se trata de un momento tan crucial que merece reverencia y reflexión,
08:33
it's deserving of reverence and reflection,
158
513176
4546
y no algo que pueda reducirse a una carrera empresarial
08:37
not something to be reduced to a corporate rat race
159
517764
2419
para determinar quién es el mayor número de usuarios activos diarios.
08:40
of who can score the most daily active users.
160
520183
2544
08:43
I'm not saying I know
161
523186
1209
No digo que sepa
08:44
what the right trade-off between acceleration and safety is,
162
524437
3420
cuál es el equilibrio correcto entre aceleración y seguridad,
08:47
but I do know that we'll never find out what that right trade-off is
163
527899
3962
pero sí sé que nunca descubriremos cuál es ese equilibrio correcto
08:51
if we let Moloch dictate it for us.
164
531903
2794
si dejamos que Moloch nos lo dicte.
08:56
So what can we do?
165
536699
1794
Entonces, ¿qué podemos hacer?
08:58
Well, the good news is we have managed to coordinate
166
538868
3086
Bueno, la buena noticia es que ya hemos conseguido coordinarnos
09:01
to escape some of Moloch's traps before.
167
541954
2002
para escapar de algunas de las trampas de Moloch.
09:04
We managed to save the ozone layer from CFCs
168
544540
2545
Hemos conseguido salvar la capa de ozono de los CFC
09:07
with the help of the Montreal Protocol.
169
547126
2169
con la ayuda del Protocolo de Montreal.
09:09
We managed to reduce the number of nuclear weapons on Earth
170
549337
2878
Conseguimos reducir el número de armas nucleares
09:12
by 80 percent,
171
552256
1210
en la Tierra en un 80 %,
09:13
with the help of the Strategic Arms Reduction Treaty in 1991.
172
553466
3378
con la ayuda del Tratado de Reducción de Armas Estratégicas de 1991.
09:17
So smart regulation may certainly help with AI too,
173
557428
4338
Por lo tanto, una regulación inteligente también puede ayudar a la IA,
09:21
but ultimately,
174
561766
1335
pero, en última instancia, son los jugadores del juego
09:23
it's the players within the game who have the most influence on it.
175
563142
4004
los que tienen más influencia en ella.
09:27
So we need AI leaders to show us
176
567814
2294
Por eso necesitamos que los líderes de la IA nos demuestren
09:30
that they're not only aware of the risks their technologies pose,
177
570108
3586
que no solo son conscientes de los riesgos que representan sus tecnologías,
09:33
but also the destructive nature of the incentives
178
573736
3253
sino también de la naturaleza destructiva de los incentivos
09:37
that they're currently beholden to.
179
577031
1877
a los que se enfrentan actualmente.
09:39
As their technological capabilities reach towards the power of gods,
180
579617
3712
A medida que sus capacidades tecnológicas alcancen el poder de los dioses,
09:43
they're going to need the godlike wisdom to know how to wield them.
181
583329
3712
van a necesitar una sabiduría divina para saber cómo utilizarlas.
09:47
So it doesn't fill me with encouragement
182
587917
2211
Por eso no me llena de ánimo
09:50
when I see a CEO of a very major company saying something like,
183
590169
4338
ver a un director ejecutivo de una compañía muy importante decir algo como:
09:54
"I want people to know we made our competitor dance."
184
594507
2753
“Quiero que se sepa que hicimos bailar a nuestro competidor”.
09:57
That is not the type of mindset we need here.
185
597677
2669
Ese no es el tipo de mentalidad que necesitamos aquí.
10:00
We need leaders who are willing to flip Moloch's playbook,
186
600346
3629
Necesitamos líderes dispuestos a cambiar
el manual de estrategias de Moloch, que estén dispuestos a sacrificar
10:04
who are willing to sacrifice their own individual chance of winning
187
604016
3671
sus propias posibilidades individuales de ganar
10:07
for the good of the whole.
188
607687
1626
por el bien de todos.
10:10
Now, fortunately, the three leading labs are showing some signs of doing this.
189
610148
4921
Afortunadamente, los tres principales laboratorios
están dando señales de que lo están haciendo.
10:15
Anthropic recently announced their responsible scaling policy,
190
615695
3086
Anthropic anunció recientemente su política de escalado responsable,
10:18
which pledges to only increase capabilities
191
618823
2586
en la que se compromete a aumentar las capacidades
10:21
once certain security criteria have been met.
192
621409
2627
solo una vez que se hayan cumplido ciertos criterios de seguridad.
10:24
OpenAI have recently pledged
193
624954
1418
OpenAI se ha comprometido recientemente a dedicar el 20 % de su cómputo
10:26
to dedicate 20 percent of their compute purely to alignment research.
194
626414
3962
exclusivamente a la investigación de alineación.
10:31
And DeepMind have shown a decade-long focus
195
631627
3087
Además, DeepMind ha demostrado que, durante una década, se ha centrado
10:34
of science ahead of commerce,
196
634714
2377
en la ciencia antes que en el comercio,
10:37
like their development of AlphaFold,
197
637133
1752
como el desarrollo de AlphaFold,
10:38
which they gave away to the science community for free.
198
638885
2627
que ha regalado a la comunidad científica de forma gratuita.
10:41
These are all steps in the right direction,
199
641846
2044
Todos estos pasos van en la dirección correcta,
10:43
but they are still nowhere close to being enough.
200
643931
2836
pero todavía están lejos de ser suficientes.
10:46
I mean, most of these are currently just words,
201
646809
2586
Quiero decir, la mayoría de estas son solo palabras, ni siquiera
10:49
they're not even proven actions.
202
649437
2127
son acciones comprobadas.
10:52
So we need a clear way to turn the AI race into a definitive race to the top.
203
652023
6006
Necesitamos una forma clara de convertir
la carrera de la IA en una carrera definitiva hacia la cima.
10:58
Perhaps companies can start competing over who can be within these metrics,
204
658779
5297
Quizás las empresas puedan empezar a competir
por quién puede cumplir estos parámetros,
por quién puede desarrollar los mejores criterios de seguridad.
11:04
over who can develop the best security criteria.
205
664118
3128
Una carrera en la que se decide
11:07
A race of who can dedicate the most compute to alignment.
206
667288
4004
quién puede dedicar la mayor cantidad de cómputo a la alineación.
11:11
Now that would truly flip the middle finger to Moloch.
207
671292
2669
Eso sí que le daría la vuelta al dedo medio a Moloch.
11:14
Competition can be an amazing tool,
208
674587
3253
La competencia puede ser una herramienta increíble,
11:17
provided we wield it wisely.
209
677882
2085
siempre que la usemos con prudencia.
11:20
And we're going to need to do that
210
680468
1668
Y tendremos que hacerlo
11:22
because the stakes we are playing for are astronomical.
211
682136
3170
porque lo que está en juego es astronómico.
11:25
If we get AI, and especially AGI, wrong,
212
685806
3421
Si nos equivocamos en la IA, y especialmente en la IAG,
11:29
it could lead to unimaginable catastrophe.
213
689268
2795
esto podría llevar a una catástrofe inimaginable.
11:32
But if we get it right,
214
692980
1502
Pero si lo hacemos bien,
11:34
it could be our path out of many of these Moloch traps
215
694523
2837
podría ser nuestra forma de salir de muchas
de estas trampas de Moloch que he mencionado hoy.
11:37
that I've mentioned today.
216
697401
1502
Y conforme las cosas se pongan más complicadas en los próximos años,
11:40
And as things get crazier over the coming years,
217
700446
3045
11:43
which they're probably going to,
218
703532
1836
cosa que probablemente ocurrirá, va a ser más importante
11:45
it's going to be more important than ever
219
705368
2002
11:47
that we remember that it is the real enemy here, Moloch.
220
707370
4296
que nunca que recordemos que el verdadero enemigo aquí es Moloch.
11:52
Not any individual CEO or company, and certainly not one another.
221
712208
4379
Ni un CEO solo o una empresa, y ciertamente no entre sí.
Así que no odies a los jugadores, cambia las reglas del juego.
11:57
So don't hate the players,
222
717255
1751
11:59
change the game.
223
719006
1293
12:01
(Applause)
224
721509
1126
(Aplausos)
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7