The Dark Side of Competition in AI | Liv Boeree | TED

149,153 views ・ 2023-11-09

TED


Fare doppio clic sui sottotitoli in inglese per riprodurre il video.

Traduttore: Stefania Basset Revisore: Agnese Giacomelli
00:04
Competition.
0
4000
1502
La competizione
00:05
It's a fundamental part of human nature.
1
5502
3003
è una parte fondamentale della natura umana.
Sono stata una giocatrice di poker professionista per 10 anni,
00:09
I was a professional poker player for 10 years,
2
9047
2628
00:11
so I've very much seen all the good, bad and ugly ways it can manifest.
3
11675
4421
quindi ho visto bene tutti i buoni, brutti e cattivi modi in cui può manifestarsi.
00:16
When it's done right,
4
16763
1502
Se fatta bene,
00:18
it can drive us to incredible feats in sports and innovation,
5
18306
5589
può portarci a compiere incredibili imprese nello sport e nell'innovazione,
00:23
like when car companies compete over who can build the safest cars
6
23895
4380
come quando le case automobilistiche competono per costruire le auto più sicure
00:28
or the most efficient solar panels.
7
28275
2544
o i pannelli solari più efficienti.
00:30
Those are all examples of healthy competition,
8
30860
2169
Questi sono tutti esempi di competizione sana,
00:33
because even though individual companies might come and go,
9
33029
3170
perché anche se le singole aziende possono andare e venire,
00:36
in the long run,
10
36199
1168
a lungo termine,
00:37
the game between them creates win-win outcomes
11
37409
2419
il gioco tra di loro crea risultati vantaggiosi,
00:39
where everyone benefits in the end.
12
39828
2043
in cui alla fine tutti ci guadagnano.
00:42
But sometimes competition is not so great
13
42581
3003
Ma a volte la competizione non va così bene
00:45
and can create lose-lose outcomes where everyone's worse off than before.
14
45625
5464
e può portare a risultati negativi in cui tutti stanno peggio di prima.
00:51
Take these AI beauty filters, for example.
15
51715
2878
Prendiamo questi filtri di bellezza basati sull’IA, per esempio.
00:54
As you can see, they're a very impressive technology.
16
54968
2586
Come potete vedere, sono una tecnologia davvero impressionante.
00:57
They can salvage almost any picture.
17
57596
2210
Possono recuperare quasi tutte le immagini.
01:00
They can even make Angelina and Margot more beautiful.
18
60181
5297
Possono persino rendere più belle Angelina e Margot.
01:05
So they're very handy,
19
65520
1335
Quindi sono molto utili,
01:06
especially for influencers who, now, at the click of a button,
20
66896
3045
soprattutto per gli influencer che ora con un clic
01:09
can transform into the most beautiful Hollywood versions of themselves.
21
69983
3795
possono trasformarsi nelle migliori versioni hollywoodiane di sé stessi.
01:13
But handy doesn't always mean healthy.
22
73778
2419
Ma utile non significa sempre sano.
01:16
And I've personally noticed how quickly these things can train you
23
76573
3879
Ho notato personalmente quanto velocemente queste cose possano indurti
01:20
to hate your natural face.
24
80493
2378
a odiare il tuo viso naturale.
01:22
And there's growing evidence that they're creating issues
25
82912
2795
E ci sono prove crescenti che stiano creando problemi
01:25
like body dysmorphia, especially in young people.
26
85707
3420
come il dismorfismo corporeo, specialmente nei giovani.
01:29
Nonetheless, these things are now endemic to social media
27
89502
4421
Tuttavia, queste cose sono ormai endemiche nei social media
01:33
because the nature of the game demands it.
28
93965
2461
perché la natura del gioco lo richiede.
01:37
The platforms are incentivized to provide them
29
97093
2211
Le piattaforme sono incentivate a fornirle
01:39
because hotter pictures means more hijacked limbic systems,
30
99346
3253
perché immagini più fighe significano dirottare più sistemi limbici,
01:42
which means more scrolling and thus more ad revenue.
31
102641
2502
il che equivale a fare più scrolling e quindi a più entrate.
01:45
And users are incentivized to use them
32
105644
2210
E gli utenti sono incentivati a usarle
01:47
because hotter pictures get you more followers.
33
107896
2377
perché le foto più fighe fanno guadagnare più follower.
01:50
But this is a trap,
34
110815
2461
Ma questa è una trappola,
01:53
because once you start using these things,
35
113318
2044
perché una volta che inizi a usare queste cose,
01:55
it's really hard to go back.
36
115362
2127
è davvero difficile tornare indietro.
01:57
Plus, you don't even get a competitive advantage from them anymore
37
117530
3254
Inoltre, non ne ottieni nemmeno più un vantaggio competitivo,
02:00
because everyone else is already using them too.
38
120784
2502
perché anche tutti gli altri le stanno già utilizzando.
02:03
So influencers are stuck using these things
39
123787
3461
Quindi gli influencer sono costretti a usarle
02:07
with all the downsides
40
127290
1460
con tutti gli aspetti negativi
02:08
and very little upside.
41
128792
1793
e pochissimi vantaggi.
02:10
A lose-lose game.
42
130627
1334
Una partita dove tutti perdono.
02:12
A similar kind of trap is playing out in our news media right now,
43
132462
4504
Una trappola simile ora si sta diffondendo nei nostri mezzi di informazione
02:16
but with much worse consequences.
44
136966
2712
ma con conseguenze ben peggiori.
02:19
You'd think since the internet came along
45
139719
1961
Sarebbe lecito pensare che, con l’avvento di internet,
02:21
that the increased competition between news outlets
46
141680
3169
la crescente concorrenza tra le testate giornalistiche
02:24
would create a sort of positive spiral,
47
144891
2044
creasse una sorta di spirale positiva,
02:26
like a race to the top of nuanced, impartial, accurate journalism.
48
146976
4839
una corsa al vertice di un giornalismo ricco di sfumature, imparziale e accurato.
02:32
Instead, we're seeing a race to the bottom of clickbait and polarization,
49
152565
6132
Stiamo invece vedendo una corsa al ribasso con clickbait e polarizzazione
in cui anche giornali rispettabili si stanno sempre più orientando
02:38
where even respectable papers are increasingly leaning
50
158697
2836
02:41
into these kind of low-brow partisan tactics.
51
161533
3253
verso questo tipo di tattiche faziose di bassa lega.
02:45
Again, this is due to crappy incentives.
52
165537
3170
Ancora una volta, ciò è dovuto a incentivi scadenti.
02:49
Today, we no longer just read our news.
53
169374
2669
Oggi non leggiamo più solo le nostre notizie.
02:52
We interact with it by sharing and commenting.
54
172085
3378
Interagiamo con esse condividendo e commentando.
02:56
And headlines that trigger emotions like fear or anger
55
176131
4170
E i titoli che scatenano emozioni come paura o rabbia
03:00
are far more likely to go viral than neutral or positive ones.
56
180343
4088
hanno molte più probabilità di diventare virali di quelli neutri o positivi.
03:05
So in many ways, news editors are in a similar kind of trap
57
185098
4087
Quindi, per molti versi, chi redige le notizie si trova in una trappola
03:09
as the influencers,
58
189185
1544
simile a quella degli influencer:
03:10
where, the more their competitors lean into clickbaity tactics,
59
190770
4171
più i loro concorrenti si appoggiano alle tattiche del clickbait,
03:14
the more they have to as well.
60
194983
1960
più sono costretti a farlo anche loro.
03:16
Otherwise, their stories just get lost in the noise.
61
196943
2628
Altrimenti le loro storie si perdono nel rumore.
03:20
But this is terrible for everybody,
62
200029
2420
Ma questo è terribile per tutti,
03:22
because now the media get less trust from the public,
63
202490
3295
perché ora i media ottengono meno fiducia dal pubblico,
03:25
but also it becomes harder and harder for anyone to discern truth from fiction,
64
205785
4463
ma anche perché è sempre più difficile distinguere la verità dalla finzione,
03:30
which is a really big problem for democracy.
65
210248
2127
il che è davvero un grosso problema per la democrazia.
03:33
Now, this process of competition gone wrong
66
213251
3420
Questo processo di concorrenza andato male
03:36
is actually the driving force behind so many of our biggest issues.
67
216713
4880
è in realtà l’elemento trainante di molti dei nostri maggiori problemi.
03:42
Plastic pollution,
68
222427
1877
Inquinamento da plastica,
03:44
deforestation,
69
224345
2128
deforestazione,
03:46
antibiotic overuse in farming,
70
226514
2711
uso eccessivo di antibiotici in agricoltura,
03:49
arms races,
71
229225
1627
corsa agli armamenti,
03:50
greenhouse gas emissions.
72
230894
1918
emissioni di gas serra.
03:52
These are all a result of crappy incentives,
73
232854
3754
Sono tutti il risultato di incentivi scadenti,
03:56
of poorly designed games that push their players --
74
236649
3420
di giochi mal progettati che spingono i giocatori,
04:00
be them people, companies or governments --
75
240069
2753
siano essi persone, aziende o governi,
04:02
into taking strategies and tactics that defer costs and harms to the future.
76
242864
5714
a adottare strategie e tattiche che rinviano costi e danni al futuro.
04:09
And what's so ridiculous is that most of the time,
77
249454
2919
E quel che è ridicolo è che la maggior parte delle volte
04:12
these guys don't even want to be doing this.
78
252415
2878
non vogliono nemmeno farlo.
04:15
You know, it's not like packaging companies
79
255335
2169
Non è che le aziende di imballaggi
04:17
want to fill the oceans with plastic
80
257545
1919
vogliono riempire gli oceani di plastica
04:19
or farmers want to worsen antibiotic resistance.
81
259506
2836
o gli agricoltori vogliono peggiorare la resistenza agli antibiotici.
04:22
But they’re all stuck in the same dilemma of:
82
262759
3420
Ma sono tutti bloccati nello stesso dilemma:
04:26
"If I don't use this tactic,
83
266221
2294
«Se non uso questa tattica,
04:28
I’ll get outcompeted by all the others who do.
84
268515
3211
verrò battuto da tutti gli altri che lo fanno.
04:31
So I have to do it, too.”
85
271768
1835
Quindi devo farlo anch'io».
04:34
This is the mechanism we need to fix as a civilization.
86
274604
3545
Questo è il meccanismo che dobbiamo correggere come civiltà.
04:38
And I know what you're probably all thinking, "So it's capitalism."
87
278858
3170
E so cosa probabilmente state pensando: «Questo è capitalismo».
04:42
No, it's not capitalism.
88
282028
1543
No, non è capitalismo.
04:43
Which, yes, can cause problems,
89
283613
1793
Che sì, può causare problemi,
04:45
but it can also solve them and has been fantastic in general.
90
285448
3170
ma può anche risolverli ed è stato fantastico in generale.
04:48
It's something much deeper.
91
288618
2127
È qualcosa di molto più profondo.
04:51
It's a force of misaligned incentives of game theory itself.
92
291287
5005
È una forza di incentivi disallineati della stessa teoria dei giochi.
Così, qualche anno fa, mi sono ritirata dal poker,
04:57
So a few years ago, I retired from poker,
93
297001
2378
04:59
in part because I wanted to understand this mechanism better.
94
299420
3671
in parte perché volevo capire meglio questo meccanismo.
05:03
Because it takes many different forms, and it goes by many different names.
95
303633
4213
Perché assume molte forme diverse e ha molti nomi diversi.
05:08
These are just some of those names.
96
308346
2085
Questi sono solo alcuni di quei nomi.
05:11
You can see they're a little bit abstract and clunky, right?
97
311015
3337
Riuscite a vedere che sono un po’ astratti e goffi, vero?
05:14
They don't exactly roll off the tongue.
98
314394
2002
Non sono proprio semplici da dire.
05:16
And given how insidious and connected all of these problems are,
99
316771
5089
E visto quanto insidiosi e connessi siano tutti questi problemi,
05:21
it helps to have a more visceral way of recognizing them.
100
321901
3963
è utile avere un modo più viscerale di riconoscerli.
Questa è probabilmente l’unica volta
05:27
So this is probably the only time
101
327073
1585
05:28
you're going to hear about the Bible at this conference.
102
328658
2711
che sentirete parlare della Bibbia a questa conferenza.
05:31
But I want to tell you a quick story from it,
103
331369
2127
Ma voglio raccontarvi una breve storia,
05:33
because allegedly, back in the Canaanite days,
104
333496
2544
perché presumibilmente, ai tempi dei Cananei,
05:36
there was a cult who wanted money and power so badly,
105
336040
5256
c’era una setta che desiderava così tanto denaro e potere
05:41
they were willing to sacrifice their literal children for it.
106
341296
3587
che era disposta a sacrificare i propri figli per averli.
05:45
And they did this by burning them alive in an effigy
107
345592
4212
E lo fecero bruciandoli vivi in nome
05:49
of a God that they believed would then reward them
108
349846
2711
di un Dio che, secondo loro, li avrebbe ricompensati
05:52
for this ultimate sacrifice.
109
352599
2127
per questo sacrificio supremo.
05:55
And the name of this god was Moloch.
110
355643
2962
E il nome di questo dio era Moloch.
05:59
Bit of a bummer, as stories go.
111
359772
2461
Un po’ deludente come storia.
06:02
But you can see why it's an apt metaphor,
112
362233
2586
Ma potete capire perché è una metafora appropriata:
06:04
because sometimes we get so lost in winning the game right in front of us,
113
364861
6673
a volte ci concentriamo così tanto nel voler vincere la partita davanti a noi
06:11
we lose sight of the bigger picture
114
371534
1960
che perdiamo di vista il quadro generale
06:13
and sacrifice too much in our pursuit of victory.
115
373536
3754
e sacrifichiamo troppo cercando la vittoria.
06:17
So just like these guys were sacrificing their children for power,
116
377832
4088
Quindi, proprio come questi uomini sacrificavano i loro figli per il potere,
06:21
those influencers are sacrificing their happiness for likes.
117
381961
4588
quegli influencer stanno sacrificando la loro felicità per i like.
06:27
Those news editors are sacrificing their integrity for clicks,
118
387008
4087
Quei redattori di notizie stanno sacrificando la loro integrità per i clic
06:31
and polluters are sacrificing the biosphere for profit.
119
391137
3796
e chi inquina sta sacrificando la biosfera per il profitto.
06:35
In all these examples,
120
395767
1793
In tutti questi esempi,
06:37
the short-term incentives of the games themselves are pushing,
121
397602
3962
gli stessi incentivi a breve termine dei giochi fanno pressione:
06:41
they're tempting their players
122
401606
1752
invitano i giocatori
06:43
to sacrifice more and more of their future,
123
403358
3378
a sacrificare sempre più il loro futuro,
06:46
trapping them in a death spiral where they all lose in the end.
124
406778
4129
intrappolandoli in una spirale mortale in cui alla fine perderanno tutti.
06:52
That's Moloch's trap.
125
412158
2127
Questa è la trappola di Moloch.
06:54
The mechanism of unhealthy competition.
126
414661
2752
Il meccanismo della concorrenza malsana.
06:58
And the same is now happening in the AI industry.
127
418164
3337
E lo stesso sta accadendo ora nel settore dell’intelligenza artificiale.
Conosciamo tutti la corsa che si sta accendendo
07:02
We're all aware of the race that's heating up
128
422251
2128
07:04
between companies right now
129
424379
1293
ora tra le aziende
07:05
over who can score the most compute,
130
425713
2253
a chi ha più risorse di calcolo,
a chi ottiene il round di finanziamento più alto o ha i migliori talenti.
07:08
who can get the biggest funding round or get the top talent.
131
428007
3379
07:11
Well, as more and more companies enter this race,
132
431386
3461
Bene, man mano che sempre più aziende partecipano a questa gara,
07:14
the greater the pressure for everyone to go as fast as possible
133
434847
3629
maggiore è la pressione affinché tutti vadano il più velocemente possibile
07:18
and sacrifice other important stuff like safety testing.
134
438476
4171
e sacrifichino altre cose importanti, come i test di sicurezza.
07:23
This has all the hallmarks of a Moloch trap.
135
443189
3253
Questa ha tutte le caratteristiche di una trappola Moloch.
Perché immaginate per esempio di essere un amministratore delegato
07:27
Because, like, imagine you're a CEO who, you know, in your heart of hearts,
136
447068
3587
07:30
believes that your team is the best
137
450655
2586
che, nel profondo del suo cuore, crede che il suo team sia il migliore
07:33
to be able to safely build extremely powerful AI.
138
453241
3462
a creare in sicurezza un’IA estremamente potente.
07:37
Well, if you go too slowly, then you run the risk of other,
139
457120
4170
Ebbene, se procedete troppo lentamente, correte il rischio che altri team,
07:41
much less cautious teams getting there first
140
461332
2628
molto meno cauti, arrivino per primi
07:44
and deploying their systems before you can.
141
464002
2168
e distribuiscano i loro sistemi prima di voi.
07:46
So that in turn pushes you to be more reckless yourself.
142
466212
3378
Questo, a sua volta, vi spinge a essere più imprudenti.
07:49
And given how many different experts and researchers,
143
469966
3628
E visto che molti esperti e ricercatori,
07:53
both within these companies
144
473594
1585
sia all'interno di queste aziende
07:55
but also completely independent ones,
145
475179
2545
che in modo completamente indipendente,
07:57
have been warning us about the extreme risks of rushed AI,
146
477765
4296
ci hanno messo in guardia sui rischi enormi di un’IA creata con troppa fretta,
08:02
this approach is absolutely mad.
147
482103
2711
questo approccio è assolutamente folle.
08:05
Plus, almost all AI companies
148
485398
3170
Inoltre, quasi tutte le società che si occupano di intelligenza artificiale
08:08
are beholden to satisfying their investors,
149
488609
3003
sono tenute a soddisfare i propri investitori,
08:11
a short-term incentive which, over time, will inevitably start to conflict
150
491612
4255
un incentivo a breve termine che, col tempo,
inizierà inevitabilmente a entrare in conflitto
08:15
with any benevolent mission.
151
495867
1751
con qualsiasi intenzione benevola.
08:18
And this wouldn't be a big deal
152
498202
1502
Non sarebbe un grosso problema
08:19
if this was really just toasters we're talking about here.
153
499704
3337
se stessimo parlando solo di tostapane.
08:23
But AI, and especially AGI,
154
503041
2752
Ma l’intelligenza artificiale, e in particolare l’AGI,
08:25
is set to be a bigger paradigm shift
155
505835
1752
è destinata a rappresentare un cambiamento
08:27
than the agricultural or industrial revolutions.
156
507587
2669
più ampio della rivoluzione agricola o industriale.
08:30
A moment in time so pivotal,
157
510590
2544
Un momento storico così cruciale,
08:33
it's deserving of reverence and reflection,
158
513176
4546
che merita riverenza e riflessione,
08:37
not something to be reduced to a corporate rat race
159
517764
2419
non qualcosa da ridurre a una folle corsa aziendale
08:40
of who can score the most daily active users.
160
520183
2544
su chi riesce ad avere il maggior numero di utenti attivi al giorno.
08:43
I'm not saying I know
161
523186
1209
Non sto dicendo di sapere
08:44
what the right trade-off between acceleration and safety is,
162
524437
3420
quale sia il giusto compromesso tra accelerazione e sicurezza,
08:47
but I do know that we'll never find out what that right trade-off is
163
527899
3962
ma so che non scopriremo mai quale sia il giusto compromesso
08:51
if we let Moloch dictate it for us.
164
531903
2794
se lasciamo che sia Moloch a dettarcelo.
08:56
So what can we do?
165
536699
1794
Quindi cosa possiamo fare?
08:58
Well, the good news is we have managed to coordinate
166
538868
3086
Bene, la buona notizia è che siamo già riusciti a coordinarci
09:01
to escape some of Moloch's traps before.
167
541954
2002
per sfuggire ad alcune trappole di Moloch.
09:04
We managed to save the ozone layer from CFCs
168
544540
2545
Siamo riusciti a salvare lo strato di ozono dai CFC
09:07
with the help of the Montreal Protocol.
169
547126
2169
con l'aiuto del Protocollo di Montreal.
09:09
We managed to reduce the number of nuclear weapons on Earth
170
549337
2878
Siamo riusciti a ridurre il numero di armi nucleari sulla terra
09:12
by 80 percent,
171
552256
1210
dell′80%,
09:13
with the help of the Strategic Arms Reduction Treaty in 1991.
172
553466
3378
con l’aiuto del Trattato di Riduzione delle Armi Strategiche nel 1991.
09:17
So smart regulation may certainly help with AI too,
173
557428
4338
Quindi una regolamentazione intelligente può sicuramente aiutare anche con l’IA,
09:21
but ultimately,
174
561766
1335
ma alla fine
09:23
it's the players within the game who have the most influence on it.
175
563142
4004
sono i giocatori all’interno del gioco ad avere la maggiore influenza su di esso.
09:27
So we need AI leaders to show us
176
567814
2294
Abbiamo bisogno che i leader dell’IA ci dimostrino
09:30
that they're not only aware of the risks their technologies pose,
177
570108
3586
che non solo sono consapevoli dei rischi che le loro tecnologie comportano,
09:33
but also the destructive nature of the incentives
178
573736
3253
ma anche della natura distruttiva degli incentivi
09:37
that they're currently beholden to.
179
577031
1877
a cui sono attualmente legati.
09:39
As their technological capabilities reach towards the power of gods,
180
579617
3712
Man mano che le loro capacità tecnologiche raggiungono il potere degli dei,
09:43
they're going to need the godlike wisdom to know how to wield them.
181
583329
3712
avranno bisogno della saggezza divina per sapere come usarle.
09:47
So it doesn't fill me with encouragement
182
587917
2211
Quindi non mi conforta tanto
09:50
when I see a CEO of a very major company saying something like,
183
590169
4338
vedere l’amministratore delegato di un’azienda molto importante dire:
09:54
"I want people to know we made our competitor dance."
184
594507
2753
«Voglio che la gente sappia che abbiamo bruciato sul tempo la concorrenza».
09:57
That is not the type of mindset we need here.
185
597677
2669
Non è questo il tipo di mentalità di cui abbiamo bisogno.
10:00
We need leaders who are willing to flip Moloch's playbook,
186
600346
3629
Abbiamo bisogno di leader disposti a ribaltare le regole di Moloch,
10:04
who are willing to sacrifice their own individual chance of winning
187
604016
3671
disposti a sacrificare le proprie possibilità individuali di vittoria
10:07
for the good of the whole.
188
607687
1626
per il bene di tutti.
10:10
Now, fortunately, the three leading labs are showing some signs of doing this.
189
610148
4921
Fortunatamente, i tre laboratori principali
stanno mostrando alcuni segnali in tal senso.
10:15
Anthropic recently announced their responsible scaling policy,
190
615695
3086
Anthropic ha recentemente annunciato una politica di scalabilità responsabile,
10:18
which pledges to only increase capabilities
191
618823
2586
che si impegna ad aumentare le sue capacità
10:21
once certain security criteria have been met.
192
621409
2627
solo dopo aver soddisfatto determinati criteri di sicurezza.
10:24
OpenAI have recently pledged
193
624954
1418
OpenAI si è recentemente impegnata
10:26
to dedicate 20 percent of their compute purely to alignment research.
194
626414
3962
a dedicare il 20% delle proprie capacità di calcolo
soltanto per la ricerca sull’allineamento.
10:31
And DeepMind have shown a decade-long focus
195
631627
3087
Inoltre, DeepMind si concentra
10:34
of science ahead of commerce,
196
634714
2377
da un decennio sulla scienza più che sul commercio
10:37
like their development of AlphaFold,
197
637133
1752
con lo sviluppo di AlphaFold,
10:38
which they gave away to the science community for free.
198
638885
2627
che ha messo a disposizione gratuitamente per la comunità scientifica.
10:41
These are all steps in the right direction,
199
641846
2044
Sono tutti passi nella giusta direzione,
10:43
but they are still nowhere close to being enough.
200
643931
2836
ma non sono ancora lontanamente sufficienti.
10:46
I mean, most of these are currently just words,
201
646809
2586
Al momento queste sono per la maggior parte parole,
10:49
they're not even proven actions.
202
649437
2127
non sono azioni dimostrate.
10:52
So we need a clear way to turn the AI race into a definitive race to the top.
203
652023
6006
Quindi dobbiamo trovare un modo chiaro per trasformare la corsa all’IA
in una finale verso la vetta.
10:58
Perhaps companies can start competing over who can be within these metrics,
204
658779
5297
Forse le aziende possono iniziare a competere
su chi rientra in questi parametri
11:04
over who can develop the best security criteria.
205
664118
3128
e su chi saprà sviluppare i migliori criteri di sicurezza.
11:07
A race of who can dedicate the most compute to alignment.
206
667288
4004
Una corsa a chi sarà in grado di dedicare più risorse di calcolo all’allineamento.
11:11
Now that would truly flip the middle finger to Moloch.
207
671292
2669
Una cosa del genere mostrerebbe davvero il dito medio a Moloch.
11:14
Competition can be an amazing tool,
208
674587
3253
La concorrenza può essere uno strumento straordinario,
11:17
provided we wield it wisely.
209
677882
2085
a patto di usarla con saggezza.
11:20
And we're going to need to do that
210
680468
1668
E avremo bisogno di farlo
11:22
because the stakes we are playing for are astronomical.
211
682136
3170
perché la posta in gioco è astronomica.
11:25
If we get AI, and especially AGI, wrong,
212
685806
3421
Se sbagliamo l’IA, e soprattutto l’AGI,
11:29
it could lead to unimaginable catastrophe.
213
689268
2795
potremmo provocare una catastrofe inimmaginabile.
11:32
But if we get it right,
214
692980
1502
Ma se lo facciamo bene,
11:34
it could be our path out of many of these Moloch traps
215
694523
2837
potrebbe essere la nostra via d’uscita da molte di queste trappole Moloch
11:37
that I've mentioned today.
216
697401
1502
di cui ho parlato oggi.
11:40
And as things get crazier over the coming years,
217
700446
3045
E man mano che le cose peggioreranno nei prossimi anni,
11:43
which they're probably going to,
218
703532
1836
cosa che probabilmente accadrà,
11:45
it's going to be more important than ever
219
705368
2002
sarà più importante che mai
11:47
that we remember that it is the real enemy here, Moloch.
220
707370
4296
ricordare che è lui il vero nemico, Moloch.
11:52
Not any individual CEO or company, and certainly not one another.
221
712208
4379
Non un amministratore delegato o un’azienda, e certamente non noi stessi.
11:57
So don't hate the players,
222
717255
1751
Quindi non odiate i giocatori,
11:59
change the game.
223
719006
1293
cambiate il gioco.
12:01
(Applause)
224
721509
1126
(Applausi)
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7