Will Superintelligent AI End the World? | Eliezer Yudkowsky | TED

297,332 views

2023-07-11 ・ TED


New videos

Will Superintelligent AI End the World? | Eliezer Yudkowsky | TED

297,332 views ・ 2023-07-11

TED


Fare doppio clic sui sottotitoli in inglese per riprodurre il video.

Traduttore: Francesca Molinari Revisore: Gabriella Patricola
00:04
Since 2001, I have been working on what we would now call
0
4334
3503
Dal 2011 mi occupo di quello che chiameremmo
00:07
the problem of aligning artificial general intelligence:
1
7879
3629
“il problema dell’allineamento dell’intelligenza artificiale generale”:
00:11
how to shape the preferences and behavior
2
11550
2085
come modellare gli orientamenti e il comportamento
00:13
of a powerful artificial mind such that it does not kill everyone.
3
13677
4838
di una mente artificiale potente in modo che non uccida tutti.
00:19
I more or less founded the field two decades ago,
4
19224
3128
Potrei dire di aver fondato questo campo 20 anni fa,
00:22
when nobody else considered it rewarding enough to work on.
5
22352
2794
quando nessuno pensava valesse la pena lavorarci.
00:25
I tried to get this very important project started early
6
25146
2711
Provai ad avviare subito questo progetto importantissimo
00:27
so we'd be in less of a drastic rush later.
7
27899
2544
così da non ritrovarci poi con l’acqua alla gola.
00:31
I consider myself to have failed.
8
31069
2044
Credo di aver fallito.
00:33
(Laughter)
9
33154
1001
(Risate)
00:34
Nobody understands how modern AI systems do what they do.
10
34197
3337
Nessuno sa come funzionano i moderni sistemi di IA.
00:37
They are giant, inscrutable matrices of floating point numbers
11
37576
2961
Sono enormi e imperscrutabili matrici di numeri in virgola mobile
00:40
that we nudge in the direction of better performance
12
40579
2460
delle quali miglioriamo le prestazioni
finché non iniziano inspiegabilmente a funzionare.
00:43
until they inexplicably start working.
13
43039
2044
00:45
At some point, the companies rushing headlong to scale AI
14
45083
3378
Prima o poi, le aziende che si sono buttate a capofitto sulla IA
00:48
will cough out something that's smarter than humanity.
15
48461
2670
produrranno qualcosa che è più intelligente dell’umanità.
00:51
Nobody knows how to calculate when that will happen.
16
51131
2544
Nessuno può prevedere quando accadrà.
00:53
My wild guess is that it will happen after zero to two more breakthroughs
17
53675
3712
Posso azzardare che avverrà tra zero e due svolte fondamentali
00:57
the size of transformers.
18
57429
1710
nella dimensione dei trasformatori.
00:59
What happens if we build something smarter than us
19
59139
2335
E se costruissimo qualcosa più intelligente di noi
01:01
that we understand that poorly?
20
61516
2377
e che a malapena capiamo?
01:03
Some people find it obvious that building something smarter than us
21
63935
3170
Per qualcuno è ovvio che non sia saggio creare qualcosa più intelligente di noi.
01:07
that we don't understand might go badly.
22
67105
2294
01:09
Others come in with a very wide range of hopeful thoughts
23
69441
3879
Altri invece propongono un’ampia gamma di prospettive ottimistiche
01:13
about how it might possibly go well.
24
73361
2044
su come potrebbe andare tutto liscio.
01:16
Even if I had 20 minutes for this talk and months to prepare it,
25
76281
3337
Anche se avessi avuto mesi per preparare questo discorso di 20 minuti,
01:19
I would not be able to refute all the ways people find to imagine
26
79659
3087
non potrei confutare ogni congettura ottimistica sugli eventi futuri.
01:22
that things might go well.
27
82746
1710
01:24
But I will say that there is no standard scientific consensus
28
84456
4546
Ma vi dico che non c’è alcun consenso scientifico
01:29
for how things will go well.
29
89044
1668
per come andranno le cose.
01:30
There is no hope that has been widely persuasive
30
90712
2252
Non esiste un pensiero ottimista comune
01:33
and stood up to skeptical examination.
31
93006
1877
che resista ad un’analisi critica.
01:35
There is nothing resembling a real engineering plan for us surviving
32
95592
4421
Non esiste la parvenza di un piano ingegneristico di sopravvivenza
01:40
that I could critique.
33
100013
1710
che io possa analizzare.
01:41
This is not a good place in which to find ourselves.
34
101765
2752
Non è un bello scenario.
01:44
If I had more time,
35
104517
1210
Se avessi più tempo, vi parlerei delle cause prevedibili
01:45
I'd try to tell you about the predictable reasons
36
105727
2294
per le quali l’attuale paradigma non produrrà
01:48
why the current paradigm will not work
37
108063
1960
01:50
to build a superintelligence that likes you
38
110065
2460
una superintelligenza a cui piacerete,
01:52
or is friends with you, or that just follows orders.
39
112567
3378
che vi sarà amica o che eseguirà gli ordini.
01:56
Why, if you press "thumbs up" when humans think that things went right
40
116613
4379
Se fate “pollice in su” quando gli umani pensano che vada tutto bene
02:01
or "thumbs down" when another AI system thinks that they went wrong,
41
121034
3712
o “pollice in giù” quando un’altra IA pensa che vada tutto male,
02:04
you do not get a mind that wants nice things
42
124788
3503
non ottenete una mente che vuole belle cose
02:08
in a way that generalizes well outside the training distribution
43
128291
4004
in un modo che generalizza ben al di fuori della distribuzione di formazione
02:12
to where the AI is smarter than the trainers.
44
132337
2461
dove l’IA è più intelligente degli addestratori.
02:15
You can search for "Yudkowsky list of lethalities" for more.
45
135674
5130
Potete cercare “liste di cose letali di Yudkowsky” per saperne di più.
02:20
(Laughter)
46
140804
1793
(Risate)
02:22
But to worry, you do not need to believe me
47
142597
2169
Ma per preoccuparvi,
non avete bisogno di credermi riguardo a previsioni esatte di disastri.
02:24
about exact predictions of exact disasters.
48
144808
2878
02:27
You just need to expect that things are not going to work great
49
147727
2962
Dovete solo aspettarvi che le cose non funzionino bene
02:30
on the first really serious, really critical try
50
150730
3045
al primo e veramente serio e veramente critico tentativo,
02:33
because an AI system smart enough to be truly dangerous
51
153817
3503
perché un sistema IA intelligente abbastanza da essere veramente pericoloso
02:37
was meaningfully different from AI systems stupider than that.
52
157362
3503
era significativamente diverso da sistemi di IA più stupidi di così.
02:40
My prediction is that this ends up with us facing down something smarter than us
53
160907
5005
La mia previsione è che dovremo affrontare qualcosa più intelligente di noi
02:45
that does not want what we want,
54
165954
1752
che non vuole ciò che noi vogliamo,
02:47
that does not want anything we recognize as valuable or meaningful.
55
167706
4170
che non vuole niente di ciò che per noi ha valore o significato.
02:52
I cannot predict exactly how a conflict between humanity and a smarter AI would go
56
172252
4588
Non posso prevedere esattamente come sarà un conflitto fra l’umanità e l’IA
02:56
for the same reason I can't predict exactly how you would lose a chess game
57
176881
3838
così come non posso prevedere come perdereste una partita di scacchi
03:00
to one of the current top AI chess programs, let's say Stockfish.
58
180760
3671
contro uno dei migliori programmi di scacchi del momento, come Stockfish.
03:04
If I could predict exactly where Stockfish could move,
59
184973
3545
Se potessi prevedere esattamente dove Stockfish farà la sua mossa,
03:08
I could play chess that well myself.
60
188560
2544
io stesso potrei giocare così bene a scacchi.
03:11
I can't predict exactly how you'll lose to Stockfish,
61
191146
2502
Non posso prevedere come perderete contro Stockfish,
03:13
but I can predict who wins the game.
62
193648
2044
ma posso prevedere chi vincerà la partita.
03:16
I do not expect something actually smart to attack us with marching robot armies
63
196401
4421
Non credo che un’intelligenza ci attaccherà con un esercito di robot
03:20
with glowing red eyes
64
200864
1543
con gli occhi rossi e luminosi,
03:22
where there could be a fun movie about us fighting them.
65
202407
3086
ma potrebbe esserci un film carino sul nostro scontro con loro.
03:25
I expect an actually smarter and uncaring entity
66
205535
2502
Mi aspetto un’entità davvero più intelligente e cinica
03:28
will figure out strategies and technologies
67
208079
2002
che troverà strategie e tecnologie
03:30
that can kill us quickly and reliably and then kill us.
68
210123
3545
che ci potranno uccidere velocemente.
03:34
I am not saying that the problem of aligning superintelligence
69
214461
2919
Non dico che il problema di allineare la superintelligenza
03:37
is unsolvable in principle.
70
217422
1710
sia irrisolvibile in principio.
03:39
I expect we could figure it out with unlimited time and unlimited retries,
71
219174
4879
Credo che potremmo scoprirlo con tempo illimitato e tentativi illimitati,
03:44
which the usual process of science assumes that we have.
72
224095
3796
cosa che il solito processo scientifico dà per scontato di avere.
03:48
The problem here is the part where we don't get to say,
73
228308
2836
Il problema qui è che non possiamo dire,
03:51
“Ha ha, whoops, that sure didn’t work.
74
231186
2294
“Ha ha, ops, questo di certo non ha funzionato.
03:53
That clever idea that used to work on earlier systems
75
233521
3837
Quella bella idea che una volta funzionava sui primi sistemi
03:57
sure broke down when the AI got smarter, smarter than us.”
76
237358
3504
ha smesso di funzionare quando l’IA è diventata più intelligente di noi.”
04:01
We do not get to learn from our mistakes and try again
77
241571
2544
Non possiamo imparare dai nostri sbagli e riprovare
04:04
because everyone is already dead.
78
244157
1960
perché saremmo già tutti morti.
04:07
It is a large ask
79
247076
2586
é davvero difficile
04:09
to get an unprecedented scientific and engineering challenge
80
249704
3003
azzeccare una sfida scientifica e di ingegneria senza precedenti
04:12
correct on the first critical try.
81
252707
2002
al primo, cruciale tentativo.
04:15
Humanity is not approaching this issue with remotely
82
255084
3045
L’umanità non sta affrontando il problema neanche lontanamente
04:18
the level of seriousness that would be required.
83
258171
2711
con il livello di serietà che dovrebbe avere.
04:20
Some of the people leading these efforts
84
260924
1918
Alcune delle persone impegnate in questo
04:22
have spent the last decade not denying
85
262884
2502
hanno passato l’ultimo decennio senza negare
04:25
that creating a superintelligence might kill everyone,
86
265386
2920
che creare una superintelligenza potrebbe uccidere tutti,
04:28
but joking about it.
87
268306
1376
ma ci hanno scherzato.
04:30
We are very far behind.
88
270183
1877
Siamo molto indietro.
04:32
This is not a gap we can overcome in six months,
89
272101
2294
Non è un divario che si può colmare in sei mesi,
04:34
given a six-month moratorium.
90
274437
1919
con una sospensione di sei mesi.
04:36
If we actually try to do this in real life,
91
276689
2503
Se provassimo a farlo nella vita reale,
04:39
we are all going to die.
92
279234
1668
moriremmo tutti.
04:41
People say to me at this point, what's your ask?
93
281402
2586
A questo punto la gente mi chiede, cosa proponi?
04:44
I do not have any realistic plan,
94
284697
1627
Non ho un piano realistico,
04:46
which is why I spent the last two decades
95
286324
1960
e infatti ho passato gli ultimi vent’anni
04:48
trying and failing to end up anywhere but here.
96
288326
2586
provando e fallendo per non arrivare a questo punto.
04:51
My best bad take is that we need an international coalition
97
291913
3670
La mia migliore interpretazione è che serve una coalizione internazionale
04:55
banning large AI training runs,
98
295625
2252
che vieti i grandi test di IA,
04:57
including extreme and extraordinary measures
99
297877
3379
includendo misure estreme e straordinarie,
05:01
to have that ban be actually and universally effective,
100
301256
3253
in modo che quel divieto sia veramente efficace e universale,
05:04
like tracking all GPU sales,
101
304509
2377
ad esempio, tracciare tutte le vendite di GPU,
05:06
monitoring all the data centers,
102
306928
2127
monitorare tutti i centri elaborazione dati,
05:09
being willing to risk a shooting conflict between nations
103
309055
2711
essere pronti a rischiare un conflitto armato fra nazioni
05:11
in order to destroy an unmonitored data center
104
311808
2711
per eliminare un centro elaborazione dati non monitorato
05:14
in a non-signatory country.
105
314561
1793
in un paese non firmatario.
05:17
I say this, not expecting that to actually happen.
106
317480
3170
Lo dico senza aspettative che questo accada.
05:21
I say this expecting that we all just die.
107
321109
2919
Lo dico aspettandomi che moriremo tutti.
05:24
But it is not my place to just decide on my own
108
324779
3295
Ma non sta a me a decidere da solo
05:28
that humanity will choose to die,
109
328074
2211
che l’umanità scelga di morire,
05:30
to the point of not bothering to warn anyone.
110
330326
2461
al punto da non preoccuparmi di avvertire nessuno.
05:33
I have heard that people outside the tech industry
111
333204
2336
So che persone esterne all’industria tecnologica
05:35
are getting this point faster than people inside it.
112
335582
2627
ci stanno arrivando prima di quelle del settore.
05:38
Maybe humanity wakes up one morning and decides to live.
113
338251
3712
Forse una mattina l’umanità si sveglierà e deciderà che vuole vivere.
05:43
Thank you for coming to my brief TED talk.
114
343006
2043
Grazie per essere al mio breve TED talk.
05:45
(Laughter)
115
345049
1585
(Risate)
05:46
(Applause and cheers)
116
346676
6965
(Applausi e acclamazioni)
05:56
Chris Anderson: So, Eliezer, thank you for coming and giving that.
117
356102
4421
Chris Anderson: Dunque, Eliezer, grazie a te per la presentazione.
06:00
It seems like what you're raising the alarm about is that like,
118
360523
3962
Sembra che quello che ti preoccupa,
06:04
for this to happen, for an AI to basically destroy humanity,
119
364527
3962
perché accada ciò, perché l’IA uccida l’umanità,
06:08
it has to break out, escape controls of the internet and, you know,
120
368489
5172
l’IA dovrebbe evadere, sfuggire ai controlli di internet e
06:13
start commanding actual real-world resources.
121
373661
2920
cominciare a controllare delle risorse del mondo reale.
06:16
You say you can't predict how that will happen,
122
376581
2210
Dici di non poter predire come accadrà,
06:18
but just paint one or two possibilities.
123
378833
3462
ma dacci una o due possibilità.
06:22
Eliezer Yudkowsky: OK, so why is this hard?
124
382337
2794
Eliezer Yudkowsky: Ok, perché è così difficile?
06:25
First, because you can't predict exactly where a smarter chess program will move.
125
385131
3837
Primo, non si può predire quando un programma di scacchi farà una mossa.
06:28
Maybe even more importantly than that,
126
388968
1877
Forse ancora più importante di ciò,
06:30
imagine sending the design for an air conditioner
127
390887
2794
immaginate di mandare il design di un condizionatore
06:33
back to the 11th century.
128
393723
1877
nell′XI secolo.
06:35
Even if they -- if it’s enough detail for them to build it,
129
395642
3128
Anche se avessero abbastanza dettagli per costruirlo,
06:38
they will be surprised when cold air comes out
130
398811
2753
sarebbero sorpresi dell’aria fredda che esce
06:41
because the air conditioner will use the temperature-pressure relation
131
401564
3670
perché il condizionatore usa la relazione temperatura-pressione
06:45
and they don't know about that law of nature.
132
405276
2461
e non conoscono questa legge della natura.
06:47
So if you want me to sketch what a superintelligence might do,
133
407779
4629
Così se volete che descriva cosa potrebbe fare una superintelligenza,
06:52
I can go deeper and deeper into places
134
412450
2336
posso andare più a fondo, in posti
06:54
where we think there are predictable technological advancements
135
414827
2962
dove pensiamo che ci siano avanzamenti tecnologici prevedibili
06:57
that we haven't figured out yet.
136
417789
1626
che non abbiamo ancora capito.
06:59
And as I go deeper, it will get harder and harder to follow.
137
419415
2836
E approfondendo, sarà sempre più difficile da seguire.
07:02
It could be super persuasive.
138
422251
1961
Potrebbe essere super persuasiva.
07:04
That's relatively easy to understand.
139
424253
1877
Ciò è relativamente facile da capire.
07:06
We do not understand exactly how the brain works,
140
426130
2545
Non capiamo esattamente come funziona il cervello,
07:08
so it's a great place to exploit laws of nature that we do not know about.
141
428716
3504
quindi è perfetto per sfruttare le leggi della natura che non conosciamo.
07:12
Rules of the environment,
142
432261
1502
Le leggi dell’ambiente,
07:13
invent new technologies beyond that.
143
433805
2669
vanno oltre e inventano nuove tecnologie.
07:16
Can you build a synthetic virus that gives humans a cold
144
436808
3879
È possibile costruire un virus sintetico che dia agli umani un raffreddore
07:20
and then a bit of neurological change and they're easier to persuade?
145
440728
4213
e un po’ di cambiamento neurologico, così che sia più facile persuaderli?
07:24
Can you build your own synthetic biology,
146
444941
3336
Si può costruire una propria biologia sintetica,
07:28
synthetic cyborgs?
147
448319
1585
dei cyborg sintetici?
07:29
Can you blow straight past that
148
449946
2044
Si può andare oltre,
07:31
to covalently bonded equivalents of biology,
149
451990
4004
fino a equivalenti della biologia uniti in modo covalente,
07:36
where instead of proteins that fold up and are held together by static cling,
150
456035
3754
dove invece di proteine ripiegate e tenute insieme da pellicola sintetica,
07:39
you've got things that go down much sharper potential energy gradients
151
459789
3378
ci sono cose che scendono da gradienti di energia, in teoria più netti
07:43
and are bonded together?
152
463209
1376
e che sono uniti insieme?
07:44
People have done advanced design work about this sort of thing
153
464585
3546
Sono stati fatti studi su questo tipo di cose
07:48
for artificial red blood cells that could hold 100 times as much oxygen
154
468172
3879
su cellule ematiche che potrebbero contenere ossigeno 100 volte di più
07:52
if they were using tiny sapphire vessels to store the oxygen.
155
472093
3754
se usassero piccoli vasi per immagazzinare l’ossigeno.
07:55
There's lots and lots of room above biology,
156
475888
2586
C’è molto spazio sulla biologia,
07:58
but it gets harder and harder to understand.
157
478474
2211
ma è sempre più difficile da capire.
08:01
CA: So what I hear you saying
158
481519
1543
CA: quindi quello che dici
08:03
is that these terrifying possibilities there
159
483104
2294
è che ci sono possibilità terrificanti,
08:05
but your real guess is that AIs will work out something more devious than that.
160
485440
5130
ma pensi che le intelligenze artificiali inventeranno qualcosa di peggiore.
08:10
Is that really a likely pathway in your mind?
161
490570
3837
È una possibilità che consideri?
08:14
EY: Which part?
162
494407
1168
EY: Quale parte?
08:15
That they're smarter than I am? Absolutely.
163
495616
2002
Che sono più intelligenti di me? Certo!
08:17
CA: Not that they're smarter,
164
497660
1418
CA: Non che siano più intelligenti
08:19
but why would they want to go in that direction?
165
499078
3045
ma perché vorrebbero andare in quella direzione?
08:22
Like, AIs don't have our feelings of sort of envy and jealousy and anger
166
502123
5422
Le IA non hanno i nostri sentimenti come invidia, gelosia e rabbia
08:27
and so forth.
167
507587
1168
eccetera.
08:28
So why might they go in that direction?
168
508755
2460
Quindi perché dovrebbero andare in quella direzione?
08:31
EY: Because it's convergently implied by almost any of the strange,
169
511215
4296
EY: Perché è reso sempre più implicito da quasi tutte le strane
08:35
inscrutable things that they might end up wanting
170
515511
3379
inscrutabili cose che potrebbero finire con il voler avere
08:38
as a result of gradient descent
171
518931
1710
come risultato di discesa graduale
08:40
on these "thumbs up" and "thumbs down" things internally.
172
520683
2711
su questi “pollici in su” e “pollici in giù” interni.
08:44
If all you want is to make tiny little molecular squiggles
173
524604
3920
Se tutto quello che volete fare sono piccoli scarabocchi molecolari
08:48
or that's like, one component of what you want,
174
528566
2461
o che sia un componente di ciò che volete,
08:51
but it's a component that never saturates, you just want more and more of it,
175
531069
3628
ma è un componente che non si satura mai, ne volete sempre di più,
08:54
the same way that we would want more and more galaxies filled with life
176
534697
3337
nello stesso modo in cui vorremmo sempre più galassie piene di vita
08:58
and people living happily ever after.
177
538034
1793
e gente che vive felice e contenta.
08:59
Anything that just keeps going,
178
539869
1627
Qualsiasi cosa che progredisce,
09:01
you just want to use more and more material for that,
179
541537
3045
volete usare solo sempre più materiale per quella cosa,
09:04
that could kill everyone on Earth as a side effect.
180
544624
2669
che può uccidere tutti come effetto collaterale.
09:07
It could kill us because it doesn't want us making other superintelligences
181
547293
3545
Ci potrebbe uccidere perché non vuole che creiamo altre super intelligenze
09:10
to compete with it.
182
550880
1168
con cui competere.
09:12
It could kill us because it's using up all the chemical energy on earth
183
552048
4379
Potrebbe ucciderci perché sta usando tutta l’energia chimica del pianeta
09:16
and we contain some chemical potential energy.
184
556469
2586
e noi conteniamo dell’energia potenziale chimica.
09:19
CA: So some people in the AI world worry that your views are strong enough
185
559055
6256
CA: Alcuni nel mondo dell’IA temono che tu abbia delle opinioni forti
09:25
and they would say extreme enough
186
565311
1585
e direbbero estreme abbastanza
09:26
that you're willing to advocate extreme responses to it.
187
566896
3170
che vuoi esortare delle reazioni estreme.
09:30
And therefore, they worry that you could be, you know,
188
570066
3462
E quindi, si preoccupano che potresti essere, diciamo,
09:33
in one sense, a very destructive figure.
189
573528
1918
in un certo senso, una figura distruttiva.
09:35
Do you draw the line yourself in terms of the measures
190
575488
3170
Tu hai definito un limite in termini di misure
09:38
that we should take to stop this happening?
191
578699
2753
che dovremmo adottare per evitare che ciò avvenga?
09:41
Or is actually anything justifiable to stop
192
581494
3253
Oppure tutto è giustificabile per evitare
09:44
the scenarios you're talking about happening?
193
584747
2211
gli scenari che hai descritto?
09:47
EY: I don't think that "anything" works.
194
587834
3253
EY: Non credo che “tutto” possa funzionare.
09:51
I think that this takes state actors
195
591087
4379
Credo che ci vogliano attori a livello statale
09:55
and international agreements
196
595508
2753
e accordi internazionali
09:58
and all international agreements by their nature,
197
598302
3254
e tutti gli accordi nazionali, per natura,
10:01
tend to ultimately be backed by force
198
601556
1876
tendono ad essere imposti con la forza
10:03
on the signatory countries and on the non-signatory countries,
199
603474
3379
sui paesi firmatari e non firmatari,
10:06
which is a more extreme measure.
200
606894
1794
il che è una misura ancora più estrema.
10:09
I have not proposed that individuals run out and use violence,
201
609856
2961
Non ho suggerito che la gente esca e usi la violenza,
10:12
and I think that the killer argument for that is that it would not work.
202
612859
4337
e il punto è che non funzionerebbe.
10:18
CA: Well, you are definitely not the only person to propose
203
618489
2961
CA: Beh, non sei l’unico a suggerire
10:21
that what we need is some kind of international reckoning here
204
621450
4004
che abbiamo bisogno di tener conto a livello internazionale
10:25
on how to manage this going forward.
205
625496
2044
di come la gestiremo in futuro.
10:27
Thank you so much for coming here to TED, Eliezer.
206
627540
2419
Grazie di aver partecipato a TED, Eliezer.
10:30
(Applause)
207
630001
2085
(Applausi)
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7