What Is an AI Anyway? | Mustafa Suleyman | TED

1,902,222 views ・ 2024-04-22

TED


Fare doppio clic sui sottotitoli in inglese per riprodurre il video.

Traduttore: Matteo Casarin Revisore: Maria Pericleous
00:04
I want to tell you what I see coming.
0
4292
2586
MUSTAFA SULEYMAN: Vorrei raccontarvi cosa ci attende.
00:07
I've been lucky enough to be working on AI for almost 15 years now.
1
7712
4463
Ho la fortuna di lavorare nel campo dell’IA da quasi 15 anni.
00:12
Back when I started, to describe it as fringe would be an understatement.
2
12676
5088
Quando ho iniziato, definirlo “di nicchia” era un eufemismo.
00:17
Researchers would say, “No, no, we’re only working on machine learning.”
3
17806
4045
I ricercatori dicevano: «No, stiamo solo lavorando sul machine learning»
00:21
Because working on AI was seen as way too out there.
4
21893
3087
perché lavorare sull’IA era una cosa da eccentrici.
00:25
In 2010, just the very mention of the phrase “AGI,”
5
25021
4380
Nel 2010, solo menzionare il termine “AGI”
00:29
artificial general intelligence,
6
29401
2169
– intelligenza artificiale generale –
00:31
would get you some seriously strange looks
7
31570
2877
suscitava sguardi perplessi e persino di sufficienza.
00:34
and even a cold shoulder.
8
34489
1585
00:36
"You're actually building AGI?" people would say.
9
36366
3837
Ci avrebbero chiesto «State davvero creando un’AGI?»
00:40
"Isn't that something out of science fiction?"
10
40203
2294
«Non è roba da fantascienza?»
00:42
People thought it was 50 years away or 100 years away,
11
42914
2544
Si pensava che mancassero ancora 50 o 100 anni, ammesso che fosse possibile.
00:45
if it was even possible at all.
12
45500
1919
00:47
Talk of AI was, I guess, kind of embarrassing.
13
47752
3337
Immagino che parlare di IA generasse imbarazzo.
00:51
People generally thought we were weird.
14
51631
2211
Ci consideravano gente stramba.
00:54
And I guess in some ways we kind of were.
15
54217
2503
E immagino che un po’ lo fossimo.
00:56
It wasn't long, though, before AI started beating humans
16
56761
2878
Ma, poco tempo dopo, l’IA iniziò a battere gli umani
00:59
at a whole range of tasks
17
59681
1793
in tutta una serie di compiti
01:01
that people previously thought were way out of reach.
18
61516
2795
che in precedenza erano considerati fuori portata.
Interpretare le immagini,
01:05
Understanding images,
19
65020
2127
01:07
translating languages,
20
67147
1918
tradurre le lingue, trascrivere il parlato,
01:09
transcribing speech,
21
69065
1585
01:10
playing Go and chess
22
70692
2127
giocare a Go e a scacchi
01:12
and even diagnosing diseases.
23
72861
1918
e persino diagnosticare malattie.
01:15
People started waking up to the fact
24
75905
1752
Le persone iniziarono ad intuire l’enorme impatto che avrebbe avuto l’IA
01:17
that AI was going to have an enormous impact,
25
77657
3462
01:21
and they were rightly asking technologists like me
26
81119
2836
e comprensibilmente ponevano domande scomode ai tecnologi come me.
01:23
some pretty tough questions.
27
83955
1752
01:25
Is it true that AI is going to solve the climate crisis?
28
85749
3044
«È vero che l’IA risolverà la crisi climatica?»
01:29
Will it make personalized education available to everyone?
29
89127
3337
«Permetterà a tutti di accedere ad un’istruzione personalizzata?»
01:32
Does it mean we'll all get universal basic income
30
92881
2294
«Avremo il reddito universale e non dovremo più lavorare?»
01:35
and we won't have to work anymore?
31
95216
2002
01:37
Should I be afraid?
32
97218
1544
«È il caso di preoccuparsi?»
01:38
What does it mean for weapons and war?
33
98762
2335
«Che conseguenze avrà sulle guerre e le armi?»
01:41
And of course, will China win?
34
101598
1460
E ovviamente: «Vincerà la Cina? C’è una corsa?»
01:43
Are we in a race?
35
103058
1543
01:45
Are we headed for a mass misinformation apocalypse?
36
105518
3212
«Avverrà un’apocalisse di disinformazione di massa?»
01:49
All good questions.
37
109147
1668
Sono tutte ottime domande.
01:51
But it was actually a simpler
38
111608
1418
Ma fu una domanda più semplice e molto più basilare
01:53
and much more kind of fundamental question that left me puzzled.
39
113026
4046
a lasciarmi perplesso.
Una domanda diretta al cuore del mio lavoro quotidiano.
01:58
One that actually gets to the very heart of my work every day.
40
118031
3962
02:03
One morning over breakfast,
41
123620
2044
Una mattina, durante la colazione,
02:05
my six-year-old nephew Caspian was playing with Pi,
42
125705
3379
mio nipote Caspian, di sei anni, stava giocando con Pi,
02:09
the AI I created at my last company, Inflection.
43
129084
3378
l’IA che avevo creato nella mia ultima azienda, Inflection.
02:12
With a mouthful of scrambled eggs,
44
132504
1877
Con la bocca piena di uova strapazzate,
02:14
he looked at me plain in the face and said,
45
134381
3503
mi guardò dritto in faccia e mi chiese:
02:17
"But Mustafa, what is an AI anyway?"
46
137926
3295
«Mustafa, ma cos’è un’IA?»
02:21
He's such a sincere and curious and optimistic little guy.
47
141930
3545
È un ragazzino sincero, curioso e ottimista.
02:25
He'd been talking to Pi about how cool it would be if one day in the future,
48
145517
4254
Stava parlando con Pi di quanto sarebbe bello un futuro
02:29
he could visit dinosaurs at the zoo.
49
149771
2377
con i dinosauri negli zoo.
02:32
And how he could make infinite amounts of chocolate at home.
50
152190
3795
E di come avrebbe preparato da solo un mare di cioccolata.
02:35
And why Pi couldn’t yet play I Spy.
51
155985
2920
E del perché Pi non poteva ancora giocare a “io vedo”.
02:39
"Well," I said, "it's a clever piece of software
52
159823
2252
Gli dissi: «Beh, è un software intelligente
02:42
that's read most of the text on the open internet,
53
162075
2461
che legge i testi disponibili su internet
02:44
and it can talk to you about anything you want."
54
164577
2419
e può parlarti di tutto ciò che vuoi.»
02:48
"Right.
55
168540
1168
«Capito! Proprio come una persona?»
02:49
So like a person then?"
56
169749
2127
02:54
I was stumped.
57
174254
1334
Non sapevo cosa dire.
02:56
Genuinely left scratching my head.
58
176798
2502
Ero completamente nel pallone.
03:00
All my boring stock answers came rushing through my mind.
59
180301
4046
Mi passarono per la testa le classiche risposte aziendali.
03:04
"No, but AI is just another general-purpose technology,
60
184723
2585
«No, l’IA è solo un’altra tecnologia general purpose,
03:07
like printing or steam."
61
187308
1710
come la stampa o il vapore.»
03:09
It will be a tool that will augment us
62
189394
2502
«Sarà uno strumento che ci accrescerà,
03:11
and make us smarter and more productive.
63
191938
2377
e che ci renderà più intelligenti e produttivi.»
03:14
And when it gets better over time,
64
194649
1960
«E migliorando nel corso del tempo, sarà come un oracolo onnisciente
03:16
it'll be like an all-knowing oracle
65
196651
1919
03:18
that will help us solve grand scientific challenges."
66
198611
3087
che ci aiuterà a risolvere grandi sfide scientifiche.»
03:22
You know, all of these responses started to feel, I guess,
67
202115
3712
Sapete, tutte queste risposte iniziarono a farmi sentire…
03:25
a little bit defensive.
68
205869
1418
un po’ sulla difensiva.
03:28
And actually better suited to a policy seminar
69
208246
2211
E più preparato ai seminari politici
03:30
than breakfast with a no-nonsense six-year-old.
70
210457
2627
che ad una colazione con un pragmatico seienne.
03:33
"Why am I hesitating?" I thought to myself.
71
213126
3086
«Perché esito?» pensai tra me e me.
03:37
You know, let's be honest.
72
217839
1960
Siamo onesti.
03:39
My nephew was asking me a simple question
73
219799
3253
Mio nipote mi stava ponendo una semplice domanda
03:43
that those of us in AI just don't confront often enough.
74
223052
3796
che noi dell’IA tendiamo a trascurare.
03:48
What is it that we are actually creating?
75
228099
2920
Cosa stiamo creando davvero?
03:51
What does it mean to make something totally new,
76
231895
3753
Cosa significa creare qualcosa di totalmente nuovo,
03:55
fundamentally different to any invention that we have known before?
77
235648
4255
di fondamentalmente diverso da qualsiasi invenzione del passato?
04:00
It is clear that we are at an inflection point
78
240695
2795
È chiaro che siamo ad un punto di flesso
04:03
in the history of humanity.
79
243490
1793
nella storia dell'umanità.
04:06
On our current trajectory,
80
246493
1918
La traiettoria attuale ci sta conducendo verso la comparsa
04:08
we're headed towards the emergence of something
81
248411
2211
di qualcosa che fatichiamo a descrivere.
04:10
that we are all struggling to describe,
82
250663
3170
04:13
and yet we cannot control what we don't understand.
83
253875
4630
Eppure non possiamo controllare ciò che non comprendiamo.
04:19
And so the metaphors,
84
259631
1585
Quindi le metafore, i modelli mentali, i nomi
04:21
the mental models,
85
261216
1251
04:22
the names, these all matter
86
262509
2585
sono importanti se vogliamo sfruttare al meglio l’IA
04:25
if we’re to get the most out of AI whilst limiting its potential downsides.
87
265094
4088
limitandone al contempo i potenziali svantaggi.
04:30
As someone who embraces the possibilities of this technology,
88
270391
3421
Essendo una persona che abbraccia le possibilità di questa tecnologia
04:33
but who's also always cared deeply about its ethics,
89
273812
3670
ma che ha sempre dato importanza agli aspetti etici,
04:37
we should, I think,
90
277524
1293
credo che dovremmo imparare a descrivere facilmente ciò che stiamo creando.
04:38
be able to easily describe what it is we are building.
91
278817
3044
04:41
And that includes the six-year-olds.
92
281861
2002
Anche ai bambini di sei anni.
04:44
So it's in that spirit that I offer up today the following metaphor
93
284239
4254
Ed è con questo spirito che oggi vi propongo una metafora
04:48
for helping us to try to grapple with what this moment really is.
94
288535
3461
che dovrebbe aiutarci a decifrare questo momento.
04:52
I think AI should best be understood
95
292539
2627
Penso che l’IA possa essere assimilabile
04:55
as something like a new digital species.
96
295166
4254
ad una sorta di nuova specie digitale.
05:00
Now, don't take this too literally,
97
300296
2253
Non prendetemi troppo alla lettera,
05:02
but I predict that we'll come to see them as digital companions,
98
302590
4630
ma prevedo che finiremo per considerarle delle companion digitali,
05:07
new partners in the journeys of all our lives.
99
307220
3295
delle nuove compagne di viaggio nelle nostre vite.
05:10
Whether you think we’re on a 10-, 20- or 30-year path here,
100
310557
4087
Potrebbero volerci ancora dieci, venti o trent’anni,
05:14
this is, in my view, the most accurate and most fundamentally honest way
101
314686
5005
ma credo che questo sia il modo più veritiero e trasparente
05:19
of describing what's actually coming.
102
319732
2378
per descrivere ciò che ci attende.
05:22
And above all, it enables everybody to prepare for
103
322610
3963
E, soprattutto, consente a tutti di arrivare preparati
05:26
and shape what comes next.
104
326614
2711
e di plasmare ciò che verrà dopo.
05:29
Now I totally get, this is a strong claim,
105
329868
2002
Capisco che è un’affermazione forte,
05:31
and I'm going to explain to everyone as best I can why I'm making it.
106
331911
3837
e cercherò di motivarla nel miglior modo possibile,
05:36
But first, let me just try to set the context.
107
336291
2961
ma prima lasciate che provi a definire il contesto.
05:39
From the very first microscopic organisms,
108
339252
2753
I primissimi organismi microscopici
05:42
life on Earth stretches back billions of years.
109
342046
3462
fanno risalire la vita sulla Terra a miliardi di anni fa.
05:45
Over that time, life evolved and diversified.
110
345508
4213
Nel corso del tempo la vita si è evoluta e diversificata.
05:49
Then a few million years ago, something began to shift.
111
349762
3796
Poi, alcuni milioni di anni fa, avvenne un cambiamento.
05:54
After countless cycles of growth and adaptation,
112
354183
3629
Dopo innumerevoli cicli di crescita e adattamento,
05:57
one of life’s branches began using tools, and that branch grew into us.
113
357812
6256
uno dei rami della vita iniziò ad usare gli strumenti,
e da quel ramo nascemmo noi.
06:04
We went on to produce a mesmerizing variety of tools,
114
364777
4130
Da allora abbiamo prodotto un’incredibile varietà di strumenti,
06:08
at first slowly and then with astonishing speed,
115
368907
3670
all’inizio lentamente, poi con una velocità sorprendente.
06:12
we went from stone axes and fire
116
372577
3670
Siamo passati dal fuoco e le asce di pietra
06:16
to language, writing and eventually industrial technologies.
117
376247
5005
al linguaggio, alla scrittura e infine alle tecnologie industriali.
06:21
One invention unleashed a thousand more.
118
381878
2919
Un’invenzione ne generò altre mille.
06:25
And in time, we became homo technologicus.
119
385173
3712
E col tempo siamo diventati “homo technologicus”.
06:29
Around 80 years ago,
120
389594
1209
Circa 80 anni fa è nata una nuova branca della tecnologia.
06:30
another new branch of technology began.
121
390803
2545
06:33
With the invention of computers,
122
393973
1710
Con l'invenzione dei computer,
06:35
we quickly jumped from the first mainframes and transistors
123
395725
3295
siamo passati rapidamente dai primi mainframe e transistor
06:39
to today's smartphones and virtual-reality headsets.
124
399062
3461
agli attuali smartphone e visori per la realtà virtuale.
06:42
Information, knowledge, communication, computation.
125
402565
4421
Informazioni, conoscenza, comunicazione, calcolo.
06:47
In this revolution,
126
407570
1418
Una rivoluzione con ramificazioni senza precedenti.
06:49
creation has exploded like never before.
127
409030
3295
06:53
And now a new wave is upon us.
128
413242
2503
Ma è in arrivo una nuova ondata.
06:55
Artificial intelligence.
129
415787
1668
L’intelligenza artificiale.
06:57
These waves of history are clearly speeding up,
130
417872
2544
I flutti della storia sono sempre più frequenti
07:00
as each one is amplified and accelerated by the last.
131
420458
4338
perché assorbono la forza e la velocità dei precedenti.
07:05
And if you look back,
132
425088
1167
E andando a ritroso,
07:06
it's clear that we are in the fastest
133
426297
2002
è evidente che si tratta dell’ondata più veloce e significativa di sempre.
07:08
and most consequential wave ever.
134
428299
2586
07:11
The journeys of humanity and technology are now deeply intertwined.
135
431844
4630
Ora l’umanità e la tecnologia sono intime compagne di viaggio.
07:16
In just 18 months,
136
436516
1543
In soli 18 mesi,
07:18
over a billion people have used large language models.
137
438059
3170
oltre un miliardo di persone hanno usato gli LLM.
07:21
We've witnessed one landmark event after another.
138
441729
3545
Abbiamo assistito ad una sequenza di eventi epocali.
07:25
Just a few years ago, people said that AI would never be creative.
139
445650
3462
Solo pochi anni fa, si diceva che l’IA non sarebbe mai stata creativa.
07:30
And yet AI now feels like an endless river of creativity,
140
450113
4045
Eppure l’IA ora sembra un fiume di creatività in piena
07:34
making poetry and images and music and video that stretch the imagination.
141
454200
4671
che crea poesie, immagini, musica e video che sfidano l’immaginazione.
07:39
People said it would never be empathetic.
142
459664
2252
Si diceva che non sarebbe mai stata empatica.
07:42
And yet today, millions of people enjoy meaningful conversations with AIs,
143
462417
5297
Eppure milioni di persone ora conversano in modo costruttivo con le IA,
07:47
talking about their hopes and dreams
144
467755
2002
parlano di sogni e speranze,
07:49
and helping them work through difficult emotional challenges.
145
469757
3087
e trovano un aiuto durante momenti difficili.
07:53
AIs can now drive cars,
146
473177
2294
Ora le IA sanno guidare automobili, gestire reti elettriche
07:55
manage energy grids
147
475513
1543
07:57
and even invent new molecules.
148
477056
2252
e persino inventare nuove molecole.
07:59
Just a few years ago, each of these was impossible.
149
479308
3713
Solo pochi anni fa erano tutte cose impossibili.
08:03
And all of this is turbocharged by spiraling exponentials of data
150
483771
5506
E tutto ciò è iperstimolato
da una spirale esponenziale di dati e potenza di calcolo.
08:09
and computation.
151
489277
1626
08:10
Last year, Inflection 2.5, our last model,
152
490945
5297
L’anno scorso, Inflection 2.5, il nostro ultimo modello,
08:16
used five billion times more computation
153
496242
4129
ha usato una potenza di calcolo cinque miliardi di volte superiore
08:20
than the DeepMind AI that beat the old-school Atari games
154
500371
3629
rispetto all’IA DeepMind che sconfisse i vecchi giochi Atari
08:24
just over 10 years ago.
155
504042
1668
poco più di un decennio fa.
08:26
That's nine orders of magnitude more computation.
156
506085
3420
Nove ordini di grandezza in termini di potenza di calcolo.
08:30
10x per year,
157
510089
1627
10× all’anno,
08:31
every year for almost a decade.
158
511716
3253
ogni anno per quasi un decennio.
08:34
Over the same time, the size of these models has grown
159
514969
2544
Parallelamente, questi modelli sono passati
08:37
from first tens of millions of parameters to then billions of parameters,
160
517555
4213
dalle decine di milioni di parametri ai miliardi di parametri,
08:41
and very soon, tens of trillions of parameters.
161
521809
3504
e, molto presto, alle decine di bilioni di parametri.
08:45
If someone did nothing but read 24 hours a day for their entire life,
162
525313
4755
Se una persona leggesse 24 ore al giorno per tutta la vita,
08:50
they'd consume eight billion words.
163
530109
3337
assimilerebbe otto miliardi di parole.
08:53
And of course, that's a lot of words.
164
533488
1835
Certo, sono un sacco di parole.
08:55
But today, the most advanced AIs consume more than eight trillion words
165
535364
5756
Ma le più avanzate IA attuali assimilano più di otto bilioni di parole
09:01
in a single month of training.
166
541120
2336
in un solo mese di addestramento.
09:03
And all of this is set to continue.
167
543873
1960
E la cosa è destinata a continuare.
09:05
The long arc of technological history is now in an extraordinary new phase.
168
545875
5797
Il lungo arco della storia tecnologica
è entrato in una fase nuova e straordinaria.
09:12
So what does this mean in practice?
169
552256
2503
Ma quali sono le conseguenze pratiche?
09:15
Well, just as the internet gave us the browser
170
555426
2920
Proprio come Internet ci ha portato i browser
09:18
and the smartphone gave us apps,
171
558346
2502
e gli smartphone ci hanno portato le app,
09:20
the cloud-based supercomputer is ushering in a new era
172
560890
4004
i supercomputer basati sul cloud stanno inaugurando una nuova era
09:24
of ubiquitous AIs.
173
564936
2502
dove le IA sono onnipresenti.
09:27
Everything will soon be represented by a conversational interface.
174
567438
4588
Tra non molto tutto verrà gestito da un’interfaccia conversazionale.
09:32
Or, to put it another way, a personal AI.
175
572026
3003
O, per usare un’altra espressione, da un’IA personale.
09:35
And these AIs will be infinitely knowledgeable,
176
575780
2336
Queste IA saranno infinitamente sapienti,
09:38
and soon they'll be factually accurate and reliable.
177
578157
3879
e a breve avranno un altissimo livello di accuratezza e affidabilità.
09:42
They'll have near-perfect IQ.
178
582036
1794
Avranno un QI quasi perfetto.
09:44
They’ll also have exceptional EQ.
179
584914
2377
Avranno anche un QE eccezionale.
09:47
They’ll be kind, supportive, empathetic.
180
587291
4129
Saranno gentili, solidali, empatiche.
09:53
These elements on their own would be transformational.
181
593089
2836
Basterebbero questi elementi per parlare di “rivoluzione”.
09:55
Just imagine if everybody had a personalized tutor in their pocket
182
595925
3795
Immaginate se tutti avessero un mentore personale in tasca
09:59
and access to low-cost medical advice.
183
599720
3003
e accesso a consulenze mediche a costi irrisori.
10:02
A lawyer and a doctor,
184
602723
1544
Un avvocato e un medico, uno stratega aziendale e un allenatore,
10:04
a business strategist and coach --
185
604267
1960
10:06
all in your pocket 24 hours a day.
186
606269
2252
nelle vostre tasche, 24 ore al giorno.
10:08
But things really start to change when they develop what I call AQ,
187
608980
4713
Ma la svolta arriverà quando svilupperanno quello che io chiamo “FQ”,
10:13
their “actions quotient.”
188
613693
1668
il «quoziente di fattibilità».
10:15
This is their ability to actually get stuff done
189
615695
2794
La capacità di un’IA di portare a termine un compito,
10:18
in the digital and physical world.
190
618531
2294
nel mondo fisico e digitale.
10:20
And before long, it won't just be people that have AIs.
191
620867
3420
E, tra breve, le IA non saranno un’esclusiva delle persone.
10:24
Strange as it may sound, every organization,
192
624328
2962
Per quanto strano possa sembrare, tutte le organizzazioni,
10:27
from small business to nonprofit to national government,
193
627290
3253
dalle piccole imprese al no-profit fino ai governi nazionali,
10:30
each will have their own.
194
630585
1710
ne avranno una.
10:32
Every town, building and object
195
632795
2711
Le città, gli edifici e gli oggetti
10:35
will be represented by a unique interactive persona.
196
635506
3754
saranno rappresentati da un personaggio interattivo.
10:39
And these won't just be mechanistic assistants.
197
639302
2544
E non si tratterà di semplici assistenti meccanici.
10:42
They'll be companions, confidants,
198
642221
3754
Saranno companion, confidenti,
10:46
colleagues, friends and partners,
199
646017
2669
colleghi, amici e partner,
10:48
as varied and unique as we all are.
200
648728
2627
diversi e unici come tutti noi.
10:52
At this point, AIs will convincingly imitate humans at most tasks.
201
652273
4630
A quel punto le IA imiteranno gli umani in modo convincente in molte attività.
10:57
And we'll feel this at the most intimate of scales.
202
657737
2794
Lo sperimenteremo in contesti intimi.
11:00
An AI organizing a community get-together for an elderly neighbor.
203
660990
3587
Un’IA che organizza un’occasione di socialità per un vicino anziano.
11:04
A sympathetic expert helping you make sense of a difficult diagnosis.
204
664619
4588
Un esperto che con empatia vi aiuta ad accettare una diagnosi infausta.
11:09
But we'll also feel it at the largest scales.
205
669248
2753
Ma lo sperimenteremo anche su scale più grandi.
11:12
Accelerating scientific discovery,
206
672043
2586
Scoperte scientifiche più rapide,
11:14
autonomous cars on the roads,
207
674629
2168
auto a guida autonoma,
11:16
drones in the skies.
208
676797
1627
droni nei cieli.
11:18
They'll both order the takeout and run the power station.
209
678966
3337
Ordineranno cibo da asporto e gestiranno una centrale elettrica.
11:22
They’ll interact with us and, of course, with each other.
210
682970
3337
Interagiranno con noi e, ovviamente, tra di loro.
11:26
They'll speak every language,
211
686349
1918
Parleranno tutte le lingue,
11:28
take in every pattern of sensor data,
212
688267
2836
assimileranno i pattern dei dati acquisiti dai sensori.
11:31
sights, sounds,
213
691145
2336
Immagini, suoni,
11:33
streams and streams of information,
214
693481
2377
flussi incessanti di informazioni,
11:35
far surpassing what any one of us could consume in a thousand lifetimes.
215
695900
4379
ben oltre le capacità di assimilazione di chiunque, anche in mille vite.
11:40
So what is this?
216
700780
1293
Quindi di cosa si tratta?
11:42
What are these AIs?
217
702990
2086
Cosa sono queste IA?
11:46
If we are to prioritize safety above all else,
218
706410
4588
Se vogliamo dare priorità assoluta alla sicurezza,
affinché questa nuova ondata ci accresca e sia al servizio dell’umanità,
11:51
to ensure that this new wave always serves and amplifies humanity,
219
711040
5088
11:56
then we need to find the right metaphors for what this might become.
220
716128
4922
allora dobbiamo trovare le metafore adatte a descrivere i suoi possibili esiti.
12:01
For years, we in the AI community, and I specifically,
221
721842
4296
Per anni, noi della comunità dell’IA, ed io in particolare,
12:06
have had a tendency to refer to this as just tools.
222
726180
3587
le abbiamo sempre dipinte come semplici strumenti.
12:11
But that doesn't really capture what's actually happening here.
223
731060
3003
Ma non è un quadro fedele di ciò che sta accadendo.
12:14
AIs are clearly more dynamic,
224
734730
2503
Le IA sono chiaramente più dinamiche,
12:17
more ambiguous, more integrated
225
737233
2753
più interpretabili, più integrate
12:19
and more emergent than mere tools,
226
739986
2627
e più emergenti dei semplici strumenti,
12:22
which are entirely subject to human control.
227
742613
2878
che invece sono sotto il completo controllo umano.
12:25
So to contain this wave,
228
745533
2544
Quindi, per arginare questa ondata,
12:28
to put human agency at its center
229
748119
3044
per mettere al centro l’azione umana
12:31
and to mitigate the inevitable unintended consequences
230
751163
2711
e mitigare le inevitabili conseguenze indesiderate che potrebbero verificarsi,
12:33
that are likely to arise,
231
753916
1835
12:35
we should start to think about them as we might a new kind of digital species.
232
755793
5005
dovremmo iniziare a considerarle un nuovo tipo di specie digitale.
12:41
Now it's just an analogy,
233
761132
1793
È solo un’analogia,
12:42
it's not a literal description, and it's not perfect.
234
762925
2586
non è una descrizione letterale, ed è imperfetta.
Innanzitutto, ovviamente non sono biologiche nel senso tradizionale,
12:46
For a start, they clearly aren't biological in any traditional sense,
235
766053
4046
12:50
but just pause for a moment
236
770141
2377
ma fermiamoci un attimo
12:52
and really think about what they already do.
237
772560
2836
e pensiamo a ciò che sono già in grado di fare.
12:55
They communicate in our languages.
238
775438
2627
Comunicano usando le nostre lingue.
12:58
They see what we see.
239
778107
2127
Vedono ciò che vediamo noi.
13:00
They consume unimaginably large amounts of information.
240
780234
3587
Assimilano enormi quantità di informazioni.
13:04
They have memory.
241
784739
1376
Hanno una memoria.
13:06
They have personality.
242
786991
1752
Hanno una personalità.
13:09
They have creativity.
243
789493
1710
Sono creative.
Hanno una certa capacità di ragionamento e possono formulare piani rudimentali.
13:12
They can even reason to some extent and formulate rudimentary plans.
244
792038
3962
13:16
They can act autonomously if we allow them.
245
796709
3128
Possono agire autonomamente, se glielo consentiamo.
13:20
And they do all this at levels of sophistication
246
800546
2294
E fanno tutto questo con una sofisticatezza
13:22
that is far beyond anything that we've ever known from a mere tool.
247
802882
3587
che va ben oltre qualsiasi strumento mai concepito.
13:27
And so saying AI is mainly about the math or the code
248
807762
4296
Quindi ridurre l’IA alla matematica o al suo codice
13:32
is like saying we humans are mainly about carbon and water.
249
812099
4838
è come dire che noi umani siamo un composto di acqua e carbonio.
13:37
It's true, but it completely misses the point.
250
817897
3795
È vero, ma non è quello il punto.
13:42
And yes, I get it, this is a super arresting thought
251
822860
3629
E capisco che è un concetto decisamente straniante,
13:46
but I honestly think this frame helps sharpen our focus on the critical issues.
252
826489
5171
ma penso che possa aiutare a far emergere le varie criticità.
13:52
What are the risks?
253
832745
1585
Quali sono i rischi?
13:55
What are the boundaries that we need to impose?
254
835790
2752
Quali sono i limiti che dobbiamo imporre?
13:59
What kind of AI do we want to build or allow to be built?
255
839293
4338
Che tipo di intelligenza artificiale vogliamo costruire
o permettere che venga costruita?
14:04
This is a story that's still unfolding.
256
844465
2377
È una storia in pieno svolgimento.
14:06
Nothing should be accepted as a given.
257
846884
2544
Non dovremmo dare niente per scontato.
14:09
We all must choose what we create.
258
849428
2544
Dobbiamo scegliere cosa creare.
14:12
What AIs we bring into the world, or not.
259
852681
3921
Quali IA mettere al mondo, oppure no.
14:18
These are the questions for all of us here today,
260
858604
2836
Sono queste le domande da rivolgere a noi che siamo qui oggi
14:21
and all of us alive at this moment.
261
861440
2586
ed a tutti noi che stiamo vivendo questo momento.
14:24
For me, the benefits of this technology are stunningly obvious,
262
864693
4296
Ritengo che i vantaggi di questa tecnologia siano evidenti,
14:28
and they inspire my life's work every single day.
263
868989
3546
e sono il faro quotidiano della mia carriera.
14:33
But quite frankly, they'll speak for themselves.
264
873661
3086
Ma, francamente, parleranno da sé.
14:37
Over the years, I've never shied away from highlighting risks
265
877706
2920
Negli anni non ho mai avuto paura di evidenziare i rischi
14:40
and talking about downsides.
266
880668
1710
e di parlare degli aspetti negativi.
14:43
Thinking in this way helps us focus on the huge challenges
267
883087
3211
È un approccio che evidenzia le enormi sfide che ci attendono.
14:46
that lie ahead for all of us.
268
886298
1836
14:48
But let's be clear.
269
888843
1418
Ma cerchiamo di essere chiari.
14:50
There is no path to progress
270
890719
2128
La strada verso il progresso passa per forza dalla tecnologia.
14:52
where we leave technology behind.
271
892888
2169
14:55
The prize for all of civilization is immense.
272
895683
3795
La ricompensa per la nostra civiltà è immensa.
Servono soluzioni nella sanità, nell’istruzione e alla crisi climatica.
15:00
We need solutions in health care and education, to our climate crisis.
273
900062
3879
15:03
And if AI delivers just a fraction of its potential,
274
903941
3921
E se l’IA sfruttasse anche solo una frazione del suo potenziale,
15:07
the next decade is going to be the most productive in human history.
275
907903
4421
il prossimo sarà il decennio più produttivo della storia umana.
15:13
Here's another way to think about it.
276
913701
2002
Ecco un’altra prospettiva.
15:15
In the past,
277
915744
1293
In passato,
15:17
unlocking economic growth often came with huge downsides.
278
917037
4088
la crescita economica era spesso accompagnata da enormi risvolti negativi.
15:21
The economy expanded as people discovered new continents
279
921500
3712
L’economia si espandeva grazie alla scoperta di nuovi continenti
15:25
and opened up new frontiers.
280
925254
2002
e all’apertura di nuove frontiere.
15:28
But they colonized populations at the same time.
281
928632
3045
Ma al contempo le popolazioni venivano colonizzate.
15:32
We built factories,
282
932595
1710
Costruivamo fabbriche,
15:34
but they were grim and dangerous places to work.
283
934305
3044
ma erano luoghi di lavoro tetri e pericolosi.
15:38
We struck oil,
284
938017
1918
Trovavamo il petrolio, ma inquinavamo il pianeta.
15:39
but we polluted the planet.
285
939977
1627
15:42
Now because we are still designing and building AI,
286
942146
3170
Dato che stiamo ancora progettando e costruendo l’IA,
15:45
we have the potential and opportunity to do it better,
287
945316
3795
abbiamo la capacità e l’occasione per fare meglio.
15:49
radically better.
288
949153
1335
Decisamente meglio.
15:51
And today, we're not discovering a new continent
289
951071
2628
E non stiamo scoprendo un nuovo continente
15:53
and plundering its resources.
290
953741
1918
saccheggiandone le risorse.
15:56
We're building one from scratch.
291
956285
1919
Ne stiamo costruendo uno da zero.
15:58
Sometimes people say that data or chips are the 21st century’s new oil,
292
958662
5297
A volte si dice che i dati o i chip sono il petrolio del XXI secolo,
16:03
but that's totally the wrong image.
293
963959
2002
ma è un’immagine totalmente sbagliata.
16:06
AI is to the mind
294
966587
1919
L’IA sta alla mente
16:08
what nuclear fusion is to energy.
295
968547
2753
come la fusione nucleare sta all'energia.
16:12
Limitless, abundant,
296
972259
2670
Illimitata, abbondante, in grado di cambiare il mondo.
16:14
world-changing.
297
974970
1544
16:17
And AI really is different,
298
977389
2962
L’IA è davvero diversa,
16:20
and that means we have to think about it creatively and honestly.
299
980392
4213
ed è per questo che dobbiamo agire onestamente e innovativamente.
16:24
We have to push our analogies and our metaphors
300
984647
2586
Dobbiamo spingere al limite analogie e metafore
16:27
to the very limits
301
987274
1752
per poter affrontare ciò che ci aspetta.
16:29
to be able to grapple with what's coming.
302
989068
2252
16:31
Because this is not just another invention.
303
991362
2878
Perché non si tratta di un’invenzione come le altre.
16:34
AI is itself an infinite inventor.
304
994907
3503
L’IA stessa è un’inventrice senza limiti.
16:38
And yes, this is exciting and promising and concerning
305
998869
3295
E sì, è eccitante, promettente e preoccupante
16:42
and intriguing all at once.
306
1002164
2044
e intrigante allo stesso tempo.
16:45
To be quite honest, it's pretty surreal.
307
1005251
2585
Onestamente, è piuttosto surreale.
16:47
But step back,
308
1007836
1293
Ma fate un passo indietro.
16:49
see it on the long view of glacial time,
309
1009171
3462
Dalla prospettiva a lungo termine del periodo glaciale,
16:52
and these really are the very most appropriate metaphors that we have today.
310
1012633
4796
sono le metafore più appropriate oggi a nostra disposizione.
16:57
Since the beginning of life on Earth,
311
1017471
3003
Dalla comparsa della vita sulla Terra,
17:00
we've been evolving, changing
312
1020516
2961
ci siamo evoluti, siamo cambiati,
17:03
and then creating everything around us in our human world today.
313
1023477
4171
e abbiamo creato tutto ciò che troviamo nel mondo degli umani.
17:08
And AI isn't something outside of this story.
314
1028232
3003
E l’IA non è un racconto a parte.
17:11
In fact, it's the very opposite.
315
1031569
2961
Anzi, tutto il contrario.
17:15
It's the whole of everything that we have created,
316
1035197
3170
È l’insieme di tutto ciò che abbiamo creato,
17:18
distilled down into something that we can all interact with
317
1038367
3545
sintetizzato in qualcosa con cui possiamo interagire
17:21
and benefit from.
318
1041912
1377
e da cui trarre beneficio.
17:23
It's a reflection of humanity across time,
319
1043872
3504
È un riflesso dell’era umana,
17:27
and in this sense,
320
1047418
1251
e in tal senso non è affatto una nuova specie.
17:28
it isn't a new species at all.
321
1048711
1918
17:31
This is where the metaphors end.
322
1051213
1960
È qui che finiscono le metafore.
17:33
Here's what I'll tell Caspian next time he asks.
323
1053591
2502
Ecco come risponderò a Caspian la prossima volta.
17:37
AI isn't separate.
324
1057219
1460
L’IA non è qualcos’altro.
17:39
AI isn't even in some senses, new.
325
1059388
3295
L’IA non è nemmeno nuova, per certi versi.
17:43
AI is us.
326
1063517
1126
L'IA siamo noi.
17:45
It's all of us.
327
1065394
1210
Tutti noi.
17:47
And this is perhaps the most promising and vital thing of all
328
1067062
3754
E forse è questo l’aspetto più promettente ed essenziale
17:50
that even a six-year-old can get a sense for.
329
1070858
2669
che persino un bambino di sei anni può comprendere.
17:54
As we build out AI,
330
1074528
1376
Sviluppando l’IA,
17:55
we can and must reflect all that is good,
331
1075946
3545
possiamo e dobbiamo riflettere su tutto ciò che è buono,
17:59
all that we love,
332
1079533
1126
su tutto ciò che amiamo, su tutto ciò che rende speciale l’umanità:
18:00
all that is special about humanity:
333
1080701
2753
18:03
our empathy, our kindness,
334
1083495
2169
empatia, gentilezza, curiosità e creatività.
18:05
our curiosity and our creativity.
335
1085664
2169
18:09
This, I would argue, is the greatest challenge of the 21st century,
336
1089251
5130
Direi che si tratta della più grande sfida del XXI secolo,
18:14
but also the most wonderful,
337
1094381
2211
ma anche la nostra più meravigliosa, stimolante e incoraggiante occasione.
18:16
inspiring and hopeful opportunity for all of us.
338
1096592
3336
18:20
Thank you.
339
1100429
1168
Grazie.
18:21
(Applause)
340
1101639
4879
(Applausi)
18:26
Chris Anderson: Thank you Mustafa.
341
1106560
1668
CHRIS ANDERSON: Grazie, Mustafa.
18:28
It's an amazing vision and a super powerful metaphor.
342
1108270
3796
È una visione meravigliosa, una metafora potentissima.
18:32
You're in an amazing position right now.
343
1112066
1960
Sei nella posizione ideale.
18:34
I mean, you were connected at the hip
344
1114026
1793
Sei strettamente legato all’incredibile lavoro che viene svolto in OpenAI.
18:35
to the amazing work happening at OpenAI.
345
1115819
2795
18:38
You’re going to have resources made available,
346
1118614
2169
Vi verranno fornite nuove risorse,
18:40
there are reports of these giant new data centers,
347
1120824
4046
ci sono report che parlano di nuovi e giganteschi data center,
18:44
100 billion dollars invested and so forth.
348
1124870
2461
investimenti da 100 miliardi di dollari e così via.
18:48
And a new species can emerge from it.
349
1128082
3837
E da tutto questo può emergere una nuova specie.
18:52
I mean, in your book,
350
1132294
1502
Nel tuo libro, oltre a proporre una visione incredibilmente ottimistica,
18:53
you did, as well as painting an incredible optimistic vision,
351
1133837
2878
18:56
you were super eloquent on the dangers of AI.
352
1136757
3629
sei stato molto eloquente riguardo i pericoli dell’IA.
19:00
And I'm just curious, from the view that you have now,
353
1140427
3963
Sono curioso di sapere, basandoci sulla prospettiva attuale,
19:04
what is it that most keeps you up at night?
354
1144431
2336
se c’è qualcosa che ti tiene sveglio la notte.
19:06
Mustafa Suleyman: I think the great risk is that we get stuck
355
1146809
2878
MS: Penso sia il rischio di rimanere bloccati
19:09
in what I call the pessimism aversion trap.
356
1149728
2086
nella trappola del “rifiuto del pessimismo”.
19:11
You know, we have to have the courage to confront
357
1151855
2586
Dobbiamo avere il coraggio di confrontarci con i possibili scenari avversi
19:14
the potential of dark scenarios
358
1154483
1960
19:16
in order to get the most out of all the benefits that we see.
359
1156443
3128
per ottenere il massimo dai potenziali benefici che conosciamo.
19:19
So the good news is that if you look at the last two or three years,
360
1159613
3712
La buona notizia è che, ripensando agli ultimi due o tre anni,
19:23
there have been very, very few downsides, right?
361
1163325
2961
ci sono stati pochissimi eventi sfavorevoli, giusto?
19:26
It’s very hard to say explicitly what harm an LLM has caused.
362
1166328
4922
È difficilissimo nominare dei danni causati dagli LLM
19:31
But that doesn’t mean that that’s what the trajectory is going to be
363
1171291
3212
ma non è detto che sarà anche la traiettoria del prossimo decennio.
19:34
over the next 10 years.
364
1174503
1168
19:35
So I think if you pay attention to a few specific capabilities,
365
1175671
3462
Penso che si debba prestare attenzione ad alcune specifiche capacità,
19:39
take for example, autonomy.
366
1179174
1835
ad esempio, l’autonomia.
L’autonomia è chiaramente una soglia
19:41
Autonomy is very obviously a threshold
367
1181009
2336
19:43
over which we increase risk in our society.
368
1183387
2794
che, se superata, incrementa il rischio per la società,
19:46
And it's something that we should step towards very, very closely.
369
1186223
3128
ed è qualcosa che dovremmo approcciare con molta cautela.
19:49
The other would be something like recursive self-improvement.
370
1189393
3420
Un altro esempio potrebbe essere l’automiglioramento ricorsivo.
19:52
If you allow the model to independently self-improve,
371
1192813
3629
Se si consentisse ad un modello di migliorarsi autonomamente,
19:56
update its own code,
372
1196483
1460
aggiornare il proprio codice, esplorare un ambiente senza supervisione
19:57
explore an environment without oversight, and, you know,
373
1197985
3295
e senza che ci sia un umano a regolare il suo comportamento,
20:01
without a human in control to change how it operates,
374
1201321
3295
20:04
that would obviously be more dangerous.
375
1204616
1919
il rischio aumenterebbe.
20:06
But I think that we're still some way away from that.
376
1206535
2544
Ma non credo sia una questione imminente.
Penso che dovranno passare altri cinque o dieci anni,
20:09
I think it's still a good five to 10 years before we have to really confront that.
377
1209079
3879
20:12
But it's time to start talking about it now.
378
1212958
2085
ma dobbiamo iniziare a parlarne.
CA: Una specie digitale, a differenza di quelle biologiche,
20:15
CA: A digital species, unlike any biological species,
379
1215043
2545
20:17
can replicate not in nine months,
380
1217588
2002
può replicarsi non in nove mesi ma in nove nanosecondi,
20:19
but in nine nanoseconds,
381
1219631
1669
20:21
and produce an indefinite number of copies of itself,
382
1221341
3421
e produrre una quantità indefinita di copie di sé stessa,
20:24
all of which have more power than we have in many ways.
383
1224803
3796
ognuna delle quali ha, per molti aspetti, capacità superiori alle nostre.
20:28
I mean, the possibility for unintended consequences seems pretty immense.
384
1228599
4838
L’eventualità di conseguenze non volute mi sembra davvero probabile.
20:33
And isn't it true that if a problem happens,
385
1233479
2168
È vero che basterebbe un’ora per far sorgere dei problemi?
20:35
it could happen in an hour?
386
1235689
1919
20:37
MS: No.
387
1237649
1335
MS: No.
20:38
That is really not true.
388
1238984
1752
Non è affatto vero.
20:40
I think there's no evidence to suggest that.
389
1240778
2085
Non credo ci siano prove a sostegno.
20:42
And I think that, you know,
390
1242863
1585
Spesso viene definita “esplosione di intelligenza”.
20:44
that’s often referred to as the “intelligence explosion.”
391
1244490
2836
20:47
And I think it is a theoretical, hypothetical maybe
392
1247367
3712
Penso sia un concetto teorico, forse ipotetico,
20:51
that we're all kind of curious to explore,
393
1251079
2420
che siamo tutti piuttosto curiosi di esplorare,
20:53
but there's no evidence that we're anywhere near anything like that.
394
1253540
3212
ma non c’è motivo di credere che sia dietro l’angolo.
20:56
And I think it's very important that we choose our words super carefully.
395
1256752
3462
E penso sia molto importante scegliere con cura le parole.
Hai ragione, è uno dei punti deboli della visione concettuale di “specie”.
21:00
Because you're right, that's one of the weaknesses of the species framing,
396
1260255
3546
21:03
that we will design the capability for self-replication into it
397
1263801
4337
Incorporeremo la capacità di autoreplicarsi
21:08
if people choose to do that.
398
1268180
1668
se qualcuno deciderà di farlo.
21:09
And I would actually argue that we should not,
399
1269890
2169
E io non credo che dovremmo,
21:12
that would be one of the dangerous capabilities
400
1272059
2210
è una di quelle capacità pericolose che dovremmo evitare.
21:14
that we should step back from, right?
401
1274269
1835
Quindi è impossibile che “affiori” fortuitamente.
21:16
So there's no chance that this will "emerge" accidentally.
402
1276104
3796
21:19
I really think that's a very low probability.
403
1279942
2502
Penso che sia un’eventualità remotissima.
21:22
It will happen if engineers deliberately design those capabilities in.
404
1282486
4338
Avverrà se gli ingegneri progetteranno intenzionalmente tali capacità
21:26
And if they don't take enough efforts to deliberately design them out.
405
1286865
3295
e se non adotteranno misure sufficienti per sopprimerle.
È questo lo scopo di essere chiari e trasparenti
21:30
And so this is the point of being explicit
406
1290160
2294
21:32
and transparent about trying to introduce safety by design very early on.
407
1292454
5672
introducendo l’aspetto della sicurezza fin dalle prime fasi di progettazione.
21:39
CA: Thank you, your vision of humanity injecting into this new thing
408
1299044
5964
CA: Grazie, la tua visione di un’umanità
che infonde in questa nuova realtà
la parte migliore di noi stessi,
21:45
the best parts of ourselves,
409
1305008
1877
21:46
avoiding all those weird, biological, freaky,
410
1306927
2920
tralasciando tutte quelle orrende e strambe tendenze biologiche
21:49
horrible tendencies that we can have in certain circumstances,
411
1309888
2920
che dimostriamo in certe circostanze…
21:52
I mean, that is a very inspiring vision.
412
1312808
2127
È una visione ispiratrice,
21:54
And thank you so much for coming here and sharing it at TED.
413
1314977
3336
ti ringrazio per averla condivisa con noi in questo TED.
21:58
Thank you, good luck.
414
1318355
1210
Grazie, e buona fortuna.
21:59
(Applause)
415
1319565
1876
(Applausi)
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7