Jeff Dean: AI isn't as smart as you think -- but it could be | TED

254,466 views ・ 2022-01-12

TED


Fare doppio clic sui sottotitoli in inglese per riprodurre il video.

Traduttore: inglese 2122 I51 Revisore: Gabriella Patricola
00:13
Hi, I'm Jeff.
0
13329
1583
Ciao, mi chiamo Jeff.
00:15
I lead AI Research and Health at Google.
1
15746
2833
Dirigo l’AI Research and Health di Google.
00:18
I joined Google more than 20 years ago,
2
18621
1875
Lavoro per Google da più di vent’anni
00:20
when we were all wedged into a tiny office space,
3
20538
3166
quando avevamo un minuscolo ufficio, sopra quello
00:23
above what's now a T-Mobile store in downtown Palo Alto.
4
23704
2750
che oggi è un negozio di T-Mobile nel centro di Palo Alto.
Negli anni ho assistito a molte trasformazioni informatiche
00:27
I've seen a lot of computing transformations in that time,
5
27163
2875
e, nell’ultimo decennio, alle imprese straordinarie dell’IA.
00:30
and in the last decade, we've seen AI be able to do tremendous things.
6
30079
3459
00:34
But we're still doing it all wrong in many ways.
7
34746
2542
Però, per molti versi, sbagliamo ancora
ed è di questo che vi voglio parlare oggi
00:37
That's what I want to talk to you about today.
8
37329
2209
00:39
But first, let's talk about what AI can do.
9
39579
2209
Ma prima, parliamo di cosa può fare l’IA.
00:41
So in the last decade, we've seen tremendous progress
10
41829
3292
Negli ultimi dieci anni, abbiamo assistito a enormi progressi
00:45
in how AI can help computers see, understand language,
11
45121
4333
nel modo in cui, grazie all’IA, un computer vede e capisce il linguaggio,
00:49
understand speech better than ever before.
12
49496
2833
o un discorso molto meglio di prima.
00:52
Things that we couldn't do before, now we can do.
13
52329
2583
Ora possiamo fare cose che prima erano impossibili.
00:54
If you think about computer vision alone,
14
54954
2333
Considerando solo la visione artificiale,
negli ultimi dieci anni, i computer hanno sviluppato
00:57
just in the last 10 years,
15
57329
1583
00:58
computers have effectively developed the ability to see;
16
58912
2792
la capacità di vedere;
01:01
10 years ago, they couldn't see, now they can see.
17
61746
2500
10 anni fa ciò non era possibile, ora sì.
Immaginate l’effetto rivoluzionario
01:04
You can imagine this has had a transformative effect
18
64287
2500
01:06
on what we can do with computers.
19
66787
2209
su ciò che facciamo con i computer.
Vediamo alcune di queste applicazioni consentite da queste funzioni.
01:08
So let's look at a couple of the great applications
20
68996
2500
01:11
enabled by these capabilities.
21
71496
2000
Possiamo prevedere alluvioni e tenere tutti al sicuro
01:13
We can better predict flooding, keep everyone safe,
22
73537
2417
usando il machine learning.
01:15
using machine learning.
23
75996
1500
Possiamo tradurre in più di 100 lingue per comunicare meglio,
01:17
We can translate over 100 languages so we all can communicate better,
24
77538
3250
prevedere e diagnosticare meglio le malattie,
01:20
and better predict and diagnose disease,
25
80788
2000
01:22
where everyone gets the treatment that they need.
26
82788
2333
così che tutti ricevano le cure necessarie.
01:25
So let's look at two key components
27
85163
1916
Ora vediamo due componenti chiave del progresso dei sistemi di IA odierni.
01:27
that underlie the progress in AI systems today.
28
87121
2333
La prima riguarda le reti neurali,
01:30
The first is neural networks,
29
90121
1542
01:31
a breakthrough approach to solving some of these difficult problems
30
91704
3417
un metodo innovativo
per risolvere questi problemi complessi
01:35
that has really shone in the last 15 years.
31
95121
2833
che si è distinto negli ultimi 15 anni.
01:37
But they're not a new idea.
32
97954
1625
Ma l’idea non è nuova.
01:39
And the second is computational power.
33
99621
1833
La seconda è la potenza computazionale.
01:41
It actually takes a lot of computational power
34
101454
2167
Serve molta potenza computazionale per creare reti neurali
01:43
to make neural networks able to really sing,
35
103663
2083
veramente capaci di eccellere
01:45
and in the last 15 years, we’ve been able to halve that,
36
105746
3375
e negli ultimi 15 anni siamo stati in grado di dimezzarla,
01:49
and that's partly what's enabled all this progress.
37
109121
2458
e questo è ciò che ha permesso il progresso raggiunto finora.
01:51
But at the same time, I think we're doing several things wrong,
38
111954
3459
Ma allo stesso tempo penso che stiamo facendo diversi sbagli
01:55
and that's what I want to talk to you about
39
115413
2000
e ve ne parlerò alla fine del mio intervento.
01:57
at the end of the talk.
40
117454
1167
01:58
First, a bit of a history lesson.
41
118663
1958
Prima di tutto, qualche nozione storica.
02:00
So for decades,
42
120663
1208
Per decenni,
02:01
almost since the very beginning of computing,
43
121913
2125
almeno sin dalla comparsa dei computer,
si volevano costruire macchine
02:04
people have wanted to be able to build computers
44
124079
2250
in grado di vedere, comprendere la lingua e il parlato.
02:06
that could see, understand language, understand speech.
45
126329
3917
02:10
The earliest approaches to this, generally,
46
130579
2000
In principio si codificavano manualmente gli algoritmi necessari
02:12
people were trying to hand-code all the algorithms
47
132621
2333
02:14
that you need to accomplish those difficult tasks,
48
134996
2458
per svolgere questi compiti impegnativi
ma questa tecnica si è rivelata poco efficace.
02:17
and it just turned out to not work very well.
49
137454
2375
02:19
But in the last 15 years, a single approach
50
139829
3250
Negli ultimi 15 anni, però,
è bastata una sola strategia per migliorare inaspettatamente,
02:23
unexpectedly advanced all these different problem spaces all at once:
51
143079
4167
i diversi spazi del problema,
in una volta sola: le reti neurali.
02:27
neural networks.
52
147954
1542
02:29
So neural networks are not a new idea.
53
149538
1833
Le reti neurali non sono una novità.
02:31
They're kind of loosely based
54
151371
1417
Si basano a grandi linee
02:32
on some of the properties that are in real neural systems.
55
152788
3041
su alcune delle proprietà dei veri sistemi neurali.
02:35
And many of the ideas behind neural networks
56
155829
2084
E molte idee relative alle reti neurali
02:37
have been around since the 1960s and 70s.
57
157954
2250
esistono dagli anni Sessanta e Settanta.
02:40
A neural network is what it sounds like,
58
160204
2167
Una rete neurale come suggerisce il nome,
02:42
a series of interconnected artificial neurons
59
162413
2708
è costituita da neuroni artificiali interconnessi tra loro
02:45
that loosely emulate the properties of your real neurons.
60
165121
3000
che emulano le caratteristiche dei veri neuroni.
02:48
An individual neuron in one of these systems
61
168163
2166
Ogni singolo neurone di queste reti ha un serie di input,
02:50
has a set of inputs,
62
170371
1417
02:51
each with an associated weight,
63
171788
2041
ognuno dei quali è associato ad un peso e il suo l’output
02:53
and the output of a neuron
64
173871
1833
02:55
is a function of those inputs multiplied by those weights.
65
175704
3209
è una funzione degli input moltiplicata per il peso.
02:59
So pretty simple,
66
179288
1208
Abbastanza semplice, e tanti di loro lavorano insieme
03:00
and lots and lots of these work together to learn complicated things.
67
180538
3666
03:04
So how do we actually learn in a neural network?
68
184496
2833
Com’è l’apprendimento nella rete neurale?
03:07
It turns out the learning process
69
187371
1708
Si ritiene che il processo di apprendimento
03:09
consists of repeatedly making tiny little adjustments
70
189079
2792
consista nel ripetere minuscoli aggiustamenti ai valori di peso,
03:11
to the weight values,
71
191913
1208
03:13
strengthening the influence of some things,
72
193121
2042
potenziare l’influenza di alcune cose e attenuare quella di altre.
03:15
weakening the influence of others.
73
195204
1959
03:17
By driving the overall system towards desired behaviors,
74
197204
3917
Indirizzando l’intero sistema verso i comportamenti desiderati,
tali sistemi possono svolgere compiti davvero complicati
03:21
these systems can be trained to do really complicated things,
75
201163
2916
come tradurre da una lingua all’altra,
03:24
like translate from one language to another,
76
204121
2875
03:27
detect what kind of objects are in a photo,
77
207038
3083
riconoscere gli oggetti in una foto,
03:30
all kinds of complicated things.
78
210121
1875
altri tipi di attività complesse.
03:32
I first got interested in neural networks
79
212038
2000
Ho iniziato ad appassionarmi alle reti
03:34
when I took a class on them as an undergraduate in 1990.
80
214079
3042
neurali nel 1990 durante un corso universitario.
03:37
At that time,
81
217163
1125
All’epoca le reti neurali ottenevano ottimi risultati
03:38
neural networks showed impressive results on tiny problems,
82
218329
3792
se applicate a piccoli problemi ma non le si impiegava concretamente
03:42
but they really couldn't scale to do real-world important tasks.
83
222121
4375
per svolgere compiti importanti nel mondo reale.
03:46
But I was super excited.
84
226538
1500
Ma ero molto entusiasta.
03:48
(Laughter)
85
228079
2500
(Risate)
03:50
I felt maybe we just needed more compute power.
86
230579
2417
Forse occorreva più potenza computazionale.
03:52
And the University of Minnesota had a 32-processor machine.
87
232996
3625
L’Università del Minnesota aveva una macchina con processori a 32 bit.
03:56
I thought, "With more compute power,
88
236621
1792
Ho pensato “con più potenza computazionale
03:58
boy, we could really make neural networks really sing."
89
238413
3000
le reti neurali faranno grandi cose.”
04:01
So I decided to do a senior thesis on parallel training of neural networks,
90
241454
3584
Ho scritto la tesi di laurea sull’addestramento delle reti neurali,
l’idea di far lavorare tutti i processori di un computer o di un sistema informatico
04:05
the idea of using processors in a computer or in a computer system
91
245079
4000
04:09
to all work toward the same task,
92
249079
2125
allo stesso compito, ovvero addestrare le reti neurali.
04:11
that of training neural networks.
93
251204
1584
04:12
32 processors, wow,
94
252829
1292
Wow, con processori a 32 bit raggiungeremo grandi obiettivi.
04:14
we’ve got to be able to do great things with this.
95
254163
2833
04:17
But I was wrong.
96
257496
1167
Invece mi sbagliavo.
Avevamo bisogno di una potenza computazionale
04:20
Turns out we needed about a million times as much computational power
97
260038
3333
un milione di volte superiore a quella disponibile nel 1990,
04:23
as we had in 1990
98
263371
1375
04:24
before we could actually get neural networks to do impressive things.
99
264788
3333
prima che le reti neurali potessero fare cose notevoli.
04:28
But starting around 2005,
100
268121
2417
Ma, a partire dal 2005 circa,
grazie al progresso informatico raggiunto con la Legge di Moore,
04:30
thanks to the computing progress of Moore's law,
101
270579
2500
abbiamo iniziato ad avere una tale potenza computazionale,
04:33
we actually started to have that much computing power,
102
273121
2625
04:35
and researchers in a few universities around the world started to see success
103
275746
4250
che i ricercatori di varie università di tutto il mondo
hanno visto un possibile impiego delle reti
04:40
in using neural networks for a wide variety of different kinds of tasks.
104
280038
4083
neurali per svolgere moltissimi compiti diversi.
A Google ci è giunta voce di alcuni di questi successi e abbiamo deciso di
04:44
I and a few others at Google heard about some of these successes,
105
284121
3583
04:47
and we decided to start a project to train very large neural networks.
106
287746
3333
iniziare un progetto per addestrare reti neurali molto estese.
04:51
One system that we trained,
107
291079
1459
Abbiamo addestrato un sistema somministrandogli 10 milioni di
04:52
we trained with 10 million randomly selected frames
108
292538
3541
fotogrammi selezionati casualmente da video su YouTube.
04:56
from YouTube videos.
109
296079
1292
04:57
The system developed the capability
110
297371
1750
Il sistema ha sviluppato la capacità di riconoscere qualsiasi tipo di oggetto.
04:59
to recognize all kinds of different objects.
111
299121
2583
05:01
And it being YouTube, of course,
112
301746
1542
Trattandosi di YouTube,
05:03
it developed the ability to recognize cats.
113
303329
2500
ha sviluppato la capacità di riconoscere i gatti.
05:05
YouTube is full of cats.
114
305829
1292
YouTube è pieno di gatti.
05:07
(Laughter)
115
307163
1416
(Risate)
05:08
But what made that so remarkable
116
308621
2208
Ma la cosa straordinaria è che
05:10
is that the system was never told what a cat was.
117
310871
2417
non si è detto mai al sistema cosa sia un gatto.
05:13
So using just patterns in data,
118
313704
2500
Quindi, usando solo dei modelli di dati,
05:16
the system honed in on the concept of a cat all on its own.
119
316204
3625
il sistema, da solo, ha affinato il concetto di gatto.
05:20
All of this occurred at the beginning of a decade-long string of successes,
120
320371
3750
Tutto ciò accadeva all’inizio di un lungo decennio di successi dove si sono
05:24
of using neural networks for a huge variety of tasks,
121
324121
2500
usate reti neurali per vari compiti,
sia su Google che altrove.
05:26
at Google and elsewhere.
122
326663
1166
05:27
Many of the things you use every day,
123
327871
2167
Molte funzioni che usiamo ogni giorno come:
05:30
things like better speech recognition for your phone,
124
330079
2500
un riconoscimento vocale per il telefono;
05:32
improved understanding of queries and documents
125
332579
2209
una comprensione di domande e documenti
05:34
for better search quality,
126
334829
1459
per cercare e capire al meglio
delle informazioni geografiche per consolidare le mappe e così via.
05:36
better understanding of geographic information to improve maps,
127
336329
3042
05:39
and so on.
128
339413
1166
05:40
Around that time,
129
340621
1167
In quel periodo eravamo esaltati di come si potesse costruire
05:41
we also got excited about how we could build hardware that was better tailored
130
341788
3750
un hardware che rispondesse meglio
05:45
to the kinds of computations neural networks wanted to do.
131
345579
2792
ai tipi di calcoli richiesti dalle reti neurali.
05:48
Neural network computations have two special properties.
132
348371
2667
Le reti di calcolo hanno due proprietà.
05:51
The first is they're very tolerant of reduced precision.
133
351079
2625
Prima: tollerano bene una ridotta precisione.
05:53
Couple of significant digits, you don't need six or seven.
134
353746
2750
Non servono 6/7 cifre, ma un paio significative.
05:56
And the second is that all the algorithms are generally composed
135
356496
3458
Seconda: di solito tutti gli algoritmi sono fatti
05:59
of different sequences of matrix and vector operations.
136
359996
3458
di varie sequenze di operazioni di matrici e di vettori.
06:03
So if you can build a computer
137
363496
1750
Quindi, se si riesce a costruire un pc che fa molto bene operazioni
06:05
that is really good at low-precision matrix and vector operations
138
365246
3792
di matrici e vettori a bassa precisione, ma che non è in grado di fare molto
06:09
but can't do much else,
139
369079
1709
06:10
that's going to be great for neural-network computation,
140
370829
2625
altro per il calcolo delle reti neurali va benissimo,
06:13
even though you can't use it for a lot of other things.
141
373496
2667
anche se non è utilizzabile per tante altre cose.
06:16
And if you build such things, people will find amazing uses for them.
142
376163
3291
Si potranno trovare usi sorprendenti per cose di questo tipo.
06:19
This is the first one we built, TPU v1.
143
379496
2083
La prima che abbiamo costruito è: TPU v1
06:21
"TPU" stands for Tensor Processing Unit.
144
381621
2542
“TPU” sta per Unità di Elaborazione Tensoriale.
06:24
These have been used for many years behind every Google search,
145
384204
3042
queste , per molti anni sono state usate in
ogni ricerca di Google per la traduzione,
06:27
for translation,
146
387246
1167
06:28
in the DeepMind AlphaGo matches,
147
388454
1917
nelle partite di DeepMind AlphaGo,
06:30
so Lee Sedol and Ke Jie maybe didn't realize,
148
390413
2583
forse Lee Sedol e Ke Jie non se ne sono accorti,
06:33
but they were competing against racks of TPU cards.
149
393038
2708
ma stavano sfidando veri e propri apparati di schede TPU.
06:35
And we've built a bunch of subsequent versions of TPUs
150
395788
2583
Inoltre, abbiamo costruito tante versioni di TPU,
06:38
that are even better and more exciting.
151
398371
1875
persino migliori e interessanti.
06:40
But despite all these successes,
152
400288
2083
Nonostante questi successi,
06:42
I think we're still doing many things wrong,
153
402371
2208
penso che stiamo sbagliando ancora molte cose,
06:44
and I'll tell you about three key things we're doing wrong,
154
404621
2792
e ve ne citerò 3 e vi dirò come le sistemeremo.
06:47
and how we'll fix them.
155
407454
1167
06:48
The first is that most neural networks today
156
408663
2083
Il primo: la maggioranza delle reti neurali
06:50
are trained to do one thing, and one thing only.
157
410746
2250
oggi è allenata a fare solo un’unica cosa.
06:53
You train it for a particular task that you might care deeply about,
158
413038
3208
La alleni per un determinato compito che potrebbe interessarti molto
06:56
but it's a pretty heavyweight activity.
159
416288
1916
ma è un’attività di un certo peso.
06:58
You need to curate a data set,
160
418246
1667
Devi curare un set di dati,
06:59
you need to decide what network architecture you'll use
161
419913
3000
decidere quale architettura di rete usare per quel problema,
07:02
for this problem,
162
422954
1167
07:04
you need to initialize the weights with random values,
163
424121
2708
inizializzare i pesi con valori casuali,
07:06
apply lots of computation to make adjustments to the weights.
164
426871
2875
applicare molti calcoli per aggiustare i valori di peso.
07:09
And at the end, if you’re lucky, you end up with a model
165
429746
2750
E infine, se hai fortuna, ti ritrovi con un modello
07:12
that is really good at that task you care about.
166
432538
2291
che svolge benissimo il compito di tuo interesse.
07:14
But if you do this over and over,
167
434871
1583
Ma, se lo ripeti più e più volte,
07:16
you end up with thousands of separate models,
168
436496
2667
ti ritrovi con migliaia di modelli divisi,
07:19
each perhaps very capable,
169
439204
1792
ognuno dei quali, forse, capace di
funzionare bene ma diverso per i compiti che ti interessano.
07:21
but separate for all the different tasks you care about.
170
441038
2791
07:23
But think about how people learn.
171
443829
1667
Ora pensate a come impariamo.
07:25
In the last year, many of us have picked up a bunch of new skills.
172
445538
3166
L’anno scorso in molti abbiamo
imparato a fare un sacco di cose.
07:28
I've been honing my gardening skills,
173
448746
1792
Io sono migliorato nel giardinaggio idroponico verticale.
07:30
experimenting with vertical hydroponic gardening.
174
450579
2375
07:32
To do that, I didn't need to relearn everything I already knew about plants.
175
452954
3792
Per farlo, non avevo bisogno di imparare
ancora ciò che già sapevo sulle piante.
07:36
I was able to know how to put a plant in a hole,
176
456746
3375
Sapevo come mettere una pianta in una buca,
07:40
how to pour water, that plants need sun,
177
460163
2291
come innaffiarla, del suo bisogno del sole,
07:42
and leverage that in learning this new skill.
178
462496
3583
e come sfruttare le mie abilità per imparare questo nuovo lavoro.
07:46
Computers can work the same way, but they don’t today.
179
466079
3042
I computer possono funzionare così, ma ancora non lo fanno.
07:49
If you train a neural network from scratch,
180
469163
2583
Allenare da zero una rete neurale, in effetti
07:51
it's effectively like forgetting your entire education
181
471746
3542
significherebbe resettare le conoscenze ogni volta
07:55
every time you try to do something new.
182
475288
1875
07:57
That’s crazy, right?
183
477163
1000
Folle, no?
07:58
So instead, I think we can and should be training
184
478788
3708
Invece penso che potremmo allenare modelli multitasking capaci di eseguire
08:02
multitask models that can do thousands or millions of different tasks.
185
482538
3791
migliaia o milioni di compiti diversi.
08:06
Each part of that model would specialize in different kinds of things.
186
486329
3375
Ogni parte di quel modello avrà una funzione specifica.
08:09
And then, if we have a model that can do a thousand things,
187
489704
2792
E poi, se abbiamo un modello capace di fare migliaia
08:12
and the thousand and first thing comes along,
188
492538
2166
di cose e la prima progredisce, possiamo
08:14
we can leverage the expertise we already have
189
494746
2125
fare leva sulle competenze possedute in attività analoghe
08:16
in the related kinds of things
190
496913
1541
08:18
so that we can more quickly be able to do this new task,
191
498496
2792
così che il nuovo compito sia svolto più velocemente
08:21
just like you, if you're confronted with some new problem,
192
501288
2791
proprio come quando affronti un nuovo problema
08:24
you quickly identify the 17 things you already know
193
504121
2625
e subito individui le 17 cose che sai
08:26
that are going to be helpful in solving that problem.
194
506746
2542
ti aiuteranno a risolverlo.
08:29
Second problem is that most of our models today
195
509329
2709
Secondo: la maggioranza dei modelli attuali
08:32
deal with only a single modality of data --
196
512079
2125
gestisce una sola tipologia di dati
08:34
with images, or text or speech,
197
514204
3084
immagini, testi, discorsi,
08:37
but not all of these all at once.
198
517329
1709
ma non tutti nello stesso momento.
08:39
But think about how you go about the world.
199
519079
2042
Pensate al nostro relazionarsi col mondo.
08:41
You're continuously using all your senses
200
521121
2333
Si usano continuamente i sensi
08:43
to learn from, react to,
201
523454
3083
per imparare, per reagire,
08:46
figure out what actions you want to take in the world.
202
526579
2667
per capire che azione intraprendere.
08:49
Makes a lot more sense to do that,
203
529287
1667
è la cosa più ragionevole da fare,
08:50
and we can build models in the same way.
204
530954
2000
e così possiamo costruire dei modelli.
08:52
We can build models that take in these different modalities of input data,
205
532954
4042
si possono creare modelli che ricevono
input di diverso genere:
08:57
text, images, speech,
206
537037
1750
dati, testi, immagini, discorsi e che li uniscono
08:58
but then fuse them together,
207
538829
1417
09:00
so that regardless of whether the model sees the word "leopard,"
208
540329
3833
Così indipendentemente dal modello,
alla parola “leopardo”,
09:04
sees a video of a leopard or hears someone say the word "leopard,"
209
544204
4083
al video di un leopardo
o sentendo la parola “leopardo”,
09:08
the same response is triggered inside the model:
210
548329
2250
nel modello si attiverà la stessa risposta:
09:10
the concept of a leopard
211
550621
1750
il concetto di leopardo può essere collegato a vari tipi di dati,
09:12
can deal with different kinds of input data,
212
552412
2250
09:14
even nonhuman inputs, like genetic sequences,
213
554662
3000
anche di origine non umana come le sequenze genetiche,
09:17
3D clouds of points, as well as images, text and video.
214
557662
3209
nuvole 3D di punti, immagini, testi e video.
09:20
The third problem is that today's models are dense.
215
560912
3625
Terzo: i modelli di oggi sono densi.
09:24
There's a single model,
216
564579
1417
C’è un unico modello, completamente attivato per ogni compito,
09:25
the model is fully activated for every task,
217
565996
2375
09:28
for every example that we want to accomplish,
218
568412
2125
per ogni esempio che vogliamo realizzare,
09:30
whether that's a really simple or a really complicated thing.
219
570537
2917
che sia molto semplice o molto complicato.
09:33
This, too, is unlike how our own brains work.
220
573496
2666
Anche questo è diverso da come agisce il cervello.
09:36
Different parts of our brains are good at different things,
221
576204
3000
Varie parti del nostro cervello sono preposte a vari compiti,
09:39
and we're continuously calling upon the pieces of them
222
579246
3291
e noi ricorriamo costantemente alle più adatte
09:42
that are relevant for the task at hand.
223
582579
2167
a svolgere l’operazione richiesta.
09:44
For example, nervously watching a garbage truck
224
584787
2334
Per esempio, mentre guardiamo con ansia il camion della spazzatura
09:47
back up towards your car,
225
587162
1875
venire verso la nostra auto, non penseremo a Shakespeare.
09:49
the part of your brain that thinks about Shakespearean sonnets
226
589037
2917
09:51
is probably inactive.
227
591996
1250
09:53
(Laughter)
228
593246
1625
09:54
AI models can work the same way.
229
594912
1750
I modelli di IA possono operare così
09:56
Instead of a dense model,
230
596662
1292
Invece di un modello denso,
09:57
we can have one that is sparsely activated.
231
597954
2250
possiamo averne con attivazione sparsa.
10:00
So for particular different tasks, we call upon different parts of the model.
232
600204
4250
Quindi per compiti particolari ricorriamo a diverse parti del modello.
10:04
During training, the model can also learn which parts are good at which things,
233
604496
4375
Nella fase di formazione, il modello può anche
imparare chi fa bene cosa,
10:08
to continuously identify what parts it wants to call upon
234
608871
3791
in modo da identificare continuamente le parti da scegliere
10:12
in order to accomplish a new task.
235
612662
1834
per svolgere un nuovo compito.
10:14
The advantage of this is we can have a very high-capacity model,
236
614496
3541
Il vantaggio consiste nell’avere un modello ad elevate capacità
10:18
but it's very efficient,
237
618037
1250
e molto efficiente perché ci serviamo solo
10:19
because we're only calling upon the parts that we need
238
619329
2583
delle parti necessarie per un dato compito.
10:21
for any given task.
239
621954
1208
10:23
So fixing these three things, I think,
240
623162
2000
Risolvere questi tre problemi, penso,
10:25
will lead to a more powerful AI system:
241
625162
2209
porterà a un sistema di IA più potente:
10:27
instead of thousands of separate models,
242
627412
2000
anziché migliaia di modelli separati, formare pochi modelli multifunzionali
10:29
train a handful of general-purpose models
243
629412
2000
10:31
that can do thousands or millions of things.
244
631454
2083
in grado di eseguire migliaia o milioni di compiti.
10:33
Instead of dealing with single modalities,
245
633579
2042
Anziché singole modalità, si gestiscono tutte le
10:35
deal with all modalities,
246
635662
1334
10:36
and be able to fuse them together.
247
636996
1708
modalità e le si uniscono fra loro.
10:38
And instead of dense models, use sparse, high-capacity models,
248
638746
3458
E anziché usare modelli densi,
ne usano sparsi ad alta capacità,
10:42
where we call upon the relevant bits as we need them.
249
642246
2958
nei quali si richiamano le parti appropriate quando necessario.
10:45
We've been building a system that enables these kinds of approaches,
250
645246
3416
Abbiamo creato un sistema che rende possibili questi approcci,
10:48
and we’ve been calling the system “Pathways.”
251
648704
2542
e lo abbiamo chiamato “Pathways”.
10:51
So the idea is this model will be able to do
252
651287
3084
L’idea alla base è avere un modello in grado di svolgere
10:54
thousands or millions of different tasks,
253
654412
2084
migliaia o milioni di compiti diversi,
10:56
and then, we can incrementally add new tasks,
254
656537
2250
poi potremo aggiungerne altri progressivamente
10:58
and it can deal with all modalities at once,
255
658787
2125
e potrà gestire insieme tutte le modalità,
11:00
and then incrementally learn new tasks as needed
256
660954
2958
e quindi al bisogno imparare gradualmente nuovi
11:03
and call upon the relevant bits of the model
257
663954
2083
compiti e ricorrere alle parti attinenti del modello
11:06
for different examples or tasks.
258
666037
1709
per diversi esempi o compiti.
11:07
And we're pretty excited about this,
259
667787
1750
Siamo molto entusiasti,
11:09
we think this is going to be a step forward
260
669537
2042
pensiamo che ciò porterà a progressi nel creare sistemi di IA.
11:11
in how we build AI systems.
261
671621
1333
11:12
But I also wanted to touch on responsible AI.
262
672954
3708
Ma volevo anche accennare all’uso responsabile dell’IA
11:16
We clearly need to make sure that this vision of powerful AI systems
263
676662
4875
Chiaramente dobbiamo assicurarci
che l’idea di avere sistemi potenti di IA vada
11:21
benefits everyone.
264
681579
1167
a vantaggio di tutti.
11:23
These kinds of models raise important new questions
265
683496
2458
Questi modelli sollevano nuove questioni importanti
11:25
about how do we build them with fairness,
266
685954
2458
sul come costruirli con onestà e interpretabilità,
11:28
interpretability, privacy and security,
267
688454
3208
rispettando la privacy e la sicurezza e tenendo a mente tutti gli utenti.
11:31
for all users in mind.
268
691662
1459
11:33
For example, if we're going to train these models
269
693621
2291
Ad esempio, se addestriamo questi modelli
11:35
on thousands or millions of tasks,
270
695954
2125
a svolgere migliaia o milioni di compiti,
11:38
we'll need to be able to train them on large amounts of data.
271
698079
2875
dovremo anche addestrarli usando moltissimi dati.
11:40
And we need to make sure that data is thoughtfully collected
272
700996
3250
E dobbiamo assicurarci che questi dati siano raccolti con attenzione
11:44
and is representative of different communities and situations
273
704287
3667
e siano caratteristici di diverse comunità e contesti in tutto il mondo.
11:47
all around the world.
274
707954
1167
11:49
And data concerns are only one aspect of responsible AI.
275
709579
4000
E le preoccupazioni relative ai dati
sono solo un aspetto dell’IA responsabile.
11:53
We have a lot of work to do here.
276
713621
1583
Abbiamo molto lavoro da fare.
11:55
So in 2018, Google published this set of AI principles
277
715246
2666
Nel 2018, Google ha pubblicato dei “principi sull’IA”
11:57
by which we think about developing these kinds of technology.
278
717912
3500
che usiamo come base per lo sviluppo di queste tecnologie
12:01
And these have helped guide us in how we do research in this space,
279
721454
3625
Ci sono stati d’aiuto per fare ricerche in questo campo,
12:05
how we use AI in our products.
280
725121
1833
per usare l’IA nei nostri prodotti.
12:06
And I think it's a really helpful and important framing
281
726996
2750
Credo che sia un quadro utile e importante
12:09
for how to think about these deep and complex questions
282
729746
2875
per riflettere sulle domande profonde e complesse
12:12
about how we should be using AI in society.
283
732621
2833
riguardanti l’uso dell’IA nella società.
12:15
We continue to update these as we learn more.
284
735454
3625
Man mano che acquisiamo nuove conoscenze le aggiorniamo continuamente.
12:19
Many of these kinds of principles are active areas of research --
285
739079
3458
Molti di questi principi sono aree attive di ricerca --
12:22
super important area.
286
742537
1542
super importanti.
12:24
Moving from single-purpose systems that kind of recognize patterns in data
287
744121
4125
Passare da sistemi monofunzionali
che riconoscono degli schemi nei dati
12:28
to these kinds of general-purpose intelligent systems
288
748246
2750
a sistemi multifunzionali intelligenti
12:31
that have a deeper understanding of the world
289
751037
2292
che hanno una visione più approfondita del mondo
12:33
will really enable us to tackle
290
753329
1583
ci permetterà di affrontare alcuni dei problemi più grandi
12:34
some of the greatest problems humanity faces.
291
754954
2500
che affliggono l’umanità.
12:37
For example,
292
757454
1167
Per esempio, saremo in grado di diagnosticare più malattie;
12:38
we’ll be able to diagnose more disease;
293
758662
2375
12:41
we'll be able to engineer better medicines
294
761079
2000
progettare farmaci migliori trasferendo a questi modelli
12:43
by infusing these models with knowledge of chemistry and physics;
295
763079
3083
conoscenze di chimica e fisica;
12:46
we'll be able to advance educational systems
296
766204
2667
Saremo in grado di promuovere sistemi di formazione
12:48
by providing more individualized tutoring
297
768871
2041
fornendo un tutoring più individualizzato per
12:50
to help people learn in new and better ways;
298
770912
2375
aiutare tutti a imparare in modo innovativo
12:53
we’ll be able to tackle really complicated issues,
299
773287
2375
saremo in grado di affrontare problemi complessi,
12:55
like climate change,
300
775704
1208
come il cambiamento climatico e forse progettare soluzioni di energia pulita.
12:56
and perhaps engineering of clean energy solutions.
301
776954
2792
12:59
So really, all of these kinds of systems
302
779787
2667
Tutti questi tipi di sistemi, in realtà,
13:02
are going to be requiring the multidisciplinary expertise
303
782496
2875
richiederanno la competenza multidisciplinare
di persone di tutto il mondo.
13:05
of people all over the world.
304
785371
1875
13:07
So connecting AI with whatever field you are in,
305
787287
3542
quindi per fare progressi è importante collegare l’IA con
13:10
in order to make progress.
306
790829
1750
qualsiasi settore in cui si opera.
13:13
So I've seen a lot of advances in computing,
307
793579
2292
Ho visto molti progressi nell’informatica,
13:15
and how computing, over the past decades,
308
795912
2292
e come, negli ultimi decenni,
13:18
has really helped millions of people better understand the world around them.
309
798204
4167
questa abbia aiutato milioni di persone a
comprendere meglio il mondo che li circonda
13:22
And AI today has the potential to help billions of people.
310
802412
3000
e l’IA oggi ha le potenzialità per aiutare miliardi di persone.
13:26
We truly live in exciting times.
311
806204
2125
Viviamo in tempi davvero entusiasmanti.
13:28
Thank you.
312
808746
1166
Vi ringrazio.
13:29
(Applause)
313
809912
7000
(Applausi)
13:39
Chris Anderson: Thank you so much.
314
819829
1667
Chris Anderson: Grazie mille.
13:41
I want to follow up on a couple things.
315
821537
2375
Vorrei proseguire con un paio di cose.
13:44
This is what I heard.
316
824454
2792
Da quel che ho sentito,
13:47
Most people's traditional picture of AI
317
827287
4125
l’idea classica che la maggior parte di noi si è fatta dell’IA è quella di
13:51
is that computers recognize a pattern of information,
318
831412
3125
computer che riconoscono uno schema ricorrente di informazioni
13:54
and with a bit of machine learning,
319
834579
2125
e con un po’ di machine learning
13:56
they can get really good at that, better than humans.
320
836704
2625
possono diventare più bravi di noi.
13:59
What you're saying is those patterns
321
839329
1792
Lei sta dicendo che quegli schemi
14:01
are no longer the atoms that AI is working with,
322
841121
2875
non rappresentano più le particelle elementari con le quali
14:04
that it's much richer-layered concepts
323
844037
2542
lavora l’IA bensì dei concetti molto più strutturati,
14:06
that can include all manners of types of things
324
846621
3458
che possono includere tutti i tipi di informazioni
14:10
that go to make up a leopard, for example.
325
850121
3000
che compongono, ad esempio, un leopardo.
14:13
So what could that lead to?
326
853121
2916
A cosa potrebbe portare?
14:16
Give me an example of when that AI is working,
327
856079
2750
Mi faccia un esempio di quando funziona quel tipo di IA,
14:18
what do you picture happening in the world
328
858829
2042
cosa si immagina possa accadere nel mondo
14:20
in the next five or 10 years that excites you?
329
860912
2209
nei prossimi 5 o 10 anni che la entusiasma?
14:23
Jeff Dean: I think the grand challenge in AI
330
863537
2500
Jeff Dean: La grande sfida dell’IA
14:26
is how do you generalize from a set of tasks
331
866079
2375
è generalizzare una serie di compiti già noti per estenderli allo svolgimento
14:28
you already know how to do
332
868496
1416
14:29
to new tasks,
333
869954
1208
di nuovi compiti nel modo più semplice e agile possibile.
14:31
as easily and effortlessly as possible.
334
871204
2542
14:33
And the current approach of training separate models for everything
335
873746
3250
Oggi la strategia di addestrare modelli distinti per qualsiasi cosa
14:36
means you need lots of data about that particular problem,
336
876996
3166
richiede grandi quantità di dati relativi al problema specifico,
14:40
because you're effectively trying to learn everything
337
880162
2542
perché si tenta di imparare in modo efficace tutto ciò
14:42
about the world and that problem, from nothing.
338
882746
2541
che riguarda il mondo e il problema partendo da zero.
14:45
But if you can build these systems
339
885287
1667
Ma se si possono realizzare
14:46
that already are infused with how to do thousands and millions of tasks,
340
886996
4458
sistemi già predisposti per eseguire migliaia e milioni di compiti,
14:51
then you can effectively teach them to do a new thing
341
891496
3791
sarà possibile insegnare con efficacia a fare qualcosa di nuovo usando
14:55
with relatively few examples.
342
895329
1500
relativamente pochi esempi.
14:56
So I think that's the real hope,
343
896871
2083
Penso che la vera speranza sia avere
14:58
that you could then have a system where you just give it five examples
344
898996
4083
un sistema a cui bastano cinque soli esempi per imparare a svolgere
15:03
of something you care about,
345
903121
1541
15:04
and it learns to do that new task.
346
904704
1917
un nuovo compito scelto.
15:06
CA: You can do a form of self-supervised learning
347
906662
2375
CA: Si può fare una forma
di apprendimento auto-supervisionato basata su un seeding minimo.
15:09
that is based on remarkably little seeding.
348
909079
2542
15:11
JD: Yeah, as opposed to needing 10,000 or 100,000 examples
349
911662
2875
JD: Sì, al contrario di 10.000 o 100.000 esempi necessari
15:14
to figure everything in the world out.
350
914579
1833
per capire ogni cosa nel mondo.
15:16
CA: Aren't there kind of terrifying unintended consequences
351
916454
2792
CA: E questo non porta qualche tipo di conseguenza catastrofica imprevista?
15:19
possible, from that?
352
919287
1334
15:20
JD: I think it depends on how you apply these systems.
353
920621
2625
JD: Penso che dipenda da come applicate questi sistemi.
15:23
It's very clear that AI can be a powerful system for good,
354
923287
4167
È chiarissimo che l’IA può essere potente nel bene
15:27
or if you apply it in ways that are not so great,
355
927496
2333
15:29
it can be a negative consequence.
356
929871
3375
se la si applica in modi non molto positivi.
15:33
So I think that's why it's important to have a set of principles
357
933287
3042
Per questo credo sia importante avere una serie di principi
15:36
by which you look at potential uses of AI
358
936371
2250
con cui si vagliano i potenziali usi dell’IA,
15:38
and really are careful and thoughtful about how you consider applications.
359
938662
5125
considerandone le applicazioni in maniera attenta e ponderata.
15:43
CA: One of the things people worry most about
360
943787
2209
CA: Uno degli aspetti per molti più
15:45
is that, if AI is so good at learning from the world as it is,
361
945996
3583
preoccupante è che, se l’IA impara così bene dal mondo reale così com’è,
15:49
it's going to carry forward into the future
362
949621
2875
porterà avanti nel futuro
15:52
aspects of the world as it is that actually aren't right, right now.
363
952537
4375
aspetti del mondo che in realtà al momento non vanno bene.
15:56
And there's obviously been a huge controversy about that
364
956954
2708
E di recente c’è stata ovviamente un’enorme controversia
15:59
recently at Google.
365
959662
2417
su questo all’interno di Google.
16:02
Some of those principles of AI development,
366
962121
3083
È stato contestato che alcuni di questi principi dello
16:05
you've been challenged that you're not actually holding to them.
367
965246
4708
sviluppo dell’IA non vengano rispettati.
16:10
Not really interested to hear about comments on a specific case,
368
970329
3250
Senza dilungarsi su casi specifici,
16:13
but ... are you really committed?
369
973621
2708
ma ... vi siete davvero impegnati?
16:16
How do we know that you are committed to these principles?
370
976329
2750
Come facciamo a sapere che rispettate questi principi?
16:19
Is that just PR, or is that real, at the heart of your day-to-day?
371
979079
4417
È solo facciata o vero, al centro del vostro lavoro quotidiano?
16:23
JD: No, that is absolutely real.
372
983496
1541
JD: No, è assolutamente vero.
16:25
Like, we have literally hundreds of people
373
985079
2125
Abbiamo letteralmente centinaia di persone
16:27
working on many of these related research issues,
374
987204
2333
che fanno lavoro di ricerca su questi temi
16:29
because many of those things are research topics
375
989537
2417
perché si tratta di campi di ricerca a sé stanti.
16:31
in their own right.
376
991996
1166
16:33
How do you take data from the real world,
377
993162
2250
Come si fa a prendere i dati dal mondo reale,
16:35
that is the world as it is, not as we would like it to be,
378
995412
5000
cioè dal mondo così com’è, non come vorremmo che fosse, e come si possono
16:40
and how do you then use that to train a machine-learning model
379
1000412
3209
utilizzare per istruire un modello di apprendimento automatico
16:43
and adapt the data bit of the scene
380
1003621
2500
e adattare la parte di dati del contesto
16:46
or augment the data with additional data
381
1006162
2500
o aumentare i dati con dati aggiuntivi in modo
16:48
so that it can better reflect the values we want the system to have,
382
1008704
3292
da riflettere al meglio i valori che vogliamo che il sistema abbia
16:51
not the values that it sees in the world?
383
1011996
2208
non i valori che vede nel mondo?
16:54
CA: But you work for Google,
384
1014204
2417
CA: Ma voi lavorate per Google,
16:56
Google is funding the research.
385
1016662
2084
Google sta finanziando la ricerca.
16:59
How do we know that the main values that this AI will build
386
1019371
4458
Come possiamo sapere che i valori principali che questa IA costruirà sono
17:03
are for the world,
387
1023871
1208
per il bene del mondo
17:05
and not, for example, to maximize the profitability of an ad model?
388
1025121
4916
e non, ad esempio, per massimizzare la redditività di un modello pubblicitario?
17:10
When you know everything there is to know about human attention,
389
1030037
3084
Quando sai tutto quello che c’è da sapere sull’attenzione umana,
17:13
you're going to know so much
390
1033121
1500
conoscerai anche il piccolo lato strano
17:14
about the little wriggly, weird, dark parts of us.
391
1034621
2458
e oscuro che si cela dentro di noi.
17:17
In your group, are there rules about how you hold off,
392
1037121
6167
Nel vostro gruppo, ci sono regole su come tenersi a distanza,
17:23
church-state wall between a sort of commercial push,
393
1043329
3750
creare una linea di confine da una sorta di spinta commerciale,
17:27
"You must do it for this purpose,"
394
1047079
2292
“Devi farlo per questo scopo”,
17:29
so that you can inspire your engineers and so forth,
395
1049413
2458
in modo da ispirare i vostri ingegneri a fare
17:31
to do this for the world, for all of us.
396
1051913
1916
questo per il mondo, per tutti noi?
17:33
JD: Yeah, our research group does collaborate
397
1053871
2125
Sì, il nostro team di ricerca collabora con
17:36
with a number of groups across Google,
398
1056038
1833
un certo numero di gruppi all’interno di Google,
17:37
including the Ads group, the Search group, the Maps group,
399
1057913
2750
tra cui Google Ads, Google Search, Google Maps,
17:40
so we do have some collaboration, but also a lot of basic research
400
1060704
3209
quindi collaboriamo senz’altro ma facciamo anche
17:43
that we publish openly.
401
1063954
1542
molta ricerca di base, che poi rendiamo pubblica.
17:45
We've published more than 1,000 papers last year
402
1065538
3333
L’anno scorso abbiamo pubblicato più di 1000 articoli scientifici
17:48
in different topics, including the ones you discussed,
403
1068871
2583
su diversi argomenti, tra cui quelli accennati ovvero
17:51
about fairness, interpretability of the machine-learning models,
404
1071454
3042
la correttezza, l’interpretabilità dei modelli di machine
17:54
things that are super important,
405
1074538
1791
learning, cose super importanti.
17:56
and we need to advance the state of the art in this
406
1076371
2417
Dobbiamo migliorare lo stato dell’arte per continuare a fare progressi
17:58
in order to continue to make progress
407
1078829
2209
18:01
to make sure these models are developed safely and responsibly.
408
1081079
3292
e assicurare uno sviluppo sicuro e responsabile di questi modelli.
18:04
CA: It feels like we're at a time when people are concerned
409
1084788
3041
Sembra che oggi ci sia preoccupazione
18:07
about the power of the big tech companies,
410
1087829
2042
per il potere raggiunto dalle Big Tech.
18:09
and it's almost, if there was ever a moment to really show the world
411
1089871
3750
E se mai c’è stato un momento di mostrare al mondo
18:13
that this is being done to make a better future,
412
1093663
3333
che tutto questo è stato fatto per creare un futuro migliore,
18:17
that is actually key to Google's future,
413
1097038
2791
questo è decisivo per il futuro di Google e di tutti noi.
18:19
as well as all of ours.
414
1099871
1750
18:21
JD: Indeed.
415
1101663
1166
JD: È proprio così.
18:22
CA: It's very good to hear you come and say that, Jeff.
416
1102871
2583
CA: È stato bello averti qui e ascoltarti.
18:25
Thank you so much for coming here to TED.
417
1105454
2042
Ti ringrazio per aver partecipato a TED.
18:27
JD: Thank you.
418
1107538
1166
JD: Grazie a voi.
18:28
(Applause)
419
1108704
1167
(Applausi)
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7