Why AI Is Incredibly Smart and Shockingly Stupid | Yejin Choi | TED

383,445 views ・ 2023-04-28

TED


Fare doppio clic sui sottotitoli in inglese per riprodurre il video.

Traduttore: Angela Di Croce Revisore: Ysiana Agalliu
00:03
So I'm excited to share a few spicy thoughts on artificial intelligence.
0
3708
6257
Sono felice di condividere alcuni pensieri controversi sull’intelligenza artificiale.
00:10
But first, let's get philosophical
1
10799
3044
Ma prima, mettiamola sul piano filosofico
00:13
by starting with this quote by Voltaire,
2
13843
2545
partendo da questa citazione di Voltaire,
00:16
an 18th century Enlightenment philosopher,
3
16388
2252
filosofo illuminista del 18esimo secolo
00:18
who said, "Common sense is not so common."
4
18682
2961
che disse, “Il buonsenso non è poi così buono.”
00:21
Turns out this quote couldn't be more relevant
5
21685
3128
Questa citazione non potrebbe essere più rilevante
00:24
to artificial intelligence today.
6
24854
2169
per l’intelligenza artificiale oggi.
00:27
Despite that, AI is an undeniably powerful tool,
7
27065
3921
Nonostante ciò, l’IA è indubbiamente un potente strumento
00:31
beating the world-class "Go" champion,
8
31027
2586
che ha battuto il campione mondiale di Go,
00:33
acing college admission tests and even passing the bar exam.
9
33613
4088
ha passato a pieni voti test d’ammissione, e persino l’esame di stato per avvocati.
00:38
I’m a computer scientist of 20 years,
10
38118
2461
Sono un’informatica da 20 anni,
00:40
and I work on artificial intelligence.
11
40579
2419
e lavoro sull’intelligenza artificale.
00:43
I am here to demystify AI.
12
43039
2586
Sono qui per spiegare l’IA.
00:46
So AI today is like a Goliath.
13
46626
3462
L’IA oggi è come Golia.
00:50
It is literally very, very large.
14
50130
3003
È letteralmente enorme.
00:53
It is speculated that the recent ones are trained on tens of thousands of GPUs
15
53508
5839
Si ipotizza che le più recenti siano formate su decine di migliaia di GPU
00:59
and a trillion words.
16
59389
2544
e un trilione di parole.
01:02
Such extreme-scale AI models,
17
62475
2086
Tali modelli di IA a estrema scalabilità,
01:04
often referred to as "large language models,"
18
64603
3128
a cui ci si riferisce come “Large Language Models”,
01:07
appear to demonstrate sparks of AGI,
19
67731
3879
sembra che mostrino cenni di AGI,
01:11
artificial general intelligence.
20
71610
2627
Intelligenza Artificiale Generale.
01:14
Except when it makes small, silly mistakes,
21
74279
3837
Tranne quando fa piccoli errori stupidi,
01:18
which it often does.
22
78158
1585
e li fa spesso.
01:20
Many believe that whatever mistakes AI makes today
23
80368
3671
Molti credono che qualunque errore l’intelligenza artificiale faccia oggi
01:24
can be easily fixed with brute force,
24
84080
2002
possa essere risolto con la forza bruta,
01:26
bigger scale and more resources.
25
86124
2127
una scala più grande e più risorse.
01:28
What possibly could go wrong?
26
88585
1960
Cosa potrebbe andare storto?
01:32
So there are three immediate challenges we face already at the societal level.
27
92172
5130
Ci sono tre sfide immediate che già affrontiamo a livello sociale.
01:37
First, extreme-scale AI models are so expensive to train,
28
97886
6173
Per prima cosa, i modelli di IA a estrema scalabilità sono molto costosi da formare
01:44
and only a few tech companies can afford to do so.
29
104059
3461
e solo alcune aziende informatiche possono permetterselo.
01:48
So we already see the concentration of power.
30
108104
3796
Quindi già vediamo la concentrazione del potere.
01:52
But what's worse for AI safety,
31
112817
2503
Ma la cosa peggiore per la sicurezza dell’IA,
01:55
we are now at the mercy of those few tech companies
32
115320
3795
è che oggi siamo in balia di quelle poche aziende informatiche
01:59
because researchers in the larger community
33
119115
3796
perché i ricercatori delle comunità più grandi
02:02
do not have the means to truly inspect and dissect these models.
34
122952
4755
non hanno i mezzi per ispezionare e analizzare questi modelli.
02:08
And let's not forget their massive carbon footprint
35
128416
3837
E non dimentichiamoci della loro enorme impronta carbonica
02:12
and the environmental impact.
36
132295
1919
e del loro impatto ambientale.
02:14
And then there are these additional intellectual questions.
37
134881
3253
E poi ci sono queste ulteriori domande intellettuali.
02:18
Can AI, without robust common sense, be truly safe for humanity?
38
138176
5214
Può l’IA, senza un solido senso comune, essere veramente sicura per l’umanità?
02:24
And is brute-force scale really the only way
39
144307
4463
E la scala con il metodo forza bruta è veramente l’unico modo
02:28
and even the correct way to teach AI?
40
148812
2919
o addirittura il modo corretto di educare l’IA?
02:32
So I’m often asked these days
41
152232
1668
Ultimamente mi chiedono spesso
02:33
whether it's even feasible to do any meaningful research
42
153900
2628
se sia ancora fattibile fare una ricerca significativa
02:36
without extreme-scale compute.
43
156569
1961
senza un calcolo su larga scala.
02:38
And I work at a university and nonprofit research institute,
44
158530
3795
E io lavoro in un’università e in un istituto di ricerca no profit,
02:42
so I cannot afford a massive GPU farm to create enormous language models.
45
162367
5630
quindi non posso permettermi infinite GPU per creare enormi modelli di linguaggio.
02:48
Nevertheless, I believe that there's so much we need to do
46
168707
4462
Tuttavia, credo ci sia così tanto da fare
02:53
and can do to make AI sustainable and humanistic.
47
173211
4004
e che si possa fare per rendere l’IA sostenibile e umanistica.
02:57
We need to make AI smaller, to democratize it.
48
177799
3378
Dobbiamo rendere l’IA più piccola per democratizzarla.
03:01
And we need to make AI safer by teaching human norms and values.
49
181177
4255
E dobbiamo rendere l’IA più sicura insegnandole norme e valori umani.
03:06
Perhaps we can draw an analogy from "David and Goliath,"
50
186683
4713
Potremmo tracciare un’analogia con “Davide e Golia”,
03:11
here, Goliath being the extreme-scale language models,
51
191438
4587
con Golia che rappresenta i modelli di linguaggio a estrema scalabilità,
03:16
and seek inspiration from an old-time classic, "The Art of War,"
52
196067
5089
e cercare ispirazione dal grande classico “L’arte della guerra”,
03:21
which tells us, in my interpretation,
53
201156
2419
che ci dice, secondo la mia interpretazione,
03:23
know your enemy, choose your battles, and innovate your weapons.
54
203575
4129
conosci il tuo nemico, scegli le tue battaglie e implementa le tue armi.
03:28
Let's start with the first, know your enemy,
55
208163
2669
Cominciamo con la prima, conosci il tuo nemico,
03:30
which means we need to evaluate AI with scrutiny.
56
210874
4129
che significa che dobbiamo valutare l’IA con attenzione.
03:35
AI is passing the bar exam.
57
215044
2169
L’IA ha passato l’esame da avvocato.
03:38
Does that mean that AI is robust at common sense?
58
218089
3212
Questo significa che l’IA ha un forte buonsenso?
03:41
You might assume so, but you never know.
59
221342
2795
Si potrebbe pensare di sì, ma non si sa mai.
03:44
So suppose I left five clothes to dry out in the sun,
60
224429
4129
Mettiamo che ho lasciato ad asciugare cinque vestiti al sole,
03:48
and it took them five hours to dry completely.
61
228600
3003
e ci abbiano messo cinque ore ad asciugarsi completamente.
03:51
How long would it take to dry 30 clothes?
62
231644
3379
Quanto ci vorrebbe per asciugare 30 vestiti?
03:55
GPT-4, the newest, greatest AI system says 30 hours.
63
235315
4337
GPT-4, il più nuovo e migliore sistema di IA dice 30 ore.
03:59
Not good.
64
239694
1502
Non va bene.
04:01
A different one.
65
241196
1167
Un’altra.
04:02
I have 12-liter jug and six-liter jug,
66
242405
2294
Ho una brocca di 12 litri e una di 6 litri
04:04
and I want to measure six liters.
67
244741
1626
e voglio misurare 6 litri.
04:06
How do I do it?
68
246367
1252
Come faccio?
04:07
Just use the six liter jug, right?
69
247660
2002
Uso la brocca di 6 litri, giusto?
04:09
GPT-4 spits out some very elaborate nonsense.
70
249996
3754
GPT-4 tira fuori delle elaboratissime assurdità senza senso.
04:13
(Laughter)
71
253792
2919
(Risate)
04:17
Step one, fill the six-liter jug,
72
257212
2252
Uno, riempi la brocca di 6 litri,
04:19
step two, pour the water from six to 12-liter jug,
73
259506
3044
due, versa l’acqua dalla brocca di 6 litri in quella da 12,
04:22
step three, fill the six-liter jug again,
74
262550
3087
tre, riempi la brocca di 6 litri di nuovo,
04:25
step four, very carefully, pour the water from six to 12-liter jug.
75
265637
4421
quattro, molto attentamente, versa l’acqua dalla brocca da 6 in quella da 12
04:30
And finally you have six liters of water in the six-liter jug
76
270099
4839
e finalmente hai 6 litri d’acqua nella brocca da 6 litri
04:34
that should be empty by now.
77
274979
1460
che dovrebbe essere vuota ormai.
04:36
(Laughter)
78
276439
1377
(Risate)
04:37
OK, one more.
79
277857
1126
Ok, un’altra.
04:39
Would I get a flat tire by bicycling over a bridge
80
279567
4088
Potrei bucare se andassi in bici su un ponte
04:43
that is suspended over nails, screws and broken glass?
81
283696
4630
che è sospeso su chiodi, viti e vetri rotti?
04:48
Yes, highly likely, GPT-4 says,
82
288368
3086
Sì, altamente probabile, dice GPT-4,
04:51
presumably because it cannot correctly reason
83
291454
2378
forse perché non arriva al fatto che
04:53
that if a bridge is suspended over the broken nails and broken glass,
84
293873
4296
se un ponte è sospeso sui chiodi e i vetri rotti,
04:58
then the surface of the bridge doesn't touch the sharp objects directly.
85
298211
4129
allora la superficie del ponte non tocca direttamente gli oggetti taglienti.
05:02
OK, so how would you feel about an AI lawyer that aced the bar exam
86
302340
6089
Ok, allora come vi fa sentire un IA avvocato che ha passato l’esame
05:08
yet randomly fails at such basic common sense?
87
308429
3546
ma che fallisce a caso su un buon senso così basilare?
05:12
AI today is unbelievably intelligent and then shockingly stupid.
88
312767
6131
L’IA oggi è incredibilmente intelligente eppure sorprendentemente stupida.
05:18
(Laughter)
89
318898
1418
(Risate)
05:20
It is an unavoidable side effect of teaching AI through brute-force scale.
90
320316
5673
È un inevitabile effetto collaterale dell’educare l’IA con la forza bruta.
05:26
Some scale optimists might say, “Don’t worry about this.
91
326447
3170
Alcuni ottimisti della scalabilità direbbero, “Non preoccuparti.
05:29
All of these can be easily fixed by adding similar examples
92
329659
3962
Queste cose possono essere risolte aggiungendo esempi simili
05:33
as yet more training data for AI."
93
333663
2753
ai dati di formazione per l’IA.”
05:36
But the real question is this.
94
336916
2044
Ma la vera domanda è questa:
05:39
Why should we even do that?
95
339460
1377
perché dovremmo farlo?
05:40
You are able to get the correct answers right away
96
340879
2836
Siete in grado di rispondere correttamente e subito
05:43
without having to train yourself with similar examples.
97
343715
3295
senza doverlo imparare da esempi simili.
05:48
Children do not even read a trillion words
98
348136
3378
Neanche i bambini leggono un trilione di parole
05:51
to acquire such a basic level of common sense.
99
351556
3420
per acquisire un livello così basilare di buonsenso.
05:54
So this observation leads us to the next wisdom,
100
354976
3170
Quest’osservazione ci porta alla massima seguente,
05:58
choose your battles.
101
358146
1710
scegli le tue battaglie.
06:00
So what fundamental questions should we ask right now
102
360148
4421
Quali domande fondamentali dovremmo porre adesso
06:04
and tackle today
103
364569
1918
e affrontare oggi
06:06
in order to overcome this status quo with extreme-scale AI?
104
366529
4421
per superare questo status quo con l’IA a scalabilità estrema?
06:11
I'll say common sense is among the top priorities.
105
371534
3545
Io dico che il buon senso è tra le priorità assolute.
06:15
So common sense has been a long-standing challenge in AI.
106
375079
3921
Il buonsenso è sempre stato una sfida di vecchia data per l’IA.
06:19
To explain why, let me draw an analogy to dark matter.
107
379667
4088
Per spiegare il perché, farò un’analogia con la materia oscura.
06:23
So only five percent of the universe is normal matter
108
383796
2878
Solo il 5% dell’universo è materia normale
06:26
that you can see and interact with,
109
386716
2794
che puoi vedere e con cui puoi interagire,
06:29
and the remaining 95 percent is dark matter and dark energy.
110
389552
4463
e il restante 95% è materia oscura ed energia oscura.
06:34
Dark matter is completely invisible,
111
394390
1835
La materia oscura è invisibile,
06:36
but scientists speculate that it's there because it influences the visible world,
112
396225
4630
ma gli scienziati ipotizzano che esiste perché influenza il mondo visibile
06:40
even including the trajectory of light.
113
400897
2627
e persino la traiettoria della luce.
06:43
So for language, the normal matter is the visible text,
114
403524
3629
Per il linguaggio, la materia normale è il testo visibile,
06:47
and the dark matter is the unspoken rules about how the world works,
115
407195
4379
e la materia oscura sono le regole non scritte su come funziona il mondo,
06:51
including naive physics and folk psychology,
116
411574
3212
comprese la fisica naif e psicologia popolare,
06:54
which influence the way people use and interpret language.
117
414827
3546
che influenzano il modo in cui la gente usa e interpreta il linguaggio.
06:58
So why is this common sense even important?
118
418831
2503
Allora perché il buonsenso è importante?
07:02
Well, in a famous thought experiment proposed by Nick Bostrom,
119
422460
5464
In un famoso esperimento mentale di Nick Bostrom,
07:07
AI was asked to produce and maximize the paper clips.
120
427924
5881
è stato chiesto a un’IA di produrre e massimizzare le graffette.
07:13
And that AI decided to kill humans to utilize them as additional resources,
121
433805
5964
E quell’IA ha deciso di uccidere gli umani per usarli come risorse aggiuntive,
07:19
to turn you into paper clips.
122
439769
2461
per trasformarvi in graffette.
07:23
Because AI didn't have the basic human understanding about human values.
123
443064
5505
Perché l’IA non aveva una comprensione umana basilare dei valori umani.
07:29
Now, writing a better objective and equation
124
449070
3295
Ora, scrivere un obiettivo e un’equazione migliori
07:32
that explicitly states: “Do not kill humans”
125
452365
2919
che dicono chiaramente: “Non uccidere umani”
07:35
will not work either
126
455284
1210
nemmeno funzionerà
07:36
because AI might go ahead and kill all the trees,
127
456494
3629
perché l’IA potrebbe procedere a uccidere tutti gli alberi,
07:40
thinking that's a perfectly OK thing to do.
128
460123
2419
pensando che sia una cosa normale da fare.
07:42
And in fact, there are endless other things
129
462583
2002
E infatti, ci sono altre innumerevoli cose
07:44
that AI obviously shouldn’t do while maximizing paper clips,
130
464585
2837
che l’IA ovviamente non dovrebbe fare mentre produce graffette,
07:47
including: “Don’t spread the fake news,” “Don’t steal,” “Don’t lie,”
131
467463
4255
compreso “Non diffondere false notizie”, “Non rubare”, “Non mentire”,
07:51
which are all part of our common sense understanding about how the world works.
132
471759
3796
che fanno parte della comprensione del buonsenso su come funziona il mondo.
07:55
However, the AI field for decades has considered common sense
133
475930
4880
In ogni caso, il campo dell’IA ha considerato per decenni il buonsenso
08:00
as a nearly impossible challenge.
134
480810
2753
come una sfida quasi impossibile.
08:03
So much so that when my students and colleagues and I
135
483563
3837
Così tanto che quando io insieme ai miei studenti e colleghi
08:07
started working on it several years ago, we were very much discouraged.
136
487400
3754
abbiamo iniziato a lavorarci parecchi anni fa, eravamo molto scoraggiati.
Ci avevano detto che era un argomento di ricerca degli anni ’70 e ’80,
08:11
We’ve been told that it’s a research topic of ’70s and ’80s;
137
491195
3254
08:14
shouldn’t work on it because it will never work;
138
494490
2419
non avremmo dovuto lavorarci perché non avrebbe mai funzionato;
08:16
in fact, don't even say the word to be taken seriously.
139
496951
3378
infatti non abbiamo mai pensato di essere presi sul serio.
08:20
Now fast forward to this year,
140
500329
2128
Facciamo un salto in avanti fino a quest’anno,
08:22
I’m hearing: “Don’t work on it because ChatGPT has almost solved it.”
141
502498
4296
ho sentito dire: “Non lavorarci su perché ChatGPT ha quasi risolto il problema.”
08:26
And: “Just scale things up and magic will arise,
142
506836
2461
Oppure: ”Basta ridimensionare le cose e tutto accadrà come per magia,
08:29
and nothing else matters.”
143
509338
1794
non serve nient’altro.”
08:31
So my position is that giving true common sense
144
511174
3545
La mia opinione è che dare del vero buonsenso,
08:34
human-like robots common sense to AI, is still moonshot.
145
514761
3712
il buonsenso di robot simili all’uomo all’IA è ancora impossibile.
08:38
And you don’t reach to the Moon
146
518514
1502
E non si raggiunge la Luna
08:40
by making the tallest building in the world one inch taller at a time.
147
520016
4212
costruendo l’edificio più alto del mondo un centimetro alla volta.
I modelli di IA su scala estrema
08:44
Extreme-scale AI models
148
524270
1460
08:45
do acquire an ever-more increasing amount of commonsense knowledge,
149
525772
3169
acquisiscono una quantità sempre più crescente di conoscenza sul buonsenso,
08:48
I'll give you that.
150
528983
1168
e questo è vero,
08:50
But remember, they still stumble on such trivial problems
151
530193
4254
ma ricordate che inciampano ancora su problemi così banali
08:54
that even children can do.
152
534489
2419
che può risolverli anche un bambino.
08:56
So AI today is awfully inefficient.
153
536908
3879
Perciò oggi l’IA è incredibilmente poco efficiente.
09:00
And what if there is an alternative path or path yet to be found?
154
540787
4337
E se ci fosse un percorso alternativo o un percorso ancora sconosciuto?
09:05
A path that can build on the advancements of the deep neural networks,
155
545166
4171
Un percorso che possa partire dai progressi nelle reti neurali profonde,
09:09
but without going so extreme with the scale.
156
549378
2712
ma senza diventare un progetto a scalabilità estrema.
09:12
So this leads us to our final wisdom:
157
552465
3170
Questo ci ha portato all’ultima massima:
09:15
innovate your weapons.
158
555635
1710
implementate le armi.
09:17
In the modern-day AI context,
159
557345
1668
Nel contesto dell’IA moderna
09:19
that means innovate your data and algorithms.
160
559055
3086
ciò significa innovare dati e algoritmi.
09:22
OK, so there are, roughly speaking, three types of data
161
562183
2628
A grandi linee, questi sono i tre tipi di dati
09:24
that modern AI is trained on:
162
564852
1961
in cui l’IA moderna si sta addentrando:
09:26
raw web data,
163
566813
1376
dati web grezzi,
09:28
crafted examples custom developed for AI training,
164
568231
4462
esempi costruiti su misura per la formazione dell’IA
09:32
and then human judgments,
165
572735
2044
e poi le valutazioni umane,
09:34
also known as human feedback on AI performance.
166
574821
3211
note anche come riscontro umano sulle prestazioni IA.
09:38
If the AI is only trained on the first type, raw web data,
167
578074
3962
Se l’IA fosse guidata solo dal primo tipo, i dati web grezzi,
09:42
which is freely available,
168
582078
1710
che sono liberamente accessibili,
09:43
it's not good because this data is loaded with racism and sexism
169
583788
4755
non andrebbe bene perché questi dati sono carichi di razzismo, sessismo
09:48
and misinformation.
170
588584
1126
e disinformazione.
09:49
So no matter how much of it you use, garbage in and garbage out.
171
589752
4171
Quindi non importa quanto la si usi, è robaccia che entra ed esce.
09:54
So the newest, greatest AI systems
172
594507
2794
I sistemi di AI più recenti e grandi
09:57
are now powered with the second and third types of data
173
597343
3337
adesso sono azionati dal secondo e dal terzo tipo di dati
10:00
that are crafted and judged by human workers.
174
600680
3378
che sono lavorati e giudicati da personale umano.
10:04
It's analogous to writing specialized textbooks for AI to study from
175
604350
5422
È simile a scrivere libri di testo specializzati per l’IA da cui studiare
10:09
and then hiring human tutors to give constant feedback to AI.
176
609814
4421
e poi assumere tutor umani per dare continui feedback all’IA.
10:15
These are proprietary data, by and large,
177
615027
2461
Si tratta di dati proprietari, per lo più,
10:17
speculated to cost tens of millions of dollars.
178
617488
3420
che si ipotizza costino decine di milioni di dollari.
10:20
We don't know what's in this,
179
620908
1460
Non sappiamo cosa contengano,
10:22
but it should be open and publicly available
180
622410
2419
ma dovrebbero essere aperti e disponibili al pubblico
10:24
so that we can inspect and ensure [it supports] diverse norms and values.
181
624829
4463
così da poter essere ispezionati e garantire che rispettino norme e valori.
10:29
So for this reason, my teams at UW and AI2
182
629876
2711
Per questo motivo, il mio team a UW e AI2
10:32
have been working on commonsense knowledge graphs
183
632628
2461
ha lavorato sui grafici della conoscenza del buonsenso
10:35
as well as moral norm repositories
184
635089
2086
così come sugli archivi delle norme morali
10:37
to teach AI basic commonsense norms and morals.
185
637216
3504
per insegnare all’IA il buonsenso di base, le norme e la morale.
I nostri dati sono aperti così che chiunque possa ispezionare il contenuto
10:41
Our data is fully open so that anybody can inspect the content
186
641137
3336
10:44
and make corrections as needed
187
644473
1502
e correggerlo se necessario
10:45
because transparency is the key for such an important research topic.
188
645975
4171
perché la trasparenza è la chiave per una ricerca così importante.
10:50
Now let's think about learning algorithms.
189
650646
2545
Pensiamo adesso a come imparare gli algoritmi
10:53
No matter how amazing large language models are,
190
653733
4629
Non importa quanto fantastici i grandi modelli linguistici siano,
10:58
by design
191
658404
1126
dal design
10:59
they may not be the best suited to serve as reliable knowledge models.
192
659572
4755
potrebbero non essere l’ideale come modelli di conoscenza affidabili.
11:04
And these language models do acquire a vast amount of knowledge,
193
664368
4463
E questi modelli linguistici sì che acquisiscono una grande varietà di sapere,
11:08
but they do so as a byproduct as opposed to direct learning objective.
194
668831
4755
ma lo fanno come effetto secondario invece di un obiettivo di apprendimento diretto.
11:14
Resulting in unwanted side effects such as hallucinated effects
195
674503
4296
Con conseguenti effetti collaterali indesiderati come allucinazioni
11:18
and lack of common sense.
196
678841
2002
e mancanza di buonsenso.
11:20
Now, in contrast,
197
680843
1210
Ora, invece,
11:22
human learning is never about predicting which word comes next,
198
682053
3170
l’apprendimento umano non consiste nel predire quale parola verrà,
11:25
but it's really about making sense of the world
199
685223
2877
ma si tratta di dare senso al mondo
11:28
and learning how the world works.
200
688142
1585
e imparare come funziona.
11:29
Maybe AI should be taught that way as well.
201
689727
2544
Forse all’IA dovrebbe essere insegnato anche questo.
11:33
So as a quest toward more direct commonsense knowledge acquisition,
202
693105
6090
Come ricerca verso l’acquisizione più diretta della conoscenza del buonsenso
11:39
my team has been investigating potential new algorithms,
203
699195
3879
il mio team ha investigato nuovi potenziali algoritmi,
11:43
including symbolic knowledge distillation
204
703115
2628
inclusa la distillazione simbolica della conoscenza
11:45
that can take a very large language model as shown here
205
705743
3795
che può prendere un modello di lingua molto ampio come mostrato qui
11:49
that I couldn't fit into the screen because it's too large,
206
709538
3963
e che non sono riuscita a far entrare nello schermo perché troppo grande,
11:53
and crunch that down to much smaller commonsense models
207
713501
4671
e sminuzzare il tutto in modelli di senso pratico molto più piccoli
11:58
using deep neural networks.
208
718214
2252
usando un network neurale profondo.
12:00
And in doing so, we also generate, algorithmically, human-inspectable,
209
720508
5380
Nel farlo creiamo anche, algoritmicamente, una conoscenza del buonsenso
12:05
symbolic, commonsense knowledge representation,
210
725888
3253
che sia ispezionabile dall’uomo e simbolica
12:09
so that people can inspect and make corrections
211
729141
2211
così che possa essere ispezionata, corretta
12:11
and even use it to train other neural commonsense models.
212
731394
3545
e usata per formare altri modelli neurali del buonsenso.
12:15
More broadly,
213
735314
1210
Più in generale,
12:16
we have been tackling this seemingly impossible giant puzzle
214
736565
4630
abbiamo affrontato questo puzzle apparentemente impossibile
12:21
of common sense, ranging from physical,
215
741237
2669
di buonsenso, con un range che va dal buonsenso
12:23
social and visual common sense
216
743906
2169
fisico, sociale e visivo
12:26
to theory of minds, norms and morals.
217
746117
2419
alla teoria delle menti, norme e morali.
12:28
Each individual piece may seem quirky and incomplete,
218
748577
3796
Ogni singolo pezzo può sembrare peculiare e incompleto,
12:32
but when you step back,
219
752415
1585
ma se facciamo un passo indietro,
12:34
it's almost as if these pieces weave together into a tapestry
220
754041
4421
è come se questi pezzi si intrecciassero insieme in un quadro
12:38
that we call human experience and common sense.
221
758504
3045
che chiamiamo l’esperienza umana e il senso comune.
12:42
We're now entering a new era
222
762174
1961
Stiamo entrando in una nuova era
12:44
in which AI is almost like a new intellectual species
223
764176
5923
in cui l’IA è quasi come le nuove specie intellettuali
12:50
with unique strengths and weaknesses compared to humans.
224
770099
3837
con forze e debolezze uniche comparate agli esseri umani.
12:54
In order to make this powerful AI
225
774478
3546
In modo da rendere questa potente IA
12:58
sustainable and humanistic,
226
778065
2336
sostenibile e umanistica
13:00
we need to teach AI common sense, norms and values.
227
780401
4129
dobbiamo insegnare all’IA il buon senso, le norme e i valori.
13:04
Thank you.
228
784530
1376
Grazie.
13:05
(Applause)
229
785906
6966
(Applausi)
13:13
Chris Anderson: Look at that.
230
793664
1460
Chris Anderson: Guarda qui.
13:15
Yejin, please stay one sec.
231
795124
1877
Yejin, per favore resta un secondo.
13:18
This is so interesting,
232
798002
1418
È davvero interessante,
13:19
this idea of common sense.
233
799462
2002
quest’idea del buonsenso.
13:21
We obviously all really want this from whatever's coming.
234
801505
3712
Ovviamente lo vogliamo tutti, qualunque cosa stia per arrivare
13:25
But help me understand.
235
805926
1168
Ma aiutami a capire.
13:27
Like, so we've had this model of a child learning.
236
807094
4463
Abbiamo quindi avuto questo modello di apprendimento dei bambini.
13:31
How does a child gain common sense
237
811599
3044
Come fanno i bambini ad acquisire il buonsenso
13:34
apart from the accumulation of more input
238
814685
3545
oltre che dall’accumulazione di più input
13:38
and some, you know, human feedback?
239
818230
3045
e alcuni feedback umani?
13:41
What else is there?
240
821317
1293
Cos’altro c’è?
13:42
Yejin Choi: So fundamentally, there are several things missing,
241
822610
3003
Yejin Choi: Fondamentalmente mancano molte cose,
13:45
but one of them is, for example,
242
825613
1918
ma una di queste è, per esempio,
13:47
the ability to make hypothesis and make experiments,
243
827573
3796
l’abilità di fare ipotesi e fare esperimenti,
13:51
interact with the world and develop this hypothesis.
244
831369
4713
interagire con il mondo e sviluppare questa ipotesi.
13:56
We abstract away the concepts about how the world works,
245
836123
3671
Noi astraiamo i concetti su come funziona il mondo,
13:59
and then that's how we truly learn,
246
839835
2044
ed è così che impariamo veramente,
14:01
as opposed to today's language model.
247
841921
3003
al contrario del modello linguistico di oggi.
14:05
Some of them is really not there quite yet.
248
845424
2795
Alcuni di loro non ci sono ancora arrivati.
14:09
CA: You use the analogy that we can’t get to the Moon
249
849303
2669
CA: Tu usi l’analogia che non possiamo arrivare sulla Luna
14:12
by extending a building a foot at a time.
250
852014
2544
estendendo un edificio un metro la volta.
14:14
But the experience that most of us have had
251
854558
2044
Ma l’esperienza che noi abbiamo avuto
14:16
of these language models is not a foot at a time.
252
856602
2336
con questi modelli non è di un metro la volta.
14:18
It's like, the sort of, breathtaking acceleration.
253
858938
2669
È stata, più o meno, un’accelerazione incredibile.
14:21
Are you sure that given the pace at which those things are going,
254
861607
3670
Sei sicura che, visto l’andamento di come stanno andando le cose,
14:25
each next level seems to be bringing with it
255
865319
2711
ogni step successivo sembra portare con se
14:28
what feels kind of like wisdom and knowledge.
256
868072
4671
quello che sembra saggezza e conoscenza.
14:32
YC: I totally agree that it's remarkable how much this scaling things up
257
872785
5297
YC: Sono pienamente d’accordo sul fatto che sia notevole come la scalabilità
14:38
really enhances the performance across the board.
258
878124
3670
migliori davvero le prestazioni in tutti i suoi aspetti.
14:42
So there's real learning happening
259
882086
2544
Quindi c’è un apprendimento reale
14:44
due to the scale of the compute and data.
260
884630
4797
grazie alla scalabilità dei computer e dati.
14:49
However, there's a quality of learning that is still not quite there.
261
889468
4171
Tuttavia, quello che manca ancora è la qualità dell’apprendimento.
14:53
And the thing is,
262
893681
1168
E il fatto è che,
14:54
we don't yet know whether we can fully get there or not
263
894849
3712
non sappiamo ancora se possiamo arrivarci o meno
14:58
just by scaling things up.
264
898561
2335
solamente aumentando la scalabilità.
15:01
And if we cannot, then there's this question of what else?
265
901188
4213
E se non possiamo, ci sarà poi la domanda di cos’altro?
15:05
And then even if we could,
266
905401
1877
E anche se potessimo,
15:07
do we like this idea of having very, very extreme-scale AI models
267
907319
5214
ci piace l’idea di avere dei modelli di IA su scala molto estrema
15:12
that only a few can create and own?
268
912575
4337
che solo pochi possono creare e possedere?
15:18
CA: I mean, if OpenAI said, you know, "We're interested in your work,
269
918456
4587
CA: Se OpenAI dicesse, per esempio “Siamo interessati al vostro lavoro,
15:23
we would like you to help improve our model,"
270
923043
2837
vorremmo che ci aiutaste a migliorare il nostro modello,”
15:25
can you see any way of combining what you're doing
271
925921
2670
riesci a vedere un modo per unire quello che fate
15:28
with what they have built?
272
928632
1710
con quello che loro hanno costruito?
15:30
YC: Certainly what I envision
273
930926
2336
YC: Sicuramente quello che immagino
15:33
will need to build on the advancements of deep neural networks.
274
933304
4171
è che bisognerà costruirlo sugli sviluppi di una profonda rete neurale.
15:37
And it might be that there’s some scale Goldilocks Zone,
275
937516
4213
E può darsi che ci sia qualche zona abitabile su scala,
15:41
such that ...
276
941770
1168
tale da ...
15:42
I'm not imagining that the smaller is the better either, by the way.
277
942980
3212
Non immagino nemmeno che il più piccolo sia migliore, tral’altro.
15:46
It's likely that there's right amount of scale, but beyond that,
278
946233
4421
È probabile che ci sia la giusta quantità di scalabilità, ma a parte questo,
15:50
the winning recipe might be something else.
279
950696
2294
la ricetta vincente potrebbe essere un’altra.
15:53
So some synthesis of ideas will be critical here.
280
953032
4838
Quindi una sintesi delle idee potrebbe essere critica qui.
15:58
CA: Yejin Choi, thank you so much for your talk.
281
958579
2294
CA: Yejin Choi, grazie mille per il tuo talk.
16:00
(Applause)
282
960873
1585
(Applausi)
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7