How to Govern AI — Even If It’s Hard to Predict | Helen Toner | TED

62,109 views ・ 2024-05-01

TED


Fare doppio clic sui sottotitoli in inglese per riprodurre il video.

Traduttore: Alessia Peraro Revisore: Chiara Mondini
00:03
When I talk to people about artificial intelligence,
0
3583
3963
Quando parlo con le persone di intelligenza artificiale,
00:07
something I hear a lot from non-experts is “I don’t understand AI.”
1
7546
5255
qualcosa che gli inesperti mi dicono spesso è «Non capisco l’IA».
00:13
But when I talk to experts, a funny thing happens.
2
13260
2794
Ma quando parlo con esperti, succede una cosa divertente.
00:16
They say, “I don’t understand AI, and neither does anyone else.”
3
16096
4546
Dicono: «Non capisco l’IA e nessuno ci riesce».
00:21
This is a pretty strange state of affairs.
4
21393
3503
È una situazione piuttosto strana.
00:24
Normally, the people building a new technology
5
24896
3295
Normalmente, le persone che realizzano una nuova tecnologia
00:28
understand how it works inside and out.
6
28233
2669
capiscono come funziona dentro e fuori.
00:31
But for AI, a technology that's radically reshaping the world around us,
7
31695
4546
Ma per l’IA, una tecnologia che sta rimodellando radicalmente il mondo,
00:36
that's not so.
8
36283
1167
non è così.
00:37
Experts do know plenty about how to build and run AI systems, of course.
9
37492
4588
Gli esperti sanno molto su come creare e gestire sistemi di IA, ovviamente.
00:42
But when it comes to how they work on the inside,
10
42455
2503
Ma per quanto riguarda il loro funzionamento interno,
00:45
there are serious limits to how much we know.
11
45000
2877
ci sono seri limiti in merito a quanto ne sappiamo.
00:48
And this matters because without deeply understanding AI,
12
48420
3879
E questo è importante perché senza una profonda comprensione dell’IA,
00:52
it's really difficult for us to know what it will be able to do next,
13
52340
4255
è davvero difficile sapere cosa sarà in grado di fare dopo,
00:56
or even what it can do now.
14
56636
2336
o anche cosa possa fare ora.
00:59
And the fact that we have such a hard time understanding
15
59556
3378
E il fatto che abbiamo difficoltà a capire
01:02
what's going on with the technology and predicting where it will go next,
16
62976
3837
cosa stia succedendo con la tecnologia e a prevedere dove si arriverà in futuro
01:06
is one of the biggest hurdles we face in figuring out how to govern AI.
17
66855
4629
è uno dei maggiori ostacoli da affrontare nel capire come governare l’IA.
01:12
But AI is already all around us,
18
72861
2294
Ma l’IA è già intorno a noi,
01:15
so we can't just sit around and wait for things to become clearer.
19
75155
4254
quindi non possiamo restare seduti ad aspettare che le cose siano più chiare.
01:19
We have to forge some kind of path forward anyway.
20
79826
3170
Dobbiamo comunque creare una sorta di percorso da seguire.
01:24
I've been working on these AI policy and governance issues
21
84080
3629
Lavoro su questi problemi di politica e governance dell’IA
01:27
for about eight years,
22
87751
1167
da circa otto anni,
01:28
First in San Francisco, now in Washington, DC.
23
88918
3170
prima a San Francisco, ora a Washington D.C.
01:32
Along the way, I've gotten an inside look
24
92922
2753
Durante il mio percorso, ho potuto vedere dall’interno
01:35
at how governments are working to manage this technology.
25
95717
3754
come i governi stiano lavorando per gestire questa tecnologia.
01:39
And inside the industry, I've seen a thing or two as well.
26
99471
4421
E anche all’interno del settore, ho osservato un paio di cose.
01:45
So I'm going to share a couple of ideas
27
105852
3170
Quindi condividerò alcune idee
01:49
for what our path to governing AI could look like.
28
109022
3629
su come potrebbe essere il nostro percorso per governare l’IA.
01:53
But first, let's talk about what actually makes AI so hard to understand
29
113026
4421
Ma prima, parliamo di cosa renda l’IA così difficile da capire
01:57
and predict.
30
117489
1251
e da prevedere.
01:59
One huge challenge in building artificial "intelligence"
31
119616
3837
Una grande sfida nella costruzione dell’ «intelligenza» artificiale
02:03
is that no one can agree on what it actually means
32
123495
3086
è che nessuno sia d’accordo su cosa significhi davvero
02:06
to be intelligent.
33
126623
1752
essere intelligenti.
02:09
This is a strange place to be in when building a new tech.
34
129000
3170
Ed è una cosa un po’ scomoda quando sviluppi una nuova tecnologia.
02:12
When the Wright brothers started experimenting with planes,
35
132212
3295
Quando i fratelli Wright iniziarono a sperimentare con gli aerei,
02:15
they didn't know how to build one,
36
135507
1668
non sapevano come costruirne uno,
02:17
but everyone knew what it meant to fly.
37
137175
3128
ma tutti sapevano cosa significasse volare.
02:21
With AI on the other hand,
38
141596
1794
Per quanto riguarda l’IA, invece,
02:23
different experts have completely different intuitions
39
143431
3295
diversi esperti hanno intuizioni completamente diverse
02:26
about what lies at the heart of intelligence.
40
146726
2920
su ciò che sta alla base dell’intelligenza.
02:29
Is it problem solving?
41
149646
2210
È la capacità di risolvere problemi?
02:31
Is it learning and adaptation,
42
151898
2711
Capacità di apprendimento e adattamento,
02:34
are emotions,
43
154651
1418
le emozioni
02:36
or having a physical body somehow involved?
44
156111
3128
o l’avere un corpo fisico c’entrano qualcosa?
02:39
We genuinely don't know.
45
159698
1459
Non lo sappiamo con certezza.
02:41
But different answers lead to radically different expectations
46
161157
4338
Ma risposte diverse portano ad aspettative radicalmente diverse
02:45
about where the technology is going and how fast it'll get there.
47
165537
4254
su dove si stia dirigendo la tecnologia e quanto velocemente ci arriverà.
02:50
An example of how we're confused is how we used to talk
48
170834
2586
Un esempio della nostra confusione è come parlavamo
02:53
about narrow versus general AI.
49
173461
2294
di IA ristretta e IA generale.
02:55
For a long time, we talked in terms of two buckets.
50
175797
3795
Per molto tempo ne abbiamo parlato in termini separati.
02:59
A lot of people thought we should just be dividing between narrow AI,
51
179634
4129
Molte persone pensavano bisognasse semplicemente distinguere un’IA ristretta,
03:03
trained for one specific task,
52
183763
1919
addestrata per un compito specifico,
03:05
like recommending the next YouTube video,
53
185724
2669
come consigliare il prossimo video di YouTube,
03:08
versus artificial general intelligence, or AGI,
54
188435
3795
da un’IA generale o AGI,
03:12
that could do everything a human could do.
55
192272
2586
che potrebbe fare ciò che può fare un essere umano.
03:15
We thought of this distinction, narrow versus general,
56
195859
2919
Consideravamo questa distinzione, ristretta vs. generale,
03:18
as a core divide between what we could build in practice
57
198778
3963
come una divisione fondamentale tra ciò che potremmo costruire concretamente
03:22
and what would actually be intelligent.
58
202782
2252
e ciò che sarebbe realmente intelligente.
03:25
But then a year or two ago, along came ChatGPT.
59
205952
4963
Ma poi un anno o due fa, è arrivata ChatGPT.
03:31
If you think about it,
60
211541
1543
Pensandoci bene,
03:33
you know, is it narrow AI, trained for one specific task?
61
213126
3712
si tratta di un’IA ristretta, addestrata per un compito specifico?
03:36
Or is it AGI and can do everything a human can do?
62
216838
3170
Oppure è un’ AGI che può fare tutto ciò che fa un essere umano?
03:41
Clearly the answer is neither.
63
221092
1502
In realtà è nessuna delle due.
03:42
It's certainly general purpose.
64
222635
1919
È certamente di uso generico.
03:44
It can code, write poetry,
65
224554
2920
Può programmare, scrivere poesie,
03:47
analyze business problems, help you fix your car.
66
227515
3045
analizzare problemi aziendali, aiutarti a riparare l’auto.
03:51
But it's a far cry from being able to do everything
67
231352
2795
Ma è ben lontano dall’essere in grado di fare le cose
03:54
as well as you or I could do it.
68
234189
2419
così come possiamo farle noi.
03:56
So it turns out this idea of generality
69
236608
2043
Quindi questa idea di generalità in realtà
03:58
doesn't actually seem to be the right dividing line
70
238651
2711
non sembra essere la giusta linea di demarcazione
04:01
between intelligent and not.
71
241404
2127
tra intelligente e non intelligente.
04:04
And this kind of thing
72
244073
1335
E questo genere di cose
04:05
is a huge challenge for the whole field of AI right now.
73
245450
2794
sono ad oggi una grande sfida per il campo dell’IA.
04:08
We don't have any agreement on what we're trying to build
74
248286
2836
Non c’è alcun accordo su ciò che cerchiamo di costruire
04:11
or on what the road map looks like from here.
75
251164
2419
o su come sarà la road map da qui in poi.
04:13
We don't even clearly understand the AI systems that we have today.
76
253625
3962
Non capiamo nemmeno del tutto i sistemi di IA di cui disponiamo oggi.
04:18
Why is that?
77
258004
1251
Come mai?
04:19
Researchers sometimes describe deep neural networks,
78
259297
3003
I ricercatori a volte descrivono le reti neurali profonde,
04:22
the main kind of AI being built today,
79
262300
2085
il principale tipo di IA costruito oggi,
04:24
as a black box.
80
264427
1460
come una scatola nera.
04:26
But what they mean by that is not that it's inherently mysterious
81
266304
3670
Ma ciò che intendono con questo non è che sia intrinsecamente misterioso
04:29
and we have no way of looking inside the box.
82
269974
2711
e che non abbiamo modo di guardare dentro la scatola.
04:33
The problem is that when we do look inside,
83
273228
2669
Il problema è che quando guardiamo all'interno,
04:35
what we find are millions,
84
275939
2335
troviamo milioni,
04:38
billions or even trillions of numbers
85
278316
2878
miliardi o addirittura trilioni di numeri
04:41
that get added and multiplied together in a particular way.
86
281194
3462
che vengono sommati e moltiplicati in un modo particolare.
04:45
What makes it hard for experts to know what's going on
87
285031
2544
Per gli esperti è difficile sapere cosa succede
04:47
is basically just, there are too many numbers,
88
287617
3086
perché ci sono troppi numeri
04:50
and we don't yet have good ways of teasing apart what they're all doing.
89
290745
3962
e non abbiamo ancora mezzi validi per distinguere cosa faccia ognuno di essi.
04:54
There's a little bit more to it than that, but not a lot.
90
294707
3003
È un po’ più complicato di così, ma non molto.
04:58
So how do we govern this technology
91
298545
3003
Quindi, come possiamo controllare questa tecnologia
05:01
that we struggle to understand and predict?
92
301589
2628
che facciamo fatica a comprendere e prevedere?
05:04
I'm going to share two ideas.
93
304717
1502
Condividerò due idee.
05:06
One for all of us and one for policymakers.
94
306261
3253
Una per tutti noi e una per i responsabili politici.
05:10
First, don't be intimidated.
95
310932
2711
Primo, non lasciatevi intimidire.
05:14
Either by the technology itself
96
314102
2461
Né dalla tecnologia stessa
05:16
or by the people and companies building it.
97
316563
3086
né dalle persone e dalle aziende che la costruiscono.
05:20
On the technology,
98
320400
1168
Stando alla tecnologia,
05:21
AI can be confusing, but it's not magical.
99
321568
2502
l’IA può creare confusione, ma non è magia.
05:24
There are some parts of AI systems we do already understand well,
100
324070
3504
Ci sono alcune parti dei sistemi di IA che conosciamo già bene,
05:27
and even the parts we don't understand won't be opaque forever.
101
327574
4045
e anche le parti che non comprendiamo non rimarranno oscure per sempre.
05:31
An area of research known as “AI interpretability”
102
331619
3295
Un'area di ricerca nota come «interpretabilità dell'IA»
05:34
has made quite a lot of progress in the last few years
103
334956
3128
ha fatto molti progressi negli ultimi anni
05:38
in making sense of what all those billions of numbers are doing.
104
338084
3504
nel dare un senso a ciò che fanno tutti quei miliardi di numeri.
05:42
One team of researchers, for example,
105
342463
2169
Un team di ricercatori, ad esempio,
05:44
found a way to identify different parts of a neural network
106
344674
3420
ha trovato un modo per identificare diverse parti di una rete neurale
05:48
that they could dial up or dial down
107
348136
2335
che potevano comporre o diminuire
05:50
to make the AI's answers happier or angrier,
108
350513
3754
per rendere le risposte dell’IA più felici o arrabbiate,
05:54
more honest,
109
354309
1418
più oneste,
05:55
more Machiavellian, and so on.
110
355768
2545
più machiavelliche e così via.
05:58
If we can push forward this kind of research further,
111
358771
2503
Se riusciamo a portare avanti questo tipo di ricerca,
06:01
then five or 10 years from now,
112
361316
2210
tra cinque o 10 anni,
06:03
we might have a much clearer understanding of what's going on
113
363526
3003
potremmo avere una idea molto più chiara di cosa succeda
06:06
inside the so-called black box.
114
366571
2669
all’interno della cosiddetta scatola nera.
06:10
And when it comes to those building the technology,
115
370325
2669
E quando si tratta di chi costruisce la tecnologia,
06:13
technologists sometimes act as though
116
373036
1918
i tecnici a volte vogliono far credere
06:14
if you're not elbows deep in the technical details,
117
374996
3420
che chi non conosce a fondo i dettagli tecnici,
06:18
then you're not entitled to an opinion on what we should do with it.
118
378458
3420
non abbia il diritto di avere un’opinione su cosa dovremmo farne.
06:22
Expertise has its place, of course,
119
382337
2294
L’esperienza ha il suo valore, ovviamente,
06:24
but history shows us how important it is
120
384672
2169
ma la storia dimostra quanto sia importante
06:26
that the people affected by a new technology
121
386883
3003
che le persone influenzate da una nuova tecnologia
06:29
get to play a role in shaping how we use it.
122
389886
2753
contribuiscano nel plasmare il modo in cui la utilizziamo.
06:32
Like the factory workers in the 20th century who fought for factory safety,
123
392639
4629
Come gli operai del XX secolo che si batterono per la sicurezza in fabbrica,
06:37
or the disability advocates
124
397310
2127
o i difensori della disabilità
06:39
who made sure the world wide web was accessible.
125
399437
3003
che hanno fatto sì che il World Wide Web fosse accessibile.
06:42
You don't have to be a scientist or engineer to have a voice.
126
402982
3963
Non devi essere uno scienziato o un ingegnere per avere voce in capitolo.
06:48
(Applause)
127
408821
4547
(Applausi)
06:53
Second, we need to focus on adaptability, not certainty.
128
413868
5464
In secondo luogo, dobbiamo concentrarci sull’adattabilità, non sulla certezza.
06:59
A lot of conversations about how to make policy for AI
129
419749
3128
Molte conversazioni su come definire una politica per l’IA
07:02
get bogged down in fights between, on the one side,
130
422919
2711
finisce per impantanarsi in scontri tra chi, da un lato,
07:05
people saying, "We have to regulate AI really hard right now
131
425672
3003
dice: «Dobbiamo regolamentare l’IA con fermezza
07:08
because it's so risky."
132
428716
1585
perché è molto rischiosa».
07:10
And on the other side, people saying,
133
430301
1794
Dall’altro lato, c’è chi dice:
07:12
“But regulation will kill innovation, and those risks are made up anyway.”
134
432136
4129
«Ma la regolamentazione uccide l’innovazione, e i rischi sono inventati».
07:16
But the way I see it,
135
436307
1168
Ma per come la vedo io,
07:17
it’s not just a choice between slamming on the brakes
136
437475
2961
non si tratta solo di scegliere tra tirare il freno
07:20
or hitting the gas.
137
440478
1502
o premere sull’acceleratore.
07:22
If you're driving down a road with unexpected twists and turns,
138
442313
3962
Se state percorrendo una strada con curve inaspettate,
07:26
then two things that will help you a lot
139
446275
2503
due cose vi aiuteranno molto:
07:28
are having a clear view out the windshield
140
448778
2794
avere una visuale chiara dal parabrezza
07:31
and an excellent steering system.
141
451614
2419
e un ottimo sterzo.
07:34
In AI, this means having a clear picture of where the technology is
142
454033
5005
Nell’IA, ciò significa avere un quadro chiaro di dove si trovi la tecnologia,
07:39
and where it's going,
143
459080
1627
quale strada stia prendendo
07:40
and having plans in place for what to do in different scenarios.
144
460707
3628
e disporre di piani d’azione per diversi scenari.
07:44
Concretely, this means things like investing in our ability to measure
145
464752
4338
Concretamente, ciò significa investire nella nostra capacità di misurare
07:49
what AI systems can do.
146
469132
1877
ciò che i sistemi di IA possono fare.
07:51
This sounds nerdy, but it really matters.
147
471342
3212
Può sembrare un po’ nerd, ma è davvero importante.
07:54
Right now, if we want to figure out
148
474595
2044
In questo momento, se vogliamo capire
07:56
whether an AI can do something concerning,
149
476681
2002
se un’IA possa fare cose preoccupanti,
07:58
like hack critical infrastructure
150
478725
2377
come hackerare infrastrutture critiche
08:01
or persuade someone to change their political beliefs,
151
481102
4671
o persuadere qualcuno a cambiare le proprie convinzioni politiche,
08:05
our methods of measuring that are rudimentary.
152
485773
2544
i nostri metodi di misurazione sono rudimentali.
08:08
We need better.
153
488317
1210
Abbiamo bisogno di altro.
08:10
We should also be requiring AI companies,
154
490319
2545
Dovremmo inoltre richiedere alle aziende di IA,
08:12
especially the companies building the most advanced AI systems,
155
492905
3420
soprattutto alle aziende che costruiscono i sistemi di IA più avanzati,
08:16
to share information about what they're building,
156
496367
3170
di condividere informazioni su ciò che stanno costruendo,
08:19
what their systems can do
157
499537
1710
su cosa possono fare i loro sistemi
08:21
and how they're managing risks.
158
501289
2127
e su come gestiscono i rischi.
08:23
And they should have to let in external AI auditors to scrutinize their work
159
503458
5589
E dovrebbero ammettere dei revisori esterni di IA per esaminare il loro lavoro
08:29
so that the companies aren't just grading their own homework.
160
509088
3128
così che non siano solo le aziende a valutare i propri compiti.
08:33
(Applause)
161
513801
4213
(Applausi)
08:38
A final example of what this can look like
162
518014
2461
Un ultimo esempio di ciò che si potrebbe fare
08:40
is setting up incident reporting mechanisms,
163
520475
3503
è la creazione di meccanismi di segnalazione degli incidenti,
08:44
so that when things do go wrong in the real world,
164
524020
2753
in modo che quando le cose vanno male nel mondo reale,
08:46
we have a way to collect data on what happened
165
526814
2962
abbiamo un modo per raccogliere dati su ciò che è successo
08:49
and how we can fix it next time.
166
529817
2002
e su come risolverlo la prossima volta.
08:51
Just like the data we collect on plane crashes and cyber attacks.
167
531819
4421
Proprio come i dati che raccogliamo sugli incidenti aerei e gli attacchi informatici
08:57
None of these ideas are mine,
168
537158
1668
Nessuna di queste idee è mia
08:58
and some of them are already starting to be implemented in places like Brussels,
169
538868
4504
e alcune di esse stanno già iniziando a essere implementate a Bruxelles,
09:03
London, even Washington.
170
543372
2128
Londra e persino Washington.
09:06
But the reason I'm highlighting these ideas,
171
546042
2627
Ma il motivo per cui sto rimarcando queste idee,
09:08
measurement, disclosure, incident reporting,
172
548669
4046
misurazione, divulgazione e segnalazione degli incidenti,
09:12
is that they help us navigate progress in AI
173
552757
2794
è che esse ci aiutano a orientarci nel progresso dell’IA
09:15
by giving us a clearer view out the windshield.
174
555593
3086
offrendoci una visione più chiara fuori dal parabrezza.
09:18
If AI is progressing fast in dangerous directions,
175
558721
3712
Se l'IA sta progredendo rapidamente in direzioni pericolose,
09:22
these policies will help us see that.
176
562475
2377
queste politiche ci aiuteranno a capirlo.
09:25
And if everything is going smoothly, they'll show us that too,
177
565436
3545
E se tutto procede senza intoppi, ci dimostreranno anche questo
09:28
and we can respond accordingly.
178
568981
2211
e potremo rispondere di conseguenza.
09:33
What I want to leave you with
179
573569
1502
Ciò che voglio trasmettervi
09:35
is that it's both true that there's a ton of uncertainty
180
575071
4629
è che è vero che c’è molta incertezza
09:39
and disagreement in the field of AI.
181
579742
2961
e disaccordo nel campo dell'IA.
09:42
And that companies are already building and deploying AI
182
582745
4046
E che le aziende stanno già sviluppando e implementando l'IA
09:46
all over the place anyway in ways that affect all of us.
183
586833
4462
ovunque, in modi che riguardano tutti noi.
09:52
Left to their own devices,
184
592004
1544
Lasciate a se stesse,
09:53
it looks like AI companies might go in a similar direction
185
593548
3169
pare che le aziende di IA potrebbero seguire una strada simile
09:56
to social media companies,
186
596717
1961
a quella delle società di social media,
09:58
spending most of their resources on building web apps
187
598678
2627
usando gran parte delle risorse nella creazione di App
10:01
and for users' attention.
188
601305
1836
e nell’accaparrarsi gli utenti.
10:04
And by default, it looks like the enormous power of more advanced AI systems
189
604016
4463
E da default, sembra che l’enorme potenza di sistemi di IA più avanzati
10:08
might stay concentrated in the hands of a small number of companies,
190
608479
4046
potrebbe rimanere concentrata nelle mani di un piccolo numero di aziende
10:12
or even a small number of individuals.
191
612567
1918
o di un piccolo numero di individui.
10:15
But AI's potential goes so far beyond that.
192
615278
3253
Ma il potenziale dell’IA va ben oltre.
10:18
AI already lets us leap over language barriers
193
618531
2711
L’IA ci consente già di superare barriere linguistiche
10:21
and predict protein structures.
194
621284
2252
e prevedere le strutture proteiche.
10:23
More advanced systems could unlock clean, limitless fusion energy
195
623536
4504
Sistemi più avanzati potrebbero sbloccare energia da fusione pulita e illimitata
10:28
or revolutionize how we grow food
196
628082
2503
o rivoluzionare il modo in cui coltiviamo il cibo
10:30
or 1,000 other things.
197
630626
1835
o mille altre cose.
10:32
And we each have a voice in what happens.
198
632962
2586
E ognuno di noi ha voce in capitolo su ciò che accade.
10:35
We're not just data sources,
199
635548
2002
Non siamo solo fonti di dati,
10:37
we are users,
200
637592
2043
siamo utenti,
10:39
we're workers,
201
639635
1502
siamo lavoratori,
10:41
we're citizens.
202
641137
1209
siamo cittadini.
10:43
So as tempting as it might be,
203
643514
2961
Quindi, per quanto sia allettante,
10:46
we can't wait for clarity or expert consensus
204
646475
4672
non vediamo l'ora che arrivino chiarimenti o il consenso degli esperti
10:51
to figure out what we want to happen with AI.
205
651147
3378
per capire cosa vogliamo che accada con l'IA.
10:54
AI is already happening to us.
206
654525
2586
L’IA è già intorno a noi.
10:57
What we can do is put policies in place
207
657737
3211
Ciò che possiamo fare è mettere in atto politiche
11:00
to give us as clear a picture as we can get
208
660948
2670
che ci forniscano un quadro il più chiaro possibile
11:03
of how the technology is changing,
209
663618
2460
di come la tecnologia stia cambiando,
11:06
and then we can get in the arena and push for futures we actually want.
210
666078
5089
e poi possiamo entrare nell’arena e lottare per il futuro che vogliamo.
11:11
Thank you.
211
671751
1126
Grazie.
11:12
(Applause)
212
672919
3378
(Applausi)
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7