AI Is Dangerous, but Not for the Reasons You Think | Sasha Luccioni | TED

882,325 views ・ 2023-11-06

TED


Fare doppio clic sui sottotitoli in inglese per riprodurre il video.

Traduttore: Martina Abrami Revisore: Gabriella Patricola
00:04
So I've been an AI researcher for over a decade.
0
4292
3504
Da più di 10 anni, sono una ricercatrice in ambito IA.
00:07
And a couple of months ago, I got the weirdest email of my career.
1
7796
3503
Un paio di mesi fa, ho ricevuto l’email più strana della mia carriera.
00:11
A random stranger wrote to me
2
11925
1668
Uno sconosciuto a caso mi ha scritto
00:13
saying that my work in AI is going to end humanity.
3
13635
3420
che il mio lavoro nell’IA porrà fine all’umanità.
00:18
Now I get it, AI, it's so hot right now.
4
18598
3754
Lo capisco, l’IA è un tema caldo in questo momento.
00:22
(Laughter)
5
22352
1627
(Risate)
00:24
It's in the headlines pretty much every day,
6
24020
2086
Fa notizia praticamente ogni giorno,
00:26
sometimes because of really cool things
7
26106
1918
a volte per cose interessanti,
come la scoperta di nuove molecole in medicina
00:28
like discovering new molecules for medicine
8
28066
2169
00:30
or that dope Pope in the white puffer coat.
9
30235
2252
o quel deepfake del Papa con indosso il piumino bianco.
00:33
But other times the headlines have been really dark,
10
33446
2461
Altre volte, per cose negative,
00:35
like that chatbot telling that guy that he should divorce his wife
11
35907
3671
come quel chatbot che suggerì a un tizio di divorziare dalla moglie
00:39
or that AI meal planner app proposing a crowd pleasing recipe
12
39619
4088
o quando un'app per pianificare i pasti proponeva una ricetta con gas di cloro.
00:43
featuring chlorine gas.
13
43707
2002
00:46
And in the background,
14
46376
1418
Abbiamo sentito parlare tutti di scenari apocalittici,
00:47
we've heard a lot of talk about doomsday scenarios,
15
47836
2419
00:50
existential risk and the singularity,
16
50255
1918
di rischi individuali e collettivi
00:52
with letters being written and events being organized
17
52215
2503
con eventi organizzati e lettere pubbliche per assicurarsi che ciò non accada.
00:54
to make sure that doesn't happen.
18
54718
2002
00:57
Now I'm a researcher who studies AI's impacts on society,
19
57637
4630
Lo studio l'impatto dell’IA sulla società.
01:02
and I don't know what's going to happen in 10 or 20 years,
20
62267
2836
Non so cosa succederà tra 10 o 20 anni,
01:05
and nobody really does.
21
65145
2461
nessuno lo sa.
01:07
But what I do know is that there's some pretty nasty things going on right now,
22
67981
4546
Ma quello che so, è che stanno succedendo cose brutte
01:12
because AI doesn't exist in a vacuum.
23
72527
2878
perché l’IA non è una realtà a sé.
01:15
It is part of society, and it has impacts on people and the planet.
24
75447
3920
Fa parte della società e ha un impatto sulle persone e sul pianeta.
01:20
AI models can contribute to climate change.
25
80160
2502
I modelli di IA contribuiscono al cambiamento climatico.
01:22
Their training data uses art and books created by artists
26
82704
3462
I dati di addestramento usano opere d’arte e libri
di artisti e autori senza il loro consenso.
01:26
and authors without their consent.
27
86207
1710
01:27
And its deployment can discriminate against entire communities.
28
87959
3837
Inoltre, la sua diffusione può discriminare intere comunità.
01:32
But we need to start tracking its impacts.
29
92797
2127
Dobbiamo iniziare a monitorarne gli effetti.
01:34
We need to start being transparent and disclosing them and creating tools
30
94966
3587
Con trasparenza, dobbiamo divulgare i dati
e creare strumenti per permettere alle persone di capire meglio l’IA.
01:38
so that people understand AI better,
31
98595
2419
01:41
so that hopefully future generations of AI models
32
101056
2335
Così facendo, le future generazioni di IA saranno più affidabili, sostenibili,
01:43
are going to be more trustworthy, sustainable,
33
103433
2836
01:46
maybe less likely to kill us, if that's what you're into.
34
106269
2836
forse meno propense a ucciderci, se è questo a preoccuparvi.
01:50
But let's start with sustainability,
35
110148
1752
Partiamo dalla sostenibilità,
01:51
because that cloud that AI models live on is actually made out of metal, plastic,
36
111900
5756
dato che il cloud dove vivono i modelli di IA
è fatto di metallo, plastica
01:57
and powered by vast amounts of energy.
37
117656
2460
ed è alimentato da enormi quantità di energia.
02:00
And each time you query an AI model, it comes with a cost to the planet.
38
120116
4463
Ogni volta che interroghiamo l’IA, ciò comporta un costo per il pianeta.
02:05
Last year, I was part of the BigScience initiative,
39
125789
3044
L’anno scorso ho partecipato all’iniziativa BigScience,
02:08
which brought together a thousand researchers
40
128833
2127
che ha riunito migliaia di ricercatori da tutto il mondo per creare Bloom,
02:10
from all over the world to create Bloom,
41
130960
2503
02:13
the first open large language model, like ChatGPT,
42
133505
4337
il primo modello linguistico aperto di grandi dimensioni, come ChatGPT,
02:17
but with an emphasis on ethics, transparency and consent.
43
137842
3546
ma con un’enfasi su etica, trasparenza e consenso.
02:21
And the study I led that looked at Bloom's environmental impacts
44
141721
3253
Il mio studio ha esaminato l'impatto ambientale di Bloom
e ha rilevato che il solo addestramento
02:25
found that just training it used as much energy
45
145016
3253
consuma la stessa energia di 30 case in un anno intero
02:28
as 30 homes in a whole year
46
148311
2211
02:30
and emitted 25 tons of carbon dioxide,
47
150563
2419
ed emette 25 tonnellate di anidride carbonica,
l'equivalente del fare cinque volte il giro del pianeta in auto.
02:33
which is like driving your car five times around the planet
48
153024
3253
02:36
just so somebody can use this model to tell a knock-knock joke.
49
156319
3170
Tutto questo affinché lo si possa interrogare per una barzelletta.
02:39
And this might not seem like a lot,
50
159489
2169
Potrebbe non sembrare molto,
02:41
but other similar large language models,
51
161700
2460
ma altri modelli linguistici come GPT-3,
02:44
like GPT-3,
52
164202
1126
02:45
emit 20 times more carbon.
53
165370
2544
emettono 20 volte più carbonio.
02:47
But the thing is, tech companies aren't measuring this stuff.
54
167956
2878
Le aziende tecnologiche non misurano queste cose, non le rivelano.
02:50
They're not disclosing it.
55
170875
1252
02:52
And so this is probably only the tip of the iceberg,
56
172168
2461
Questa è solo la punta di un iceberg anche se è uno che si sta sciogliendo.
02:54
even if it is a melting one.
57
174629
1418
02:56
And in recent years we've seen AI models balloon in size
58
176798
3629
Negli ultimi anni abbiamo visto modelli di IA crescere a dismisura
03:00
because the current trend in AI is "bigger is better."
59
180468
3462
perché la tendenza attuale è: "più grande è, meglio è".
03:04
But please don't get me started on why that's the case.
60
184305
2795
Non fatemi iniziare a spiegare perché è così.
Abbiamo osservato soprattutto modelli linguistici di grandi dimensioni
03:07
In any case, we've seen large language models in particular
61
187100
3003
03:10
grow 2,000 times in size over the last five years.
62
190103
3211
diventare 2.000 volte più grandi negli ultimi cinque anni.
03:13
And of course, their environmental costs are rising as well.
63
193314
3045
Anche i costi ambientali aumentano.
03:16
The most recent work I led, found that switching out a smaller,
64
196401
3795
Di recente, ho scoperto che passare da un modello piccolo e efficiente
03:20
more efficient model for a larger language model
65
200238
3337
a un modello linguistico più grande emette 14 volte più carbonio,
03:23
emits 14 times more carbon for the same task.
66
203616
3754
a parità di compito, tipo chiedere una barzelletta.
03:27
Like telling that knock-knock joke.
67
207412
1877
03:29
And as we're putting in these models into cell phones and search engines
68
209289
3462
Con l'integrazione di questi modelli nei cellulari, nei motori di ricerca,
03:32
and smart fridges and speakers,
69
212792
2836
nei frigoriferi e negli altoparlanti intelligenti,
03:35
the environmental costs are really piling up quickly.
70
215628
2628
i costi ambientali aumentano rapidamente.
03:38
So instead of focusing on some future existential risks,
71
218840
3754
Quindi, invece di concentrarci su alcuni rischi esistenziali futuri,
03:42
let's talk about current tangible impacts
72
222635
2753
parliamo degli effetti attuali e tangibili
03:45
and tools we can create to measure and mitigate these impacts.
73
225388
3629
e degli strumenti che possiamo creare per mitigare tali effetti.
03:49
I helped create CodeCarbon,
74
229893
1668
Ho contribuito a creare CodeCarbon,
03:51
a tool that runs in parallel to AI training code
75
231603
2961
uno strumento che durante l'esecuzione del codice
03:54
that estimates the amount of energy it consumes
76
234564
2211
è in grado di stimare la quantità di energia consumata e di carbonio emessa.
03:56
and the amount of carbon it emits.
77
236775
1668
03:58
And using a tool like this can help us make informed choices,
78
238485
2877
Uno strumento così può aiutarci a fare scelte informate,
04:01
like choosing one model over the other because it's more sustainable,
79
241404
3253
come scegliere un modello perché è più sostenibile
04:04
or deploying AI models on renewable energy,
80
244657
2920
o implementare modelli di IA alle energie rinnovabili
04:07
which can drastically reduce their emissions.
81
247619
2544
per ridurre drasticamente le emissioni.
04:10
But let's talk about other things
82
250163
2085
Ma parliamo di altro,
04:12
because there's other impacts of AI apart from sustainability.
83
252290
2961
perché la sostenibilità non è l'unico aspetto da analizzare.
04:15
For example, it's been really hard for artists and authors
84
255627
3128
Ad esempio, è stato davvero difficile per artisti e autori
04:18
to prove that their life's work has been used for training AI models
85
258797
4212
dimostrare che il lavoro di una vita è stato usato per addestrare modelli di IA
04:23
without their consent.
86
263051
1209
senza il loro consenso.
04:24
And if you want to sue someone, you tend to need proof, right?
87
264302
3170
Per denunciare qualcuno, servono le prove, giusto?
04:27
So Spawning.ai, an organization that was founded by artists,
88
267806
3920
Per questo Spawning.ai, un'organizzazione fondata da artisti,
04:31
created this really cool tool called “Have I Been Trained?”
89
271726
3337
ha creato uno strumento chiamato "Have I Been Trained?",
04:35
And it lets you search these massive data sets
90
275104
2461
per consentirci di consultare enormi set di dati
04:37
to see what they have on you.
91
277607
2085
per vedere se hanno qualcosa di nostro.
04:39
Now, I admit it, I was curious.
92
279734
1668
Lo ammetto, ero curiosa.
04:41
I searched LAION-5B,
93
281444
1627
Ho cercato il LAION-5B, un enorme dataset di immagini e testo,
04:43
which is this huge data set of images and text,
94
283112
2461
04:45
to see if any images of me were in there.
95
285615
2711
per vedere se c'erano delle mie immagini.
04:49
Now those two first images,
96
289285
1585
Nelle prime due immagini, sono io agli eventi dove ho partecipato.
04:50
that's me from events I've spoken at.
97
290870
2169
04:53
But the rest of the images, none of those are me.
98
293081
2753
Nel resto delle immagini, non sono io.
04:55
They're probably of other women named Sasha
99
295875
2002
Forse sono di altre di nome Sasha che hanno pubblicato loro foto nel web.
04:57
who put photographs of themselves up on the internet.
100
297919
2628
05:01
And this can probably explain why,
101
301047
1627
Questo forse spiega perché se interrogo un modello
05:02
when I query an image generation model
102
302715
1836
05:04
to generate a photograph of a woman named Sasha,
103
304551
2294
per generare la foto di una "Sasha",
05:06
more often than not I get images of bikini models.
104
306886
2753
il più delle volte ottengo immagini di modelle in bikini.
05:09
Sometimes they have two arms,
105
309681
1626
A volte hanno due braccia, a volte tre braccia,
05:11
sometimes they have three arms,
106
311349
2294
05:13
but they rarely have any clothes on.
107
313685
2043
ma raramente indossano vestiti.
05:16
And while it can be interesting for people like you and me
108
316563
2794
Per persone come noi sicuramente è interessante
05:19
to search these data sets,
109
319357
2127
cercare in questi set di dati,
05:21
for artists like Karla Ortiz,
110
321526
2044
ma per artisti come Karla Ortiz
05:23
this provides crucial evidence that her life's work, her artwork,
111
323570
3753
questi forniscono una prova concreta del fatto che il lavoro della sua vita,
05:27
was used for training AI models without her consent,
112
327365
2961
viene usato senza il suo consenso per addestrare modelli di IA.
05:30
and she and two artists used this as evidence
113
330326
2336
Lei e altri due artisti hanno usato queste prove
05:32
to file a class action lawsuit against AI companies
114
332704
2794
per intentare una causa collettiva contro le società di AI
05:35
for copyright infringement.
115
335540
1960
per violazione del copyright.
05:37
And most recently --
116
337542
1168
Più recentemente,
05:38
(Applause)
117
338710
3378
(Applausi)
05:42
And most recently Spawning.ai partnered up with Hugging Face,
118
342130
3044
Spawning.ai ha collaborato con la società per cui lavoro, Hugging Face,
05:45
the company where I work at,
119
345216
1585
05:46
to create opt-in and opt-out mechanisms for creating these data sets.
120
346801
4922
per creare meccanismi di opt-in e opt-out per la creazione di questi set di dati,
05:52
Because artwork created by humans shouldn’t be an all-you-can-eat buffet
121
352098
3587
perché le opere d'arte umane non dovrebbero essere un "all you can eat"
05:55
for training AI language models.
122
355727
1793
per l'addestramento dei modelli di IA.
05:58
(Applause)
123
358313
4254
(Applausi)
06:02
The very last thing I want to talk about is bias.
124
362567
2336
Infine, voglio parlare di bias. Probabilmente ne avete sentito parlare.
06:04
You probably hear about this a lot.
125
364944
1919
06:07
Formally speaking, it's when AI models encode patterns and beliefs
126
367196
3713
Ossia quando i modelli di IA codificano strutture e idee
06:10
that can represent stereotypes or racism and sexism.
127
370950
3128
che possono tradursi in stereotipi, razzismo e sessismo.
06:14
One of my heroes, Dr. Joy Buolamwini, experienced this firsthand
128
374412
3212
La dott.ssa Joy Buolamwini, lo ha sperimentato in prima persona
06:17
when she realized that AI systems wouldn't even detect her face
129
377665
3045
perché i sistemi di IA non rilevavano il suo viso
06:20
unless she was wearing a white-colored mask.
130
380752
2169
finché non ha indossato una maschera bianca.
06:22
Digging deeper, she found that common facial recognition systems
131
382962
3754
Indagando, scoprì che i comuni sistemi di riconoscimento facciale
06:26
were vastly worse for women of color compared to white men.
132
386758
3253
sono peggiori per le donne POC che per uomini bianchi.
06:30
And when biased models like this are deployed in law enforcement settings,
133
390428
5297
Quando modelli tendenziosi come questo vengono usati dalle forze dell'ordine,
06:35
this can result in false accusations, even wrongful imprisonment,
134
395767
4296
si possono concretizzare in false accuse e perfino detenzioni illegittime,
06:40
which we've seen happen to multiple people in recent months.
135
400063
3920
come abbiamo visto accadere a più persone negli ultimi mesi.
Porcha Woodruff è stata accusata di furto d'auto ingiustamente,
06:44
For example, Porcha Woodruff was wrongfully accused of carjacking
136
404025
3086
06:47
at eight months pregnant
137
407111
1252
incinta di otto mesi,
06:48
because an AI system wrongfully identified her.
138
408363
2961
perché un sistema di IA l'ha erroneamente identificata.
06:52
But sadly, these systems are black boxes,
139
412325
2002
Purtroppo, questi sistemi sono scatole nere
06:54
and even their creators can't say exactly why they work the way they do.
140
414369
5964
e persino i creatori non sanno per certo perché funzionano in quel modo.
07:00
And for example, for image generation systems,
141
420917
3462
Ad esempio, i sistemi generativi di immagini,
07:04
if they're used in contexts like generating a forensic sketch
142
424379
4129
se vengono usati per realizzare un identikit
07:08
based on a description of a perpetrator,
143
428549
2711
basato sulla descrizione di un criminale,
07:11
they take all those biases and they spit them back out
144
431260
3587
prendono tutti questi bias e li restituiscono
07:14
for terms like dangerous criminal, terrorists or gang member,
145
434889
3462
sotto termini come criminale pericoloso, terrorista o membro di una gang,
07:18
which of course is super dangerous
146
438393
2168
il che rende molto pericoloso usare questi strumenti nella società.
07:20
when these tools are deployed in society.
147
440603
4421
07:25
And so in order to understand these tools better,
148
445566
2294
Per comprendere al meglio questi strumenti,
07:27
I created this tool called the Stable Bias Explorer,
149
447902
3212
ho creato questo strumento chiamato "Stable Bias Explorer,"
07:31
which lets you explore the bias of image generation models
150
451155
3379
che consente di scoprire i bias dei modelli generativi di immagini
07:34
through the lens of professions.
151
454575
1669
per quanto riguarda le professioni.
07:37
So try to picture a scientist in your mind.
152
457370
3045
Provate a immaginare uno scienziato.
07:40
Don't look at me.
153
460456
1168
Non guardate me.
07:41
What do you see?
154
461666
1335
Cosa avete immaginato?
07:43
A lot of the same thing, right?
155
463835
1501
Forse in tanti avete pensato a uomini con occhiali e camici da laboratorio
07:45
Men in glasses and lab coats.
156
465378
2377
07:47
And none of them look like me.
157
467797
1710
e nessuno di loro mi somiglia.
07:50
And the thing is,
158
470174
1460
Abbiamo esaminato diversi modelli e trovato un pattern ricorrente:
07:51
is that we looked at all these different image generation models
159
471676
3253
07:54
and found a lot of the same thing:
160
474929
1627
07:56
significant representation of whiteness and masculinity
161
476597
2586
una predominanza di uomini bianchi
in tutte le 150 professioni che abbiamo esaminato.
07:59
across all 150 professions that we looked at,
162
479225
2127
08:01
even if compared to the real world,
163
481352
1794
Anche confrontando con il mondo reale, con lo "US Labor Bureau of Statistics,"
08:03
the US Labor Bureau of Statistics.
164
483187
1836
08:05
These models show lawyers as men,
165
485023
3044
questi modelli mostrano avvocati uomini e AD uomini,
08:08
and CEOs as men, almost 100 percent of the time,
166
488109
3462
quasi il 100% delle volte,
08:11
even though we all know not all of them are white and male.
167
491571
3170
anche se sappiamo che non tutti sono bianchi e uomini.
08:14
And sadly, my tool hasn't been used to write legislation yet.
168
494782
4380
Purtroppo, il mio strumento non è stato ancora usato per scrivere leggi,
08:19
But I recently presented it at a UN event about gender bias
169
499203
3963
ma di recente l'ho presentato a un evento dell'ONU sui pregiudizi di genere
08:23
as an example of how we can make tools for people from all walks of life,
170
503166
3879
come esempio di strumenti che permettono a chiunque,
08:27
even those who don't know how to code,
171
507086
2252
anche a chi non sa programmare,
08:29
to engage with and better understand AI because we use professions,
172
509380
3253
di confrontarsi con l'IA e di comprenderla.
Noi abbiamo usato le professioni, si può usare qualsiasi cosa.
08:32
but you can use any terms that are of interest to you.
173
512633
3087
08:36
And as these models are being deployed,
174
516596
2752
Man mano che questi modelli vengono utilizzati,
08:39
are being woven into the very fabric of our societies,
175
519390
3128
entrano a far parte della nostra società,
08:42
our cell phones, our social media feeds,
176
522518
2044
dai cellulari ai feed,
08:44
even our justice systems and our economies have AI in them.
177
524604
3211
e persino i sistemi giudiziari e l'economia usano l'IA.
08:47
And it's really important that AI stays accessible
178
527815
3879
È davvero importante che l'IA rimanga accessibile,
08:51
so that we know both how it works and when it doesn't work.
179
531736
4713
per sapere sia come funziona sia quando non funziona.
08:56
And there's no single solution for really complex things like bias
180
536908
4296
Non esiste una soluzione semplice a questioni complesse come i bias,
09:01
or copyright or climate change.
181
541245
2419
il copyright o il cambiamento climatico.
09:03
But by creating tools to measure AI's impact,
182
543664
2711
Ma creando strumenti per misurare gli effetti dell'IA,
09:06
we can start getting an idea of how bad they are
183
546375
3337
possiamo iniziare a farci un'idea di quanto siano gravi
09:09
and start addressing them as we go.
184
549754
2502
e affrontarli man mano che procediamo.
09:12
Start creating guardrails to protect society and the planet.
185
552256
3337
Iniziamo a creare barriere per proteggere la società e il pianeta.
09:16
And once we have this information,
186
556177
2336
Una volta ottenute queste informazioni, le aziende possono usarle per dire:
09:18
companies can use it in order to say,
187
558513
1835
09:20
OK, we're going to choose this model because it's more sustainable,
188
560389
3170
"Sceglieremo questo modello perché è più sostenibile
e questo modello perché rispetta il copyright".
09:23
this model because it respects copyright.
189
563601
2044
09:25
Legislators who really need information to write laws,
190
565686
3087
I legislatori che necessitano informazioni per redigere leggi
09:28
can use these tools to develop new regulation mechanisms
191
568773
3462
possono usarli per sviluppare
nuovi meccanismi di regolamentazione o di governance per l'IA
09:32
or governance for AI as it gets deployed into society.
192
572276
3796
man mano che trova impiego nella società.
09:36
And users like you and me can use this information
193
576114
2377
Noi utenti possiamo usare queste informazioni
09:38
to choose AI models that we can trust,
194
578491
3337
per scegliere modelli di IA di cui fidarsi,
09:41
not to misrepresent us and not to misuse our data.
195
581869
2920
che non travisino informazioni e abusino dei nostri dati.
09:45
But what did I reply to that email
196
585790
1918
Cosa ho risposto a quell'e-mail che diceva che il mio lavoro distruggerà l'umanità?
09:47
that said that my work is going to destroy humanity?
197
587750
2961
09:50
I said that focusing on AI's future existential risks
198
590711
4046
Ho detto che concentrarsi sui rischi esistenziali futuri dell'IA
09:54
is a distraction from its current,
199
594799
2044
distrae dagli impatti presenti e tangibili
09:56
very tangible impacts
200
596843
1835
09:58
and the work we should be doing right now, or even yesterday,
201
598719
4004
e dal lavoro che dovremmo fare oggi, o ieri,
10:02
for reducing these impacts.
202
602723
1919
per ridurre questi effetti.
10:04
Because yes, AI is moving quickly, but it's not a done deal.
203
604684
4045
Sì, l'IA si sta muovendo rapidamente, ma non è una questione chiusa.
10:08
We're building the road as we walk it,
204
608771
2503
Stiamo costruendo la strada mentre la percorriamo
10:11
and we can collectively decide what direction we want to go in together.
205
611274
3795
e possiamo decidere insieme in quale direzione vogliamo andare.
10:15
Thank you.
206
615069
1210
Grazie.
10:16
(Applause)
207
616279
2002
(Applausi)
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7