Your Right to Repair AI Systems | Rumman Chowdhury | TED

44,486 views ・ 2024-06-05

TED


Fare doppio clic sui sottotitoli in inglese per riprodurre il video.

Traduttore: Letizia Garofalo Revisore: Chiara Mondini
00:04
I want to tell you a story
0
4543
1835
Voglio raccontarvi una storia
00:06
about artificial intelligence and farmers.
1
6419
4171
su intelligenza artificiale e agricoltori.
00:10
Now, what a strange combination, right?
2
10966
3044
Ora, che strana combinazione, vero?
00:14
Two topics could not sound more different from each other.
3
14010
4088
Due argomenti non potrebbero sembrare più diversi l’uno dall’altro.
00:18
But did you know that modern farming actually involves a lot of technology?
4
18431
5047
Ma lo sapevate che l'agricoltura moderna richiede in realtà molta tecnologia?
00:23
So computer vision is used to predict crop yields.
5
23478
3796
Quindi la visione artificiale viene utilizzata per prevedere i raccolti.
00:27
And artificial intelligence is used to find,
6
27315
2836
E l’intelligenza artificiale viene utilizzata per trovare,
00:30
identify and get rid of insects.
7
30151
2878
identificare ed eliminare gli insetti.
00:33
Predictive analytics helps figure out extreme weather conditions
8
33071
4129
L’analisi predittiva aiuta a capire condizioni meteorologiche estreme
00:37
like drought or hurricanes.
9
37242
1960
come siccità o uragani.
00:39
But this technology is also alienating to farmers.
10
39744
4547
Ma questa tecnologia è anche alienante per gli agricoltori.
00:44
And this all came to a head in 2017
11
44291
3003
E ciò è arrivato al culmine nel 2017
00:47
with the tractor company John Deere when they introduced smart tractors.
12
47335
4922
quando l’azienda di trattori John Deere ha introdotto i trattori intelligenti.
00:52
So before then, if a farmer's tractor broke,
13
52299
2961
Quindi, se prima il trattore si rompeva, l’agricoltore
00:55
they could just repair it themselves or take it to a mechanic.
14
55302
3920
poteva semplicemente ripararlo da solo o portarlo da un meccanico.
00:59
Well, the company actually made it illegal
15
59222
2961
Beh, l’azienda aveva proprio reso illegale
01:02
for farmers to fix their own equipment.
16
62225
2586
per gli agricoltori riparare le proprie attrezzature.
01:04
You had to use a licensed technician
17
64811
2836
Dovevi rivolgerti a un tecnico autorizzato
01:07
and farmers would have to wait for weeks
18
67689
2628
e gli agricoltori dovevano aspettare settimane
01:10
while their crops rot and pests took over.
19
70317
3044
mentre i raccolti marcivano e i parassiti proliferavano.
01:14
So they took matters into their own hands.
20
74279
3170
Quindi hanno preso in mano la situazione.
01:17
Some of them learned to program,
21
77490
1544
Alcuni hanno imparato a programmare
01:19
and they worked with hackers to create patches to repair their own systems.
22
79075
4922
e hanno collaborato con hacker creando patch per riparare i propri sistemi.
01:23
In 2022,
23
83997
1418
Nel 2022,
01:25
at one of the largest hacker conferences in the world, DEFCON,
24
85457
3712
in occasione di una delle più grandi conferenze di hacker al mondo, DEFCON,
01:29
a hacker named Sick Codes and his team
25
89210
2586
un hacker di nome Sick Codes e il suo team
01:31
showed everybody how to break into a John Deere tractor,
26
91838
3212
hanno mostrato a tutti come entrare in un trattore John Deere,
01:35
showing that, first of all, the technology was vulnerable,
27
95091
3629
dimostrando, prima di tutto, che la tecnologia era vulnerabile,
01:38
but also that you can and should own your own equipment.
28
98762
4337
ma anche che si può e si deve essere padroni della propria attrezzatura.
01:43
To be clear, this is illegal,
29
103683
2836
Per essere chiari, questo è illegale,
01:46
but there are people trying to change that.
30
106561
2795
ma c’è chi cerca di cambiarlo.
01:49
Now that movement is called the “right to repair.”
31
109689
3796
Ora quel movimento si chiama «diritto alla riparazione».
01:53
The right to repair goes something like this.
32
113526
2169
Il che funziona più o meno così.
01:55
If you own a piece of technology,
33
115737
1668
Se possiedi una cosa tecnologica,
01:57
it could be a tractor, a smart toothbrush,
34
117405
2544
come un trattore, uno spazzolino intelligente,
01:59
a washing machine,
35
119991
1377
una lavatrice,
02:01
you should have the right to repair it if it breaks.
36
121368
3086
dovresti avere il diritto di ripararla in caso di rottura.
02:05
So why am I telling you this story?
37
125246
2253
Perché vi sto raccontando questa storia?
02:08
The right to repair needs to extend to artificial intelligence.
38
128541
5214
Il diritto alla riparazione deve estendersi all’intelligenza artificiale.
02:14
Now it seems like every week
39
134214
2127
Ora sembra che ogni settimana
02:16
there is a new and mind-blowing innovation in AI.
40
136383
3336
ci sia una nuova e strabiliante innovazione nell’IA.
02:19
But did you know that public confidence is actually declining?
41
139719
4880
Ma sapevate che la fiducia pubblica è in diminuzione?
02:24
A recent Pew poll showed that more Americans are concerned
42
144599
4963
Un recente sondaggio del Pew ha mostrato che gli americani sono
02:29
than they are excited about the technology.
43
149604
2503
più preoccupati che entusiasti della tecnologia.
02:32
This is echoed throughout the world.
44
152148
2211
Questo risuona in tutto il mondo.
02:34
The World Risk Poll shows
45
154401
1418
Il World Risk Poll mostra
02:35
that respondents from Central and South America and Africa
46
155860
3462
che gli intervistati in Sud e Centro America e in Africa hanno
02:39
all said that they felt AI would lead to more harm than good for their people.
47
159322
6090
affermato tutti di ritenere che l’IA gli causerà più danni che benefici.
02:46
As a social scientist and an AI developer,
48
166287
2503
In qualità di sociologa e sviluppatrice di IA,
02:48
this frustrates me.
49
168790
1585
questo mi frustra.
02:50
I'm a tech optimist
50
170417
1293
Sono un’ottimista della tecnologia
02:51
because I truly believe this technology can lead to good.
51
171751
4338
perché credo fermamente possa portare del bene.
02:56
So what's the disconnect?
52
176464
1919
Allora, qual è il divario?
02:58
Well, I've talked to hundreds of people over the last few years.
53
178758
3754
Beh, ho parlato con centinaia di persone negli ultimi anni.
03:02
Architects and scientists, journalists and photographers,
54
182554
3670
Architetti e scienziati, giornalisti e fotografi,
03:06
ride-share drivers and doctors,
55
186224
1710
autisti di car sharing e medici,
03:07
and they all say the same thing.
56
187976
2961
dicono tutti la stessa cosa.
03:12
People feel like an afterthought.
57
192272
3795
Le persone si sentono come se fossero secondarie.
03:17
They all know that their data is harvested often without their permission
58
197485
4338
Sanno tutti che i loro dati vengono raccolti spesso senza il loro permesso
03:21
to create these sophisticated systems.
59
201823
2461
per creare questi sistemi sofisticati.
03:24
They know that these systems are determining their life opportunities.
60
204325
4171
Sanno che questi sistemi determinano le loro opportunità.
03:28
They also know that nobody ever bothered to ask them
61
208496
3545
Sanno anche che nessuno si è mai preso la briga di chiedergli
03:32
how the system should be built,
62
212083
1502
come andrebbe costruito il sistema
03:33
and they certainly have no idea where to go if something goes wrong.
63
213585
5964
e sicuramente non hanno idea di dove andare se qualcosa va storto.
03:40
We may not own AI systems,
64
220383
2336
Anche se non possediamo sistemi di IA,
03:42
but they are slowly dominating our lives.
65
222761
2794
stanno lentamente dominando le nostre vite.
03:45
We need a better feedback loop
66
225597
1501
Serve un miglior ciclo di feedback
03:47
between the people who are making these systems,
67
227140
2961
tra chi realizza questi sistemi
03:50
and the people who are best determined to tell us
68
230101
3337
e chi è nella posizione di dirci
03:53
how these AI systems should interact in their world.
69
233480
3628
come dovrebbero interagire nel loro mondo.
03:57
One step towards this is a process called red teaming.
70
237609
3837
Un passo in questa direzione è un processo chiamato red teaming.
04:01
Now, red teaming is a practice that was started in the military,
71
241821
3003
Si tratta di una pratica iniziata nell’esercito
04:04
and it's used in cybersecurity.
72
244866
1919
utilizzata nella sicurezza informatica.
04:06
In a traditional red-teaming exercise,
73
246826
2628
In una tradizionale esercitazione di red-teaming,
04:09
external experts are brought in to break into a system,
74
249454
3920
vengono chiamati esperti esterni per entrare in un sistema,
04:13
sort of like what Sick Codes did with tractors, but legal.
75
253374
4338
un po’ come ha fatto Sick Codes con i trattori, ma legalmente.
04:17
So red teaming acts as a way of testing your defenses
76
257712
3670
Il red teaming serve quindi a mettere alla prova le proprie difese
04:21
and when you can figure out where something will go wrong,
77
261424
3545
e quando si riesce a capire dove qualcosa può andare storto,
04:25
you can figure out how to fix it.
78
265011
3003
si può capire come risolvere il problema.
04:28
But when AI systems go rogue,
79
268056
2377
Ma quando i sistemi di IA si disgregano,
04:30
it's more than just a hacker breaking in.
80
270433
2920
non si tratta solo di un hacker che fa irruzione.
04:33
The model could malfunction or misrepresent reality.
81
273394
3754
Il modello potrebbe non funzionare correttamente o travisare la realtà.
04:37
So, for example, not too long ago,
82
277190
2044
Quindi, ad esempio, non molto tempo fa,
04:39
we saw an AI system attempting diversity
83
279234
2627
abbiamo visto un sistema di IA tentare la diversità
04:41
by showing historically inaccurate photos.
84
281903
3503
mostrando foto storicamente imprecise.
04:45
Anybody with a basic understanding of Western history
85
285406
2670
Chiunque con una conoscenza base della storia occidentale
04:48
could have told you that neither the Founding Fathers
86
288076
2502
saprebbe che né i Padri Fondatori
04:50
nor Nazi-era soldiers would have been Black.
87
290620
2169
né i soldati nazisti avrebbero mai potuto essere neri.
04:54
In that case, who qualifies as an expert?
88
294123
3629
In tal caso, chi è l’esperto?
04:58
You.
89
298670
1168
Voi.
05:00
I'm working with thousands of people all around the world
90
300380
2836
Sto lavorando con migliaia di persone in tutto il mondo
05:03
on large and small red-teaming exercises,
91
303258
2252
su diversi esercizi di red teaming,
05:05
and through them we found and fixed mistakes in AI models.
92
305552
4629
grazie ai quali abbiamo trovato e corretto errori nei modelli di IA.
05:10
We also work with some of the biggest tech companies in the world:
93
310181
3587
Collaboriamo anche con alcune delle più grandi aziende tecnologiche al mondo:
05:13
OpenAI, Meta, Anthropic, Google.
94
313810
2753
OpenAI, Meta, Anthropic, Google.
05:16
And through this, we've made models work better for more people.
95
316604
4630
E abbiamo così fatto sì che i modelli funzionassero meglio per più persone.
05:22
Here's a bit of what we've learned.
96
322277
2168
Ecco un po' di ciò che abbiamo imparato.
05:24
We partnered with the Royal Society in London to do a scientific,
97
324988
3670
Abbiamo collaborato con la Royal Society a Londra per organizzare un evento
05:28
mis- and disinformation event with disease scientists.
98
328658
3545
di mala- e disinformazione con scienziati delle malattie.
05:32
What these scientists found
99
332203
1335
Questi scienziati hanno scoperto
05:33
is that AI models actually had a lot of protections
100
333580
2794
che i modelli di IA avevano effettivamente molte protezioni
05:36
against COVID misinformation.
101
336416
2294
contro la disinformazione sul COVID.
05:38
But for other diseases like measles, mumps and the flu,
102
338751
3546
Ma per altre malattie come morbillo, parotite e influenza,
05:42
the same protections didn't apply.
103
342297
2460
le stesse protezioni non si applicavano.
05:44
We reported these changes,
104
344757
1293
Lo abbiamo segnalato,
05:46
they’re fixed and now we are all better protected
105
346050
3170
sono state corrette e ora siamo tutti protetti meglio
05:49
against scientific mis- and disinformation.
106
349220
2670
dalla disinformazione scientifica.
05:52
We did a really similar exercise with architects at Autodesk University,
107
352724
4838
Abbiamo fatto un esercizio molto simile con architetti dell’Università Autodesk
05:57
and we asked them a simple question:
108
357562
1877
ponendo loro una semplice domanda:
05:59
Will AI put them out of a job?
109
359439
2961
l’intelligenza artificiale vi lascerà senza lavoro?
06:02
Or more specifically,
110
362442
2169
O più specificamente,
06:04
could they imagine a modern AI system
111
364611
2043
immaginate un moderno sistema
06:06
that would be able to design the specs of a modern art museum?
112
366696
3670
di IA in grado di progettare un museo d’arte moderna?
06:10
The answer, resoundingly, was no.
113
370408
3962
La risposta, clamorosamente, è stata no.
06:14
Here's why, architects do more than just draw buildings.
114
374787
3629
Ecco perché: gli architetti non si limitano a disegnare edifici.
06:18
They have to understand physics and material science.
115
378458
3336
Devono comprendere la fisica e la scienza dei materiali,
06:21
They have to know building codes,
116
381836
1585
conoscere i codici di costruzione
06:23
and they have to do that
117
383463
1251
e devono farlo
06:24
while making something that evokes emotion.
118
384756
2794
mentre creano qualcosa che evochi emozioni.
06:28
What the architects wanted was an AI system
119
388426
2169
Gli architetti volevano un sistema di IA
06:30
that interacted with them, that would give them feedback,
120
390595
2753
che interagisse con loro, che fornisse loro feedback
06:33
maybe proactively offer design recommendations.
121
393389
2753
e magari offrisse proattivamente consigli di progettazione.
06:36
And today's AI systems, not quite there yet.
122
396142
3670
E i sistemi di IA di oggi non ci sono ancora arrivati.
06:39
But those are technical problems.
123
399854
1752
Ma questi sono problemi tecnici.
06:41
People building AI are incredibly smart,
124
401648
2043
Chi costruisce IA è molto intelligente
06:43
and maybe they could solve all that in a few years.
125
403733
2753
e forse potrebbe risolvere tutto questo in pochi anni.
06:46
But that wasn't their biggest concern.
126
406527
1961
Ma non era questa la loro maggiore preoccupazione.
06:48
Their biggest concern was trust.
127
408529
2795
La maggior preoccupazione era la fiducia.
06:51
Now architects are liable if something goes wrong with their buildings.
128
411991
4546
Ora gli architetti sono responsabili se qualcosa va storto nei loro edifici.
06:56
They could lose their license,
129
416537
1669
Potrebbero perdere la licenza,
06:58
they could be fined, they could even go to prison.
130
418206
3211
potrebbero essere multati, e persino andare in prigione.
07:01
And failures can happen in a million different ways.
131
421459
3086
E gli errori possono avvenire in un milione di modi diversi.
07:04
For example, exit doors that open the wrong way,
132
424545
3045
Ad esempio, porte che si aprono nella direzione sbagliata,
07:07
leading to people being crushed in an evacuation crisis,
133
427632
4296
con schiacciamento delle persone durante una crisi di evacuazione,
07:11
or broken glass raining down onto pedestrians in the street
134
431928
4129
o vetri rotti che cadono sui pedoni
07:16
because the wind blows too hard and shatters windows.
135
436099
3837
perché il vento soffia troppo forte e frantuma le finestre.
07:20
So why would an architect trust an AI system with their job,
136
440311
3921
Allora perché un architetto dovrebbe affidare a un’IA il suo lavoro,
07:24
with their literal freedom,
137
444273
2670
la sua libertà vera e propria,
07:26
if they couldn't go in and fix a mistake if they found it?
138
446943
3628
se non può intervenire per correggere un errore che trova?
07:31
So we need to figure out these problems today, and I'll tell you why.
139
451030
4171
Dobbiamo risolvere questi problemi oggi e vi dirò perché.
07:35
The next wave of artificial intelligence systems, called agentic AI,
140
455201
5047
La prossima ondata di IA, chiamata IA agentica,
07:40
is a true tipping point
141
460289
1335
è un vero punto di svolta
07:41
between whether or not we retain human agency,
142
461624
4213
tra il mantenimento o meno del libero arbitrio umano
07:45
or whether or not AI systems make our decisions for us.
143
465837
3795
o il fatto che i sistemi di IA prendano o meno decisioni al posto nostro.
07:50
Imagine an AI agent as kind of like a personal assistant.
144
470008
3211
Immaginate un agente di IA come un assistente personale.
07:53
So, for example, a medical agent might determine
145
473261
3712
Quindi, ad esempio, un agente medico potrebbe decidere
se la tua famiglia ha bisogno di appuntamenti dal medico,
07:57
whether or not your family needs doctor's appointments,
146
477015
2585
07:59
it might refill prescription medications, or in case of an emergency,
147
479642
3379
ricaricare farmaci soggetti a prescrizione medica o, in caso di emergenza
08:03
send medical records to the hospital.
148
483062
2586
inviare cartelle cliniche all'ospedale.
08:05
But AI agents can't and won't exist
149
485690
2836
Ma gli agenti di IA non possono e non devono esistere
08:08
unless we have a true right to repair.
150
488568
2210
se non abbiamo reale diritto di riparazione.
08:10
What parent would trust their child's health to an AI system
151
490820
4922
Quale genitore affiderebbe la salute dei propri figli a un sistema di IA
08:15
unless you could run some basic diagnostics?
152
495783
2795
a meno che non possano eseguire verifiche di base?
08:18
What professional would trust an AI system with job decisions,
153
498619
4213
Quale professionista si affiderebbe a un sistema di IA per le decisioni lavorative,
08:22
unless you could retrain it the way you might a junior employee?
154
502874
4296
a meno che non possa formarlo come farebbe con uno stagista?
08:28
Now, a right to repair might look something like this.
155
508129
2878
Ora, il diritto alla riparazione potrebbe funzionare così.
08:31
You could have a diagnostics board
156
511007
2210
Potreste avere una scheda diagnostica
08:33
where you run basic tests that you design,
157
513259
3003
in cui eseguire test da voi progettati
08:36
and if something's wrong, you could report it to the company
158
516304
2836
e, se qualcosa non va, potreste segnalarlo all’azienda
e ricevere risposta quando è risolto.
08:39
and hear back when it's fixed.
159
519140
1585
08:40
Or you could work with third parties like ethical hackers
160
520725
3128
Oppure potreste lavorare, ad esempio con hacker etici,
08:43
who make patches for systems like we do today.
161
523895
2586
che creano patch per sistemi come facciamo oggi.
08:46
You can download them and use them to improve your system
162
526481
2711
Da scaricare e utilizzare per migliorare il sistema
08:49
the way you want it to be improved.
163
529233
1919
come desideri.
08:51
Or you could be like these intrepid farmers and learn to program
164
531194
3628
Oppure, come questi intrepidi agricoltori, potreste imparare a programmare
08:54
and fine-tune your own systems.
165
534864
3003
e mettere a punto i vostri sistemi.
08:58
We won't achieve the promised benefits of artificial intelligence
166
538618
4171
Non otterremo i benefici promessi dell’IA
09:02
unless we figure out how to bring people into the development process.
167
542789
5046
se non capiamo come coinvolgere le persone nel processo di sviluppo.
09:08
I've dedicated my career to responsible AI,
168
548377
3504
Ho dedicato la mia carriera all’IA responsabile
09:11
and in that field we ask the question,
169
551923
3253
e in questo campo ci poniamo la domanda:
09:15
what can companies build to ensure that people trust AI?
170
555218
4963
cosa possono costruire le aziende per far sì che le persone si fidino dell’IA?
09:20
Now, through these red-teaming exercises, and by talking to you,
171
560723
3837
Ora, grazie a questi esercizi di squadra e parlando con voi,
09:24
I've come to realize that we've been asking the wrong question all along.
172
564602
5339
mi sono resa conto che abbiamo sempre posto la domanda sbagliata.
09:30
What we should have been asking is what tools can we build
173
570566
3921
Avremmo dovuto chiederci quali strumenti possiamo creare
09:34
so people can make AI beneficial for them?
174
574529
4045
affinché le persone possano rendere l’IA utile a loro stesse?
09:39
Technologists can't do it alone.
175
579117
2460
I tecnici non possono farlo da soli.
09:41
We can only do it with you.
176
581619
2419
Possiamo farlo solo con voi.
09:44
Thank you.
177
584080
1168
Grazie.
09:45
(Applause)
178
585248
2794
(Applausi)
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7