Machine intelligence makes human morals more important | Zeynep Tufekci

180,005 views ・ 2016-11-11

TED


Fare doppio clic sui sottotitoli in inglese per riprodurre il video.

Traduttore: Federico MINELLE Revisore: Rachael Gwinn
00:12
So, I started my first job as a computer programmer
0
12739
4122
Ho iniziato il mio primo lavoro come programmatrice di computer
00:16
in my very first year of college --
1
16885
1956
nel mio primo anno di college -
00:18
basically, as a teenager.
2
18865
1507
sostanzialmete un'adolescente.
00:20
Soon after I started working,
3
20889
1732
Subito dopo ho cominciato a lavorare, scrivendo software in una azienda,
00:22
writing software in a company,
4
22645
1610
00:24
a manager who worked at the company came down to where I was,
5
24799
3635
un manager che lavorava nell'azienda mi venne a trovare dove stavo,
00:28
and he whispered to me,
6
28458
1268
e mi susssurrò,
00:30
"Can he tell if I'm lying?"
7
30229
2861
"Può lui dirmi se sto mentendo?"
00:33
There was nobody else in the room.
8
33806
2077
Non c'era nessun altro nella stanza.
"Chi può dire se stai mentendo? E perché sussurriamo?"
00:37
"Can who tell if you're lying? And why are we whispering?"
9
37032
4389
00:42
The manager pointed at the computer in the room.
10
42266
3107
Il manager indicò il computer nella stanza.
00:45
"Can he tell if I'm lying?"
11
45397
3096
"Può lui dirmi se sto mentendo?"
00:49
Well, that manager was having an affair with the receptionist.
12
49613
4362
Ebbene, quel manager aveva una relazione con la segretaria alla reception.
00:53
(Laughter)
13
53999
1112
(Risate)
Ed ero ancora una adolescente.
00:55
And I was still a teenager.
14
55135
1766
00:57
So I whisper-shouted back to him,
15
57447
2019
Così gli sussurrai-urlai,
00:59
"Yes, the computer can tell if you're lying."
16
59490
3624
"Si, il computer può dire se stai mentendo."
(Risate)
01:03
(Laughter)
17
63138
1806
01:04
Well, I laughed, but actually, the laugh's on me.
18
64968
2923
Bene, io risi, ma in effetti, la risata era nei mei confronti.
01:07
Nowadays, there are computational systems
19
67915
3268
Oggi, vi sono sistemi di calcolo
01:11
that can suss out emotional states and even lying
20
71207
3548
che possono scoprire gli stati emotivi e pure la menzogna
01:14
from processing human faces.
21
74779
2044
tramite la elaborazione dei volti umani.
01:17
Advertisers and even governments are very interested.
22
77248
4153
I pubblicitari ed anche i governi sono molto interessati.
Sono diventata programmatrice di computer
01:22
I had become a computer programmer
23
82319
1862
01:24
because I was one of those kids crazy about math and science.
24
84205
3113
perchè ero uno di quei giovani pazzi per matematica e scienze
01:27
But somewhere along the line I'd learned about nuclear weapons,
25
87942
3108
Ma lungo il mio percorso ho imparato a conoscere le armi nucleari,
e mi sono proprio preoccupata dell'etica della scienza.
01:31
and I'd gotten really concerned with the ethics of science.
26
91074
2952
Ero preoccupata.
01:34
I was troubled.
27
94050
1204
01:35
However, because of family circumstances,
28
95278
2641
Tuttavia, a causa della mia situazione familiare,
01:37
I also needed to start working as soon as possible.
29
97943
3298
dovevo iniziare a lavorare al più presto.
01:41
So I thought to myself, hey, let me pick a technical field
30
101265
3299
Così mi sono detta, hey, scegliamo un settore tecnico
01:44
where I can get a job easily
31
104588
1796
dove posso trovare facilmente un lavoro
01:46
and where I don't have to deal with any troublesome questions of ethics.
32
106408
4018
e dove non devo aver a che fare con qualche fastidiosa questione etica.
Così ho scelto i computer.
01:51
So I picked computers.
33
111022
1529
01:52
(Laughter)
34
112575
1104
(Risate)
01:53
Well, ha, ha, ha! All the laughs are on me.
35
113703
3410
Bene, ah, ah! Tutti ridono di me.
Ora, gli scienziati del computer costruicono piattaforme
01:57
Nowadays, computer scientists are building platforms
36
117137
2754
01:59
that control what a billion people see every day.
37
119915
4209
che controllano ciò che un miliardo di persone vedono ogni giorno.
Stanno sviluppando auto che potrebbero decidere chi investire.
02:05
They're developing cars that could decide who to run over.
38
125052
3822
02:09
They're even building machines, weapons,
39
129707
3213
Stanno anche costruendo macchine, armi,
02:12
that might kill human beings in war.
40
132944
2285
che possono uccidere persone in guerra.
02:15
It's ethics all the way down.
41
135253
2771
C'è sempre l'etica alla fine.
02:19
Machine intelligence is here.
42
139183
2058
L'intelligenza delle macchine è qui.
02:21
We're now using computation to make all sort of decisions,
43
141823
3474
Ora utilizziamo il computer per prendere ogni tipo di decisioni,
02:25
but also new kinds of decisions.
44
145321
1886
ma anche nuovi tipi di decisioni.
02:27
We're asking questions to computation that have no single right answers,
45
147231
5172
Stiamo ponendo al computer domande che non hanno una sola risposta giusta,
02:32
that are subjective
46
152427
1202
che sono soggettive
02:33
and open-ended and value-laden.
47
153653
2325
e sono aperte e cariche di valore.
Domandiamo cose come,
02:36
We're asking questions like,
48
156002
1758
02:37
"Who should the company hire?"
49
157784
1650
"Chi dovrebbe essere assunto?"
"Quale update e di quale amico dovrebbe essere mostrato?"
02:40
"Which update from which friend should you be shown?"
50
160096
2759
02:42
"Which convict is more likely to reoffend?"
51
162879
2266
"Quale pregiudicato sarà più probabilmente recidivo?"
02:45
"Which news item or movie should be recommended to people?"
52
165514
3054
"Quale notizia o film dovrebbe essere consigliato alla gente?"
02:48
Look, yes, we've been using computers for a while,
53
168592
3372
Certo, stiamo usando il computer da un po',
02:51
but this is different.
54
171988
1517
ma questo è diverso.
02:53
This is a historical twist,
55
173529
2067
Questa è un svolta storica,
02:55
because we cannot anchor computation for such subjective decisions
56
175620
5337
perchè non possiamo poggiarci sul computer per queste decisioni soggettive
03:00
the way we can anchor computation for flying airplanes, building bridges,
57
180981
5420
allo stesso modo in cui si usa il computer per far volare gli aerei, costruire ponti,
03:06
going to the moon.
58
186425
1259
andare sulla luna.
03:08
Are airplanes safer? Did the bridge sway and fall?
59
188449
3259
Sono più sicuri gli aerei? Vacillano e cadono i ponti?
03:11
There, we have agreed-upon, fairly clear benchmarks,
60
191732
4498
Qui abbiamo chiari livelli di riferimento, su cui concordiamo,
03:16
and we have laws of nature to guide us.
61
196254
2239
ed abbiamo le leggi naturali per guidarci.
03:18
We have no such anchors and benchmarks
62
198517
3394
Non abbiamo tali riferimenti per decidere
03:21
for decisions in messy human affairs.
63
201935
3963
nelle complicate faccende umane.
03:25
To make things more complicated, our software is getting more powerful,
64
205922
4237
Per rendere le cose più complicate, il software sta diventando più potente,
03:30
but it's also getting less transparent and more complex.
65
210183
3773
ma anche meno trasparente e più complesso.
03:34
Recently, in the past decade,
66
214542
2040
Recentemente, nell'ultima decennio,
03:36
complex algorithms have made great strides.
67
216606
2729
algoritmi complessi hanno fatto notevoli passi avanti.
03:39
They can recognize human faces.
68
219359
1990
Possono riconoscere le facce umane.
03:41
They can decipher handwriting.
69
221985
2055
Possono decifrare la scrittura manuale.
03:44
They can detect credit card fraud
70
224436
2066
possono individuare le frodi sulle carte di credito e bloccare lo spam
03:46
and block spam
71
226526
1189
03:47
and they can translate between languages.
72
227739
2037
e possono tradurre le lingue.
03:49
They can detect tumors in medical imaging.
73
229800
2574
Possono individuare i tumori nelle diagnostica per immagini.
03:52
They can beat humans in chess and Go.
74
232398
2205
Possono battere gli umani a scacchi e nel GO
03:55
Much of this progress comes from a method called "machine learning."
75
235264
4504
Molti di questi progressi derivano dal metodo di "apprendimento automatico".
L'apprendimento automatico è diverso dalla tradizionale programmazione,
04:00
Machine learning is different than traditional programming,
76
240175
3187
04:03
where you give the computer detailed, exact, painstaking instructions.
77
243386
3585
dove si danno al computer istruzioni dettagliate, precise ed accurate.
04:07
It's more like you take the system and you feed it lots of data,
78
247378
4182
Sembra di più come se forniste al sistema molti dati,
04:11
including unstructured data,
79
251584
1656
Inclusi dati non strutturati,
04:13
like the kind we generate in our digital lives.
80
253264
2278
del tipo che generiamo nella nostre vite digitali.
04:15
And the system learns by churning through this data.
81
255566
2730
E il sistema impara maneggiando quei dati.
04:18
And also, crucially,
82
258669
1526
Ed anche, crucialmente,
04:20
these systems don't operate under a single-answer logic.
83
260219
4380
quei sistemi non lavorano con la logica di una sola risposta.
04:24
They don't produce a simple answer; it's more probabilistic:
84
264623
2959
Non forniscono una semplice risposta; è piuttosto probabilistica:
04:27
"This one is probably more like what you're looking for."
85
267606
3483
"Questo è probabilmente quello che state cercando."
Ora, la parte positiva è: questo metodo è veramente potente.
04:32
Now, the upside is: this method is really powerful.
86
272023
3070
Il capo sistema AI di Google lo ha chiamato
04:35
The head of Google's AI systems called it,
87
275117
2076
04:37
"the unreasonable effectiveness of data."
88
277217
2197
"la irragionevole efficacia dei dati."
04:39
The downside is,
89
279791
1353
La parte negativa è,
04:41
we don't really understand what the system learned.
90
281738
3071
non capiamo veramente cosa il sistema ha imparato.
04:44
In fact, that's its power.
91
284833
1587
Infatti, questa è la sua forza.
04:46
This is less like giving instructions to a computer;
92
286946
3798
Ciò è meno simile a dare istruzioni ad un computer;
04:51
it's more like training a puppy-machine-creature
93
291200
4064
è più simile all'istruire un cucciolo-macchina
04:55
we don't really understand or control.
94
295288
2371
che noi non capiamo o controlliamo veramente
04:58
So this is our problem.
95
298362
1551
Questo è il nostro problema.
05:00
It's a problem when this artificial intelligence system gets things wrong.
96
300427
4262
Il problema è quando questi sistemi di intelligenza artificiale lavorano male.
05:04
It's also a problem when it gets things right,
97
304713
3540
Vi è anche il problema di quando lavorano bene,
05:08
because we don't even know which is which when it's a subjective problem.
98
308277
3628
perchè non sappiamo chi è chi quando il problema è soggettivo.
05:11
We don't know what this thing is thinking.
99
311929
2339
Non sappiamo come il computer ragioni.
05:15
So, consider a hiring algorithm --
100
315493
3683
Così, considerate un algoritmo per le assunzioni--
un sistema per assumere la gente, usando l'apprendimento automatico.
05:20
a system used to hire people, using machine-learning systems.
101
320123
4311
Un tale sistema sarebbe stato formato sui dati dei precedenti assunti
05:25
Such a system would have been trained on previous employees' data
102
325052
3579
05:28
and instructed to find and hire
103
328655
2591
e istruito per trovare ed assumere
05:31
people like the existing high performers in the company.
104
331270
3038
le persone simili a quelli più performanti in azienda.
05:34
Sounds good.
105
334814
1153
Sembra giusto. Una volta ho partecipato ad una conferenza
05:35
I once attended a conference
106
335991
1999
che coinvolgeva i responsabili delle Risorse Umane e i manager aziendali,
05:38
that brought together human resources managers and executives,
107
338014
3125
05:41
high-level people,
108
341163
1206
persone ad alto livello, che usavano questo sistema per assumere.
05:42
using such systems in hiring.
109
342393
1559
05:43
They were super excited.
110
343976
1646
Erano super entusiasti.
05:45
They thought that this would make hiring more objective, less biased,
111
345646
4653
Pensavano che ciò avrebbe portato ad assunzioni più oggettive, meno distorte,
05:50
and give women and minorities a better shot
112
350323
3000
e dato alle donne e alle minoranze una migliore opportunità
05:53
against biased human managers.
113
353347
2188
rispetto a manager umani influenzabili.
05:55
And look -- human hiring is biased.
114
355559
2843
E guarda - le assunzioni fatte dagli uomini sono distorte.
Lo so.
05:59
I know.
115
359099
1185
06:00
I mean, in one of my early jobs as a programmer,
116
360308
3005
Voglio dire, in uno dei miei primi lavori, come programmatrice,
06:03
my immediate manager would sometimes come down to where I was
117
363337
3868
la manager da cui dipendevo qualche volta scendeva dove stavo
06:07
really early in the morning or really late in the afternoon,
118
367229
3753
molto presto alla mattina o molto tardi nel pomeriggio,
e mi diceva, "Zeynep, andiamo a pranzo!"
06:11
and she'd say, "Zeynep, let's go to lunch!"
119
371006
3062
06:14
I'd be puzzled by the weird timing.
120
374724
2167
Ero perplessa per la strana tempistica.
06:16
It's 4pm. Lunch?
121
376915
2129
Sono le 4 del pomeriggio. Pranzo?
Ero al verde, ed è un pranzo gratis. Quindi andavo sempre.
06:19
I was broke, so free lunch. I always went.
122
379068
3094
06:22
I later realized what was happening.
123
382618
2067
Più tardi capii cosa stava accadendo.
06:24
My immediate managers had not confessed to their higher-ups
124
384709
4546
La manager da cui dipendevo non aveva confessato ai livelli superiori
06:29
that the programmer they hired for a serious job was a teen girl
125
389279
3113
che il programmatore da lei assunto per un importante lavoro era adolescente
06:32
who wore jeans and sneakers to work.
126
392416
3930
che indossava jeans e sneaker al lavoro.
Lavoravo bene, solo sembravo sbagliata,
06:37
I was doing a good job, I just looked wrong
127
397174
2202
06:39
and was the wrong age and gender.
128
399400
1699
ed era l'età e genere sbagliato.
Così asssumere senza considerare genere e razza
06:41
So hiring in a gender- and race-blind way
129
401123
3346
06:44
certainly sounds good to me.
130
404493
1865
certamante mi sembra giusto.
Ma con questi sistemi, è più complicato, ed ecco perchè:
06:47
But with these systems, it is more complicated, and here's why:
131
407031
3341
06:50
Currently, computational systems can infer all sorts of things about you
132
410968
5791
Ad oggi, i sistemi di calcolo possono desumere qualsiasi cosa su di voi
06:56
from your digital crumbs,
133
416783
1872
dalle vostre briciole digitali,
06:58
even if you have not disclosed those things.
134
418679
2333
pur se non avete reso pubbliche quelle cose.
07:01
They can infer your sexual orientation,
135
421506
2927
Possono desumere il vostro orientamento sessuale,
07:04
your personality traits,
136
424994
1306
caratteristiche personali,
07:06
your political leanings.
137
426859
1373
orientamento politico.
07:08
They have predictive power with high levels of accuracy.
138
428830
3685
Hanno potenza predittiva con alto livello di accuratezza.
07:13
Remember -- for things you haven't even disclosed.
139
433362
2578
Ricordate -- per cose che non avete mai dichiarato.
07:15
This is inference.
140
435964
1591
Questa è l'inferenza.
07:17
I have a friend who developed such computational systems
141
437579
3261
Ho un'amica che ha sviluppato un sistema di elaborazione
07:20
to predict the likelihood of clinical or postpartum depression
142
440864
3641
per predire la probabilità della depressione postpartum
07:24
from social media data.
143
444529
1416
dai dati delle reti sociali.
07:26
The results are impressive.
144
446676
1427
Risultati impressionanti!
07:28
Her system can predict the likelihood of depression
145
448492
3357
Il suo sistema può predire la probabilità della depressione
07:31
months before the onset of any symptoms --
146
451873
3903
mesi prima dell'insorgere di un qualsiasi sintomo --
07:35
months before.
147
455800
1373
mesi prima.
07:37
No symptoms, there's prediction.
148
457197
2246
Nessun sintomo, ma c'è predizione.
07:39
She hopes it will be used for early intervention. Great!
149
459467
4812
Lei spera che sarà usato per anticipare un intervento. Ottimo!
07:44
But now put this in the context of hiring.
150
464911
2040
Ma ora consideratelo in una assunzione.
Così a quella conferenza dei manager delle risorse umane,
07:48
So at this human resources managers conference,
151
468027
3046
ho avvicinato un manager di alto livello in una grande azienda,
07:51
I approached a high-level manager in a very large company,
152
471097
4709
07:55
and I said to her, "Look, what if, unbeknownst to you,
153
475830
4578
e le ho detto, "Guarda, che succederebbe se, alla tua insaputa,
08:00
your system is weeding out people with high future likelihood of depression?
154
480432
6549
il vostro sistema elimina le persone con un'alta probabilità di depressione?
08:07
They're not depressed now, just maybe in the future, more likely.
155
487761
3376
Non sono depresse ora, magari forse in futuro, più probabilmente.
08:11
What if it's weeding out women more likely to be pregnant
156
491923
3406
Che succederebbe se eliminasse le donne più probabilmente incinte
08:15
in the next year or two but aren't pregnant now?
157
495353
2586
nei prossimi uno o due anni ma che non lo sono ora?
08:18
What if it's hiring aggressive people because that's your workplace culture?"
158
498844
5636
E se assumeste persone aggressive perchè questa è la vostra cultura aziendale?"
Non potete parlarne guardando solo alle quote di genere.
08:25
You can't tell this by looking at gender breakdowns.
159
505173
2691
08:27
Those may be balanced.
160
507888
1502
Queste si possono bilanciare.
08:29
And since this is machine learning, not traditional coding,
161
509414
3557
E dato che ciò è apprendimento automatico, non programmazione tradizionale,
08:32
there is no variable there labeled "higher risk of depression,"
162
512995
4907
non c'è alcuna variabile di codifica etichettata "alto rischio di depressione",
08:37
"higher risk of pregnancy,"
163
517926
1833
"maggior rischio di gravidanza,"
08:39
"aggressive guy scale."
164
519783
1734
"gradazione di maschio aggressivo."
08:41
Not only do you not know what your system is selecting on,
165
521995
3679
Non solo non sapete su cosa il vostro sistema basi la selezione,
08:45
you don't even know where to begin to look.
166
525698
2323
ma neppure sapete dove cominciare a guardare.
E' una "scatola nera".
08:48
It's a black box.
167
528045
1246
08:49
It has predictive power, but you don't understand it.
168
529315
2807
Ha una potenza predittiva ma non la capite.
08:52
"What safeguards," I asked, "do you have
169
532486
2369
"Quali garanzie," chiesi, "avete
08:54
to make sure that your black box isn't doing something shady?"
170
534879
3673
per essere sicuri che la scatola nera non sta facendo qualcosa losco?"
09:00
She looked at me as if I had just stepped on 10 puppy tails.
171
540863
3878
Mi ha guardato come se avessi schiacciato la coda a 10 cuccioli.
09:04
(Laughter)
172
544765
1248
(Risate)
Mi fissò e disse,
09:06
She stared at me and she said,
173
546037
2041
09:08
"I don't want to hear another word about this."
174
548556
4333
"Non voglio sentire altro su questo."
09:13
And she turned around and walked away.
175
553458
2034
E si girò andandosene via.
Considerate - non era maleducata.
09:16
Mind you -- she wasn't rude.
176
556064
1486
09:17
It was clearly: what I don't know isn't my problem, go away, death stare.
177
557574
6308
Era chiaro: quello che non so non è un mio problema. Va via, sguardo assassino.
09:23
(Laughter)
178
563906
1246
(Risate)
09:25
Look, such a system may even be less biased
179
565862
3839
Vedete, un tale sistema può anche essere meno influenzata
09:29
than human managers in some ways.
180
569725
2103
in molti modi rispetto ai manager umani.
09:31
And it could make monetary sense.
181
571852
2146
E potrebbe avere senso economico.
09:34
But it could also lead
182
574573
1650
Ma può anche portare
09:36
to a steady but stealthy shutting out of the job market
183
576247
4748
a una stabile, ma furtiva chiusura dal mercato del lavoro
di gente più a rischio di depressione.
09:41
of people with higher risk of depression.
184
581019
2293
09:43
Is this the kind of society we want to build,
185
583753
2596
Questo è il tipo di società che vogliamo costruire,
09:46
without even knowing we've done this,
186
586373
2285
senza neppure sapere che lo abbiamo fatto,
09:48
because we turned decision-making to machines we don't totally understand?
187
588682
3964
poichè abbiamo lasciato la decisione a macchine che non comprendiamo del tutto?
09:53
Another problem is this:
188
593265
1458
Un altro problema è questo:
09:55
these systems are often trained on data generated by our actions,
189
595314
4452
quei sistemi sono spesso addestrati con dati generati dalle nostre azioni,
09:59
human imprints.
190
599790
1816
di impronta umana.
10:02
Well, they could just be reflecting our biases,
191
602188
3808
Bene, possono proprio riflettere le nostre distorsioni o pregiudizi,
e questi sistemi si portano dietro i nostri pregiudizi
10:06
and these systems could be picking up on our biases
192
606020
3593
10:09
and amplifying them
193
609637
1313
e li amplificano
10:10
and showing them back to us,
194
610974
1418
e ce li rispecchiano,
10:12
while we're telling ourselves,
195
612416
1462
mentre ci diciamo,
10:13
"We're just doing objective, neutral computation."
196
613902
3117
"Stiamo facendo solo elaborazioni oggettive e neutrali."
10:18
Researchers found that on Google,
197
618314
2677
Ricerche effettuate su Google trovano,
che è meno probabile vengano mostrati alle donne avvisi per lavori ben pagati.
10:22
women are less likely than men to be shown job ads for high-paying jobs.
198
622134
5313
10:28
And searching for African-American names
199
628463
2530
E cercando nomi di Afro-Americani
è più probabile trovare avvisi alludenti a storie criminali,
10:31
is more likely to bring up ads suggesting criminal history,
200
631017
4706
10:35
even when there is none.
201
635747
1567
anche quando non ce ne sono.
10:38
Such hidden biases and black-box algorithms
202
638693
3549
Questi sono i pregiudizi nascosti e gli algoritmi a scatola nera
10:42
that researchers uncover sometimes but sometimes we don't know,
203
642266
3973
che i ricercatori talvolta scoprono ma che altre volte non conosciamo,
10:46
can have life-altering consequences.
204
646263
2661
possono avere la conseguenza di alterare la vita.
10:49
In Wisconsin, a defendant was sentenced to six years in prison
205
649958
4159
In Wisconsin, un accusato è stato condannato a sei anni di prigione
per aver eluso la polizia.
10:54
for evading the police.
206
654141
1355
10:56
You may not know this,
207
656824
1186
Si può non saperlo,
ma gli algoritmi sono sempre più usati per prendere decisioni giudiziarie.
10:58
but algorithms are increasingly used in parole and sentencing decisions.
208
658034
3998
Egli voleva sapere: come è stato calcolato il punteggio?
11:02
He wanted to know: How is this score calculated?
209
662056
2955
11:05
It's a commercial black box.
210
665795
1665
Ma è una scatola nera sul mercato
11:07
The company refused to have its algorithm be challenged in open court.
211
667484
4205
L'azienda si è rifiutata di far verificare il suo algoritmo in una corte pubblica.
11:12
But ProPublica, an investigative nonprofit, audited that very algorithm
212
672396
5532
Ma ProPublica, associazione investigativa non-profit, ha verificato quell'algoritmo
11:17
with what public data they could find,
213
677952
2016
con i dati pubblici disponibili,
11:19
and found that its outcomes were biased
214
679992
2316
trovando che i risultati erano influenzati
11:22
and its predictive power was dismal, barely better than chance,
215
682332
3629
e la sua potenza predittiva era niente più di una possibilità,
11:25
and it was wrongly labeling black defendants as future criminals
216
685985
4416
e che era sbagliato etichettare accusati neri come futuri criminali
11:30
at twice the rate of white defendants.
217
690425
3895
a livello doppio degli accusati bianchi.
11:35
So, consider this case:
218
695891
1564
Così considerate questo caso:
questa donna è in ritardo nel prelevare la sua figlioccia
11:38
This woman was late picking up her godsister
219
698103
3852
11:41
from a school in Broward County, Florida,
220
701979
2075
da scuola nella Contea di Broward, Florida,
11:44
running down the street with a friend of hers.
221
704757
2356
correndo per la strada con un suo amico.
Vedono una bici da ragazzo non bloccata ed uno scooter in una veranda
11:47
They spotted an unlocked kid's bike and a scooter on a porch
222
707137
4099
11:51
and foolishly jumped on it.
223
711260
1632
e stupidamente vi saltano su.
11:52
As they were speeding off, a woman came out and said,
224
712916
2599
Come stavano scappando via, una donna uscì fuori e disse,
11:55
"Hey! That's my kid's bike!"
225
715539
2205
"Ehi, quella bicicletta è mia!"
11:57
They dropped it, they walked away, but they were arrested.
226
717768
3294
Essi la lascarono, andarono via, ma furono arrestati.
Aveva sbagliato, era stata sciocca, ma era appena diventata diciottenne.
12:01
She was wrong, she was foolish, but she was also just 18.
227
721086
3637
12:04
She had a couple of juvenile misdemeanors.
228
724747
2544
Fu condannata per un paio di crimini giovanili.
12:07
Meanwhile, that man had been arrested for shoplifting in Home Depot --
229
727808
5185
Nel frattempo, quell'uomo fu arrestato per furto di merce al Home Depot --
merce per 85 dollari di valore, un simile piccolo crimine.
12:13
85 dollars' worth of stuff, a similar petty crime.
230
733017
2924
12:16
But he had two prior armed robbery convictions.
231
736766
4559
Ma lui aveva due precedenti condanne per rapina a mano armata
12:21
But the algorithm scored her as high risk, and not him.
232
741955
3482
Ma l'algoritmo aveva valutato lei ad alto rischio, non lui.
12:26
Two years later, ProPublica found that she had not reoffended.
233
746746
3874
Due anni dopo, ProPublica trovò che lei non era stata recidiva.
12:30
It was just hard to get a job for her with her record.
234
750644
2550
Ma le fu duro trovare lavoro, visti i precedenti.
12:33
He, on the other hand, did reoffend
235
753218
2076
Lui, d'altra parte, fu recidivo
12:35
and is now serving an eight-year prison term for a later crime.
236
755318
3836
ed ora è in prigione per 8 anni a causa di un successivo crimine.
Chiaramente, ci bisogna verificare le scatole nere
12:40
Clearly, we need to audit our black boxes
237
760088
3369
12:43
and not have them have this kind of unchecked power.
238
763481
2615
per non dare loro questo incontrollato potere.
(Applausi)
12:46
(Applause)
239
766120
2879
Le verifiche sono importanti, ma da sole non risolvono tutti i problemi.
12:50
Audits are great and important, but they don't solve all our problems.
240
770087
4242
12:54
Take Facebook's powerful news feed algorithm --
241
774353
2748
Prendete l'algoritmo di Facebook per caricare le news--
sapete, quello che riordina tutto e decide cosa mostrarvi
12:57
you know, the one that ranks everything and decides what to show you
242
777125
4843
13:01
from all the friends and pages you follow.
243
781992
2284
da tutti gli amici e le pagine seguite.
13:04
Should you be shown another baby picture?
244
784898
2275
Dovrebbe mostrarvi un'altra foto di bimbo?
13:07
(Laughter)
245
787197
1196
(Risate)
13:08
A sullen note from an acquaintance?
246
788417
2596
Una nota imbronciata da un conoscente?
13:11
An important but difficult news item?
247
791449
1856
Una importante ma scabrosa notizia?
13:13
There's no right answer.
248
793329
1482
Non c'è una risposta giusta.
13:14
Facebook optimizes for engagement on the site:
249
794835
2659
Facebook ottimizza per attraervi al loro sito:
13:17
likes, shares, comments.
250
797518
1415
i like, condividi, commenti
Nell'agosto 2014,
13:20
In August of 2014,
251
800168
2696
13:22
protests broke out in Ferguson, Missouri,
252
802888
2662
proteste scoppiarono a Ferguson, Missouri, dopo l'uccisione di
13:25
after the killing of an African-American teenager by a white police officer,
253
805574
4417
un ragazzo Afro-Americano da parte di un poliziotto bianco,
in circostanze oscure.
13:30
under murky circumstances.
254
810015
1570
13:31
The news of the protests was all over
255
811974
2007
La notizia delle proteste era presente
sul mio caricatore Twitter non filtrato da algoritmi,
13:34
my algorithmically unfiltered Twitter feed,
256
814005
2685
13:36
but nowhere on my Facebook.
257
816714
1950
ma nulla sul mio Facebook.
13:39
Was it my Facebook friends?
258
819182
1734
Era a causa dei miei amici su Facebook?
13:40
I disabled Facebook's algorithm,
259
820940
2032
Ho disabilitato l'algoritmo di Facebook,
13:43
which is hard because Facebook keeps wanting to make you
260
823472
2848
che non è facile, poichè Facebook vuole mantenervi
13:46
come under the algorithm's control,
261
826344
2036
sotto il controllo dell'algoritmo,
13:48
and saw that my friends were talking about it.
262
828404
2238
e vidi che i miei amici parlavano di questo.
13:50
It's just that the algorithm wasn't showing it to me.
263
830666
2509
Era proprio l'algoritmo che non me lo mostrava.
13:53
I researched this and found this was a widespread problem.
264
833199
3042
Ho approfondito ed ho trovato che è un problema diffuso.
13:56
The story of Ferguson wasn't algorithm-friendly.
265
836265
3813
La storia di Ferguson non è facile per l'algoritmo.
Non è likable.
14:00
It's not "likable."
266
840102
1171
14:01
Who's going to click on "like?"
267
841297
1552
Chi sta cliccando su "like?"
14:03
It's not even easy to comment on.
268
843500
2206
Non è neppure facile da commentarsi.
14:05
Without likes and comments,
269
845730
1371
Senza like e commenti,
l'algoritmo tende a mostrare la notizia ad ancora meno persone,
14:07
the algorithm was likely showing it to even fewer people,
270
847125
3292
14:10
so we didn't get to see this.
271
850441
1542
così non riusciamo a vederla.
14:12
Instead, that week,
272
852946
1228
Invece, questa settimana,
14:14
Facebook's algorithm highlighted this,
273
854198
2298
l'algoritmo di Facebook ha evidenziato
14:16
which is the ALS Ice Bucket Challenge.
274
856520
2226
questo: il ALS Ice Bucket Challenge.
14:18
Worthy cause; dump ice water, donate to charity, fine.
275
858770
3742
Causa benefica; svuota acqua ghiacciata, dona alla beneficenza, bene.
14:22
But it was super algorithm-friendly.
276
862536
1904
Ottimo per agevolare l'algoritmo.
14:25
The machine made this decision for us.
277
865219
2613
Una decisione automatica è stata presa per noi
14:27
A very important but difficult conversation
278
867856
3497
Una conversazione molto importante ma scabrosa
14:31
might have been smothered,
279
871377
1555
può essere moderata,
14:32
had Facebook been the only channel.
280
872956
2696
essendo Facebook l'unica via trasmissiva.
Ora, infine, quei sistemi possono sbagliare
14:36
Now, finally, these systems can also be wrong
281
876117
3797
14:39
in ways that don't resemble human systems.
282
879938
2736
in modi che non somigliano a sistemi umani.
14:42
Do you guys remember Watson, IBM's machine-intelligence system
283
882698
2922
Vi ricordate Watson, la macchina intelligente di IBM
14:45
that wiped the floor with human contestants on Jeopardy?
284
885644
3128
che ha spazzato via i contendenti umani a Jeopardy?
Era un grande giocatore.
14:49
It was a great player.
285
889131
1428
14:50
But then, for Final Jeopardy, Watson was asked this question:
286
890583
3569
Ma poi, alla finale di Jeopardy, fu posta questa domanda a Watson:
14:54
"Its largest airport is named for a World War II hero,
287
894659
2932
"Il suo più grande aeroporto è intitolato a un eroe della II Guerra Mondiale,
14:57
its second-largest for a World War II battle."
288
897615
2252
il suo secondo più grande a una sua battaglia."
14:59
(Hums Final Jeopardy music)
289
899891
1378
(Musica della finale di Jeopardy)
15:01
Chicago.
290
901582
1182
Chicago.
15:02
The two humans got it right.
291
902788
1370
I due umani risposero bene.
15:04
Watson, on the other hand, answered "Toronto" --
292
904697
4348
Watson, da altra parte, rispose "Toronto" --
per una città nella categoria USA!
15:09
for a US city category!
293
909069
1818
15:11
The impressive system also made an error
294
911596
2901
L'impressionante sistema aveva sbagliato
15:14
that a human would never make, a second-grader wouldn't make.
295
914521
3651
come un umano non avrebbbe mai fatto, neppure un alunno delle elementari.
15:18
Our machine intelligence can fail
296
918823
3109
L'intelligenza automatica può sbagliare
15:21
in ways that don't fit error patterns of humans,
297
921956
3100
in modi non paragonabili con l'approccio dell'errore umano,
in modi che non ci aspetteremmo e per i quali siamo preparati.
15:25
in ways we won't expect and be prepared for.
298
925080
2950
Sarebbe pessimo non ottenere un lavoro per il quale si è qualificati,
15:28
It'd be lousy not to get a job one is qualified for,
299
928054
3638
15:31
but it would triple suck if it was because of stack overflow
300
931716
3727
ma sarebbe tre volte peggio se fosse causato da un errore software
15:35
in some subroutine.
301
935467
1432
in qualche sua subroutine.
15:36
(Laughter)
302
936923
1579
(Risate)
15:38
In May of 2010,
303
938526
2786
Nel maggio 2010,
15:41
a flash crash on Wall Street fueled by a feedback loop
304
941336
4044
una crisi improvvisa a Wall Street, alimentata da un erroneo ciclo di calcolo
15:45
in Wall Street's "sell" algorithm
305
945404
3028
nell'algoritmo di "vendi" di Wall Street
15:48
wiped a trillion dollars of value in 36 minutes.
306
948456
4184
ha spazzato via un valore di un trilione di dollari in 36 minuti.
15:53
I don't even want to think what "error" means
307
953722
2187
Non voglio pensare cosa significhi "errore"
15:55
in the context of lethal autonomous weapons.
308
955933
3589
nel contesto di armi letali autonome.
16:01
So yes, humans have always made biases.
309
961894
3790
Si certo, gli umani sono sempre parziali.
16:05
Decision makers and gatekeepers,
310
965708
2176
I decisori e controllori,
16:07
in courts, in news, in war ...
311
967908
3493
nelle corti, nei notiziari, in guerra ...
16:11
they make mistakes; but that's exactly my point.
312
971425
3038
commettono errori; ma questo è proprio il mio punto.
16:14
We cannot escape these difficult questions.
313
974487
3521
non possiamo sfuggire a queste difficili domande.
16:18
We cannot outsource our responsibilities to machines.
314
978596
3516
Non possiamo delegare le nostre responsabilità alle macchine.
16:22
(Applause)
315
982676
4208
(Applausi)
L'intelligenza artificiale non ci dà un permesso di "uscire dall'etica" gratis.
16:29
Artificial intelligence does not give us a "Get out of ethics free" card.
316
989089
4447
16:34
Data scientist Fred Benenson calls this math-washing.
317
994742
3381
Lo scienziato sui dati Fred Benenson lo chiama "pulizia matematica".
Necessitiamo del contrario.
16:38
We need the opposite.
318
998147
1389
16:39
We need to cultivate algorithm suspicion, scrutiny and investigation.
319
999560
5388
Verso gli algoritmi occorre coltivare la diffidenza, verifica e indagine.
Occorre essere sicuri che di sia una responsabilità sugli algoritmi,
16:45
We need to make sure we have algorithmic accountability,
320
1005380
3198
16:48
auditing and meaningful transparency.
321
1008602
2445
metodi di verifica e una comprensibile trasparenza.
È necessario accettare che portare matematica ed elaborazione
16:51
We need to accept that bringing math and computation
322
1011380
3234
16:54
to messy, value-laden human affairs
323
1014638
2970
in relazioni umane caotiche e di valore,
16:57
does not bring objectivity;
324
1017632
2384
non aggiunge obiettività;
piuttosto, la complessità degli affari umani invade gli algoritmi.
17:00
rather, the complexity of human affairs invades the algorithms.
325
1020040
3633
Si, possiamo e dovremmo usare il calcolo
17:04
Yes, we can and we should use computation
326
1024148
3487
per aiutarci nel decidere meglio.
17:07
to help us make better decisions.
327
1027659
2014
17:09
But we have to own up to our moral responsibility to judgment,
328
1029697
5332
Ma dobbiamo mantenere la responsabilità morale del giudizio,
e usare algoritmi dentro quel contesto,
17:15
and use algorithms within that framework,
329
1035053
2818
non come gli strumenti per abdicare e dare in outsource
17:17
not as a means to abdicate and outsource our responsibilities
330
1037895
4935
le nostre responsibilità a qualcun altro come fra umani.
17:22
to one another as human to human.
331
1042854
2454
17:25
Machine intelligence is here.
332
1045807
2609
La intelligenza delle macchine è qui.
Significa che dobbiamo tenerci più forti
17:28
That means we must hold on ever tighter
333
1048440
3421
ai valori ed etica umani.
17:31
to human values and human ethics.
334
1051885
2147
Grazie.
17:34
Thank you.
335
1054056
1154
(Applausi)
17:35
(Applause)
336
1055234
5020
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7