How we can build AI to help humans, not hurt us | Margaret Mitchell

81,177 views ・ 2018-03-12

TED


Fare doppio clic sui sottotitoli in inglese per riprodurre il video.

Traduttore: Valeria Cossu Revisore: Gabriella Patricola
00:13
I work on helping computers communicate about the world around us.
0
13381
4015
Il mio lavoro è aiutare i computer a descrivere il mondo intorno a noi
00:17
There are a lot of ways to do this,
1
17754
1793
Ci sono diversi modi per farlo,
00:19
and I like to focus on helping computers
2
19571
2592
mi concentro sull'aiutare i computer
00:22
to talk about what they see and understand.
3
22187
2874
a parlare di quello che vedono e capiscono.
00:25
Given a scene like this,
4
25514
1571
Prendendo una scena come questa,
00:27
a modern computer-vision algorithm
5
27109
1905
un moderno algoritmo di visione artificiale
00:29
can tell you that there's a woman and there's a dog.
6
29038
3095
può dirvi che c'è una donna e c'è un cane.
00:32
It can tell you that the woman is smiling.
7
32157
2706
Può dirvi che la donna sta sorridendo.
00:34
It might even be able to tell you that the dog is incredibly cute.
8
34887
3873
Potrebbe anche dirvi che il cane è molto carino.
00:38
I work on this problem
9
38784
1349
Lavoro su questo problema
00:40
thinking about how humans understand and process the world.
10
40157
4212
pensando al modo in cui gli umani capiscono e processano il mondo.
00:45
The thoughts, memories and stories
11
45577
2952
I pensieri, ricordi e storie
00:48
that a scene like this might evoke for humans.
12
48553
2818
che una scena come questa può suscitare negli umani.
00:51
All the interconnections of related situations.
13
51395
4285
Tutte le interconnessioni di situazioni correlate.
00:55
Maybe you've seen a dog like this one before,
14
55704
3126
Forse avete visto un cane come questo,
00:58
or you've spent time running on a beach like this one,
15
58854
2969
o avete passato del tempo a correre su una spiaggia come questa
01:01
and that further evokes thoughts and memories of a past vacation,
16
61847
4778
e quindi evoca pensieri e ricordi di una vacanza passata,
01:06
past times to the beach,
17
66649
1920
tempi passati in spiaggia,
01:08
times spent running around with other dogs.
18
68593
2603
tempi passati a correre con altri cani.
01:11
One of my guiding principles is that by helping computers to understand
19
71688
5207
Uno dei miei principi guida è che aiutando i computer a capire
01:16
what it's like to have these experiences,
20
76919
2896
com'è avere queste esperienze,
01:19
to understand what we share and believe and feel,
21
79839
5176
a capire cosa condividiamo e crediamo e sentiamo,
01:26
then we're in a great position to start evolving computer technology
22
86094
4310
allora siamo in un'ottima posizione per far evolvere la tecnologia informatica
01:30
in a way that's complementary with our own experiences.
23
90428
4587
in modo complementare con le nostre esperienze.
01:35
So, digging more deeply into this,
24
95539
3387
Quindi, andando più in profondità,
01:38
a few years ago I began working on helping computers to generate human-like stories
25
98950
5905
alcuni anni fa mi occupavo di far generare ai computer storie verosimili
01:44
from sequences of images.
26
104879
1666
partendo da sequenze di immagini.
01:47
So, one day,
27
107427
1904
Così un giorno,
01:49
I was working with my computer to ask it what it thought about a trip to Australia.
28
109355
4622
lavoravo al computer chiedendogli cosa pensasse di un viaggio in Australia.
01:54
It took a look at the pictures, and it saw a koala.
29
114768
2920
Diede un'occhiata alle fotografie e vide un koala.
01:58
It didn't know what the koala was,
30
118236
1643
Non sapeva cosa fosse un koala,
01:59
but it said it thought it was an interesting-looking creature.
31
119903
2999
ma disse che era una creatura dall'aspetto interessante.
02:04
Then I shared with it a sequence of images about a house burning down.
32
124053
4004
Poi condivisi una serie di immagini di una casa che stava bruciando.
02:09
It took a look at the images and it said,
33
129704
3285
Diede un'occhiata alle immagini e disse:
02:13
"This is an amazing view! This is spectacular!"
34
133013
3500
"È una vista fantastica! È spettacolare!"
02:17
It sent chills down my spine.
35
137450
2095
Mi sono venuti i brividi.
02:20
It saw a horrible, life-changing and life-destroying event
36
140983
4572
Ha visto un evento orribile, che cambia la vita, che la distrugge
02:25
and thought it was something positive.
37
145579
2382
e pensava che fosse qualcosa di positivo.
02:27
I realized that it recognized the contrast,
38
147985
3441
Capii che riconosceva il contrasto,
02:31
the reds, the yellows,
39
151450
2699
i rossi, i gialli,
02:34
and thought it was something worth remarking on positively.
40
154173
3078
e pensava che fosse qualcosa da commentare positivamente.
02:37
And part of why it was doing this
41
157928
1615
Un motivo per cui faceva così
02:39
was because most of the images I had given it
42
159577
2945
era perché la maggior parte delle immagini che gli avevo dato
02:42
were positive images.
43
162546
1840
erano positive.
02:44
That's because people tend to share positive images
44
164903
3658
Perché le persone tendono a condividere immagini positive
02:48
when they talk about their experiences.
45
168585
2190
quando parlano delle loro esperienze.
02:51
When was the last time you saw a selfie at a funeral?
46
171267
2541
Quando mai avete visto un selfie a un funerale?
02:55
I realized that, as I worked on improving AI
47
175434
3095
Capii che lavorando al miglioramento dell'IA
02:58
task by task, dataset by dataset,
48
178553
3714
compito dopo compito, dataset dopo dataset,
03:02
that I was creating massive gaps,
49
182291
2897
stavo creando enormi lacune,
03:05
holes and blind spots in what it could understand.
50
185212
3999
buchi e punti ciechi in ciò che poteva capire.
03:10
And while doing so,
51
190307
1334
E nel fare ciò,
03:11
I was encoding all kinds of biases.
52
191665
2483
stavo codificando tutti i tipi di preconcetti.
03:15
Biases that reflect a limited viewpoint,
53
195029
3318
Preconcetti che riflettono un punto di vista limitato,
03:18
limited to a single dataset --
54
198371
2261
limitato a un singolo dataset.
03:21
biases that can reflect human biases found in the data,
55
201283
3858
Preconcetti che riflettono quelli umani trovati nei dati,
03:25
such as prejudice and stereotyping.
56
205165
3104
come pregiudizi e stereotipi.
03:29
I thought back to the evolution of the technology
57
209554
3057
Ho ripensato all'evoluzione della tecnologia
03:32
that brought me to where I was that day --
58
212635
2502
che mi ha portata dove ero quel giorno,
03:35
how the first color images
59
215966
2233
come le prime immagini a colori
03:38
were calibrated against a white woman's skin,
60
218223
3048
fossero state calibrate sulla pelle di una donna bianca,
03:41
meaning that color photography was biased against black faces.
61
221665
4145
quindi la fotografia a colori penalizzava i volti neri.
03:46
And that same bias, that same blind spot
62
226514
2925
E quello stesso pregiudizio, quello stesso punto cieco
03:49
continued well into the '90s.
63
229463
1867
persisteva negli anni '90.
03:51
And the same blind spot continues even today
64
231701
3154
E lo stesso punto cieco persiste anche oggi
03:54
in how well we can recognize different people's faces
65
234879
3698
nel modo in cui riconosciamo volti di persone diverse
03:58
in facial recognition technology.
66
238601
2200
nella tecnologia del riconoscimento facciale.
04:01
I though about the state of the art in research today,
67
241323
3143
Ho pensato allo stato dell'arte nella ricerca di oggi,
04:04
where we tend to limit our thinking to one dataset and one problem.
68
244490
4514
tendiamo a limitare il nostro pensiero a un dataset e un problema.
04:09
And that in doing so, we were creating more blind spots and biases
69
249688
4881
E facendo ciò, creiamo più punti ciechi e preconcetti
04:14
that the AI could further amplify.
70
254593
2277
che l'IA potrebbe amplificare.
04:17
I realized then that we had to think deeply
71
257712
2079
Ho capito quindi che dovremmo pensare di più
04:19
about how the technology we work on today looks in five years, in 10 years.
72
259815
5519
a come la tecnologia a cui lavoriamo oggi sarà tra 5, 10 anni.
04:25
Humans evolve slowly, with time to correct for issues
73
265990
3142
Gli umani si evolvono lentamente nel tempo, per correggere errori
04:29
in the interaction of humans and their environment.
74
269156
3534
nell'interazione tra loro e il loro ambiente.
04:33
In contrast, artificial intelligence is evolving at an incredibly fast rate.
75
273276
5429
Mentre l'intelligenza artificiale si evolve a ritmi velocissimi,
04:39
And that means that it really matters
76
279013
1773
quindi è molto importante
04:40
that we think about this carefully right now --
77
280810
2317
che ci ragioniamo attentamente adesso,
04:44
that we reflect on our own blind spots,
78
284180
3008
che riflettiamo sui nostri punti ciechi,
04:47
our own biases,
79
287212
2317
sui nostri preconcetti,
04:49
and think about how that's informing the technology we're creating
80
289553
3857
e pensiamo a come ciò modella la tecnologia che stiamo creando
04:53
and discuss what the technology of today will mean for tomorrow.
81
293434
3902
e parliamo di cosa la tecnologia di oggi rappresenterà un domani.
04:58
CEOs and scientists have weighed in on what they think
82
298593
3191
Amministratori delegati e scienziati hanno detto la loro
05:01
the artificial intelligence technology of the future will be.
83
301808
3325
su ciò che sarà la tecnologia dell'IA del futuro.
05:05
Stephen Hawking warns that
84
305157
1618
Stephen Hawking avverte che
05:06
"Artificial intelligence could end mankind."
85
306799
3007
"l'intelligenza artificiale potrebbe porre fine all'umanità".
05:10
Elon Musk warns that it's an existential risk
86
310307
2683
Elon Musk dice che è un rischio esistenziale
05:13
and one of the greatest risks that we face as a civilization.
87
313014
3574
e uno dei maggiori rischi che affrontiamo in quanto civiltà.
05:17
Bill Gates has made the point,
88
317665
1452
Bill Gates ha affermato:
05:19
"I don't understand why people aren't more concerned."
89
319141
3185
"Non capisco perché le persone non siano più preoccupate di così".
05:23
But these views --
90
323412
1318
Ma questi punti di vista
05:25
they're part of the story.
91
325618
1734
fanno parte della storia.
05:28
The math, the models,
92
328079
2420
La matematica, i modelli,
05:30
the basic building blocks of artificial intelligence
93
330523
3070
le fondamenta su cui si basa l'intelligenza artificiale
05:33
are something that we call access and all work with.
94
333617
3135
sono cose a cui possiamo accedere e con cui possiamo lavorare.
05:36
We have open-source tools for machine learning and intelligence
95
336776
3785
Abbiamo strumenti open-source per il machine learning e IA
05:40
that we can contribute to.
96
340585
1734
ai quali possiamo contribuire.
05:42
And beyond that, we can share our experience.
97
342919
3340
Inoltre possiamo condividere la nostra esperienza.
05:46
We can share our experiences with technology and how it concerns us
98
346760
3468
Possiamo condividere la nostra esperienza con la tecnologia, come ci riguarda
05:50
and how it excites us.
99
350252
1467
e come ci affascina.
05:52
We can discuss what we love.
100
352251
1867
Possiamo discutere su ciò che amiamo.
05:55
We can communicate with foresight
101
355244
2031
Possiamo prevedere
05:57
about the aspects of technology that could be more beneficial
102
357299
4857
quali aspetti possono essere più benefici
06:02
or could be more problematic over time.
103
362180
2600
o più problematici col tempo.
06:05
If we all focus on opening up the discussion on AI
104
365799
4143
Se ci concentriamo nell'apertura della discussione sull'IA
06:09
with foresight towards the future,
105
369966
1809
con lungimiranza verso il futuro,
06:13
this will help create a general conversation and awareness
106
373093
4270
ci aiuterà a creare una conversazione e consapevolezza generali
06:17
about what AI is now,
107
377387
2513
su ciò che è ora l'IA,
06:21
what it can become
108
381212
2001
su ciò che può diventare
06:23
and all the things that we need to do
109
383237
1785
e su ciò che dobbiamo ancora fare
06:25
in order to enable that outcome that best suits us.
110
385046
3753
per avere i migliori risultati possibili.
06:29
We already see and know this in the technology that we use today.
111
389490
3674
Vediamo e conosciamo già la tecnologia che usiamo oggi.
06:33
We use smart phones and digital assistants and Roombas.
112
393767
3880
Usiamo smartphone e assistenti digitali e robot aspirapolvere.
06:38
Are they evil?
113
398457
1150
Sono malvagi?
06:40
Maybe sometimes.
114
400268
1547
Forse a volte.
06:42
Are they beneficial?
115
402664
1333
Sono benefici?
06:45
Yes, they're that, too.
116
405005
1533
Sì, sono anche questo.
06:48
And they're not all the same.
117
408236
1761
E non sono tutti uguali.
06:50
And there you already see a light shining on what the future holds.
118
410489
3540
E potete già vedere un futuro brillante davanti a noi.
06:54
The future continues on from what we build and create right now.
119
414942
3619
Il futuro prosegue da ciò che costruiamo e creiamo adesso.
06:59
We set into motion that domino effect
120
419165
2642
Mettiamo in moto quell'effetto domino
07:01
that carves out AI's evolutionary path.
121
421831
2600
che costituisce il percorso evolutivo dell'IA.
07:05
In our time right now, we shape the AI of tomorrow.
122
425173
2871
Nel nostro tempo, ora, plasmiamo l'IA di domani.
07:08
Technology that immerses us in augmented realities
123
428566
3699
La tecnologia che ci immerge nelle realtà aumentate
07:12
bringing to life past worlds.
124
432289
2566
e porta in vita mondi remoti.
07:15
Technology that helps people to share their experiences
125
435844
4312
La tecnologia che aiuta la gente a condividere le esperienze
07:20
when they have difficulty communicating.
126
440180
2262
quando hanno difficoltà a comunicare.
07:23
Technology built on understanding the streaming visual worlds
127
443323
4532
La tecnologia costruita per capire i flussi di immagini
07:27
used as technology for self-driving cars.
128
447879
3079
usata per le vetture autonome.
07:32
Technology built on understanding images and generating language,
129
452490
3413
La tecnologia costruita per capire le immagini e generare linguaggio,
07:35
evolving into technology that helps people who are visually impaired
130
455927
4063
si trasforma in tecnologia che aiuta coloro che hanno la vista compromessa
07:40
be better able to access the visual world.
131
460014
2800
ad avere accesso al mondo visivo.
07:42
And we also see how technology can lead to problems.
132
462838
3261
E sappiamo anche come la tecnologia possa portare problemi.
07:46
We have technology today
133
466885
1428
Esiste la tecnologia
07:48
that analyzes physical characteristics we're born with --
134
468337
3835
che analizza le caratteristiche fisiche con cui siamo nati,
07:52
such as the color of our skin or the look of our face --
135
472196
3272
come il colore della pelle o la nostra espressione,
07:55
in order to determine whether or not we might be criminals or terrorists.
136
475492
3804
per determinare se possiamo essere o no criminali o terroristi.
07:59
We have technology that crunches through our data,
137
479688
2905
Esiste la tecnologia che usa i nostri dati,
08:02
even data relating to our gender or our race,
138
482617
2896
anche dati riguardanti il nostro genere o la nostra etnia,
08:05
in order to determine whether or not we might get a loan.
139
485537
2865
per determinare se possiamo ottenere o meno un prestito.
08:09
All that we see now
140
489494
1579
Quello che vediamo ora
08:11
is a snapshot in the evolution of artificial intelligence.
141
491097
3617
è uno spaccato dell'evoluzione dell'intelligenza artificiale.
08:15
Because where we are right now,
142
495763
1778
Perché noi ci troviamo ora
08:17
is within a moment of that evolution.
143
497565
2238
a un passo da quell'evoluzione.
08:20
That means that what we do now will affect what happens down the line
144
500690
3802
Quello che facciamo ora influenzerà ciò che accade lungo il cammino
08:24
and in the future.
145
504516
1200
e nel futuro.
08:26
If we want AI to evolve in a way that helps humans,
146
506063
3951
Se vogliamo che l'IA si evolva per aiutare gli umani,
08:30
then we need to define the goals and strategies
147
510038
2801
allora dobbiamo definire gli obiettivi e le strategie
08:32
that enable that path now.
148
512863
1733
che abilitano quel percorso adesso.
08:35
What I'd like to see is something that fits well with humans,
149
515680
3738
Ciò che vorrei vedere è qualcosa che si adatti agli umani,
08:39
with our culture and with the environment.
150
519442
2800
alla nostra cultura e all'ambiente.
08:43
Technology that aids and assists those of us with neurological conditions
151
523435
4484
Tecnologia che assista la gente con problemi neurologici
08:47
or other disabilities
152
527943
1721
o altre disabilità
08:49
in order to make life equally challenging for everyone.
153
529688
3216
per rendere le sfide della vita uguali per tutti.
08:54
Technology that works
154
534097
1421
La tecnologia che lavori
08:55
regardless of your demographics or the color of your skin.
155
535542
3933
a prescindere dai vostri dati demografici o dal colore della pelle.
09:00
And so today, what I focus on is the technology for tomorrow
156
540383
4742
Oggi, quello su cui mi concentro è la tecnologia per domani
09:05
and for 10 years from now.
157
545149
1733
e per i prossimi 10 anni.
09:08
AI can turn out in many different ways.
158
548530
2634
L'IA può diventare molte cose.
09:11
But in this case,
159
551688
1225
Ma in questo caso
09:12
it isn't a self-driving car without any destination.
160
552937
3328
non è una vettura automatica senza destinazione.
09:16
This is the car that we are driving.
161
556884
2400
Questa è una vettura che guidiamo noi.
09:19
We choose when to speed up and when to slow down.
162
559953
3595
Scegliamo noi quando accelerare e quando rallentare.
09:23
We choose if we need to make a turn.
163
563572
2400
Scegliamo noi se svoltare.
09:26
We choose what the AI of the future will be.
164
566868
3000
Scegliamo noi quale sarà l'IA del futuro.
09:31
There's a vast playing field
165
571186
1337
C'è una vasta scelta
09:32
of all the things that artificial intelligence can become.
166
572547
2965
di tutto ciò che l'IA può diventare.
09:36
It will become many things.
167
576064
1800
Diventerà molte cose.
09:39
And it's up to us now,
168
579694
1732
E dipende da noi adesso,
09:41
in order to figure out what we need to put in place
169
581450
3061
al fine di capire cosa dobbiamo mettere in atto
09:44
to make sure the outcomes of artificial intelligence
170
584535
3807
per assicurarci che gli esiti dell'intelligenza artificiale
09:48
are the ones that will be better for all of us.
171
588366
3066
saranno i migliori per tutti noi.
09:51
Thank you.
172
591456
1150
Grazie
09:52
(Applause)
173
592630
2187
(Applausi)
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7