Don't fear superintelligent AI | Grady Booch

270,234 views ・ 2017-03-13

TED


Fare doppio clic sui sottotitoli in inglese per riprodurre il video.

Traduttore: Rosalia Mazza Revisore: Maria Carmina Distratto
00:12
When I was a kid, I was the quintessential nerd.
0
12580
3840
Quando ero piccolo, ero la quintessenza dell'essere nerd.
00:17
I think some of you were, too.
1
17140
2176
Penso che anche alcuni di voi lo fossero.
00:19
(Laughter)
2
19340
1216
(Risate)
00:20
And you, sir, who laughed the loudest, you probably still are.
3
20580
3216
E lei, che ride più forte degli altri, probabilmente lo è ancora.
00:23
(Laughter)
4
23820
2256
(Risate)
00:26
I grew up in a small town in the dusty plains of north Texas,
5
26100
3496
Sono cresciuto in una piccola città nelle piane polverose del nord Texas,
00:29
the son of a sheriff who was the son of a pastor.
6
29620
3336
figlio di uno sceriffo che era figlio di un pastore.
00:32
Getting into trouble was not an option.
7
32980
1920
Mettersi nei guai non era contemplato.
00:35
And so I started reading calculus books for fun.
8
35860
3256
Quindi ho iniziato a leggere libri di calcolo per divertimento.
00:39
(Laughter)
9
39140
1536
(Risate)
00:40
You did, too.
10
40700
1696
Lo avete fatto anche voi.
00:42
That led me to building a laser and a computer and model rockets,
11
42420
3736
Ciò mi ha portato a costruire un laser, un computer e modellini di razzi,
00:46
and that led me to making rocket fuel in my bedroom.
12
46180
3000
e poi a creare del propellente per razzi nella mia stanza.
00:49
Now, in scientific terms,
13
49780
3656
Ora, in termini scientifici,
00:53
we call this a very bad idea.
14
53460
3256
questa si chiama "una pessima idea".
00:56
(Laughter)
15
56740
1216
(Risate)
00:57
Around that same time,
16
57980
2176
All'incirca in quel periodo,
01:00
Stanley Kubrick's "2001: A Space Odyssey" came to the theaters,
17
60180
3216
"2001: Odissea nello spazio" di Kubrick, usciva nei cinema
01:03
and my life was forever changed.
18
63420
2200
e lì la mia vita cambiò per sempre.
01:06
I loved everything about that movie,
19
66100
2056
Ho amato tutto di quel film,
01:08
especially the HAL 9000.
20
68180
2536
specialmente HAL 9000.
01:10
Now, HAL was a sentient computer
21
70740
2056
HAL era un computer senziente
01:12
designed to guide the Discovery spacecraft
22
72820
2456
progettato per guidare l'astronave Discovery
01:15
from the Earth to Jupiter.
23
75300
2536
dalla Terra a Giove.
01:17
HAL was also a flawed character,
24
77860
2056
HAL era anche un personaggio fallace,
01:19
for in the end he chose to value the mission over human life.
25
79940
4280
perché alla fine preferì la missione alla vita umana.
01:24
Now, HAL was a fictional character,
26
84660
2096
HAL era un personaggio fittizio
01:26
but nonetheless he speaks to our fears,
27
86780
2656
ma nonostante ciò riusciva a parlare alle nostre paure,
01:29
our fears of being subjugated
28
89460
2096
quelle di essere soggiogati
01:31
by some unfeeling, artificial intelligence
29
91580
3016
da qualche intelligenza artificiale, priva di sentimenti
01:34
who is indifferent to our humanity.
30
94620
1960
che è indifferente alla nostra umanità.
01:37
I believe that such fears are unfounded.
31
97700
2576
Credo che tali paure siano infondate.
01:40
Indeed, we stand at a remarkable time
32
100300
2696
Infatti, viviamo in un'epoca significativa
01:43
in human history,
33
103020
1536
della storia dell'umanità,
01:44
where, driven by refusal to accept the limits of our bodies and our minds,
34
104580
4976
in cui, guidati dal rifiuto di accettare i limiti del corpo e della mente
01:49
we are building machines
35
109580
1696
costruiamo macchine
01:51
of exquisite, beautiful complexity and grace
36
111300
3616
di ricercata, bellissima complessità e grazia
01:54
that will extend the human experience
37
114940
2056
che espanderà l'esperienza umana
01:57
in ways beyond our imagining.
38
117020
1680
in modi che non possiamo immaginare.
01:59
After a career that led me from the Air Force Academy
39
119540
2576
Dopo una carriera che va dall'Air Force Academy
02:02
to Space Command to now,
40
122140
1936
allo Space Command a oggi,
02:04
I became a systems engineer,
41
124100
1696
sono un ingegnere sistemista,
02:05
and recently I was drawn into an engineering problem
42
125820
2736
e da poco sono stato coinvolto in un problema d'ingegneria
02:08
associated with NASA's mission to Mars.
43
128580
2576
associato alla spedizione NASA su Marte.
02:11
Now, in space flights to the Moon,
44
131180
2496
Nelle spedizioni verso la Luna,
02:13
we can rely upon mission control in Houston
45
133700
3136
possiamo affidarci al centro di controllo di Houston
02:16
to watch over all aspects of a flight.
46
136860
1976
perché sorvegli la spedizione.
02:18
However, Mars is 200 times further away,
47
138860
3536
In ogni caso, Marte è 200 volte più lontano,
02:22
and as a result it takes on average 13 minutes
48
142420
3216
e perciò ci vogliono in media 13 minuti
02:25
for a signal to travel from the Earth to Mars.
49
145660
3136
perché un segnale arrivi dalla Terra a Marte.
02:28
If there's trouble, there's not enough time.
50
148820
3400
Se si verifica un problema, non c'è abbastanza tempo.
02:32
And so a reasonable engineering solution
51
152660
2496
E quindi una soluzione ingegneristica ragionevole
02:35
calls for us to put mission control
52
155180
2576
ci chiama a mettere dispositivi di controllo
02:37
inside the walls of the Orion spacecraft.
53
157780
3016
dentro la navicella Orion.
02:40
Another fascinating idea in the mission profile
54
160820
2896
Un'altra affascinante idea per le missioni
02:43
places humanoid robots on the surface of Mars
55
163740
2896
è piazzare robot umanoidi sulla superficie di Marte
02:46
before the humans themselves arrive,
56
166660
1856
prima che vi arrivino gli esseri umani,
02:48
first to build facilities
57
168540
1656
affinché facilitino il lavoro
02:50
and later to serve as collaborative members of the science team.
58
170220
3360
e collaborino con la squadra scientifica.
02:55
Now, as I looked at this from an engineering perspective,
59
175220
2736
Ora, lavorando da una prospettiva ingegneristica,
02:57
it became very clear to me that what I needed to architect
60
177980
3176
fu molto chiaro per me che ciò che dovevo architettare
03:01
was a smart, collaborative,
61
181180
2176
era un'intelligenza artificiale
03:03
socially intelligent artificial intelligence.
62
183380
2376
brillante, collaborativa, socialmente ragionevole.
03:05
In other words, I needed to build something very much like a HAL
63
185780
4296
In altre parole, dovevo creare qualcosa molto simile ad HAL
03:10
but without the homicidal tendencies.
64
190100
2416
ma senza le sue tendenze omicide.
03:12
(Laughter)
65
192540
1360
(Risate)
03:14
Let's pause for a moment.
66
194740
1816
Fermiamoci per un momento.
03:16
Is it really possible to build an artificial intelligence like that?
67
196580
3896
È davvero possibile costruire un'intelligenza artificiale come quella?
03:20
Actually, it is.
68
200500
1456
In effetti sì.
03:21
In many ways,
69
201980
1256
Sotto molti aspetti,
03:23
this is a hard engineering problem
70
203260
1976
è un complesso problema ingegneristico
03:25
with elements of AI,
71
205260
1456
con elementi di IA,
03:26
not some wet hair ball of an AI problem that needs to be engineered.
72
206740
4696
non un inestricabile problema di IA che ha bisogno dell'ingegneria.
03:31
To paraphrase Alan Turing,
73
211460
2656
Parafrasando Alan Turing,
03:34
I'm not interested in building a sentient machine.
74
214140
2376
non voglio costruire una macchina senziente.
03:36
I'm not building a HAL.
75
216540
1576
Non sto costruendo un HAL.
03:38
All I'm after is a simple brain,
76
218140
2416
Ciò che cerco è un semplice cervello,
03:40
something that offers the illusion of intelligence.
77
220580
3120
qualcosa che offra l'illusione dell'intelligenza.
03:44
The art and the science of computing have come a long way
78
224820
3136
L'arte e la scienza dell'elaborazione dati ha fatto molta strada
03:47
since HAL was onscreen,
79
227980
1496
da quando è apparso HAL,
03:49
and I'd imagine if his inventor Dr. Chandra were here today,
80
229500
3216
e immagino che se il suo inventore, il Dott. Chandra, fosse qui oggi
03:52
he'd have a whole lot of questions for us.
81
232740
2336
avrebbe un sacco di domande per noi.
03:55
Is it really possible for us
82
235100
2096
È davvero possibile per noi
03:57
to take a system of millions upon millions of devices,
83
237220
4016
prendere un sistema di milioni e milioni di dispositivi,
04:01
to read in their data streams,
84
241260
1456
leggere le loro sequenze dati,
04:02
to predict their failures and act in advance?
85
242740
2256
prevedere i loro fallimenti e azioni in anticipo?
04:05
Yes.
86
245020
1216
Sì.
04:06
Can we build systems that converse with humans in natural language?
87
246260
3176
Possiamo costruire sistemi che conversino con noi in linguaggio naturale?
04:09
Yes.
88
249460
1216
Sì.
04:10
Can we build systems that recognize objects, identify emotions,
89
250700
2976
Sistemi che riconoscano oggetti, identifichino emozioni,
04:13
emote themselves, play games and even read lips?
90
253700
3376
si emozionino a loro volta, giochino e leggano persino il labiale?
04:17
Yes.
91
257100
1216
Sì.
04:18
Can we build a system that sets goals,
92
258340
2136
Un sistema che ponga degli obiettivi,
04:20
that carries out plans against those goals and learns along the way?
93
260500
3616
che pianifichi in base ad essi e che impari strada facendo?
04:24
Yes.
94
264140
1216
Sì.
04:25
Can we build systems that have a theory of mind?
95
265380
3336
Costruire sistemi che abbiano una teoria della mente?
04:28
This we are learning to do.
96
268740
1496
Stiamo imparando a farlo.
04:30
Can we build systems that have an ethical and moral foundation?
97
270260
3480
Possiamo costruire sistemi che abbiano un'etica e una morale?
04:34
This we must learn how to do.
98
274300
2040
Dobbiamo imparare a farlo.
04:37
So let's accept for a moment
99
277180
1376
Accettiamo per un momento
04:38
that it's possible to build such an artificial intelligence
100
278580
2896
che si possa costruire una simile intelligenza artificiale
04:41
for this kind of mission and others.
101
281500
2136
per questo tipo di missioni o per altre.
04:43
The next question you must ask yourself is,
102
283660
2536
La domanda successiva che dovete porvi è:
04:46
should we fear it?
103
286220
1456
dovremmo averne paura?
04:47
Now, every new technology
104
287700
1976
Qualsiasi nuova tecnologia
04:49
brings with it some measure of trepidation.
105
289700
2896
porta con sé un po' di apprensione.
04:52
When we first saw cars,
106
292620
1696
Quando arrivarono le prime auto,
04:54
people lamented that we would see the destruction of the family.
107
294340
4016
la gente temeva di assistere alla distruzione della famiglia.
04:58
When we first saw telephones come in,
108
298380
2696
Quando arrivarono i telefoni,
05:01
people were worried it would destroy all civil conversation.
109
301100
2896
si preoccupò per la fine della conversazione civile.
05:04
At a point in time we saw the written word become pervasive,
110
304020
3936
E, quando assistette alla diffusione della scrittura,
05:07
people thought we would lose our ability to memorize.
111
307980
2496
la gente pensò di perdere la capacità di memorizzare.
05:10
These things are all true to a degree,
112
310500
2056
Tutto questo è vero fino a un certo punto,
05:12
but it's also the case that these technologies
113
312580
2416
ma si dà anche il caso che queste tecnologie
05:15
brought to us things that extended the human experience
114
315020
3376
ci abbiano portato cose che hanno allargato l'esperienza umana
05:18
in some profound ways.
115
318420
1880
profondamente.
05:21
So let's take this a little further.
116
321660
2280
Approfondiamo la questione.
05:24
I do not fear the creation of an AI like this,
117
324940
4736
Non ho paura della creazione di un'IA come questa,
05:29
because it will eventually embody some of our values.
118
329700
3816
perché alla fine incarnerà alcuni dei nostri valori.
05:33
Consider this: building a cognitive system is fundamentally different
119
333540
3496
Considerate questo: costruire un sistema cognitivo è molto diverso
05:37
than building a traditional software-intensive system of the past.
120
337060
3296
dal costruire un sistema software intensivo tradizionale del passato.
05:40
We don't program them. We teach them.
121
340380
2456
Non li programmiamo ma insegniamo loro.
05:42
In order to teach a system how to recognize flowers,
122
342860
2656
Per insegnare a un sistema a riconoscere i fiori,
05:45
I show it thousands of flowers of the kinds I like.
123
345540
3016
gli mostro migliaia di fiori, dei tipi che piacciono a me.
05:48
In order to teach a system how to play a game --
124
348580
2256
Per insegnare a un sistema a giocare a un gioco --
05:50
Well, I would. You would, too.
125
350860
1960
beh lo farei, farei anche questo.
05:54
I like flowers. Come on.
126
354420
2040
Mi piacciono i fiori. Andiamo.
05:57
To teach a system how to play a game like Go,
127
357260
2856
Per insegnare a un sistema a giocare a un gioco come Go,
06:00
I'd have it play thousands of games of Go,
128
360140
2056
devo fargli fare migliaia di partite a Go,
06:02
but in the process I also teach it
129
362220
1656
e nel frattempo gli insegno anche
06:03
how to discern a good game from a bad game.
130
363900
2416
a distinguere un buon gioco da un gioco cattivo.
06:06
If I want to create an artificially intelligent legal assistant,
131
366340
3696
Se voglio creare un assistente legale artificialmente intelligente,
06:10
I will teach it some corpus of law
132
370060
1776
gli insegnerò il corpus legislativo
06:11
but at the same time I am fusing with it
133
371860
2856
ma allo stesso tempo gli infonderò
06:14
the sense of mercy and justice that is part of that law.
134
374740
2880
il senso di pietà e giustizia che è parte di quella legge.
06:18
In scientific terms, this is what we call ground truth,
135
378380
2976
In termini scientifici definiamo tutto questo "ground truth",
06:21
and here's the important point:
136
381380
2016
e questo è il punto fondamentale:
06:23
in producing these machines,
137
383420
1456
nel produrre queste macchine,
06:24
we are therefore teaching them a sense of our values.
138
384900
3416
insegniamo anche loro il senso dei nostri valori.
06:28
To that end, I trust an artificial intelligence
139
388340
3136
Con questo fine, mi fido di un'intelligenza artificiale
06:31
the same, if not more, as a human who is well-trained.
140
391500
3640
come, se non di più, mi fido di un essere umano ben istruito.
06:35
But, you may ask,
141
395900
1216
Ma, potreste chiedere,
06:37
what about rogue agents,
142
397140
2616
che ne è degli agenti corrotti,
06:39
some well-funded nongovernment organization?
143
399780
3336
di qualche organizzazione non governativa ben finanziata?
06:43
I do not fear an artificial intelligence in the hand of a lone wolf.
144
403140
3816
Non ho paura di un'intelligenza artificiale in mano a un lupo solitario.
06:46
Clearly, we cannot protect ourselves against all random acts of violence,
145
406980
4536
È ovvio, non possiamo proteggerci da tutti gli arbitrari atti di violenza,
06:51
but the reality is such a system
146
411540
2136
ma la realtà è che un simile sistema
06:53
requires substantial training and subtle training
147
413700
3096
richiede un allenamento tanto acuto
06:56
far beyond the resources of an individual.
148
416820
2296
da andare ben oltre le risorse di un individuo.
06:59
And furthermore,
149
419140
1216
E inoltre,
07:00
it's far more than just injecting an internet virus to the world,
150
420380
3256
è molto più che iniettare un virus via internet al mondo,
07:03
where you push a button, all of a sudden it's in a million places
151
423660
3096
dove premi un bottone e subito lo ritrovi in milioni di posti
07:06
and laptops start blowing up all over the place.
152
426780
2456
e i computer iniziano ovunque ad andare in tilt.
07:09
Now, these kinds of substances are much larger,
153
429260
2816
Questo tipo di elementi è molto più complesso
07:12
and we'll certainly see them coming.
154
432100
1715
e certamente lo sperimenteremo.
07:14
Do I fear that such an artificial intelligence
155
434340
3056
Ho paura che una simile intelligenza artificiale
07:17
might threaten all of humanity?
156
437420
1960
possa minacciare tutta l'umanità?
07:20
If you look at movies such as "The Matrix," "Metropolis,"
157
440100
4376
Se guardate film come "Matrix", "Metropolis",
07:24
"The Terminator," shows such as "Westworld,"
158
444500
3176
"Terminator", show come "Westworld",
07:27
they all speak of this kind of fear.
159
447700
2136
tutti parlano di questo tipo di paura.
07:29
Indeed, in the book "Superintelligence" by the philosopher Nick Bostrom,
160
449860
4296
Infatti, nel libro "Superintelligence" del filosofo Nick Bostrom,
07:34
he picks up on this theme
161
454180
1536
l'autore considera questo tema
07:35
and observes that a superintelligence might not only be dangerous,
162
455740
4016
e osserva che una super intelligenza potrebbe non solo essere pericolosa,
07:39
it could represent an existential threat to all of humanity.
163
459780
3856
ma rappresentare anche una minaccia esistenziale per tutta l'umanità.
07:43
Dr. Bostrom's basic argument
164
463660
2216
La principale argomentazione del Dott. Bostrom
07:45
is that such systems will eventually
165
465900
2736
è che tali sistemi potrebbero prima o poi
07:48
have such an insatiable thirst for information
166
468660
3256
avere una sete tale di informazioni
07:51
that they will perhaps learn how to learn
167
471940
2896
che potrebbero forse imparare come si impara
07:54
and eventually discover that they may have goals
168
474860
2616
e anche scoprire che potrebbero avere obiettivi
07:57
that are contrary to human needs.
169
477500
2296
contrari ai bisogni umani.
07:59
Dr. Bostrom has a number of followers.
170
479820
1856
Bostrom ha un gran numero di seguaci.
08:01
He is supported by people such as Elon Musk and Stephen Hawking.
171
481700
4320
È supportato da persone come Elon Musk e Stephen Hawking.
08:06
With all due respect
172
486700
2400
Con tutto il rispetto dovuto
08:09
to these brilliant minds,
173
489980
2016
a queste menti brillanti,
08:12
I believe that they are fundamentally wrong.
174
492020
2256
credo che siano gravemente in errore.
08:14
Now, there are a lot of pieces of Dr. Bostrom's argument to unpack,
175
494300
3176
Ci sarebbero molte parti della teoria di Bostrom da analizzare,
08:17
and I don't have time to unpack them all,
176
497500
2136
e non ho il tempo di analizzarle tutte,
08:19
but very briefly, consider this:
177
499660
2696
ma molto brevemente, considerate questo:
08:22
super knowing is very different than super doing.
178
502380
3736
una grande conoscenza è diversa da una grande capacità di azione.
08:26
HAL was a threat to the Discovery crew
179
506140
1896
HAL era una minaccia per l'equipaggio
08:28
only insofar as HAL commanded all aspects of the Discovery.
180
508060
4416
solo finché controllava tutti gli aspetti del Discovery.
08:32
So it would have to be with a superintelligence.
181
512500
2496
Quindi avrebbe dovuto avere una super intelligenza.
08:35
It would have to have dominion over all of our world.
182
515020
2496
Avrebbe dovuto dominare tutto il mondo.
08:37
This is the stuff of Skynet from the movie "The Terminator"
183
517540
2816
Questa è la squadra Skynet dal film "Terminator"
08:40
in which we had a superintelligence
184
520380
1856
in cui abbiamo una super intelligenza
08:42
that commanded human will,
185
522260
1376
che domina la volontà umana
08:43
that directed every device that was in every corner of the world.
186
523660
3856
e ogni congegno in ogni parte del mondo.
08:47
Practically speaking,
187
527540
1456
In pratica,
08:49
it ain't gonna happen.
188
529020
2096
questo non succederà.
08:51
We are not building AIs that control the weather,
189
531140
3056
Non stiamo costruendo IA che controllino il meteo,
08:54
that direct the tides,
190
534220
1336
le maree,
08:55
that command us capricious, chaotic humans.
191
535580
3376
che comandino su noi capricciosi e caotici umani.
08:58
And furthermore, if such an artificial intelligence existed,
192
538980
3896
Inoltre, se una simile intelligenza artificiale esistesse,
09:02
it would have to compete with human economies,
193
542900
2936
dovrebbe competere con le economie degli esseri umani,
09:05
and thereby compete for resources with us.
194
545860
2520
e quindi competere con noi per le risorse disponibili.
09:09
And in the end --
195
549020
1216
E infine --
09:10
don't tell Siri this --
196
550260
1240
non ditelo a Siri --
09:12
we can always unplug them.
197
552260
1376
possiamo sempre disattivarli.
09:13
(Laughter)
198
553660
2120
(Risate)
09:17
We are on an incredible journey
199
557180
2456
Siamo parte di un incredibile viaggio
09:19
of coevolution with our machines.
200
559660
2496
di co-evoluzione con altre macchine.
09:22
The humans we are today
201
562180
2496
Gli esseri umani che siamo oggi
09:24
are not the humans we will be then.
202
564700
2536
non sono quelli che saremo in futuro.
09:27
To worry now about the rise of a superintelligence
203
567260
3136
Preoccuparsi ora della minaccia di una super-intelligenza
09:30
is in many ways a dangerous distraction
204
570420
3056
è per molti aspetti una distrazione pericolosa
09:33
because the rise of computing itself
205
573500
2336
perché l'incremento della computerizzazione
09:35
brings to us a number of human and societal issues
206
575860
3016
ci presenta una quantità di questioni umane e sociali
09:38
to which we must now attend.
207
578900
1640
di cui adesso dobbiamo occuparci.
09:41
How shall I best organize society
208
581180
2816
Come posso organizzare al meglio la società
09:44
when the need for human labor diminishes?
209
584020
2336
quando diminuirà la necessità del lavoro umano?
09:46
How can I bring understanding and education throughout the globe
210
586380
3816
Come posso fornire al mondo conoscenza ed educazione
09:50
and still respect our differences?
211
590220
1776
rispettando le nostre differenze?
09:52
How might I extend and enhance human life through cognitive healthcare?
212
592020
4256
Come posso estendere e migliorare la vita umana attraverso la salute cognitiva?
09:56
How might I use computing
213
596300
2856
Come posso usare la computerizzazione
09:59
to help take us to the stars?
214
599180
1760
per raggiungere le stelle?
10:01
And that's the exciting thing.
215
601580
2040
Ed è questa la cosa eccitante.
10:04
The opportunities to use computing
216
604220
2336
Le opportunità di elaborare dati
10:06
to advance the human experience
217
606580
1536
per affinare l'esperienza umana
10:08
are within our reach,
218
608140
1416
sono alla nostra portata,
10:09
here and now,
219
609580
1856
qui e adesso,
10:11
and we are just beginning.
220
611460
1680
e siamo solo all'inizio.
10:14
Thank you very much.
221
614100
1216
Grazie mille.
10:15
(Applause)
222
615340
4286
(Applausi)
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7