How to get empowered, not overpowered, by AI | Max Tegmark

127,885 views ・ 2018-07-05

TED


Fare doppio clic sui sottotitoli in inglese per riprodurre il video.

Traduttore: Anna Cristiana Minoli Revisore: Antonio Lambiase
00:12
After 13.8 billion years of cosmic history,
0
12760
4416
Dopo 13,8 miliardi di anni di storia cosmica,
00:17
our universe has woken up
1
17200
2096
il nostro universo si è risvegliato
00:19
and become aware of itself.
2
19320
1520
e ha preso coscienza di se stesso.
00:21
From a small blue planet,
3
21480
1936
Da un piccolo pianeta blu,
00:23
tiny, conscious parts of our universe have begun gazing out into the cosmos
4
23440
4136
minuscole parti coscienti del nostro universo
hanno iniziato a osservare il cosmo
00:27
with telescopes,
5
27600
1376
con telescopi,
00:29
discovering something humbling.
6
29000
1480
scoprendo umiltà.
00:31
We've discovered that our universe is vastly grander
7
31320
2896
Abbiamo scoperto che il nostro universo è molto più grande
00:34
than our ancestors imagined
8
34240
1336
di quanto abbiano immaginato i nostri antenati
00:35
and that life seems to be an almost imperceptibly small perturbation
9
35600
4256
e che la vita sembra essere una perturbazione quasi impercettibile
00:39
on an otherwise dead universe.
10
39880
1720
in un universo altrimenti morto.
00:42
But we've also discovered something inspiring,
11
42320
3016
Ma abbiamo anche scoperto qualcosa di stimolante,
00:45
which is that the technology we're developing has the potential
12
45360
2976
ossia che la tecnologia che stiamo sviluppando
00:48
to help life flourish like never before,
13
48360
2856
può potenzialmente aiutare la vita a fiorire come mai prima d'ora,
00:51
not just for centuries but for billions of years,
14
51240
3096
non solo per secoli, ma per miliardi di anni,
00:54
and not just on earth but throughout much of this amazing cosmos.
15
54360
4120
e non solo sulla terra ma in gran parte dell'universo.
00:59
I think of the earliest life as "Life 1.0"
16
59680
3336
Vedo la vita precedente come una "Vita 1.0"
01:03
because it was really dumb,
17
63040
1376
perché era davvero stupida,
01:04
like bacteria, unable to learn anything during its lifetime.
18
64440
4296
come i batteri, incapaci di imparare alcunché.
01:08
I think of us humans as "Life 2.0" because we can learn,
19
68760
3376
Vedo gli esseri umani come una "Vita 2.0" perché possiamo imparare,
01:12
which we in nerdy, geek speak,
20
72160
1496
che in linguaggio nerd o geek,
01:13
might think of as installing new software into our brains,
21
73680
3216
significa installare nuovi software nel cervello,
01:16
like languages and job skills.
22
76920
2120
come le lingue e le capacità lavorative.
01:19
"Life 3.0," which can design not only its software but also its hardware
23
79680
4296
La "Vita 3.0", che può progettare l'hardware oltre che il software
01:24
of course doesn't exist yet.
24
84000
1656
ovviamente non esiste ancora.
01:25
But perhaps our technology has already made us "Life 2.1,"
25
85680
3776
Ma forse la nostra tecnologia ci ha già resi "Vita 2.1",
01:29
with our artificial knees, pacemakers and cochlear implants.
26
89480
4336
con le ginocchia artificiali, i pacemaker e gli apparecchi acustici.
01:33
So let's take a closer look at our relationship with technology, OK?
27
93840
3880
Diamo uno sguardo più da vicino alla nostra relazione con la tecnologia.
01:38
As an example,
28
98800
1216
Ad esempio,
01:40
the Apollo 11 moon mission was both successful and inspiring,
29
100040
5296
la missione lunare Apollo 11 è riuscita ed è stata stimolante,
01:45
showing that when we humans use technology wisely,
30
105360
3016
mostrando che quando gli esseri umani usano la tecnologia con saggezza,
01:48
we can accomplish things that our ancestors could only dream of.
31
108400
3936
possiamo compiere cose che i nostri antenati si sognavano.
01:52
But there's an even more inspiring journey
32
112360
2976
Ma c'è un percorso ancora più stimolante
01:55
propelled by something more powerful than rocket engines,
33
115360
2680
spinto da qualcosa di ancora più forte dei motori dei razzi,
01:59
where the passengers aren't just three astronauts
34
119200
2336
in cui i passeggeri non sono solo tre astronauti
02:01
but all of humanity.
35
121560
1776
ma tutta l'umanità.
02:03
Let's talk about our collective journey into the future
36
123360
2936
Parliamo del nostro viaggio collettivo nel futuro
02:06
with artificial intelligence.
37
126320
2000
con l'intelligenza artificiale.
02:08
My friend Jaan Tallinn likes to point out that just as with rocketry,
38
128960
4536
Il mio amico Jaan Tallinn ama sottolineare che proprio come i razzi,
02:13
it's not enough to make our technology powerful.
39
133520
3160
non basta rendere potente la tecnologia.
02:17
We also have to figure out, if we're going to be really ambitious,
40
137560
3175
Dobbiamo anche capire se saremo davvero ambiziosi,
02:20
how to steer it
41
140759
1416
dove indirizzarla
02:22
and where we want to go with it.
42
142199
1681
e dove vogliamo andarci.
02:24
So let's talk about all three for artificial intelligence:
43
144880
2840
Parliamo di tutti e tre per l'intelligenza artificiale:
02:28
the power, the steering and the destination.
44
148440
3056
la potenza, la direzione e la destinazione.
02:31
Let's start with the power.
45
151520
1286
Iniziamo con la potenza.
02:33
I define intelligence very inclusively --
46
153600
3096
Definisco l'intelligenza in modo molto inclusivo --
02:36
simply as our ability to accomplish complex goals,
47
156720
4336
semplicemente la nostra capacità di realizzare obiettivi complessi,
02:41
because I want to include both biological and artificial intelligence.
48
161080
3816
perché voglio includere sia l'intelligenza biologica
che quella artificiale.
02:44
And I want to avoid the silly carbon-chauvinism idea
49
164920
4016
E voglio evitare quella stupida idea carbonio-sciovinistica
02:48
that you can only be smart if you're made of meat.
50
168960
2360
che si può essere intelligenti solo se fatti di carne.
02:52
It's really amazing how the power of AI has grown recently.
51
172880
4176
È incredibile quanto sia migliorata l'IA ultimamente.
02:57
Just think about it.
52
177080
1256
Pensateci un po'.
02:58
Not long ago, robots couldn't walk.
53
178360
3200
Non molto tempo fa, i robot non potevano camminare.
03:03
Now, they can do backflips.
54
183040
1720
Ora possono fare capriole.
03:06
Not long ago,
55
186080
1816
Poco tempo fa,
03:07
we didn't have self-driving cars.
56
187920
1760
non avevamo le auto a guida autonoma.
03:10
Now, we have self-flying rockets.
57
190920
2480
Ora abbiamo razzi a volo autonomo.
03:15
Not long ago,
58
195960
1416
Poco tempo fa,
03:17
AI couldn't do face recognition.
59
197400
2616
l'IA non era capace di riconoscimento facciale.
03:20
Now, AI can generate fake faces
60
200040
2976
Ora l'IA può generare falsi visi
03:23
and simulate your face saying stuff that you never said.
61
203040
4160
e similare la vostra faccia che dice cose che non avete mai detto.
03:28
Not long ago,
62
208400
1576
Poco tempo fa,
03:30
AI couldn't beat us at the game of Go.
63
210000
1880
l'IA non poteva batterci a Go.
03:32
Then, Google DeepMind's AlphaZero AI took 3,000 years of human Go games
64
212400
5096
Poi, l'IA AlphaZero di Google DeepMind ha preso 3000 anni di giochi di Go
03:37
and Go wisdom,
65
217520
1256
e saggezza Go,
03:38
ignored it all and became the world's best player by just playing against itself.
66
218800
4976
li ha ignorati tutti ed è diventato il miglior giocatore al mondo
giocando contro se stesso.
03:43
And the most impressive feat here wasn't that it crushed human gamers,
67
223800
3696
E l'aspetto più impressionante non è che ha stracciato gli umani,
03:47
but that it crushed human AI researchers
68
227520
2576
ma che ha stracciato i ricercatori di IA
03:50
who had spent decades handcrafting game-playing software.
69
230120
3680
che avevano passato decenni a creare il software di gioco.
03:54
And AlphaZero crushed human AI researchers not just in Go but even at chess,
70
234200
4656
E AlphaZero ha stracciato i ricercatori di IA non solo a Go, ma anche a scacchi,
03:58
which we have been working on since 1950.
71
238880
2480
su cui lavoriamo dal 1950.
04:02
So all this amazing recent progress in AI really begs the question:
72
242000
4240
Questi straordinari progressi recenti in IA sollevano la questione:
04:07
How far will it go?
73
247280
1560
fin dove ci spingeremo?
04:09
I like to think about this question
74
249800
1696
Mi piace pensare a questa domanda
04:11
in terms of this abstract landscape of tasks,
75
251520
2976
in termini di astratto panorama di compiti
04:14
where the elevation represents how hard it is for AI to do each task
76
254520
3456
in cui l'elevazione rappresenta la difficoltà di ogni compito per l'IA
04:18
at human level,
77
258000
1216
a livello umano,
04:19
and the sea level represents what AI can do today.
78
259240
2760
e il livello del mare rappresenta quello che l'IA può fare oggi.
04:23
The sea level is rising as AI improves,
79
263120
2056
Il livello del mare si innalza quando l'IA migliora,
04:25
so there's a kind of global warming going on here in the task landscape.
80
265200
3440
c'è una specie di riscaldamento globale nel panorama dei compiti.
04:30
And the obvious takeaway is to avoid careers at the waterfront --
81
270040
3335
Il risultato ovvio è evitare carriere lungo la costa --
04:33
(Laughter)
82
273399
1257
(Risate)
04:34
which will soon be automated and disrupted.
83
274680
2856
che saranno presto scombussolate e automatizzate.
04:37
But there's a much bigger question as well.
84
277560
2976
Ma la questione è molto più ampia.
04:40
How high will the water end up rising?
85
280560
1810
Quanto si innalzerà l'acqua?
04:43
Will it eventually rise to flood everything,
86
283440
3200
Si innalzerà per inondare tutto,
04:47
matching human intelligence at all tasks.
87
287840
2496
arriverà a livello di tutti i compiti umani.
04:50
This is the definition of artificial general intelligence --
88
290360
3736
Questa è la definizione di intelligenza artificiale generale --
04:54
AGI,
89
294120
1296
AGI,
04:55
which has been the holy grail of AI research since its inception.
90
295440
3080
che è stato il santo graal dell'IA fin dalla sua nascita.
04:59
By this definition, people who say,
91
299000
1776
Con questa definizione, la gente che dice,
05:00
"Ah, there will always be jobs that humans can do better than machines,"
92
300800
3416
"Ci saranno sempre lavori che gli esseri umani
possono fare meglio delle macchine,
05:04
are simply saying that we'll never get AGI.
93
304240
2920
sta semplicemente dicendo che non arriveremo mai all'AGI.
05:07
Sure, we might still choose to have some human jobs
94
307680
3576
Certo, potremo anche scegliere di avere lavori umani
05:11
or to give humans income and purpose with our jobs,
95
311280
3096
o di dare agli esseri umani reddito e scopo con i nostri lavori,
05:14
but AGI will in any case transform life as we know it
96
314400
3736
ma l'AGI trasformerà comunque la vita come la conosciamo
05:18
with humans no longer being the most intelligent.
97
318160
2736
e gli esseri umani non saranno più i più intelligenti.
05:20
Now, if the water level does reach AGI,
98
320920
3696
Se il livello dell'acqua raggiunge l'AGI,
05:24
then further AI progress will be driven mainly not by humans but by AI,
99
324640
5296
gli ulteriori progressi dell'IA non saranno più guidati
dagli esseri umani, ma dalla IA,
05:29
which means that there's a possibility
100
329960
1856
che significa che c'è la possibilità
05:31
that further AI progress could be way faster
101
331840
2336
che un'ulteriore progresso dell'IA sia ancora più veloce
05:34
than the typical human research and development timescale of years,
102
334200
3376
della tipica scala temporale di ricerca e sviluppo umani di anni,
05:37
raising the controversial possibility of an intelligence explosion
103
337600
4016
sollevando la possibile controversia di un'esplosione di intelligenza
05:41
where recursively self-improving AI
104
341640
2296
in cui una IA che auto-migliora in modo ricorrente
05:43
rapidly leaves human intelligence far behind,
105
343960
3416
lascia rapidamente molto indietro l'intelligenza umana,
05:47
creating what's known as superintelligence.
106
347400
2440
creando quello che chiamiamo una superintelligenza.
05:51
Alright, reality check:
107
351800
2280
Controllo della realtà:
05:55
Are we going to get AGI any time soon?
108
355120
2440
avremo a breve l'AGI?
05:58
Some famous AI researchers, like Rodney Brooks,
109
358360
2696
Alcuni famosi ricercatori di IA, come Rodney Brooks,
06:01
think it won't happen for hundreds of years.
110
361080
2496
pensano che non succederà per centinaia di anni.
06:03
But others, like Google DeepMind founder Demis Hassabis,
111
363600
3896
Ma altri, come il fondatore di Google DeepMind Demis Hassabis,
06:07
are more optimistic
112
367520
1256
sono più ottimisti
06:08
and are working to try to make it happen much sooner.
113
368800
2576
e stanno lavorando per farlo accadere molto prima.
06:11
And recent surveys have shown that most AI researchers
114
371400
3296
Ricerche recenti hanno dimostrato che molti ricercatori di IA
06:14
actually share Demis's optimism,
115
374720
2856
condividono l'ottimismo di Demis,
06:17
expecting that we will get AGI within decades,
116
377600
3080
e si aspettano di vedere l'AGI in qualche decennio,
06:21
so within the lifetime of many of us,
117
381640
2256
quindi durante le vita di molti di noi,
06:23
which begs the question -- and then what?
118
383920
1960
il che solleva la domanda: e poi?
06:27
What do we want the role of humans to be
119
387040
2216
Quale vogliamo che sia il ruolo degli esseri umani
06:29
if machines can do everything better and cheaper than us?
120
389280
2680
se le macchina possono fare tutto meglio e a minor costo?
06:35
The way I see it, we face a choice.
121
395000
2000
La vedo così: abbiamo di fronte una scelta.
06:38
One option is to be complacent.
122
398000
1576
Un'opzione è esserne soddisfatti.
06:39
We can say, "Oh, let's just build machines that can do everything we can do
123
399600
3776
Possiamo dire, "Dai, costruiamo macchine
che possano fare tutto quel che facciamo noi
06:43
and not worry about the consequences.
124
403400
1816
e non ci preoccupiamo delle conseguenze.
06:45
Come on, if we build technology that makes all humans obsolete,
125
405240
3256
Dai, se costruiamo tecnologie che rendono gli umani obsoleti,
06:48
what could possibly go wrong?"
126
408520
2096
cosa potrebbe andare storto?"
06:50
(Laughter)
127
410640
1656
(Risate)
06:52
But I think that would be embarrassingly lame.
128
412320
2760
Ma credo che sarebbe davvero poco convincente.
06:56
I think we should be more ambitious -- in the spirit of TED.
129
416080
3496
Credo che dovremmo essere più ambiziosi, nello spirito di TED.
06:59
Let's envision a truly inspiring high-tech future
130
419600
3496
Immaginiamo un futuro high-tech davvero stimolante
07:03
and try to steer towards it.
131
423120
1400
e cerchiamo di andare in quella direzione.
07:05
This brings us to the second part of our rocket metaphor: the steering.
132
425720
3536
Questo ci porta alla seconda parte della metafora del razzo: la direzione.
07:09
We're making AI more powerful,
133
429280
1896
Facciamo l'IA più potente,
07:11
but how can we steer towards a future
134
431200
3816
ma come possiamo indirizzarci verso un futuro
07:15
where AI helps humanity flourish rather than flounder?
135
435040
3080
in cui l'IA aiuti l'umanità a progredire invece di annaspare?
07:18
To help with this,
136
438760
1256
Per aiutare,
07:20
I cofounded the Future of Life Institute.
137
440040
1976
ho cofondato il Future of Life Institute.
07:22
It's a small nonprofit promoting beneficial technology use,
138
442040
2776
È una piccola no profit che promuove l'uso benefico della tecnologia,
07:24
and our goal is simply for the future of life to exist
139
444840
2736
e il nostro obiettivo è il futuro della vita
07:27
and to be as inspiring as possible.
140
447600
2056
e essere più stimolanti possibile.
07:29
You know, I love technology.
141
449680
3176
Sapete che adoro la tecnologia.
07:32
Technology is why today is better than the Stone Age.
142
452880
2920
La tecnologia è il motivo per cui oggi stiamo meglio che nell'età della pietra.
07:36
And I'm optimistic that we can create a really inspiring high-tech future ...
143
456600
4080
E sono ottimista, possiamo creare un futuro high-tech davvero stimolante...
07:41
if -- and this is a big if --
144
461680
1456
se, ed è un grande se,
07:43
if we win the wisdom race --
145
463160
2456
se vinciamo la gara della saggezza,
07:45
the race between the growing power of our technology
146
465640
2856
la gara tra il potere crescente della tecnologia
07:48
and the growing wisdom with which we manage it.
147
468520
2200
e la saggezza crescente con cui la gestiamo.
07:51
But this is going to require a change of strategy
148
471240
2296
Ma sarà necessario un cambio di strategia
07:53
because our old strategy has been learning from mistakes.
149
473560
3040
perché la nostra vecchia strategia prevedeva di imparare dagli errori.
07:57
We invented fire,
150
477280
1536
Abbiamo inventato il fuoco,
07:58
screwed up a bunch of times --
151
478840
1536
abbiamo fatto qualche casino --
08:00
invented the fire extinguisher.
152
480400
1816
abbiamo inventato l'estintore.
08:02
(Laughter)
153
482240
1336
(Risate)
08:03
We invented the car, screwed up a bunch of times --
154
483600
2416
Abbiamo inventato la macchina, fatto qualche casino --
08:06
invented the traffic light, the seat belt and the airbag,
155
486040
2667
abbiamo inventato i semafori, le cinture e gli airbag,
08:08
but with more powerful technology like nuclear weapons and AGI,
156
488731
3845
ma con una tecnologia più potente come le armi nucleari e l'AGI,
08:12
learning from mistakes is a lousy strategy,
157
492600
3376
imparare dagli errori è una strategia che fa schifo,
08:16
don't you think?
158
496000
1216
siete d'accordo?
08:17
(Laughter)
159
497240
1016
(Risate)
08:18
It's much better to be proactive rather than reactive;
160
498280
2576
È molto meglio essere proattivi invece che reattivi;
08:20
plan ahead and get things right the first time
161
500880
2296
pianificare in anticipo e fare le cose bene la prima volta
08:23
because that might be the only time we'll get.
162
503200
2496
perché potrebbe essere la nostra unica occasione.
08:25
But it is funny because sometimes people tell me,
163
505720
2336
Ma è divertente perché talvolta la gente mi dice,
08:28
"Max, shhh, don't talk like that.
164
508080
2736
"Max, shhh, non dire così.
08:30
That's Luddite scaremongering."
165
510840
1720
È allarmismo luddista."
08:34
But it's not scaremongering.
166
514040
1536
Ma non è allarmismo.
08:35
It's what we at MIT call safety engineering.
167
515600
2880
È quello che noi all'MIT chiamiamo ingegneria di sicurezza.
08:39
Think about it:
168
519200
1216
Pensateci:
08:40
before NASA launched the Apollo 11 mission,
169
520440
2216
prima del lancio della missione Apollo 11,
08:42
they systematically thought through everything that could go wrong
170
522680
3136
la NASA ha pensato sistematicamente a tutto quello che poteva andare storto
08:45
when you put people on top of explosive fuel tanks
171
525840
2376
a mettere persone su serbatoi carburante esplosivi
08:48
and launch them somewhere where no one could help them.
172
528240
2616
e lanciarle dove nessuno avrebbe potuto aiutarle.
08:50
And there was a lot that could go wrong.
173
530880
1936
E molte cose potevano andare storte.
08:52
Was that scaremongering?
174
532840
1480
Era allarmismo?
08:55
No.
175
535159
1217
No.
08:56
That's was precisely the safety engineering
176
536400
2016
Era esattamente l'ingegneria di sicurezza
08:58
that ensured the success of the mission,
177
538440
1936
che assicurava il successo della missione,
09:00
and that is precisely the strategy I think we should take with AGI.
178
540400
4176
ed è esattamente la strategia che credo dovremmo adottare per l'AGI.
09:04
Think through what can go wrong to make sure it goes right.
179
544600
4056
Pensare a quello che potrebbe andare storto per fare le cose giuste.
09:08
So in this spirit, we've organized conferences,
180
548680
2536
Con questo spirito, abbiamo organizzato conferenze,
09:11
bringing together leading AI researchers and other thinkers
181
551240
2816
riunito grandi ricercatori di IA e altri esperti
09:14
to discuss how to grow this wisdom we need to keep AI beneficial.
182
554080
3736
per discutere di come coltivare la saggezza utile
perché l'IA sia vantaggiosa.
09:17
Our last conference was in Asilomar, California last year
183
557840
3296
La nostra ultima conferenza è stata a Asilomar, California, l'anno scorso
09:21
and produced this list of 23 principles
184
561160
3056
e ha prodotto una lista di 23 principi
09:24
which have since been signed by over 1,000 AI researchers
185
564240
2896
che da allora sono stati sottoscritti da più di 1000 ricercatori di IA
09:27
and key industry leaders,
186
567160
1296
e importanti leader industriali.
09:28
and I want to tell you about three of these principles.
187
568480
3176
Voglio raccontarvi tre di questi principi.
09:31
One is that we should avoid an arms race and lethal autonomous weapons.
188
571680
4960
Uno è che dovremmo evitare
una corsa agli armamenti e armi autonome letali.
09:37
The idea here is that any science can be used for new ways of helping people
189
577480
3616
L'idea è che qualunque scienza può essere usata per aiutare la gente
09:41
or new ways of harming people.
190
581120
1536
o per armare la gente.
09:42
For example, biology and chemistry are much more likely to be used
191
582680
3936
Per esempio, è più probabile che la biologia e la chimica vengano usate
09:46
for new medicines or new cures than for new ways of killing people,
192
586640
4856
per nuovi medicinali o nuove cure che per uccidere le persone,
09:51
because biologists and chemists pushed hard --
193
591520
2176
perché biologi e chimici fanno pressione,
09:53
and successfully --
194
593720
1256
in modo efficace,
09:55
for bans on biological and chemical weapons.
195
595000
2176
per proibire armi chimiche e biologiche.
09:57
And in the same spirit,
196
597200
1256
Con lo stesso spirito,
09:58
most AI researchers want to stigmatize and ban lethal autonomous weapons.
197
598480
4440
molti ricercatori vogliono stigmatizzare e proibire le armi letali autonome.
10:03
Another Asilomar AI principle
198
603600
1816
Un altro principio Asilomar dell'IA
10:05
is that we should mitigate AI-fueled income inequality.
199
605440
3696
è che dovremmo mitigare
le disparità di reddito alimentate dall'IA.
10:09
I think that if we can grow the economic pie dramatically with AI
200
609160
4456
Credo che se possiamo far crescere significativamente l'economia con l'IA
10:13
and we still can't figure out how to divide this pie
201
613640
2456
senza capire come dividerci questa torta
10:16
so that everyone is better off,
202
616120
1576
in modo che tutti stiano meglio,
10:17
then shame on us.
203
617720
1256
è una vergogna.
10:19
(Applause)
204
619000
4096
(Applausi)
10:23
Alright, now raise your hand if your computer has ever crashed.
205
623120
3600
Bene, ora alzate la mano se vi si è mai impallato il computer.
10:27
(Laughter)
206
627480
1256
(Risate)
10:28
Wow, that's a lot of hands.
207
628760
1656
Wow, sono tante mani.
10:30
Well, then you'll appreciate this principle
208
630440
2176
Allora vi piacerà questo principio
10:32
that we should invest much more in AI safety research,
209
632640
3136
per cui dovremmo investire molto di più nella sicurezza dell'IA,
10:35
because as we put AI in charge of even more decisions and infrastructure,
210
635800
3656
perché se cediamo il controllo all'IA in sempre più decisioni e infrastrutture,
10:39
we need to figure out how to transform today's buggy and hackable computers
211
639480
3616
dobbiamo capire come trasformare i bug e i computer attaccabili di oggi
10:43
into robust AI systems that we can really trust,
212
643120
2416
in sistemi di IA solidi in cui avere fiducia,
10:45
because otherwise,
213
645560
1216
perché altrimenti,
10:46
all this awesome new technology can malfunction and harm us,
214
646800
2816
questa meravigliosa nuova tecnologia, può funzionare male e danneggiarci,
10:49
or get hacked and be turned against us.
215
649640
1976
o essere attaccata e rivoltarsi contro di noi.
10:51
And this AI safety work has to include work on AI value alignment,
216
651640
5696
Questo lavoro di sicurezza sull'IA
deve includere un allineamento dei valori,
10:57
because the real threat from AGI isn't malice,
217
657360
2816
perché la vera minaccia dell'AGI non è la malizia,
11:00
like in silly Hollywood movies,
218
660200
1656
come negli stupidi film hollywoodiani,
11:01
but competence --
219
661880
1736
ma la competenza --
11:03
AGI accomplishing goals that just aren't aligned with ours.
220
663640
3416
l'AGI realizza obiettivi che non sono allineati ai nostri.
11:07
For example, when we humans drove the West African black rhino extinct,
221
667080
4736
Per esempio, quando noi umani
abbiamo portato il rinoceronte all'estinzione,
11:11
we didn't do it because we were a bunch of evil rhinoceros haters, did we?
222
671840
3896
non l'abbiamo fatto perché eravamo nemici dei rinoceronti, no?
11:15
We did it because we were smarter than them
223
675760
2056
L'abbiamo fatto perché eravamo più intelligenti di loro
11:17
and our goals weren't aligned with theirs.
224
677840
2576
e i nostri obiettivi non erano allineati con i loro.
11:20
But AGI is by definition smarter than us,
225
680440
2656
Ma l'AGI per definizione è più intelligente di noi,
11:23
so to make sure that we don't put ourselves in the position of those rhinos
226
683120
3576
quindi per essere sicuri di non metterci nella posizione di quei rinoceronti
11:26
if we create AGI,
227
686720
1976
se creiamo l'AGI,
11:28
we need to figure out how to make machines understand our goals,
228
688720
4176
dobbiamo capire come fare macchine che capiscano i nostri obiettivi,
11:32
adopt our goals and retain our goals.
229
692920
3160
li adottino e li memorizzino.
11:37
And whose goals should these be, anyway?
230
697320
2856
E comunque di chi dovrebbero essere questi obiettivi?
11:40
Which goals should they be?
231
700200
1896
Quali obiettivi dovrebbero essere?
11:42
This brings us to the third part of our rocket metaphor: the destination.
232
702120
3560
Questo ci porta
alla terza parte della nostra metafora del razzo: la destinazione.
11:47
We're making AI more powerful,
233
707160
1856
Facciamo IA più potente,
11:49
trying to figure out how to steer it,
234
709040
1816
per capire come indirizzarla,
11:50
but where do we want to go with it?
235
710880
1680
ma dove vogliamo andarci?
11:53
This is the elephant in the room that almost nobody talks about --
236
713760
3656
È l'elefante nella stanza di cui quasi nessuno parla,
11:57
not even here at TED --
237
717440
1856
nemmeno qui a TED,
11:59
because we're so fixated on short-term AI challenges.
238
719320
4080
perché siamo così fissati sulle sfide a breve termine dell'IA.
12:04
Look, our species is trying to build AGI,
239
724080
4656
La nostra specie sta cercando di costruire l'AGI,
12:08
motivated by curiosity and economics,
240
728760
3496
motivata da curiosità e interessi economici,
12:12
but what sort of future society are we hoping for if we succeed?
241
732280
3680
ma in che tipo di società futura speriamo se abbiamo successo?
12:16
We did an opinion poll on this recently,
242
736680
1936
Di recente, abbiamo fatto un sondaggio,
12:18
and I was struck to see
243
738640
1216
sono stato colpito del fatto
12:19
that most people actually want us to build superintelligence:
244
739880
2896
che in realtà molti vogliono che si costruisca una superintelligenza:
12:22
AI that's vastly smarter than us in all ways.
245
742800
3160
IA che sia molto più intelligente di noi in tutti i sensi.
12:27
What there was the greatest agreement on was that we should be ambitious
246
747120
3416
Il più grande accordo è stato sull'ambizione
12:30
and help life spread into the cosmos,
247
750560
2016
e sull'aiutare la vita a diffondersi nel cosmo,
12:32
but there was much less agreement about who or what should be in charge.
248
752600
4496
ma c'è stato molto meno accordo su chi o cosa fosse responsabile.
12:37
And I was actually quite amused
249
757120
1736
E mi sono quasi divertito
12:38
to see that there's some some people who want it to be just machines.
250
758880
3456
a vedere che qualcuno vorrebbe solo le macchine.
12:42
(Laughter)
251
762360
1696
(Risate)
12:44
And there was total disagreement about what the role of humans should be,
252
764080
3856
C'era totale disaccordo su quale debba essere il ruolo degli esseri umani,
12:47
even at the most basic level,
253
767960
1976
anche a livello più basilare,
12:49
so let's take a closer look at possible futures
254
769960
2816
allora guardiamo più da vicino i futuri possibili
12:52
that we might choose to steer toward, alright?
255
772800
2736
verso i quali potremmo andare.
12:55
So don't get me wrong here.
256
775560
1336
Non fraintendetemi.
12:56
I'm not talking about space travel,
257
776920
2056
Non sto parlando di viaggio nello spazio,
12:59
merely about humanity's metaphorical journey into the future.
258
779000
3200
semplicemente di un metaforico viaggio dell'umanità nel futuro.
13:02
So one option that some of my AI colleagues like
259
782920
3496
Un'opzione che piace ai miei colleghi IA
13:06
is to build superintelligence and keep it under human control,
260
786440
3616
è costruire una superintelligenza e tenerla sotto controllo umano,
13:10
like an enslaved god,
261
790080
1736
come un Dio schiavizzato,
13:11
disconnected from the internet
262
791840
1576
sconnesso da Internet
13:13
and used to create unimaginable technology and wealth
263
793440
3256
e usato per creare tecnologia e ricchezza inimmaginabili
13:16
for whoever controls it.
264
796720
1240
per chiunque la controlli.
13:18
But Lord Acton warned us
265
798800
1456
Ma Lord Acton ci ha avvisati
13:20
that power corrupts, and absolute power corrupts absolutely,
266
800280
3616
che il potere corrompe,
e il potere assoluto corrompe assolutamente,
13:23
so you might worry that maybe we humans just aren't smart enough,
267
803920
4056
penserete che forse gli esseri umani non sono abbastanza intelligenti,
13:28
or wise enough rather,
268
808000
1536
o piuttosto abbastanza saggi,
13:29
to handle this much power.
269
809560
1240
per gestire un tale potere.
13:31
Also, aside from any moral qualms you might have
270
811640
2536
Inoltre, fatta eccezione per gli scrupoli morali che potreste avere
13:34
about enslaving superior minds,
271
814200
2296
sulla sottomissione di menti superiori,
13:36
you might worry that maybe the superintelligence could outsmart us,
272
816520
3976
potreste preoccuparvi di un'intelligenza più furba di noi,
13:40
break out and take over.
273
820520
2240
che scappa e prende il controllo.
13:43
But I also have colleagues who are fine with AI taking over
274
823560
3416
Ma ho anche colleghi a cui sta bene una IA che prende il controllo
13:47
and even causing human extinction,
275
827000
2296
che causa addirittura l'estinzione dell'uomo,
13:49
as long as we feel the the AIs are our worthy descendants,
276
829320
3576
purché sentiamo che l'IA è un nostro degno discendente,
13:52
like our children.
277
832920
1736
come i nostri figli.
13:54
But how would we know that the AIs have adopted our best values
278
834680
5616
Ma come sapremo che l'IA ha adottato i nostri migliori valori
14:00
and aren't just unconscious zombies tricking us into anthropomorphizing them?
279
840320
4376
e non è solo fatta di zombie inconsapevoli che ci ingannano a antropomorfizzarli?
14:04
Also, shouldn't those people who don't want human extinction
280
844720
2856
E quelli che non vogliono l'estinzione della razza umana
14:07
have a say in the matter, too?
281
847600
1440
non dovrebbero dire qualcosa anche loro?
14:10
Now, if you didn't like either of those two high-tech options,
282
850200
3376
Se non vi piace nessuna di queste opzioni high-tech,
14:13
it's important to remember that low-tech is suicide
283
853600
3176
è importante ricordare che low-tech equivale a suicidio
14:16
from a cosmic perspective,
284
856800
1256
da un punto di vista cosmico,
14:18
because if we don't go far beyond today's technology,
285
858080
2496
perché se non andiamo molto oltre la tecnologia di oggi,
14:20
the question isn't whether humanity is going to go extinct,
286
860600
2816
la questione non è se l'umanità si estinguerà,
14:23
merely whether we're going to get taken out
287
863440
2016
ma se verremo spazzati via
14:25
by the next killer asteroid, supervolcano
288
865480
2136
dal prossimo asteroide killer, supervulcano
14:27
or some other problem that better technology could have solved.
289
867640
3096
o qualche altro problema
che una migliore tecnologia avrebbe potuto risolvere.
14:30
So, how about having our cake and eating it ...
290
870760
3576
Allora perché non mangiarci la nostra torta...
14:34
with AGI that's not enslaved
291
874360
1840
con AGI non sottomessa
14:37
but treats us well because its values are aligned with ours?
292
877120
3176
ma ci tratta bene perché i suoi valori sono allineati ai nostri?
14:40
This is the gist of what Eliezer Yudkowsky has called "friendly AI,"
293
880320
4176
Questo è il concetto di quello che Eliezer Yudowsky chiama "IA amica,"
14:44
and if we can do this, it could be awesome.
294
884520
2680
e se potessimo farlo, sarebbe meraviglioso.
14:47
It could not only eliminate negative experiences like disease, poverty,
295
887840
4816
Potrebbe non solo eliminare
le esperienze negative come malattie, povertà,
14:52
crime and other suffering,
296
892680
1456
crimini e altre sofferenze,
14:54
but it could also give us the freedom to choose
297
894160
2816
ma potrebbe darci anche la libertà di scelta
14:57
from a fantastic new diversity of positive experiences --
298
897000
4056
tra un fantastica nuova varietà di esperienze positive --
15:01
basically making us the masters of our own destiny.
299
901080
3160
in sostanza rendendoci padroni del nostro destino.
15:06
So in summary,
300
906280
1376
Per riassumere,
15:07
our situation with technology is complicated,
301
907680
3096
la nostra situazione con la tecnologia è complicata,
15:10
but the big picture is rather simple.
302
910800
2416
ma il quadro generale è piuttosto semplice.
15:13
Most AI researchers expect AGI within decades,
303
913240
3456
Molti ricercatori di IA si aspettano l'AGI entro qualche decennio,
15:16
and if we just bumble into this unprepared,
304
916720
3136
e se ci arriviamo impreparati,
15:19
it will probably be the biggest mistake in human history --
305
919880
3336
sarà probabilmente il più grande errore della storia --
15:23
let's face it.
306
923240
1416
accettiamolo.
15:24
It could enable brutal, global dictatorship
307
924680
2576
Potrebbe permettere una dittatura globale brutale
15:27
with unprecedented inequality, surveillance and suffering,
308
927280
3536
con ineguaglianze, sorveglianza e sofferenza senza precedenti,
15:30
and maybe even human extinction.
309
930840
1976
e forse addirittura l'estinzione del genere umano.
15:32
But if we steer carefully,
310
932840
2320
Ma se la indirizziamo attentamente,
15:36
we could end up in a fantastic future where everybody's better off:
311
936040
3896
potremmo finire in un futuro fantastico in cui tutti stanno meglio:
15:39
the poor are richer, the rich are richer,
312
939960
2376
i poveri sono più ricchi, i ricchi sono più ricchi,
15:42
everybody is healthy and free to live out their dreams.
313
942360
3960
tutti sono più in salute e liberi di vivere i loro sogni.
15:47
Now, hang on.
314
947000
1536
Ora, tenetevi forte.
15:48
Do you folks want the future that's politically right or left?
315
948560
4576
Volete un futuro politicamente di destra o di sinistra?
15:53
Do you want the pious society with strict moral rules,
316
953160
2856
Volete la devota società con regole morali rigide,
15:56
or do you an hedonistic free-for-all,
317
956040
1816
o ne volete una edonistica gratis per tutti,
15:57
more like Burning Man 24/7?
318
957880
2216
un po' come Burning Man H24?
16:00
Do you want beautiful beaches, forests and lakes,
319
960120
2416
Volete belle spiagge, foreste e laghi,
16:02
or would you prefer to rearrange some of those atoms with the computers,
320
962560
3416
o preferite risistemare un po' di atomi con il computer,
16:06
enabling virtual experiences?
321
966000
1715
che apra a esperienze di realtà virtuale?
16:07
With friendly AI, we could simply build all of these societies
322
967739
3157
Con una IA amichevole, potremmo costruire tutte queste società
16:10
and give people the freedom to choose which one they want to live in
323
970920
3216
e dare alla gente la libertà di scegliere in quale vivere
16:14
because we would no longer be limited by our intelligence,
324
974160
3096
perché non saremmo più limitati dalla nostra intelligenza,
16:17
merely by the laws of physics.
325
977280
1456
solamente dalla leggi della fisica.
16:18
So the resources and space for this would be astronomical --
326
978760
4616
Quindi le risorse e lo spazio diventerebbero astronomiche --
16:23
literally.
327
983400
1320
letteralmente.
16:25
So here's our choice.
328
985320
1200
Ecco la scelta.
16:27
We can either be complacent about our future,
329
987880
2320
Possiamo essere soddisfatti del nostro futuro,
16:31
taking as an article of blind faith
330
991440
2656
prendere come dato con fede cieca
16:34
that any new technology is guaranteed to be beneficial,
331
994120
4016
che qualunque nuova tecnologia è garantita vantaggiosa,
16:38
and just repeat that to ourselves as a mantra over and over and over again
332
998160
4136
e ripetercelo come un mantra in continuazione
16:42
as we drift like a rudderless ship towards our own obsolescence.
333
1002320
3680
e andare alla deriva come una nave senza timone verso l'obsolescenza.
16:46
Or we can be ambitious --
334
1006920
1880
O possiamo essere ambiziosi --
16:49
thinking hard about how to steer our technology
335
1009840
2456
pensare bene a come indirizzare la tecnologia
16:52
and where we want to go with it
336
1012320
1936
e dove vogliamo andarci
16:54
to create the age of amazement.
337
1014280
1760
per creare l'era della meraviglia.
16:57
We're all here to celebrate the age of amazement,
338
1017000
2856
Siamo qui tutti per festeggiare l'era della meraviglia,
16:59
and I feel that its essence should lie in becoming not overpowered
339
1019880
4440
e sento che la sua essenza non dovrebbe stare nella sopraffazione
17:05
but empowered by our technology.
340
1025240
2616
ma nella responsabilizzazione da parte della nostra tecnologia.
17:07
Thank you.
341
1027880
1376
Grazie.
17:09
(Applause)
342
1029280
3080
(Applausi)
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7