3 principles for creating safer AI | Stuart Russell

139,790 views ・ 2017-06-06

TED


Fare doppio clic sui sottotitoli in inglese per riprodurre il video.

Traduttore: Denise Cosentino
00:12
This is Lee Sedol.
0
12532
1552
Questo è Lee Sedol.
00:14
Lee Sedol is one of the world's greatest Go players,
1
14108
3997
Lee Sedol è uno dei più grandi giocatori di Go al mondo,
00:18
and he's having what my friends in Silicon Valley call
2
18129
2885
e sta avendo quello che i miei amici a Silicon Valley dicono
00:21
a "Holy Cow" moment --
3
21038
1510
un momento "accidenti" --
00:22
(Laughter)
4
22572
1073
(Risate)
00:23
a moment where we realize
5
23669
2188
un momento in cui ci rendiamo conto
00:25
that AI is actually progressing a lot faster than we expected.
6
25881
3296
che l'IA sta progredendo molto più rapidamente del previsto.
00:29
So humans have lost on the Go board. What about the real world?
7
29974
3047
Gli umani hanno perso a Go. E nel mondo reale?
00:33
Well, the real world is much bigger,
8
33045
2100
Il mondo reale è molto più grande,
00:35
much more complicated than the Go board.
9
35169
2249
molto più complesso del gioco Go.
00:37
It's a lot less visible,
10
37442
1819
È molto meno evidente,
00:39
but it's still a decision problem.
11
39285
2038
ma è comunque un problema di decisione
00:42
And if we think about some of the technologies
12
42768
2321
E se pensiamo ad alcune delle tecnologie
00:45
that are coming down the pike ...
13
45113
1749
che stanno bollendo in pentola...
00:47
Noriko [Arai] mentioned that reading is not yet happening in machines,
14
47558
4335
Noriko [Arai] ha detto che le macchine non sono ancora in grado di leggere,
00:51
at least with understanding.
15
51917
1500
o per lo meno di capire bene.
00:53
But that will happen,
16
53441
1536
Ma succederà,
00:55
and when that happens,
17
55001
1771
e quando succederà,
00:56
very soon afterwards,
18
56796
1187
a breve,
00:58
machines will have read everything that the human race has ever written.
19
58007
4572
le macchine dopo avranno letto tutto ciò che gli umani hanno scritto.
01:03
And that will enable machines,
20
63670
2030
E ciò permetterà alle macchine,
01:05
along with the ability to look further ahead than humans can,
21
65724
2920
insieme all'abilità di guardare molto più lontano degli umani,
01:08
as we've already seen in Go,
22
68668
1680
come abbiamo già visto nel Go,
01:10
if they also have access to more information,
23
70372
2164
se avranno anche accesso a più informazioni,
01:12
they'll be able to make better decisions in the real world than we can.
24
72560
4268
potranno prendere decisioni migliori nel mondo reale rispetto a noi.
01:18
So is that a good thing?
25
78612
1606
È una cosa buona?
01:21
Well, I hope so.
26
81718
2232
Speriamo.
01:26
Our entire civilization, everything that we value,
27
86514
3255
Tutta la nostra civiltà, tutto ciò a cui diamo valore,
01:29
is based on our intelligence.
28
89793
2068
è basato sulla nostra intelligenza.
01:31
And if we had access to a lot more intelligence,
29
91885
3694
E se avessimo accesso a molta più intelligenza,
01:35
then there's really no limit to what the human race can do.
30
95603
3302
allora non c'è davvero un limite a ciò che la razza umana può fare.
01:40
And I think this could be, as some people have described it,
31
100485
3325
E credo che ciò possa essere, come alcuni lo hanno descritto,
01:43
the biggest event in human history.
32
103834
2016
l'evento più grande nella storia umana.
01:48
So why are people saying things like this,
33
108485
2829
Quindi perché le persone dicono cose come
01:51
that AI might spell the end of the human race?
34
111338
2876
"L'IA potrebbe segnare la fine della razza umana"?
01:55
Is this a new thing?
35
115258
1659
È una cosa nuova?
01:56
Is it just Elon Musk and Bill Gates and Stephen Hawking?
36
116941
4110
Sono solo Elon Musk e Bill Gates e Stephen Hawking?
02:01
Actually, no. This idea has been around for a while.
37
121773
3262
In realtà no. Questa idea circola da un po'.
02:05
Here's a quotation:
38
125059
1962
C'è una citazione:
02:07
"Even if we could keep the machines in a subservient position,
39
127045
4350
"Anche se potessimo tenere le macchine in una posizione subordinata,
02:11
for instance, by turning off the power at strategic moments" --
40
131419
2984
ad esempio, staccando la corrente in momenti strategici" --
02:14
and I'll come back to that "turning off the power" idea later on --
41
134427
3237
e ritornerò più tardi su quell'idea di "staccare la corrente"
02:17
"we should, as a species, feel greatly humbled."
42
137688
2804
"dovremmo, come specie, sentirci fortemente umiliati."
02:21
So who said this? This is Alan Turing in 1951.
43
141997
3448
Chi l'ha detto? Questo è Alan Turing nel 1951.
02:26
Alan Turing, as you know, is the father of computer science
44
146120
2763
Alan Turing, come sapete, è il padre dell'informatica
02:28
and in many ways, the father of AI as well.
45
148907
3048
e per molti versi, anche il padre dell'IA.
02:33
So if we think about this problem,
46
153059
1882
Se pensiamo a questo problema,
02:34
the problem of creating something more intelligent than your own species,
47
154965
3787
il problema di creare qualcosa di più intelligente della nostra specie,
02:38
we might call this "the gorilla problem,"
48
158776
2622
potremmo chiamarlo il "problema del gorilla",
02:42
because gorillas' ancestors did this a few million years ago,
49
162165
3750
perché gli antenati dei gorilla lo hanno fatto milioni di anni fa,
02:45
and now we can ask the gorillas:
50
165939
1745
e adesso possiamo chiedere loro:
02:48
Was this a good idea?
51
168572
1160
è stata una buona idea?
02:49
So here they are having a meeting to discuss whether it was a good idea,
52
169756
3530
Qui si stanno incontrando per discutere se è stata una buona idea,
02:53
and after a little while, they conclude, no,
53
173310
3346
e dopo un po', arrivano alla conclusione: no,
02:56
this was a terrible idea.
54
176680
1345
è stata un'idea terribile.
02:58
Our species is in dire straits.
55
178049
1782
La nostra specie è in difficoltà.
03:00
In fact, you can see the existential sadness in their eyes.
56
180358
4263
In effetti, potete vedere la tristezza esistenziale nei loro occhi.
03:04
(Laughter)
57
184645
1640
(Risate)
03:06
So this queasy feeling that making something smarter than your own species
58
186309
4840
La sensazione nauseante che fare qualcosa di più intelligente della propria specie
03:11
is maybe not a good idea --
59
191173
2365
forse non è una buona idea --
03:14
what can we do about that?
60
194308
1491
cosa possiamo fare?
03:15
Well, really nothing, except stop doing AI,
61
195823
4767
Proprio nulla, se non smettere di produrre IA,
03:20
and because of all the benefits that I mentioned
62
200614
2510
e per tutti i benefici che ho citato,
03:23
and because I'm an AI researcher,
63
203148
1716
e siccome sono un ricercatore di IA,
03:24
I'm not having that.
64
204888
1791
non lo permetterò.
03:27
I actually want to be able to keep doing AI.
65
207103
2468
In realtà voglio riuscire a produrre ancora IA.
03:30
So we actually need to nail down the problem a bit more.
66
210435
2678
In realtà ci occorre definire un po' di più il problema.
03:33
What exactly is the problem?
67
213137
1371
Qual è il vero problema?
03:34
Why is better AI possibly a catastrophe?
68
214532
3246
Perché un'IA migliore è potenzialmente una catastrofe?
03:39
So here's another quotation:
69
219218
1498
Ecco un'altra citazione:
03:41
"We had better be quite sure that the purpose put into the machine
70
221755
3335
"Dovremmo esserne sicuri che l'obiettivo inserito nella macchina
03:45
is the purpose which we really desire."
71
225114
2298
sia l'obiettivo che desideriamo davvero."
03:48
This was said by Norbert Wiener in 1960,
72
228102
3498
È stato detto da Norbert Wiener nel 1960,
03:51
shortly after he watched one of the very early learning systems
73
231624
4002
subito dopo che aveva visto uno dei primi sistemi di apprendimento
03:55
learn to play checkers better than its creator.
74
235650
2583
imparare a giocare a scacchi meglio del proprio creatore.
04:00
But this could equally have been said
75
240422
2683
Ma potrebbe anche essere stato detto
04:03
by King Midas.
76
243129
1167
da Re Mida.
04:04
King Midas said, "I want everything I touch to turn to gold,"
77
244903
3134
Re Mida disse, "Voglio che tutto ciò che tocco diventi oro,"
04:08
and he got exactly what he asked for.
78
248061
2473
e ottenne proprio quello che chiese.
04:10
That was the purpose that he put into the machine,
79
250558
2751
Quello era l'obiettivo che aveva inserito nella macchina,
04:13
so to speak,
80
253333
1450
per così dire,
04:14
and then his food and his drink and his relatives turned to gold
81
254807
3444
e poi il suo cibo, le sue bevande e i suoi parenti diventarono oro
04:18
and he died in misery and starvation.
82
258275
2281
e morì in miseria e di fame.
04:22
So we'll call this "the King Midas problem"
83
262264
2341
Lo chiameremo "problema di Re Mida"
04:24
of stating an objective which is not, in fact,
84
264629
3305
dichiarare un obiettivo che non è, in realtà,
04:27
truly aligned with what we want.
85
267958
2413
proprio conforme a ciò che vogliamo.
04:30
In modern terms, we call this "the value alignment problem."
86
270395
3253
In termini moderni, lo chiamiamo "problema di conformità dei valori."
04:36
Putting in the wrong objective is not the only part of the problem.
87
276867
3485
Dichiarare l'obiettivo sbagliato non è l'unica parte del problema.
04:40
There's another part.
88
280376
1152
C'è un'altra parte.
04:41
If you put an objective into a machine,
89
281980
1943
Se inserite un obiettivo in una macchina
04:43
even something as simple as, "Fetch the coffee,"
90
283947
2448
anche qualcosa di semplice come "Porta il caffè,"
04:47
the machine says to itself,
91
287728
1841
la macchina dice a se stessa,
04:50
"Well, how might I fail to fetch the coffee?
92
290553
2623
"Be', come posso non riuscire a portare il caffè?
04:53
Someone might switch me off.
93
293200
1580
Qualcuno potrebbe spegnermi.
04:55
OK, I have to take steps to prevent that.
94
295465
2387
Ok, devo sapere come evitarlo.
04:57
I will disable my 'off' switch.
95
297876
1906
Disattiverò il tasto "off".
05:00
I will do anything to defend myself against interference
96
300354
2959
Farò di tutto per difendermi dalle interferenze
05:03
with this objective that I have been given."
97
303337
2629
con questo obiettivo che mi è stato dato."
05:05
So this single-minded pursuit
98
305990
2012
Quindi questa ricerca risoluta
05:09
in a very defensive mode of an objective that is, in fact,
99
309033
2945
in modo molto difensivo di un obiettivo che non è, in realtà,
05:12
not aligned with the true objectives of the human race --
100
312002
2814
conforme ai veri obiettivi della razza umana --
05:15
that's the problem that we face.
101
315942
1862
questo è il problema che affrontiamo.
05:18
And in fact, that's the high-value takeaway from this talk.
102
318827
4767
Infatti, è questo il succo di questa conferenza.
05:23
If you want to remember one thing,
103
323618
2055
Se volete ricordare una cosa,
05:25
it's that you can't fetch the coffee if you're dead.
104
325697
2675
è che voi non potrete portare il caffè se siete morti.
05:28
(Laughter)
105
328396
1061
(Risate)
05:29
It's very simple. Just remember that. Repeat it to yourself three times a day.
106
329481
3829
È molto semplice. Ricordate solo questo. Ripetetevelo tre volte al giorno.
05:33
(Laughter)
107
333334
1821
(Risate)
05:35
And in fact, this is exactly the plot
108
335179
2754
E in effetti, questa è esattamente la trama
05:37
of "2001: [A Space Odyssey]"
109
337957
2648
di "2001: Odissea nello spazio"
05:41
HAL has an objective, a mission,
110
341046
2090
HAL ha un obiettivo, una missione,
05:43
which is not aligned with the objectives of the humans,
111
343160
3732
che non è conforme all'obiettivo degli umani,
05:46
and that leads to this conflict.
112
346916
1810
e che porta a questo conflitto.
05:49
Now fortunately, HAL is not superintelligent.
113
349314
2969
Adesso per fortuna, HAL non è super intelligente.
05:52
He's pretty smart, but eventually Dave outwits him
114
352307
3587
È abbastanza astuto ma alla fine Dave lo batte
05:55
and manages to switch him off.
115
355918
1849
e riesce a spegnerlo.
06:01
But we might not be so lucky.
116
361648
1619
Ma possiamo non essere così fortunati.
06:08
So what are we going to do?
117
368013
1592
Quindi cosa faremo?
06:12
I'm trying to redefine AI
118
372191
2601
Sto cercando di ridefinire l'IA
06:14
to get away from this classical notion
119
374816
2061
per fuggire da questa nozione classica
06:16
of machines that intelligently pursue objectives.
120
376901
4567
di macchine che perseguono obiettivi in modo intelligente.
06:22
There are three principles involved.
121
382532
1798
Ci sono tre principi coinvolti.
06:24
The first one is a principle of altruism, if you like,
122
384354
3289
Il primo è un principio di altruismo, se volete,
06:27
that the robot's only objective
123
387667
3262
secondo cui l'unico obiettivo del robot
06:30
is to maximize the realization of human objectives,
124
390953
4246
è massimizzare la realizzazione degli obiettivi umani,
06:35
of human values.
125
395223
1390
dei valori umani.
06:36
And by values here I don't mean touchy-feely, goody-goody values.
126
396637
3330
E con valori qui non intendo valori sdolcinati, da santarellini.
06:39
I just mean whatever it is that the human would prefer
127
399991
3787
Intendo comunque vogliano gli esseri umani
06:43
their life to be like.
128
403802
1343
che sia la loro vita.
06:47
And so this actually violates Asimov's law
129
407184
2309
E in realtà ciò viola la legge di Asimov
06:49
that the robot has to protect its own existence.
130
409517
2329
secondo cui il robot deve tutelare la sua esistenza.
06:51
It has no interest in preserving its existence whatsoever.
131
411870
3723
Non c'è alcun interesse nel preservare la sua esistenza.
06:57
The second law is a law of humility, if you like.
132
417240
3768
La seconda legge è una legge di umiltà, se volete.
07:01
And this turns out to be really important to make robots safe.
133
421794
3743
E si rivela essere davvero importante per rendere sicuri i robot.
07:05
It says that the robot does not know
134
425561
3142
Dice che il robot non sa
07:08
what those human values are,
135
428727
2028
quali sono questi valori umani,
07:10
so it has to maximize them, but it doesn't know what they are.
136
430779
3178
quindi li deve massimizzare, ma non sa cosa sono.
07:15
And that avoids this problem of single-minded pursuit
137
435074
2626
E questo evita questo problema della caccia risoluta
07:17
of an objective.
138
437724
1212
di un obiettivo.
07:18
This uncertainty turns out to be crucial.
139
438960
2172
Questa incertezza si rivela cruciale.
07:21
Now, in order to be useful to us,
140
441546
1639
Per essere utile a noi,
07:23
it has to have some idea of what we want.
141
443209
2731
deve avere un'idea di quello che vogliamo.
07:27
It obtains that information primarily by observation of human choices,
142
447043
5427
Lui ottiene l'informazione in primo luogo dall'osservazione delle scelte umane,
07:32
so our own choices reveal information
143
452494
2801
quindi le nostre scelte rivelano delle informazioni
07:35
about what it is that we prefer our lives to be like.
144
455319
3300
su ciò che vogliamo che le nostre vite siano.
07:40
So those are the three principles.
145
460452
1683
Quindi questi sono i tre principi.
07:42
Let's see how that applies to this question of:
146
462159
2318
Vediamo come si applicano alla seguente domanda:
07:44
"Can you switch the machine off?" as Turing suggested.
147
464501
2789
"Riuscite a spegnere la macchina?" come suggeriva Turing.
07:48
So here's a PR2 robot.
148
468893
2120
Ecco un robot PR2.
07:51
This is one that we have in our lab,
149
471037
1821
È uno che abbiamo in laboratorio,
07:52
and it has a big red "off" switch right on the back.
150
472882
2903
e ha un gran pulsante "off" sul dorso.
07:56
The question is: Is it going to let you switch it off?
151
476361
2615
La domanda è: ti permetterà di spegnerlo?
07:59
If we do it the classical way,
152
479000
1465
Col metodo classico,
08:00
we give it the objective of, "Fetch the coffee, I must fetch the coffee,
153
480489
3482
gli diamo l'obiettivo, "Porta il caffè, devo portare il caffè,
08:03
I can't fetch the coffee if I'm dead,"
154
483995
2580
non posso portare il caffè se sono morto,"
08:06
so obviously the PR2 has been listening to my talk,
155
486599
3341
quindi ovviamente il PR2 ha ascoltato il mio discorso,
08:09
and so it says, therefore, "I must disable my 'off' switch,
156
489964
3753
e quindi dice, "Devo disabilitare il pulsante 'off'",
08:14
and probably taser all the other people in Starbucks
157
494796
2694
e forse stordire tutte le altre persone nello Starbucks
08:17
who might interfere with me."
158
497514
1560
che possono interferire con me."
08:19
(Laughter)
159
499098
2062
(Risate)
08:21
So this seems to be inevitable, right?
160
501184
2153
Sembra inevitabile, giusto?
08:23
This kind of failure mode seems to be inevitable,
161
503361
2398
Questa modalità di guasto sembra inevitabile,
08:25
and it follows from having a concrete, definite objective.
162
505783
3543
e deriva dall'avere un obiettivo concreto e definito.
08:30
So what happens if the machine is uncertain about the objective?
163
510632
3144
Quindi cosa succede se la macchina è incerta sull'obiettivo?
08:33
Well, it reasons in a different way.
164
513800
2127
Ragiona in modo diverso.
08:35
It says, "OK, the human might switch me off,
165
515951
2424
Dice, "Ok, l'essere umano può spegnermi,
08:38
but only if I'm doing something wrong.
166
518964
1866
ma soltanto se sbaglio qualcosa.
08:41
Well, I don't really know what wrong is,
167
521567
2475
Non so bene cos'è sbagliato,
08:44
but I know that I don't want to do it."
168
524066
2044
ma so che non voglio farlo."
08:46
So that's the first and second principles right there.
169
526134
3010
Quindi, questi sono il primo e il secondo principio.
08:49
"So I should let the human switch me off."
170
529168
3359
"Quindi devo lasciare che l'uomo mi spenga."
08:53
And in fact you can calculate the incentive that the robot has
171
533541
3956
E in effetti potete calcolare lo stimolo che riceve il robot
08:57
to allow the human to switch it off,
172
537521
2493
per permettere all'uomo di spegnerlo,
09:00
and it's directly tied to the degree
173
540038
1914
ed è direttamente legato al grado di incertezza
09:01
of uncertainty about the underlying objective.
174
541976
2746
dell'obiettivo di fondo.
09:05
And then when the machine is switched off,
175
545797
2949
Poi quando la macchina viene spenta,
09:08
that third principle comes into play.
176
548770
1805
entra in gioco il terzo principio.
09:10
It learns something about the objectives it should be pursuing,
177
550599
3062
Lui impara qualcosa sugli obiettivi che deve perseguire,
09:13
because it learns that what it did wasn't right.
178
553685
2533
perché impara che ciò che ha fatto non era corretto.
09:16
In fact, we can, with suitable use of Greek symbols,
179
556242
3570
In realtà possiamo, con un uso adeguato di simboli greci,
09:19
as mathematicians usually do,
180
559836
2131
come fanno solitamente i matematici,
09:21
we can actually prove a theorem
181
561991
1984
possiamo davvero dimostrare un teorema
09:23
that says that such a robot is provably beneficial to the human.
182
563999
3553
che dice che un robot del genere è certamente vantaggioso agli umani.
09:27
You are provably better off with a machine that's designed in this way
183
567576
3803
Voi siete certamente migliori con una macchina programmata in tale modo
09:31
than without it.
184
571403
1246
che senza.
09:33
So this is a very simple example, but this is the first step
185
573057
2906
È un esempio molto semplice, ma è il primo passo
09:35
in what we're trying to do with human-compatible AI.
186
575987
3903
che proviamo a fare con l'IA compatibile con gli umani.
09:42
Now, this third principle,
187
582477
3257
Questo terzo principio,
09:45
I think is the one that you're probably scratching your head over.
188
585758
3112
credo sia quello che fa grattare la testa.
09:48
You're probably thinking, "Well, you know, I behave badly.
189
588894
3239
Probabilmente starete pensando, "Mi comporto male.
09:52
I don't want my robot to behave like me.
190
592157
2929
Non voglio che il mio robot si comporti come me.
09:55
I sneak down in the middle of the night and take stuff from the fridge.
191
595110
3434
Io sgattaiolo nel cuore della notte e prendo roba dal frigo.
09:58
I do this and that."
192
598568
1168
Faccio questo e quello."
09:59
There's all kinds of things you don't want the robot doing.
193
599760
2797
Ci sono un sacco di cose che non volete il robot faccia.
10:02
But in fact, it doesn't quite work that way.
194
602581
2071
Ma in realtà, non funziona sempre così.
10:04
Just because you behave badly
195
604676
2155
Solo perché vi comportate male
10:06
doesn't mean the robot is going to copy your behavior.
196
606855
2623
non significa che il robot copierà il vostro comportamento.
10:09
It's going to understand your motivations and maybe help you resist them,
197
609502
3910
Capirà le vostre motivazioni e forse potrebbe aiutarvi a resistere,
10:13
if appropriate.
198
613436
1320
eventualmente.
10:16
But it's still difficult.
199
616026
1464
Ma è comunque difficile.
10:18
What we're trying to do, in fact,
200
618122
2545
Quello che proviamo a fare, in realtà,
10:20
is to allow machines to predict for any person and for any possible life
201
620691
5796
è permettere alle macchine di prevedere per chiunque e per ogni possibile vita
10:26
that they could live,
202
626511
1161
che potrebbe vivere,
10:27
and the lives of everybody else:
203
627696
1597
e le vite di tutti gli altri:
10:29
Which would they prefer?
204
629317
2517
quale preferirebbero?
10:33
And there are many, many difficulties involved in doing this;
205
633881
2954
E le difficoltà sono molte;
10:36
I don't expect that this is going to get solved very quickly.
206
636859
2932
non mi aspetto che si risolva velocemente.
10:39
The real difficulties, in fact, are us.
207
639815
2643
La vera difficoltà, in realtà, siamo noi.
10:43
As I have already mentioned, we behave badly.
208
643969
3117
Come ho già detto, noi ci comportiamo male.
10:47
In fact, some of us are downright nasty.
209
647110
2321
Anzi, alcuni di noi sono molto cattivi.
10:50
Now the robot, as I said, doesn't have to copy the behavior.
210
650251
3052
Il robot, come ho detto, non deve copiare il comportamento.
10:53
The robot does not have any objective of its own.
211
653327
2791
Il robot non ha obiettivi propri.
10:56
It's purely altruistic.
212
656142
1737
È puramente altruista.
10:59
And it's not designed just to satisfy the desires of one person, the user,
213
659113
5221
E non è programmato solo per soddisfare i desideri di una persona, l'utente,
11:04
but in fact it has to respect the preferences of everybody.
214
664358
3138
ma deve rispettare le preferenze di ognuno.
11:09
So it can deal with a certain amount of nastiness,
215
669083
2570
Quindi può avere a che fare con una certa cattiveria,
11:11
and it can even understand that your nastiness, for example,
216
671677
3701
e può anche capire la vostra cattiveria, per esempio,
11:15
you may take bribes as a passport official
217
675402
2671
potete farvi corrompere da agente doganale
11:18
because you need to feed your family and send your kids to school.
218
678097
3812
perché dovete sfamare la famiglia e mandare i bambini a scuola.
11:21
It can understand that; it doesn't mean it's going to steal.
219
681933
2906
Lui è in grado di capirlo; non significa che andrà a rubare.
11:24
In fact, it'll just help you send your kids to school.
220
684863
2679
Anzi, vi aiuterà a mandare i vostri bambini a scuola.
11:28
We are also computationally limited.
221
688796
3012
Noi siamo anche limitati nei calcoli.
11:31
Lee Sedol is a brilliant Go player,
222
691832
2505
Lee Sedol è un brillante giocatore di Go,
11:34
but he still lost.
223
694361
1325
ma ha comunque perso.
11:35
So if we look at his actions, he took an action that lost the game.
224
695710
4239
Osservando le sue mosse, ne ha fatta una che gli ha fatto perdere.
11:39
That doesn't mean he wanted to lose.
225
699973
2161
Non significa che voleva perdere.
11:43
So to understand his behavior,
226
703160
2040
Quindi per capire il suo comportamento,
11:45
we actually have to invert through a model of human cognition
227
705224
3644
dobbiamo invertire con un modello di cognizione umana
11:48
that includes our computational limitations -- a very complicated model.
228
708892
4977
che include i nostri limiti di calcolo -- un modello molto complicato.
11:53
But it's still something that we can work on understanding.
229
713893
2993
Ma possiamo comunque cercare di capirlo.
11:57
Probably the most difficult part, from my point of view as an AI researcher,
230
717696
4320
Forse la parte più complicata, dal punto di vista di ricercatore di IA,
12:02
is the fact that there are lots of us,
231
722040
2575
è il fatto che siamo molti,
12:06
and so the machine has to somehow trade off, weigh up the preferences
232
726114
3581
e quindi la macchina deve in qualche modo alternare, soppesare le preferenze
12:09
of many different people,
233
729719
2225
di tante persone diverse,
12:11
and there are different ways to do that.
234
731968
1906
e ci sono diversi modi per farlo.
12:13
Economists, sociologists, moral philosophers have understood that,
235
733898
3689
Economisti, sociologi, filosofi morali lo hanno capito,
12:17
and we are actively looking for collaboration.
236
737611
2455
e stiamo attivamente cercando collaborazione.
12:20
Let's have a look and see what happens when you get that wrong.
237
740090
3251
Diamo un'occhiata a quel che succede quando commettete uno sbaglio.
12:23
So you can have a conversation, for example,
238
743365
2133
Potete conversare, per esempio,
12:25
with your intelligent personal assistant
239
745522
1944
col vostro assistente personale intelligente
12:27
that might be available in a few years' time.
240
747490
2285
che potrebbe essere disponibile tra pochi anni.
12:29
Think of a Siri on steroids.
241
749799
2524
Pensate a Siri sotto steroidi.
12:33
So Siri says, "Your wife called to remind you about dinner tonight."
242
753447
4322
Siri dice, "Tua moglie ha chiamato per ricordarti della cena stasera."
12:38
And of course, you've forgotten. "What? What dinner?
243
758436
2508
Ovviamente, l'avevate dimenticato. "Cosa? Quale cena?
12:40
What are you talking about?"
244
760968
1425
Di cosa stai parlando?"
12:42
"Uh, your 20th anniversary at 7pm."
245
762417
3746
"Ehm, il tuo 20° anniversario alle 7."
12:48
"I can't do that. I'm meeting with the secretary-general at 7:30.
246
768735
3719
"Non posso farlo. Mi incontrerò col segretario generale alle 7:30.
12:52
How could this have happened?"
247
772478
1692
Come può essere successo?"
12:54
"Well, I did warn you, but you overrode my recommendation."
248
774194
4660
"Io ti ho avvertito, ma tu hai ignorato la mia raccomandazione."
12:59
"Well, what am I going to do? I can't just tell him I'm too busy."
249
779966
3328
"Cosa faccio? Non posso dirgli che sono impegnato."
13:04
"Don't worry. I arranged for his plane to be delayed."
250
784310
3281
"Non preoccuparti. Ho fatto ritardare il suo aereo."
13:07
(Laughter)
251
787615
1682
(Risate)
13:10
"Some kind of computer malfunction."
252
790069
2101
"Una specie di guasto al computer."
13:12
(Laughter)
253
792194
1212
(Risate)
13:13
"Really? You can do that?"
254
793430
1617
"Davvero? Puoi farlo?"
13:16
"He sends his profound apologies
255
796220
2179
"Si scusa tantissimo
13:18
and looks forward to meeting you for lunch tomorrow."
256
798423
2555
e non vede l'ora di incontrarti a pranzo domani."
13:21
(Laughter)
257
801002
1299
(Risate)
13:22
So the values here -- there's a slight mistake going on.
258
802325
4403
Quindi i valori qui -- si è verificato un piccolo errore.
13:26
This is clearly following my wife's values
259
806752
3009
Questo segue chiaramente i valori di mia moglie
13:29
which is "Happy wife, happy life."
260
809785
2069
cioè "Felice la moglie, felice la vita."
13:31
(Laughter)
261
811878
1583
(Risate)
13:33
It could go the other way.
262
813485
1444
Potrebbe andare diversamente.
13:35
You could come home after a hard day's work,
263
815641
2201
Potreste tornare a casa dopo una dura giornata di lavoro,
13:37
and the computer says, "Long day?"
264
817866
2195
e il computer dice, "Giornata lunga?"
13:40
"Yes, I didn't even have time for lunch."
265
820085
2288
"Sì, non ho avuto nemmeno il tempo di pranzare."
13:42
"You must be very hungry."
266
822397
1282
"Devi avere molta fame."
13:43
"Starving, yeah. Could you make some dinner?"
267
823703
2646
"Sto morendo di fame, sì. Puoi prepararmi la cena?"
13:47
"There's something I need to tell you."
268
827890
2090
"Devo dirti una cosa."
13:50
(Laughter)
269
830004
1155
(Risate)
13:52
"There are humans in South Sudan who are in more urgent need than you."
270
832013
4905
"Ci sono persone nel sud del Sudan che hanno un bisogno più urgente del tuo."
13:56
(Laughter)
271
836942
1104
(Risate)
13:58
"So I'm leaving. Make your own dinner."
272
838070
2075
"Quindi me ne vado. Preparati tu la cena."
14:00
(Laughter)
273
840169
2000
(Risate)
14:02
So we have to solve these problems,
274
842643
1739
Dobbiamo risolvere questi problemi,
14:04
and I'm looking forward to working on them.
275
844406
2515
e non vedo l'ora di lavorarci.
14:06
There are reasons for optimism.
276
846945
1843
Ci sono motivi per essere ottimisti.
14:08
One reason is,
277
848812
1159
Un motivo è,
14:09
there is a massive amount of data.
278
849995
1868
c'è una grande quantità di dati.
14:11
Because remember -- I said they're going to read everything
279
851887
2794
Perché ricordate -- ho detto che leggeranno tutto ciò
14:14
the human race has ever written.
280
854705
1546
che la razza umana ha scritto.
14:16
Most of what we write about is human beings doing things
281
856275
2724
Gran parte di ciò che scriviamo è su uomini che fanno cose
14:19
and other people getting upset about it.
282
859023
1914
e altri che se la prendono per questo.
14:20
So there's a massive amount of data to learn from.
283
860961
2398
Quindi c'è una grande mole di dati da cui imparare.
14:23
There's also a very strong economic incentive
284
863383
2236
C'è anche un incentivo economico molto forte
14:27
to get this right.
285
867151
1186
per farlo bene.
14:28
So imagine your domestic robot's at home.
286
868361
2001
Immaginate il vostro robot domestico a casa.
14:30
You're late from work again and the robot has to feed the kids,
287
870386
3067
Siete ancora in ritardo dal lavoro e il robot deve sfamare i bambini,
14:33
and the kids are hungry and there's nothing in the fridge.
288
873477
2823
e i bambini sono affamati e non c'è niente nel frigo.
14:36
And the robot sees the cat.
289
876324
2605
E il robot vede il gatto.
14:38
(Laughter)
290
878953
1692
(Risate)
14:40
And the robot hasn't quite learned the human value function properly,
291
880669
4190
E il robot non ha ancora imparato i valori umani in modo corretto,
14:44
so it doesn't understand
292
884883
1251
quindi non capisce
14:46
the sentimental value of the cat outweighs the nutritional value of the cat.
293
886158
4844
che il valore sentimentale del gatto supera il suo valore nutrizionale.
14:51
(Laughter)
294
891026
1095
(Risate)
14:52
So then what happens?
295
892145
1748
Quindi cosa succede?
14:53
Well, it happens like this:
296
893917
3297
Be', succede questo:
14:57
"Deranged robot cooks kitty for family dinner."
297
897238
2964
"Robot folle cucina il micio per la cena di famiglia."
15:00
That one incident would be the end of the domestic robot industry.
298
900226
4523
Quell'unico incidente sarebbe la fine dell'industria del robot domestico.
15:04
So there's a huge incentive to get this right
299
904773
3372
Quindi c'è un enorme incentivo per farlo bene
15:08
long before we reach superintelligent machines.
300
908169
2715
molto prima che arriviamo alle macchine super intelligenti.
15:11
So to summarize:
301
911948
1535
Quindi per riassumere:
15:13
I'm actually trying to change the definition of AI
302
913507
2881
sto cercando di cambiare la definizione di IA
15:16
so that we have provably beneficial machines.
303
916412
2993
così che probabilmente avremo macchine vantaggiose.
15:19
And the principles are:
304
919429
1222
E i principi sono:
15:20
machines that are altruistic,
305
920675
1398
macchine che siano altruiste,
15:22
that want to achieve only our objectives,
306
922097
2804
che vogliono raggiungere solo i nostri obiettivi,
15:24
but that are uncertain about what those objectives are,
307
924925
3116
ma che sono incerti sui loro obiettivi,
15:28
and will watch all of us
308
928065
1998
e che guarderanno tutti noi
15:30
to learn more about what it is that we really want.
309
930087
3203
per imparare di più su cosa vogliamo veramente.
15:34
And hopefully in the process, we will learn to be better people.
310
934193
3559
E se tutto va bene, in tutto ciò impareremo ad essere persone migliori.
15:37
Thank you very much.
311
937776
1191
Grazie tante.
15:38
(Applause)
312
938991
3709
(Applausi)
15:42
Chris Anderson: So interesting, Stuart.
313
942724
1868
C. Anderson: Molto interessante, Stuart.
15:44
We're going to stand here a bit because I think they're setting up
314
944616
3170
Staremo qui un po' perché credo che stiano preparando
15:47
for our next speaker.
315
947810
1151
per il prossimo relatore.
15:48
A couple of questions.
316
948985
1538
Un paio di domande.
15:50
So the idea of programming in ignorance seems intuitively really powerful.
317
950547
5453
L'idea di programmare nell'ignoranza sembra intuitivamente molto potente.
Quando giungi alla super intelligenza,
15:56
As you get to superintelligence,
318
956024
1594
15:57
what's going to stop a robot
319
957642
2258
cosa fermerà un robot
15:59
reading literature and discovering this idea that knowledge
320
959924
2852
dal leggere letteratura e scoprire l'idea che la conoscenza
16:02
is actually better than ignorance
321
962800
1572
sia migliore dell'ignoranza,
16:04
and still just shifting its own goals and rewriting that programming?
322
964396
4218
e lo indurrà a spostare le sue finalità e riscrivere la programmazione?
16:09
Stuart Russell: Yes, so we want it to learn more, as I said,
323
969512
6356
Stuart Russell: Sì, vogliamo imparare meglio, come ho detto,
16:15
about our objectives.
324
975892
1287
sui nostri obiettivi.
16:17
It'll only become more certain as it becomes more correct,
325
977203
5521
Diventerà più sicuro solo quando diventerà più corretto,
16:22
so the evidence is there
326
982748
1945
quindi la prova è questa
16:24
and it's going to be designed to interpret it correctly.
327
984717
2724
e sarà progettata per interpretarla correttamente.
16:27
It will understand, for example, that books are very biased
328
987465
3956
Capirà, per esempio, che i libri sono molto prevenuti
16:31
in the evidence they contain.
329
991445
1483
in ciò che contengono.
16:32
They only talk about kings and princes
330
992952
2397
Parlano solo di re e principi
16:35
and elite white male people doing stuff.
331
995373
2800
e di élite di maschi bianchi che fanno cose.
16:38
So it's a complicated problem,
332
998197
2096
Quindi è un problema complicato,
16:40
but as it learns more about our objectives
333
1000317
3872
ma siccome impara di più sui nostri obiettivi
16:44
it will become more and more useful to us.
334
1004213
2063
diventerà ancora più utile per noi.
16:46
CA: And you couldn't just boil it down to one law,
335
1006300
2526
CA: E non potresti soltanto limitarti a una legge,
16:48
you know, hardwired in:
336
1008850
1650
sai, programmata così:
16:50
"if any human ever tries to switch me off,
337
1010524
3293
"se un umano cerca di spegnermi,
16:53
I comply. I comply."
338
1013841
1935
lo assecondo. Lo assecondo."
16:55
SR: Absolutely not.
339
1015800
1182
SR: Assolutamente no.
16:57
That would be a terrible idea.
340
1017006
1499
Sarebbe un'idea terribile.
16:58
So imagine that you have a self-driving car
341
1018529
2689
Immaginate di avere una macchina che si guida da sola
17:01
and you want to send your five-year-old
342
1021242
2433
e volete mandare vostro figlio di cinque anni
17:03
off to preschool.
343
1023699
1174
all'asilo.
17:04
Do you want your five-year-old to be able to switch off the car
344
1024897
3101
Volete che vostro figlio sia capace di spegnere la macchina
17:08
while it's driving along?
345
1028022
1213
mentre va in giro?
17:09
Probably not.
346
1029259
1159
Probabilmente no.
17:10
So it needs to understand how rational and sensible the person is.
347
1030442
4703
Quindi deve capire quanto razionale e sensibile sia la persona.
17:15
The more rational the person,
348
1035169
1676
Più razionale è la persona,
17:16
the more willing you are to be switched off.
349
1036869
2103
più disponibile siete a essere spenti.
17:18
If the person is completely random or even malicious,
350
1038996
2543
Se la persona è del tutto ignota o perfino malvagia,
17:21
then you're less willing to be switched off.
351
1041563
2512
allora sarete meno disponibili a essere spenti.
17:24
CA: All right. Stuart, can I just say,
352
1044099
1866
CA: Giusto. Stuart, posso dire solo,
17:25
I really, really hope you figure this out for us.
353
1045989
2314
spero davvero, davvero che tu lo scopra per noi.
17:28
Thank you so much for that talk. That was amazing.
354
1048327
2375
Grazie per questa conferenza. È stata fantastica.
17:30
SR: Thank you.
355
1050726
1167
SR: Grazie.
17:31
(Applause)
356
1051917
1837
(Applausi)
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7