Damon Horowitz calls for a "moral operating system"

92,160 views ・ 2011-06-06

TED


Fare doppio clic sui sottotitoli in inglese per riprodurre il video.

Traduttore: Laura 劳拉 Leotta Revisore: Alice de Carli Enrico
00:15
Power.
0
15260
2000
Potere.
00:17
That is the word that comes to mind.
1
17260
2000
Questa è la parola che viene in mente.
00:19
We're the new technologists.
2
19260
2000
Noi siamo i nuovi tecnologi.
00:21
We have a lot of data, so we have a lot of power.
3
21260
3000
Abbiamo molti dati, quindi abbiamo molto potere.
00:24
How much power do we have?
4
24260
2000
Quanto potere abbiamo?
00:26
Scene from a movie: "Apocalypse Now" -- great movie.
5
26260
3000
Scena di un film: "Apocalypse Now" - gran bel film.
00:29
We've got to get our hero, Captain Willard, to the mouth of the Nung River
6
29260
3000
Dobbiamo portare il nostro eroe, il Capitan Willard, alla foce del fiume Nung
00:32
so he can go pursue Colonel Kurtz.
7
32260
2000
così che possa seguire le tracce del Colonnello Kurtz.
00:34
The way we're going to do this is fly him in and drop him off.
8
34260
2000
Riusciremo a farlo trasportandolo in volo e facendolo scendere.
00:36
So the scene:
9
36260
2000
Eccoci alla scena:
00:38
the sky is filled with this fleet of helicopters carrying him in.
10
38260
3000
il cielo è gremito dalla flotta di elicotteri incaricati di trasportarlo.
00:41
And there's this loud, thrilling music in the background,
11
41260
2000
C'è questa musica ad alto volume ed avvincente di sottofondo,
00:43
this wild music.
12
43260
2000
questa musica selvaggia.
00:45
♫ Dum da ta da dum ♫
13
45260
2000
♫ Dum da ta da dum ♫
00:47
♫ Dum da ta da dum ♫
14
47260
2000
♫ Dum da ta da dum ♫
00:49
♫ Da ta da da ♫
15
49260
3000
♫ Da ta da da ♫
00:52
That's a lot of power.
16
52260
2000
Molto potente.
00:54
That's the kind of power I feel in this room.
17
54260
2000
Questo è il tipo di potenza che percepisco in questa sala.
00:56
That's the kind of power we have
18
56260
2000
Questo è il tipo di potere che abbiamo
00:58
because of all of the data that we have.
19
58260
2000
grazie a tutti i dati di cui disponiamo.
01:00
Let's take an example.
20
60260
2000
Facciamo un esempio.
01:02
What can we do
21
62260
2000
Cosa possiamo fare
01:04
with just one person's data?
22
64260
3000
con i dati di una sola persona?
01:07
What can we do
23
67260
2000
Cosa possiamo fare
01:09
with that guy's data?
24
69260
2000
con i dati di quel ragazzo?
01:11
I can look at your financial records.
25
71260
2000
Posso guardare i tuoi estratti conto.
01:13
I can tell if you pay your bills on time.
26
73260
2000
Posso dirti se paghi le bollette in tempo.
01:15
I know if you're good to give a loan to.
27
75260
2000
So se posso concederti un prestito.
01:17
I can look at your medical records; I can see if your pump is still pumping --
28
77260
3000
Posso dare un'occhiata ai tuoi referti medici, vedere se il tuo cuore batte ancora -
01:20
see if you're good to offer insurance to.
29
80260
3000
vedere se è conveniente assicurarti.
01:23
I can look at your clicking patterns.
30
83260
2000
Posso vedere come visiti i siti Internet.
01:25
When you come to my website, I actually know what you're going to do already
31
85260
3000
Quando visiti il mio sito, so già esattamente cosa farai,
01:28
because I've seen you visit millions of websites before.
32
88260
2000
perché ti ho visto visitare altri milioni di siti prima del mio.
01:30
And I'm sorry to tell you,
33
90260
2000
E mi dispiace dirtelo,
01:32
you're like a poker player, you have a tell.
34
92260
2000
sei come un giocatore di poker, lanci dei segnali.
01:34
I can tell with data analysis what you're going to do
35
94260
2000
Grazie all'analisi dei dati posso predire cosa farai
01:36
before you even do it.
36
96260
2000
prima ancora che tu lo faccia.
01:38
I know what you like. I know who you are,
37
98260
3000
So cosa ti piace. So chi sei.
01:41
and that's even before I look at your mail
38
101260
2000
E questo anche prima che io dia un'occhiata alla tua posta
01:43
or your phone.
39
103260
2000
o al tuo telefono.
01:45
Those are the kinds of things we can do
40
105260
2000
Quelle sono le cose che siamo in grado di fare
01:47
with the data that we have.
41
107260
3000
con i dati a nostra disposizione.
01:50
But I'm not actually here to talk about what we can do.
42
110260
3000
Ma in realtà non sono qui per parlarvi di ciò che possiamo fare.
01:56
I'm here to talk about what we should do.
43
116260
3000
Sono qui per parlarvi di ciò che dovremmo fare.
02:00
What's the right thing to do?
44
120260
3000
Qual è la cosa giusta da fare?
02:04
Now I see some puzzled looks
45
124260
2000
Ora vedo degli sguardi interrogativi
02:06
like, "Why are you asking us what's the right thing to do?
46
126260
3000
tipo: "Perchè chiedi a noi quale sia la cosa giusta da fare?
02:09
We're just building this stuff. Somebody else is using it."
47
129260
3000
Noi mettiamo solo insieme questa roba. Qualcun altro la sta usando."
02:12
Fair enough.
48
132260
3000
Mi sembra giusto.
02:15
But it brings me back.
49
135260
2000
Ma questo mi fa ricordare...
02:17
I think about World War II --
50
137260
2000
Penso alla Seconda Guerra Mondiale -
02:19
some of our great technologists then,
51
139260
2000
alcuni dei nostri più grandi tecnologi di allora,
02:21
some of our great physicists,
52
141260
2000
alcuni dei nostri più grandi fisici,
02:23
studying nuclear fission and fusion --
53
143260
2000
che studiavano la fissione e fusione nucleare -
02:25
just nuclear stuff.
54
145260
2000
solo roba nucleare.
02:27
We gather together these physicists in Los Alamos
55
147260
3000
Noi riuniamo insieme questi fisici a Los Alamos
02:30
to see what they'll build.
56
150260
3000
per vedere cosa costruiranno.
02:33
We want the people building the technology
57
153260
3000
Vogliamo che le persone che creano la tecnologia
02:36
thinking about what we should be doing with the technology.
58
156260
3000
pensino anche a come dovremmo utilizzarla.
02:41
So what should we be doing with that guy's data?
59
161260
3000
Per cui cosa dovremmo farci con i dati di quel ragazzo?
02:44
Should we be collecting it, gathering it,
60
164260
3000
Dovremmo raccoglierli, metterli insieme,
02:47
so we can make his online experience better?
61
167260
2000
così da migliorare il tempo che passa su Internet?
02:49
So we can make money?
62
169260
2000
Così poterci guadagnare?
02:51
So we can protect ourselves
63
171260
2000
Così da poterci proteggere
02:53
if he was up to no good?
64
173260
2000
nel caso facesse qualcosa di male?
02:55
Or should we respect his privacy,
65
175260
3000
O dovremmo rispettare la sua privacy,
02:58
protect his dignity and leave him alone?
66
178260
3000
proteggere la sua dignità e lasciarlo in pace?
03:02
Which one is it?
67
182260
3000
Quale dovremmo scegliere?
03:05
How should we figure it out?
68
185260
2000
Come facciamo a deciderlo?
03:07
I know: crowdsource. Let's crowdsource this.
69
187260
3000
Lo so: sentiamo il pubblico. Sentiamo il pubblico a riguardo.
03:11
So to get people warmed up,
70
191260
3000
Perciò per mettervi a vostro agio,
03:14
let's start with an easy question --
71
194260
2000
cominciamo con una domanda semplice -
03:16
something I'm sure everybody here has an opinion about:
72
196260
3000
qualcosa su cui tutti qui hanno di certo un'opinione:
03:19
iPhone versus Android.
73
199260
2000
iPhone oppure Android.
03:21
Let's do a show of hands -- iPhone.
74
201260
3000
Alzate le mani - iPhone.
03:24
Uh huh.
75
204260
2000
Uh uh.
03:26
Android.
76
206260
3000
Android.
03:29
You'd think with a bunch of smart people
77
209260
2000
Penserete che con delle persone intelligenti
03:31
we wouldn't be such suckers just for the pretty phones.
78
211260
2000
non ci faremmo trarre in inganno solo dai cellulari belli all'apparenza.
03:33
(Laughter)
79
213260
2000
(Risate)
03:35
Next question,
80
215260
2000
Ok, prossima domanda,
03:37
a little bit harder.
81
217260
2000
un po' più difficile.
03:39
Should we be collecting all of that guy's data
82
219260
2000
Dovremmo raccogliere tutti i dati di quel ragazzo
03:41
to make his experiences better
83
221260
2000
per migliorare il tempo che trascorre su Internet
03:43
and to protect ourselves in case he's up to no good?
84
223260
3000
e proteggerci nel caso in cui avesse cattive intenzioni?
03:46
Or should we leave him alone?
85
226260
2000
O dovremmo lasciarlo in pace?
03:48
Collect his data.
86
228260
3000
Raccogliere i suoi dati.
03:53
Leave him alone.
87
233260
3000
Lasciarlo in pace.
03:56
You're safe. It's fine.
88
236260
2000
Sei fuori pericolo. Va tutto bene.
03:58
(Laughter)
89
238260
2000
(Risate)
04:00
Okay, last question --
90
240260
2000
Ok, ultima domanda -
04:02
harder question --
91
242260
2000
più difficile -
04:04
when trying to evaluate
92
244260
3000
quando proviamo a valutare
04:07
what we should do in this case,
93
247260
3000
cosa dovremmo fare in questo caso,
04:10
should we use a Kantian deontological moral framework,
94
250260
4000
dovremmo utilizzare una struttura morale ispirata alla deontologia kantiana,
04:14
or should we use a Millian consequentialist one?
95
254260
3000
o dovremmo usarne una consequenzialistica milliana?
04:19
Kant.
96
259260
3000
Kant.
04:22
Mill.
97
262260
3000
Mill.
04:25
Not as many votes.
98
265260
2000
Non altrettanti voti.
04:27
(Laughter)
99
267260
3000
(Risate)
04:30
Yeah, that's a terrifying result.
100
270260
3000
Sì, è un risultato spaventoso.
04:34
Terrifying, because we have stronger opinions
101
274260
4000
Spaventoso perché abbiamo opinioni più chiare
04:38
about our hand-held devices
102
278260
2000
rispetto ai nostri cellulari
04:40
than about the moral framework
103
280260
2000
che non per la struttura morale di riferimento
04:42
we should use to guide our decisions.
104
282260
2000
che dovremmo utilizzare per guidare le nostre decisioni.
04:44
How do we know what to do with all the power we have
105
284260
3000
Come possiamo sapere che farne di tutto il potere che abbiamo
04:47
if we don't have a moral framework?
106
287260
3000
se non abbiamo una struttura morale?
04:50
We know more about mobile operating systems,
107
290260
3000
Ne sappiamo di più dei sistemi operativi dei cellulari,
04:53
but what we really need is a moral operating system.
108
293260
3000
ma ciò che davvero ci occorre è un sistema operativo morale.
04:58
What's a moral operating system?
109
298260
2000
Che cos'è un sistema operativo morale?
05:00
We all know right and wrong, right?
110
300260
2000
Tutti sappiamo cosa è giusto e cosa è sbagliato, vero?
05:02
You feel good when you do something right,
111
302260
2000
Ci si sente bene quando si fa qualcosa di buono,
05:04
you feel bad when you do something wrong.
112
304260
2000
ci si sente in colpa quando si fa qualcosa di sbagliato.
05:06
Our parents teach us that: praise with the good, scold with the bad.
113
306260
3000
I nostri genitori ci insegnano a: lodare il giusto, rimproverare l'errore.
05:09
But how do we figure out what's right and wrong?
114
309260
3000
Ma come facciamo a distinguere tra giusto e sbagliato?
05:12
And from day to day, we have the techniques that we use.
115
312260
3000
Di giorno in giorno, abbiamo delle tecniche che utilizziamo.
05:15
Maybe we just follow our gut.
116
315260
3000
Forse usiamo semplicemente il nostro intuito.
05:18
Maybe we take a vote -- we crowdsource.
117
318260
3000
Forse la mettiamo ai voti - l'opinione della maggioranza.
05:21
Or maybe we punt --
118
321260
2000
O forse ci affidiamo alla legge -
05:23
ask the legal department, see what they say.
119
323260
3000
chiediamo all'ufficio legale e vediamo che ne pensano.
05:26
In other words, it's kind of random,
120
326260
2000
In altre parole, è un po' casuale,
05:28
kind of ad hoc,
121
328260
2000
un po' improvvisato,
05:30
how we figure out what we should do.
122
330260
3000
il modo in cui decidiamo cosa sia meglio fare.
05:33
And maybe, if we want to be on surer footing,
123
333260
3000
E forse, se vogliamo avere basi per agire più solide,
05:36
what we really want is a moral framework that will help guide us there,
124
336260
3000
ciò che davvero vogliamo è una struttura morale che ci aiuti e ci indirizzi,
05:39
that will tell us what kinds of things are right and wrong in the first place,
125
339260
3000
che per prima cosa ci dica cosa è giusto e cosa è sbagliato,
05:42
and how would we know in a given situation what to do.
126
342260
4000
e come fare a sapere come comportarci in una determinata situazione.
05:46
So let's get a moral framework.
127
346260
2000
Allora troviamo una struttura morale di riferimento.
05:48
We're numbers people, living by numbers.
128
348260
3000
Siamo persone che usano i numeri, che vivono con i numeri.
05:51
How can we use numbers
129
351260
2000
Come possiamo usare i numeri
05:53
as the basis for a moral framework?
130
353260
3000
come base per una struttura morale di riferimento?
05:56
I know a guy who did exactly that.
131
356260
3000
Conosco un ragazzo che ha fatto esattamente questo.
05:59
A brilliant guy --
132
359260
3000
Un ragazzo brillante -
06:02
he's been dead 2,500 years.
133
362260
3000
è morto da 2.500 anni.
06:05
Plato, that's right.
134
365260
2000
Platone, esatto.
06:07
Remember him -- old philosopher?
135
367260
2000
Ve lo ricordate - il vecchio filosofo?
06:09
You were sleeping during that class.
136
369260
3000
Stavate dormendo in quella lezione?
06:12
And Plato, he had a lot of the same concerns that we did.
137
372260
2000
Platone, anche lui si è interrogato su molte delle domande che ci siamo posti noi.
06:14
He was worried about right and wrong.
138
374260
2000
Anche lui meditava su cosa è giusto e cosa è sbagliato.
06:16
He wanted to know what is just.
139
376260
2000
Voleva sapere cosa fosse giusto.
06:18
But he was worried that all we seem to be doing
140
378260
2000
Ma temeva che tutto ciò che facciamo
06:20
is trading opinions about this.
141
380260
2000
non fosse altro che scambiarci opinioni a riguardo.
06:22
He says something's just. She says something else is just.
142
382260
3000
Secondo lui questo è giusto. Secondo lei è giusta un'altra cosa.
06:25
It's kind of convincing when he talks and when she talks too.
143
385260
2000
Lui è piuttosto convincente quando parla...
06:27
I'm just going back and forth; I'm not getting anywhere.
144
387260
2000
..ma anche lei! Vado avanti e indietro; non sto andando da nessuna parte.
06:29
I don't want opinions; I want knowledge.
145
389260
3000
Non voglio opinioni, voglio conoscenza.
06:32
I want to know the truth about justice --
146
392260
3000
Voglio sapere la verità riguardo alla giustizia -
06:35
like we have truths in math.
147
395260
3000
come le verità che abbiamo in matematica.
06:38
In math, we know the objective facts.
148
398260
3000
In matematica, abbiamo i fatti oggettivi.
06:41
Take a number, any number -- two.
149
401260
2000
Prendete un numero, un numero qualsiasi - 2.
06:43
Favorite number. I love that number.
150
403260
2000
Il mio numero preferito. Amo quel numero.
06:45
There are truths about two.
151
405260
2000
Ci sono delle verità sul 2.
06:47
If you've got two of something,
152
407260
2000
Se avete 2 unità di qualcosa,
06:49
you add two more, you get four.
153
409260
2000
e gliene aggiungete altre 2, ottenete 4.
06:51
That's true no matter what thing you're talking about.
154
411260
2000
È vero a prescindere da qualsiasi sia l'ambito di discussione.
06:53
It's an objective truth about the form of two,
155
413260
2000
È una verità oggettiva sulla forma del 2,
06:55
the abstract form.
156
415260
2000
la forma astratta.
06:57
When you have two of anything -- two eyes, two ears, two noses,
157
417260
2000
Quando avete 2 unità di qualsiasi cosa -- 2 occhi, 2 orecchie, 2 nasi,
06:59
just two protrusions --
158
419260
2000
solo 2 protuberanze -
07:01
those all partake of the form of two.
159
421260
3000
tutte prendono parte alla forma del 2.
07:04
They all participate in the truths that two has.
160
424260
4000
Tutte condividono le verità che ha il 2.
07:08
They all have two-ness in them.
161
428260
2000
Hanno la du-alità in loro.
07:10
And therefore, it's not a matter of opinion.
162
430260
3000
E quindi, non si tratta di opinioni.
07:13
What if, Plato thought,
163
433260
2000
Platone pensò: e se
07:15
ethics was like math?
164
435260
2000
l'etica fosse come la matematica?
07:17
What if there were a pure form of justice?
165
437260
3000
E se ci fosse una forma pura di giustizia?
07:20
What if there are truths about justice,
166
440260
2000
E se ci fossero delle verità sulla giustizia,
07:22
and you could just look around in this world
167
442260
2000
e ci si potesse semplicemente guardare attorno in questo mondo
07:24
and see which things participated,
168
444260
2000
per vedere quali cose hanno preso parte a tali verità,
07:26
partook of that form of justice?
169
446260
3000
hanno condiviso quella forma di giustizia?
07:29
Then you would know what was really just and what wasn't.
170
449260
3000
A quel punto si saprebbe cosa era realmente giusto e cosa non lo era.
07:32
It wouldn't be a matter
171
452260
2000
Non sarebbe un problema
07:34
of just opinion or just appearances.
172
454260
3000
di opinioni o di impressioni su ciò che è giusto.
07:37
That's a stunning vision.
173
457260
2000
È una visione che lascia di stucco.
07:39
I mean, think about that. How grand. How ambitious.
174
459260
3000
Voglio dire, pensateci. Quant'è grandioso, ambizioso.
07:42
That's as ambitious as we are.
175
462260
2000
Tanto ambizioso quanto lo siamo noi.
07:44
He wants to solve ethics.
176
464260
2000
Vuole risolvere l'etica.
07:46
He wants objective truths.
177
466260
2000
Vuole verità oggettive.
07:48
If you think that way,
178
468260
3000
Se la pensate in quel modo,
07:51
you have a Platonist moral framework.
179
471260
3000
avete una struttura morale platonica.
07:54
If you don't think that way,
180
474260
2000
Se non la pensate in quel modo,
07:56
well, you have a lot of company in the history of Western philosophy,
181
476260
2000
beh, avete molta compagnia nella storia della filosofia occidentale,
07:58
because the tidy idea, you know, people criticized it.
182
478260
3000
perché questa notevole idea - sapete, la gente l'ha criticata.
08:01
Aristotle, in particular, he was not amused.
183
481260
3000
Aristotele, in particolare, non ne era entusiasta.
08:04
He thought it was impractical.
184
484260
3000
La riteneva poco pratica.
08:07
Aristotle said, "We should seek only so much precision in each subject
185
487260
4000
Aristotele diceva, "Dovremmo richiedere in ciascun campo tanta precisione
08:11
as that subject allows."
186
491260
2000
quanta ne permette la natura dell'oggetto".
08:13
Aristotle thought ethics wasn't a lot like math.
187
493260
3000
Aristotele pensava che l'etica non fosse come la matematica.
08:16
He thought ethics was a matter of making decisions in the here-and-now
188
496260
3000
Pensava che l'etica fosse più una questione legata al prendere decisioni al momento,
08:19
using our best judgment
189
499260
2000
usando il nostro giudizio
08:21
to find the right path.
190
501260
2000
per capire la giusta direzione da prendere.
08:23
If you think that, Plato's not your guy.
191
503260
2000
Se la pensate così, Platone non fa per voi.
08:25
But don't give up.
192
505260
2000
Ma non arrendetevi.
08:27
Maybe there's another way
193
507260
2000
Forse esiste un altro modo grazie a cui
08:29
that we can use numbers as the basis of our moral framework.
194
509260
3000
possiamo usare i numeri come base per il nostro sistema di riferimento morale.
08:33
How about this:
195
513260
2000
Cosa ne dite di questo:
08:35
What if in any situation you could just calculate,
196
515260
3000
come sarebbe se in ogni situazione poteste semplicemente prevedere,
08:38
look at the choices,
197
518260
2000
vagliare le possibilità,
08:40
measure out which one's better and know what to do?
198
520260
3000
giudicare quale sia la migliore e sapere cosa fare?
08:43
That sound familiar?
199
523260
2000
Vi suona familiare?
08:45
That's a utilitarian moral framework.
200
525260
3000
Questo è un sistema di riferimento utilitaristico.
08:48
John Stuart Mill was a great advocate of this --
201
528260
2000
John Stuart Mill ne è stato un gran difensore -
08:50
nice guy besides --
202
530260
2000
oltre ad essere un bravo ragazzo -
08:52
and only been dead 200 years.
203
532260
2000
ed è morto solo 200 anni fa.
08:54
So basis of utilitarianism --
204
534260
2000
Almeno con le basi dell'utilitarismo
08:56
I'm sure you're familiar at least.
205
536260
2000
sono sicuro che abbiate familiarità:
08:58
The three people who voted for Mill before are familiar with this.
206
538260
2000
le tre persone che prima hanno votato per Mill ne hanno familiarità.
09:00
But here's the way it works.
207
540260
2000
Ma ecco come funziona.
09:02
What if morals, what if what makes something moral
208
542260
3000
Come sarebbe se la moralità, ciò che rende qualcosa morale,
09:05
is just a matter of if it maximizes pleasure
209
545260
2000
fosse solo una questione di massimizzazione del piacere
09:07
and minimizes pain?
210
547260
2000
e minimizzazione del dolore?
09:09
It does something intrinsic to the act.
211
549260
3000
È qualcosa di intrinseco all'azione.
09:12
It's not like its relation to some abstract form.
212
552260
2000
Non è come la relazione che intrattiene con qualche forma astratta.
09:14
It's just a matter of the consequences.
213
554260
2000
È solo una questione di conseguenze.
09:16
You just look at the consequences
214
556260
2000
Vagliate solo le conseguenze
09:18
and see if, overall, it's for the good or for the worse.
215
558260
2000
e giudicate se, in generale, propende per il meglio o il peggio.
09:20
That would be simple. Then we know what to do.
216
560260
2000
Sarebbe semplice. A quel punto sappiamo cosa fare.
09:22
Let's take an example.
217
562260
2000
Facciamo un esempio.
09:24
Suppose I go up
218
564260
2000
Supponiamo che io me ne esca
09:26
and I say, "I'm going to take your phone."
219
566260
2000
dicendo "Prenderò il tuo telefono."
09:28
Not just because it rang earlier,
220
568260
2000
Non perché prima abbia squillato,
09:30
but I'm going to take it because I made a little calculation.
221
570260
3000
ma lo prenderò perché ho fatto qualche piccola previsione.
09:33
I thought, that guy looks suspicious.
222
573260
3000
Ho pensato: "quel ragazzo ha un'aria sospetta.
09:36
And what if he's been sending little messages to Bin Laden's hideout --
223
576260
3000
E se avesse mandato dei messaggini al nascondiglio di Bin Landen? -
09:39
or whoever took over after Bin Laden --
224
579260
2000
o chiunque abbia preso il posto di Bin Landen -
09:41
and he's actually like a terrorist, a sleeper cell.
225
581260
3000
e fosse davvero un terrorista, una cellula dormiente?
09:44
I'm going to find that out, and when I find that out,
226
584260
3000
Lo scoprirò, e quando l'avrò scoperto,
09:47
I'm going to prevent a huge amount of damage that he could cause.
227
587260
3000
impedirò il danno enorme che potrebbe causare".
09:50
That has a very high utility to prevent that damage.
228
590260
3000
È davvero un gran vantaggio prevenire quel danno.
09:53
And compared to the little pain that it's going to cause --
229
593260
2000
E a paragone del piccolo dolore che la mia azione causerà -
09:55
because it's going to be embarrassing when I'm looking on his phone
230
595260
2000
perché sarà imbarazzante quando andrò a sbirciare sul suo cellulare
09:57
and seeing that he has a Farmville problem and that whole bit --
231
597260
3000
e vedrò che ha solo un problema con Farmville e altre cose del genere -
10:00
that's overwhelmed
232
600260
3000
quest'imbarazzo sarà superato
10:03
by the value of looking at the phone.
233
603260
2000
dal valore che avrà avuto l'aver controllato il suo cellulare.
10:05
If you feel that way,
234
605260
2000
Se la pensate in questo modo
10:07
that's a utilitarian choice.
235
607260
3000
avete fatto una scelta utilitaristica.
10:10
But maybe you don't feel that way either.
236
610260
3000
Ma forse non la pensate neanche in quel modo.
10:13
Maybe you think, it's his phone.
237
613260
2000
Forse pensate: "è il suo cellulare.
10:15
It's wrong to take his phone
238
615260
2000
È sbagliato prendere il suo cellulare,
10:17
because he's a person
239
617260
2000
perché è una persona
10:19
and he has rights and he has dignity,
240
619260
2000
e come tale ha i suoi diritti e la sua dignità,
10:21
and we can't just interfere with that.
241
621260
2000
e noi semplicemente non possiamo interferire.
10:23
He has autonomy.
242
623260
2000
Ha la propria autonomia.
10:25
It doesn't matter what the calculations are.
243
625260
2000
Non importa quali siano le previsioni:
10:27
There are things that are intrinsically wrong --
244
627260
3000
ci sono cose intrinsecamente sbagliate -
10:30
like lying is wrong,
245
630260
2000
così com'è sbagliato mentire,
10:32
like torturing innocent children is wrong.
246
632260
3000
così com'è sbagliato torturare bambini innocenti".
10:35
Kant was very good on this point,
247
635260
3000
Kant era molto ferrato su questo punto
10:38
and he said it a little better than I'll say it.
248
638260
2000
e si è espresso un po' meglio di quanto lo farò io.
10:40
He said we should use our reason
249
640260
2000
Lui diceva che dovremmo usare la ragione
10:42
to figure out the rules by which we should guide our conduct,
250
642260
3000
per capire le regole su cui basare il nostro comportamento.
10:45
and then it is our duty to follow those rules.
251
645260
3000
E a quel punto è nostro obbligo morale attenerci a quelle regole.
10:48
It's not a matter of calculation.
252
648260
3000
Non è una questione di previsione.
10:51
So let's stop.
253
651260
2000
Fermiamoci un attimo.
10:53
We're right in the thick of it, this philosophical thicket.
254
653260
3000
Siamo nel bel mezzo di questa coltre filosofica.
10:56
And this goes on for thousands of years,
255
656260
3000
E questo va avanti ormai da migliaia di anni,
10:59
because these are hard questions,
256
659260
2000
perché queste sono domande difficili,
11:01
and I've only got 15 minutes.
257
661260
2000
e io ho solo 15 minuti a disposizione.
11:03
So let's cut to the chase.
258
663260
2000
Andiamo dritti al dunque.
11:05
How should we be making our decisions?
259
665260
4000
In che modo dovremmo prendere le nostre decisioni?
11:09
Is it Plato, is it Aristotle, is it Kant, is it Mill?
260
669260
3000
Dovremmo ragionare come Platone, Aristotele, Kant o Mill?
11:12
What should we be doing? What's the answer?
261
672260
2000
Cosa dovremmo fare? Qual è la risposta?
11:14
What's the formula that we can use in any situation
262
674260
3000
Qual è la formula che possiamo utilizzare in qualsiasi situazione
11:17
to determine what we should do,
263
677260
2000
per determinare cosa dovremmo fare,
11:19
whether we should use that guy's data or not?
264
679260
2000
se è giusto utilizzare i dati di quel ragazzo o no?
11:21
What's the formula?
265
681260
3000
Qual è la formula?
11:25
There's not a formula.
266
685260
2000
Non esiste una formula.
11:29
There's not a simple answer.
267
689260
2000
Non esiste una risposta semplice.
11:31
Ethics is hard.
268
691260
3000
L'etica è difficile.
11:34
Ethics requires thinking.
269
694260
3000
L'etica richiede riflessione.
11:38
And that's uncomfortable.
270
698260
2000
E ciò crea disagio.
11:40
I know; I spent a lot of my career
271
700260
2000
Lo so: ho passato gran parte della mia carriera
11:42
in artificial intelligence,
272
702260
2000
occupandomi di intelligenza artificiale,
11:44
trying to build machines that could do some of this thinking for us,
273
704260
3000
provando a costruire macchine in grado di fare un po' di queste riflessioni per noi,
11:47
that could give us answers.
274
707260
2000
in grado di darci delle risposte.
11:49
But they can't.
275
709260
2000
Ma non possono.
11:51
You can't just take human thinking
276
711260
2000
Semplicemente non si può prendere il pensiero umano
11:53
and put it into a machine.
277
713260
2000
e metterlo in una macchina.
11:55
We're the ones who have to do it.
278
715260
3000
Siamo noi che dobbiamo pensare.
11:58
Happily, we're not machines, and we can do it.
279
718260
3000
La buona notizia è che non siamo macchine e possiamo farlo.
12:01
Not only can we think,
280
721260
2000
Non solo possiamo pensare,
12:03
we must.
281
723260
2000
ma dobbiamo.
12:05
Hannah Arendt said,
282
725260
2000
Hannah Arendt diceva,
12:07
"The sad truth
283
727260
2000
"La triste verità
12:09
is that most evil done in this world
284
729260
2000
è che la maggior parte del male in questo mondo
12:11
is not done by people
285
731260
2000
non è causato da persone
12:13
who choose to be evil.
286
733260
2000
che vogliono essere deliberatamente cattive.
12:15
It arises from not thinking."
287
735260
3000
Nasce dal non pensare affatto".
12:18
That's what she called the "banality of evil."
288
738260
4000
Questo è ciò che lei ha chiamato "la banalità del male".
12:22
And the response to that
289
742260
2000
E in risposta a ciò
12:24
is that we demand the exercise of thinking
290
744260
2000
pretendiamo che qualsiasi persona sana
12:26
from every sane person.
291
746260
3000
sfrutti la propria capacità di riflettere.
12:29
So let's do that. Let's think.
292
749260
2000
E allora facciamolo. Pensiamo.
12:31
In fact, let's start right now.
293
751260
3000
Anzi, iniziamo proprio adesso.
12:34
Every person in this room do this:
294
754260
3000
Ognuno di voi qui presente faccia questo:
12:37
think of the last time you had a decision to make
295
757260
3000
pensate all'ultima volta che avete dovuto prendere una decisione
12:40
where you were worried to do the right thing,
296
760260
2000
per cui vi siete preoccupati di quale fosse la cosa giusta,
12:42
where you wondered, "What should I be doing?"
297
762260
2000
e vi siete chiesti, "Cosa dovrei fare?"
12:44
Bring that to mind,
298
764260
2000
Fate riaffiorare questo ricordo.
12:46
and now reflect on that
299
766260
2000
Adesso rifletteteci
12:48
and say, "How did I come up that decision?
300
768260
3000
e rispondete, "Come sono giunto alla mia decisione?
12:51
What did I do? Did I follow my gut?
301
771260
3000
Cosa ho fatto? Ho seguito l'istinto?
12:54
Did I have somebody vote on it? Or did I punt to legal?"
302
774260
2000
Ho fatto votare qualcuno? O mi sono attenuto alla legge?"
12:56
Or now we have a few more choices.
303
776260
3000
Adesso abbiamo un po' più di scelta.
12:59
"Did I evaluate what would be the highest pleasure
304
779260
2000
"Ho valutato quale sarebbe stato il piacere maggiore
13:01
like Mill would?
305
781260
2000
come avrebbe fatto Mill?
13:03
Or like Kant, did I use reason to figure out what was intrinsically right?"
306
783260
3000
O come Kant, ho utilizzato la ragione per capire cosa fosse intrinsecamente giusto?"
13:06
Think about it. Really bring it to mind. This is important.
307
786260
3000
Pensateci. Davvero, fate uno sforzo di memoria. È importante.
13:09
It is so important
308
789260
2000
È così importante
13:11
we are going to spend 30 seconds of valuable TEDTalk time
309
791260
2000
che perderemo ben 30 preziosi secondi del mio tempo qui a TEDTalk
13:13
doing nothing but thinking about this.
310
793260
2000
facendo nulla, se non pensare a questo.
13:15
Are you ready? Go.
311
795260
2000
Siete pronti? Via.
13:33
Stop. Good work.
312
813260
3000
Stop. Ottimo lavoro.
13:36
What you just did,
313
816260
2000
Quello che avete appena fatto
13:38
that's the first step towards taking responsibility
314
818260
2000
è il primo passo verso l'assunzione di responsabilità
13:40
for what we should do with all of our power.
315
820260
3000
per ciò che dovremmo fare con tutto il nostro potere.
13:45
Now the next step -- try this.
316
825260
3000
Ecco il prossimo passo - provate a far questo.
13:49
Go find a friend and explain to them
317
829260
2000
Andate da un amico e spiegategli
13:51
how you made that decision.
318
831260
2000
come avete preso la vostra decisione.
13:53
Not right now. Wait till I finish talking.
319
833260
2000
Non adesso. Aspettate la fine di questo intervento.
13:55
Do it over lunch.
320
835260
2000
Fatelo a pranzo.
13:57
And don't just find another technologist friend;
321
837260
3000
E non andate a parlare con qualche altro amico tecnologo;
14:00
find somebody different than you.
322
840260
2000
trovate qualcuno diverso da voi.
14:02
Find an artist or a writer --
323
842260
2000
Cercate un arista o uno scrittore -
14:04
or, heaven forbid, find a philosopher and talk to them.
324
844260
3000
oppure, Dio ce ne scampi, trovate un filosofo e parlategli.
14:07
In fact, find somebody from the humanities.
325
847260
2000
Insomma, trovate qualcuno del settore umanistico.
14:09
Why? Because they think about problems
326
849260
2000
Perché? Perché il loro approccio ai problemi
14:11
differently than we do as technologists.
327
851260
2000
è diverso rispetto a quello di noi tecnologi.
14:13
Just a few days ago, right across the street from here,
328
853260
3000
Proprio qualche giorno fa, proprio qui davanti,
14:16
there was hundreds of people gathered together.
329
856260
2000
c'erano centinaia di persone radunate.
14:18
It was technologists and humanists
330
858260
2000
Erano tecnologi e umanisti
14:20
at that big BiblioTech Conference.
331
860260
2000
che partecipavano alla grande conferenza BiblioTech.
14:22
And they gathered together
332
862260
2000
E si sono riuniti tutti insieme
14:24
because the technologists wanted to learn
333
864260
2000
perché i tecnologi volevano capire
14:26
what it would be like to think from a humanities perspective.
334
866260
3000
come sarebbe stato pensare da un punto di vista umanistico.
14:29
You have someone from Google
335
869260
2000
Qualcuno che lavorava per Google
14:31
talking to someone who does comparative literature.
336
871260
2000
parlava con qualcuno che studiava letteratura comparata.
14:33
You're thinking about the relevance of 17th century French theater --
337
873260
3000
Pensate alla rilevanza del teatro francese del 17esimo secolo -
14:36
how does that bear upon venture capital?
338
876260
2000
come influisce sul capitale di rischio?
14:38
Well that's interesting. That's a different way of thinking.
339
878260
3000
Beh, è interessante. È un modo diverso di pensare.
14:41
And when you think in that way,
340
881260
2000
E quando ragionate in quel modo,
14:43
you become more sensitive to the human considerations,
341
883260
3000
diventate più sensibili alle considerazioni umane,
14:46
which are crucial to making ethical decisions.
342
886260
3000
che sono indispensabili per prendere decisioni etiche.
14:49
So imagine that right now
343
889260
2000
Immaginate che proprio questo momento
14:51
you went and you found your musician friend.
344
891260
2000
voi uscite e trovate il vostro amico musicista.
14:53
And you're telling him what we're talking about,
345
893260
3000
E mentre gli raccontate di cosa stiamo parlando,
14:56
about our whole data revolution and all this --
346
896260
2000
di tutta la nostra rivoluzione dei dati e via di seguito -
14:58
maybe even hum a few bars of our theme music.
347
898260
2000
potreste anche accennargli un paio di battute della nostra musica di sottofondo.
15:00
♫ Dum ta da da dum dum ta da da dum ♫
348
900260
3000
♫ Dum ta da da dum dum ta da da dum ♫
15:03
Well, your musician friend will stop you and say,
349
903260
2000
Beh, il vostro amico musicista vi interrompe e vi dice,
15:05
"You know, the theme music
350
905260
2000
"Sai, la musica
15:07
for your data revolution,
351
907260
2000
per la vostra rivoluzione dei dati,
15:09
that's an opera, that's Wagner.
352
909260
2000
è un'opera, è Wagner.
15:11
It's based on Norse legend.
353
911260
2000
È basata su una leggenda norrena.
15:13
It's Gods and mythical creatures
354
913260
2000
Parla di dei e creature mitiche
15:15
fighting over magical jewelry."
355
915260
3000
che si battono per dei gioielli magici".
15:19
That's interesting.
356
919260
3000
Interessante.
15:22
Now it's also a beautiful opera,
357
922260
3000
Adesso è anche una bella opera.
15:25
and we're moved by that opera.
358
925260
3000
E ci sentiamo commossi da quest'opera.
15:28
We're moved because it's about the battle
359
928260
2000
Ci sentiamo commossi perché si tratta di una lotta
15:30
between good and evil,
360
930260
2000
tra il bene e il male,
15:32
about right and wrong.
361
932260
2000
tra ciò che è giusto e ciò che è sbagliato.
15:34
And we care about right and wrong.
362
934260
2000
E a noi importa di ciò è giusto e ciò che è sbagliato.
15:36
We care what happens in that opera.
363
936260
3000
Ci importa di ciò che accade in quell'opera.
15:39
We care what happens in "Apocalypse Now."
364
939260
3000
Ci importa di ciò che accade in "Apocalypse Now".
15:42
And we certainly care
365
942260
2000
E sicuramente ci importa
15:44
what happens with our technologies.
366
944260
2000
di ciò che accade con le tecnologie che usiamo.
15:46
We have so much power today,
367
946260
2000
Abbiamo così tanto potere al giorno d'oggi,
15:48
it is up to us to figure out what to do,
368
948260
3000
dipende esclusivamente da noi capire cosa farne.
15:51
and that's the good news.
369
951260
2000
E qui arriva la buona notizia.
15:53
We're the ones writing this opera.
370
953260
3000
Siamo noi a scrivere quest'opera.
15:56
This is our movie.
371
956260
2000
Questo è il nostro film.
15:58
We figure out what will happen with this technology.
372
958260
3000
Siamo noi a decidere cosa ne sarà di questa tecnologia.
16:01
We determine how this will all end.
373
961260
3000
Saremo noi a determinare il finale di tutto questo.
16:04
Thank you.
374
964260
2000
Grazie.
16:06
(Applause)
375
966260
5000
(Applausi)
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7