Damon Horowitz calls for a "moral operating system"

Damon Horowitz brega por un "sistema operativo moral"

94,639 views

2011-06-06 ・ TED


New videos

Damon Horowitz calls for a "moral operating system"

Damon Horowitz brega por un "sistema operativo moral"

94,639 views ・ 2011-06-06

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Veronica Vera Revisor: Sebastian Betti
00:15
Power.
0
15260
2000
Poder.
00:17
That is the word that comes to mind.
1
17260
2000
Esa es la palabra que viene a la mente.
00:19
We're the new technologists.
2
19260
2000
Somos los nuevos tecnólogos.
00:21
We have a lot of data, so we have a lot of power.
3
21260
3000
Tenemos gran cantidad de información, así que tenemos mucho poder.
00:24
How much power do we have?
4
24260
2000
¿Cuánto poder tenemos?
00:26
Scene from a movie: "Apocalypse Now" -- great movie.
5
26260
3000
Escena de la película: "Apocalipsis Now" -- excelente película.
00:29
We've got to get our hero, Captain Willard, to the mouth of the Nung River
6
29260
3000
Tenemos que llevar a nuestro héroe, el capitán Willard, a la desembocadura del río Nung
00:32
so he can go pursue Colonel Kurtz.
7
32260
2000
para que pueda perseguir al coronel Kurtz.
00:34
The way we're going to do this is fly him in and drop him off.
8
34260
2000
Para esto, lo vamos a transportar volando y lo dejamos en el lugar.
00:36
So the scene:
9
36260
2000
En esta escena
00:38
the sky is filled with this fleet of helicopters carrying him in.
10
38260
3000
el cielo está repleto de helicópteros que lo llevan.
00:41
And there's this loud, thrilling music in the background,
11
41260
2000
Hay de fondo una música fuerte y emocionante,
00:43
this wild music.
12
43260
2000
una música desenfrenada.
00:45
♫ Dum da ta da dum ♫
13
45260
2000
♫ Dum da ta da dum ♫
00:47
♫ Dum da ta da dum ♫
14
47260
2000
♫ Dum da ta da dum ♫
00:49
♫ Da ta da da ♫
15
49260
3000
♫ Da ta da da ♫
00:52
That's a lot of power.
16
52260
2000
Hay mucha potencia.
00:54
That's the kind of power I feel in this room.
17
54260
2000
La clase de potencia que siento en esta sala.
00:56
That's the kind of power we have
18
56260
2000
Es el poder que nos da
00:58
because of all of the data that we have.
19
58260
2000
toda la información que tenemos.
01:00
Let's take an example.
20
60260
2000
Pongamos un ejemplo:
01:02
What can we do
21
62260
2000
¿Qué podemos hacer
01:04
with just one person's data?
22
64260
3000
con la información de una sola persona?
01:07
What can we do
23
67260
2000
¿Qué podemos hacer
01:09
with that guy's data?
24
69260
2000
con la información de ese señor?
01:11
I can look at your financial records.
25
71260
2000
Puedo mirar sus registros financieros.
01:13
I can tell if you pay your bills on time.
26
73260
2000
Puedo decir si paga sus cuentas puntualmente.
01:15
I know if you're good to give a loan to.
27
75260
2000
Sé si reúne las condiciones para que le den un préstamo.
01:17
I can look at your medical records; I can see if your pump is still pumping --
28
77260
3000
Puedo ver su historia clínica, puedo ver si aún late su corazón;
01:20
see if you're good to offer insurance to.
29
80260
3000
ver si está bien para que le ofrezcan un seguro.
01:23
I can look at your clicking patterns.
30
83260
2000
Puedo observar sus hábitos en Internet.
01:25
When you come to my website, I actually know what you're going to do already
31
85260
3000
Cuando viene a mi sitio web, en realidad ya sé lo que va a hacer,
01:28
because I've seen you visit millions of websites before.
32
88260
2000
porque lo he visto visitar millones de sitios web antes.
01:30
And I'm sorry to tell you,
33
90260
2000
Y lamento decirlo,
01:32
you're like a poker player, you have a tell.
34
92260
2000
eres como un jugador de póquer, tienes esa manía.
01:34
I can tell with data analysis what you're going to do
35
94260
2000
Analizando datos puedo decir lo que vas a hacer
01:36
before you even do it.
36
96260
2000
aún antes que lo hagas.
01:38
I know what you like. I know who you are,
37
98260
3000
Sé lo que te gusta. Sé quién eres.
01:41
and that's even before I look at your mail
38
101260
2000
Incluso antes de mirar tu correo
01:43
or your phone.
39
103260
2000
o tu teléfono.
01:45
Those are the kinds of things we can do
40
105260
2000
Ese es el tipo de cosas que podemos hacer
01:47
with the data that we have.
41
107260
3000
con los datos que tenemos.
01:50
But I'm not actually here to talk about what we can do.
42
110260
3000
Pero en realidad no estoy aquí para hablar de lo que podemos hacer.
01:56
I'm here to talk about what we should do.
43
116260
3000
Estoy aquí para hablar de lo que debemos hacer.
02:00
What's the right thing to do?
44
120260
3000
¿Cuál es la acción correcta?
02:04
Now I see some puzzled looks
45
124260
2000
Veo algunas miradas desconcertadas
02:06
like, "Why are you asking us what's the right thing to do?
46
126260
3000
como diciendo, "¿Por qué nos preguntas qué es lo correcto?
02:09
We're just building this stuff. Somebody else is using it."
47
129260
3000
Nosotros hacemos. Son otros los que la usan".
02:12
Fair enough.
48
132260
3000
Es cierto.
02:15
But it brings me back.
49
135260
2000
Pero esto me lleva al pasado.
02:17
I think about World War II --
50
137260
2000
Pienso en la Segunda Guerra Mundial --
02:19
some of our great technologists then,
51
139260
2000
algunos de nuestros grandes tecnólogos de entonces,
02:21
some of our great physicists,
52
141260
2000
algunos de los grandes físicos,
02:23
studying nuclear fission and fusion --
53
143260
2000
estudiaban la fisión y la fusión nuclear --
02:25
just nuclear stuff.
54
145260
2000
cuestiones nucleares.
02:27
We gather together these physicists in Los Alamos
55
147260
3000
Reunimos a estos físicos en Los Álamos
02:30
to see what they'll build.
56
150260
3000
para ver que construían.
02:33
We want the people building the technology
57
153260
3000
Queremos que la gente que desarrolla tecnología
02:36
thinking about what we should be doing with the technology.
58
156260
3000
piense qué deberíamos hacer nosotros con ella.
02:41
So what should we be doing with that guy's data?
59
161260
3000
Entonces, ¿qué deberíamos hacer con los datos de ese señor?
02:44
Should we be collecting it, gathering it,
60
164260
3000
¿Deberíamos recolectar, reunir los datos,
02:47
so we can make his online experience better?
61
167260
2000
para mejorar su experiencia en línea?
02:49
So we can make money?
62
169260
2000
¿Para ganar dinero?
02:51
So we can protect ourselves
63
171260
2000
¿Para protegernos nosotros mismos
02:53
if he was up to no good?
64
173260
2000
si no se comporta bien?
02:55
Or should we respect his privacy,
65
175260
3000
¿O deberíamos respetar su privacidad,
02:58
protect his dignity and leave him alone?
66
178260
3000
proteger su dignidad y dejarlo en paz?
03:02
Which one is it?
67
182260
3000
¿Qué hacemos?
03:05
How should we figure it out?
68
185260
2000
¿Cómo debemos decidir?
03:07
I know: crowdsource. Let's crowdsource this.
69
187260
3000
Ya sé: colaboración pública. Vamos a resolver esto juntos.
03:11
So to get people warmed up,
70
191260
3000
Para entrar en calor,
03:14
let's start with an easy question --
71
194260
2000
comencemos con una pregunta fácil --
03:16
something I'm sure everybody here has an opinion about:
72
196260
3000
algo sobre lo que estoy seguro que todos aquí tienen una opinión:
03:19
iPhone versus Android.
73
199260
2000
iPhone versus Android.
03:21
Let's do a show of hands -- iPhone.
74
201260
3000
Levanten las manos por el iPhone.
03:24
Uh huh.
75
204260
2000
Ajá.
03:26
Android.
76
206260
3000
Android.
03:29
You'd think with a bunch of smart people
77
209260
2000
Uno pensaría que un grupo de gente inteligente
03:31
we wouldn't be such suckers just for the pretty phones.
78
211260
2000
o sucumbiría tan fácil ante unos lindos teléfonos.
03:33
(Laughter)
79
213260
2000
(Risas)
03:35
Next question,
80
215260
2000
Siguiente pregunta,
03:37
a little bit harder.
81
217260
2000
un poco más difícil.
03:39
Should we be collecting all of that guy's data
82
219260
2000
¿Deberíamos recolectar toda los datos de ese hombre
03:41
to make his experiences better
83
221260
2000
para ofrecerle una mejor experiencia
03:43
and to protect ourselves in case he's up to no good?
84
223260
3000
y para protegernos en caso de que trame algo malo?
03:46
Or should we leave him alone?
85
226260
2000
¿O deberíamos dejarlo en paz?
03:48
Collect his data.
86
228260
3000
Recolectar sus datos.
03:53
Leave him alone.
87
233260
3000
Dejarlo en paz.
03:56
You're safe. It's fine.
88
236260
2000
Estás a salvo. Está bien.
03:58
(Laughter)
89
238260
2000
(Risas)
04:00
Okay, last question --
90
240260
2000
Bien, última pregunta --
04:02
harder question --
91
242260
2000
más difícil --
04:04
when trying to evaluate
92
244260
3000
Al tratar de evaluar
04:07
what we should do in this case,
93
247260
3000
lo que deberíamos hacer en este caso,
04:10
should we use a Kantian deontological moral framework,
94
250260
4000
¿deberíamos usar un sistema moral deontológico kantiano,
04:14
or should we use a Millian consequentialist one?
95
254260
3000
o un sistema consecuencionalista milliano?
04:19
Kant.
96
259260
3000
Kant.
04:22
Mill.
97
262260
3000
Mill.
04:25
Not as many votes.
98
265260
2000
No hay tantos votos.
04:27
(Laughter)
99
267260
3000
(Risas)
04:30
Yeah, that's a terrifying result.
100
270260
3000
Sí, ese es un resultado aterrador.
04:34
Terrifying, because we have stronger opinions
101
274260
4000
Es aterrador porque tenemos opiniones más firmes
04:38
about our hand-held devices
102
278260
2000
sobre nuestros aparatos portátiles
04:40
than about the moral framework
103
280260
2000
que sobre el sistema moral
04:42
we should use to guide our decisions.
104
282260
2000
que debería guiar nuestras decisiones.
04:44
How do we know what to do with all the power we have
105
284260
3000
¿Cómo sabemos qué hacer con todo el poder que tenemos
04:47
if we don't have a moral framework?
106
287260
3000
si no tenemos un sistema moral?
04:50
We know more about mobile operating systems,
107
290260
3000
Sabemos más sobre los sistemas operativos móviles,
04:53
but what we really need is a moral operating system.
108
293260
3000
pero lo que realmente necesitamos es un sistema operativo moral.
04:58
What's a moral operating system?
109
298260
2000
¿Qué es un sistema operativo moral?
05:00
We all know right and wrong, right?
110
300260
2000
Todos sabemos lo que es correcto e incorrecto.
05:02
You feel good when you do something right,
111
302260
2000
Te sientes bien cuando haces algo correcto,
05:04
you feel bad when you do something wrong.
112
304260
2000
te sientes mal cuando haces algo incorrecto.
05:06
Our parents teach us that: praise with the good, scold with the bad.
113
306260
3000
Nuestros padres nos enseñan que se alaba lo bueno y se regaña lo malo.
05:09
But how do we figure out what's right and wrong?
114
309260
3000
Pero, ¿cómo podemos averiguar qué es lo correcto y lo incorrecto?
05:12
And from day to day, we have the techniques that we use.
115
312260
3000
Y, día a día, tenemos las técnicas que utilizamos.
05:15
Maybe we just follow our gut.
116
315260
3000
Tal vez solo seguimos nuestro instinto.
05:18
Maybe we take a vote -- we crowdsource.
117
318260
3000
Tal vez votamos --consultamos la opinión pública.
05:21
Or maybe we punt --
118
321260
2000
O tal vez apostamos --
05:23
ask the legal department, see what they say.
119
323260
3000
preguntamos al departamento legal, vemos lo que dicen.
05:26
In other words, it's kind of random,
120
326260
2000
En otras palabras, es un poco aleatorio,
05:28
kind of ad hoc,
121
328260
2000
improvisamos,
05:30
how we figure out what we should do.
122
330260
3000
la forma de averiguar lo que debemos hacer.
05:33
And maybe, if we want to be on surer footing,
123
333260
3000
Y, tal vez, si queremos sentirnos más seguros,
05:36
what we really want is a moral framework that will help guide us there,
124
336260
3000
lo que realmente queremos es un sistema moral que nos oriente,
05:39
that will tell us what kinds of things are right and wrong in the first place,
125
339260
3000
que nos diga en primer lugar que tipo de cosas están bien y mal,
05:42
and how would we know in a given situation what to do.
126
342260
4000
y cómo sabemos qué hacer en una situación dada.
05:46
So let's get a moral framework.
127
346260
2000
Entonces tengamos un sistema moral.
05:48
We're numbers people, living by numbers.
128
348260
3000
Somos seres que trabajamos con números, vivimos por los números.
05:51
How can we use numbers
129
351260
2000
¿Cómo podemos usar los números
05:53
as the basis for a moral framework?
130
353260
3000
como base para un sistema moral?
05:56
I know a guy who did exactly that.
131
356260
3000
Conozco a un hombre que hizo exactamente eso,
05:59
A brilliant guy --
132
359260
3000
Un hombre brillante --
06:02
he's been dead 2,500 years.
133
362260
3000
murió hace 2500 años.
06:05
Plato, that's right.
134
365260
2000
Platón, exacto.
06:07
Remember him -- old philosopher?
135
367260
2000
¿Lo recuerdan? ¿un viejo filósofo?
06:09
You were sleeping during that class.
136
369260
3000
Se durmieron durante esa clase.
06:12
And Plato, he had a lot of the same concerns that we did.
137
372260
2000
Y Platón se planteó muchas de estas preocupaciones que tenemos.
06:14
He was worried about right and wrong.
138
374260
2000
Se preocupaba por lo correcto y lo incorrecto.
06:16
He wanted to know what is just.
139
376260
2000
Quería saber qué era lo justo.
06:18
But he was worried that all we seem to be doing
140
378260
2000
Pero le preocupaba que todo lo que parecíamos hacer
06:20
is trading opinions about this.
141
380260
2000
era intercambiar opiniones sobre el tema.
06:22
He says something's just. She says something else is just.
142
382260
3000
Él dice que algo es lo justo. Ella dice que otra cosa es lo justo.
06:25
It's kind of convincing when he talks and when she talks too.
143
385260
2000
Ambos suenan convincentes.
06:27
I'm just going back and forth; I'm not getting anywhere.
144
387260
2000
Vamos y volvemos sin llegar a ningún lado.
06:29
I don't want opinions; I want knowledge.
145
389260
3000
No quiero opiniones, quiero conocimiento.
06:32
I want to know the truth about justice --
146
392260
3000
Quiero saber la verdad sobre la justicia --
06:35
like we have truths in math.
147
395260
3000
tal como tenemos verdades en matemáticas.
06:38
In math, we know the objective facts.
148
398260
3000
En matemáticas conocemos los hechos objetivos.
06:41
Take a number, any number -- two.
149
401260
2000
Tomen un número, cualquier número -- el 2.
06:43
Favorite number. I love that number.
150
403260
2000
Mi número favorito. Me encanta ese número.
06:45
There are truths about two.
151
405260
2000
Hay verdades sobre el 2.
06:47
If you've got two of something,
152
407260
2000
Si tienen 2 de algo,
06:49
you add two more, you get four.
153
409260
2000
y agregan 2 más, tienen 4.
06:51
That's true no matter what thing you're talking about.
154
411260
2000
Eso es verdad sin importar qué estén hablando.
06:53
It's an objective truth about the form of two,
155
413260
2000
Es una verdad objetiva sobre la forma del 2,
06:55
the abstract form.
156
415260
2000
la forma abstracta.
06:57
When you have two of anything -- two eyes, two ears, two noses,
157
417260
2000
Cuando se tiene 2 de cualquier cosa - 2 ojos, 2 oídos, 2 narices,
06:59
just two protrusions --
158
419260
2000
2 protuberancias --
07:01
those all partake of the form of two.
159
421260
3000
todos ellos participan de la forma del 2.
07:04
They all participate in the truths that two has.
160
424260
4000
Todos participan de las verdades del 2.
07:08
They all have two-ness in them.
161
428260
2000
Todos tienen la dualidad.
07:10
And therefore, it's not a matter of opinion.
162
430260
3000
Y por lo tanto, no es una cuestión de opinión.
07:13
What if, Plato thought,
163
433260
2000
Platón pensaba: ¿y si
07:15
ethics was like math?
164
435260
2000
la ética fuese como la matemática?
07:17
What if there were a pure form of justice?
165
437260
3000
¿Y si hubiera una forma pura de justicia?
07:20
What if there are truths about justice,
166
440260
2000
¿Y si hay verdades acerca de la justicia,
07:22
and you could just look around in this world
167
442260
2000
y si pudiéramos mirar el mundo
07:24
and see which things participated,
168
444260
2000
y ver las cosas que la componen,
07:26
partook of that form of justice?
169
446260
3000
que forman parte de la justicia?
07:29
Then you would know what was really just and what wasn't.
170
449260
3000
Entonces podría saberse lo que realmente es justo y lo que no.
07:32
It wouldn't be a matter
171
452260
2000
No sería una cuestión
07:34
of just opinion or just appearances.
172
454260
3000
de simple opinión o apariencias.
07:37
That's a stunning vision.
173
457260
2000
Esa es una visión asombrosa.
07:39
I mean, think about that. How grand. How ambitious.
174
459260
3000
Quiero decir, piénsenlo. Es magnífico y ambicioso.
07:42
That's as ambitious as we are.
175
462260
2000
Tan ambicioso como nosotros.
07:44
He wants to solve ethics.
176
464260
2000
Él quiere resolver la ética.
07:46
He wants objective truths.
177
466260
2000
Quiere verdades objetivas.
07:48
If you think that way,
178
468260
3000
Si piensas de esa forma,
07:51
you have a Platonist moral framework.
179
471260
3000
tienes un sistema moral platónico.
07:54
If you don't think that way,
180
474260
2000
Si no piensas de esa forma,
07:56
well, you have a lot of company in the history of Western philosophy,
181
476260
2000
bien, tienes mucha compañía en la historia de la filosofía occidental,
07:58
because the tidy idea, you know, people criticized it.
182
478260
3000
porque, ya saben, esta linda idea fue criticada.
08:01
Aristotle, in particular, he was not amused.
183
481260
3000
Aristóteles, en particular, no la compartía.
08:04
He thought it was impractical.
184
484260
3000
Le resultaba poco práctico.
08:07
Aristotle said, "We should seek only so much precision in each subject
185
487260
4000
Aristóteles dijo: "En cada asunto solo debemos buscar el nivel de precisión
08:11
as that subject allows."
186
491260
2000
que ese asunto permite".
08:13
Aristotle thought ethics wasn't a lot like math.
187
493260
3000
Aristóteles pensaba que la ética no era como la matemática.
08:16
He thought ethics was a matter of making decisions in the here-and-now
188
496260
3000
Él pensaba que la ética es una cuestión de tomar decisiones aquí y ahora
08:19
using our best judgment
189
499260
2000
usando nuestro mejor juicio
08:21
to find the right path.
190
501260
2000
para encontrar el camino correcto.
08:23
If you think that, Plato's not your guy.
191
503260
2000
Si piensan eso, Platón no es la persona a seguir.
08:25
But don't give up.
192
505260
2000
Pero no se rindan.
08:27
Maybe there's another way
193
507260
2000
Tal vez hay otra manera
08:29
that we can use numbers as the basis of our moral framework.
194
509260
3000
de usar los números como base de nuestro sistema moral.
08:33
How about this:
195
513260
2000
¿Qué tal si
08:35
What if in any situation you could just calculate,
196
515260
3000
ante cada situación simplemente pudieran calcular,
08:38
look at the choices,
197
518260
2000
mirar las opciones,
08:40
measure out which one's better and know what to do?
198
520260
3000
medir cuál es mejor y saber qué hacer?
08:43
That sound familiar?
199
523260
2000
¿Les suena familiar?
08:45
That's a utilitarian moral framework.
200
525260
3000
Ese es un sistema moral utilitarista.
08:48
John Stuart Mill was a great advocate of this --
201
528260
2000
John Stuart Mill fue un gran defensor de esto --
08:50
nice guy besides --
202
530260
2000
además de un tipo genial --
08:52
and only been dead 200 years.
203
532260
2000
y murió hace solo 200 años.
08:54
So basis of utilitarianism --
204
534260
2000
Así, la base del utilitarismo --
08:56
I'm sure you're familiar at least.
205
536260
2000
Seguro que al menos están familiarizados.
08:58
The three people who voted for Mill before are familiar with this.
206
538260
2000
Las 3 personas que votaron por Mill antes están familiarizados con esto.
09:00
But here's the way it works.
207
540260
2000
Esto es así:
09:02
What if morals, what if what makes something moral
208
542260
3000
¿Qué pasa si la moral, lo que hace que algo sea moral,
09:05
is just a matter of if it maximizes pleasure
209
545260
2000
es solo una cuestión de maximizar el placer
09:07
and minimizes pain?
210
547260
2000
y minimizar el dolor?
09:09
It does something intrinsic to the act.
211
549260
3000
Se trata de algo intrínseco al acto.
09:12
It's not like its relation to some abstract form.
212
552260
2000
No se trata de una relación con alguna forma abstracta.
09:14
It's just a matter of the consequences.
213
554260
2000
Es sólo una cuestión de consecuencias.
09:16
You just look at the consequences
214
556260
2000
Buscamos sólo en las consecuencias
09:18
and see if, overall, it's for the good or for the worse.
215
558260
2000
y vemos si en el todo, son positivas o negativas.
09:20
That would be simple. Then we know what to do.
216
560260
2000
Eso sería simple. Entonces sabríamos que hacer.
09:22
Let's take an example.
217
562260
2000
Pongamos un ejemplo.
09:24
Suppose I go up
218
564260
2000
Supongamos que voy
09:26
and I say, "I'm going to take your phone."
219
566260
2000
y digo, "Voy a tomar tu teléfono".
09:28
Not just because it rang earlier,
220
568260
2000
No sólo porque sonó antes,
09:30
but I'm going to take it because I made a little calculation.
221
570260
3000
sino que lo voy a tomar porque hice un pequeño cálculo.
09:33
I thought, that guy looks suspicious.
222
573260
3000
Pensé, ese tipo parece sospechoso.
09:36
And what if he's been sending little messages to Bin Laden's hideout --
223
576260
3000
Y qué tal si ha estado enviando mensajes a la guarida de Bin Laden --
09:39
or whoever took over after Bin Laden --
224
579260
2000
o quien haya reemplazado a Bin Laden -
09:41
and he's actually like a terrorist, a sleeper cell.
225
581260
3000
Y en realidad es un terrorista, una célula latente.
09:44
I'm going to find that out, and when I find that out,
226
584260
3000
Voy a averiguarlo, y cuando lo descubra,
09:47
I'm going to prevent a huge amount of damage that he could cause.
227
587260
3000
voy a evitar el enorme daño que podría causar.
09:50
That has a very high utility to prevent that damage.
228
590260
3000
Eso va a ser muy útil para evitar ese daño.
09:53
And compared to the little pain that it's going to cause --
229
593260
2000
Y comparado con el pequeño dolor que va a causar --
09:55
because it's going to be embarrassing when I'm looking on his phone
230
595260
2000
porque va a ser vergonzoso cuando vea su teléfono móvil
09:57
and seeing that he has a Farmville problem and that whole bit --
231
597260
3000
y vea que tiene un problema con Farmville y todo lo demás -
10:00
that's overwhelmed
232
600260
3000
eso es minimizado
10:03
by the value of looking at the phone.
233
603260
2000
por el valor de mirar su teléfono.
10:05
If you feel that way,
234
605260
2000
Si consideran ese camino,
10:07
that's a utilitarian choice.
235
607260
3000
esa es una opción utilitarista.
10:10
But maybe you don't feel that way either.
236
610260
3000
Pero tal vez tampoco consideren esa opción.
10:13
Maybe you think, it's his phone.
237
613260
2000
Tal vez piensen, es su teléfono.
10:15
It's wrong to take his phone
238
615260
2000
No está bien tomar su teléfono,
10:17
because he's a person
239
617260
2000
porque él es una persona
10:19
and he has rights and he has dignity,
240
619260
2000
y tiene derechos y dignidad,
10:21
and we can't just interfere with that.
241
621260
2000
y simplemente no podemos interferir en eso.
10:23
He has autonomy.
242
623260
2000
Él tiene autonomía.
10:25
It doesn't matter what the calculations are.
243
625260
2000
No importa cuáles sean los cálculos.
10:27
There are things that are intrinsically wrong --
244
627260
3000
Hay cosas que intrínsecamente están mal --
10:30
like lying is wrong,
245
630260
2000
como mentir está mal.
10:32
like torturing innocent children is wrong.
246
632260
3000
torturar a niños inocentes está mal.
10:35
Kant was very good on this point,
247
635260
3000
Kant era muy bueno en este punto,
10:38
and he said it a little better than I'll say it.
248
638260
2000
y planteaba esto un poco mejor de lo que yo lo haré.
10:40
He said we should use our reason
249
640260
2000
Decía que deberíamos usar nuestro razonamiento
10:42
to figure out the rules by which we should guide our conduct,
250
642260
3000
para decidir las reglas que deberían guiar nuestra conducta.
10:45
and then it is our duty to follow those rules.
251
645260
3000
Y luego es nuestro deber seguir esas reglas.
10:48
It's not a matter of calculation.
252
648260
3000
No es una cuestión de cálculos.
10:51
So let's stop.
253
651260
2000
Así que detengámonos.
10:53
We're right in the thick of it, this philosophical thicket.
254
653260
3000
Estamos justo en el centro de esta maraña filosófica.
10:56
And this goes on for thousands of years,
255
656260
3000
Esto continuó durante miles de años,
10:59
because these are hard questions,
256
659260
2000
porque son preguntas difíciles,
11:01
and I've only got 15 minutes.
257
661260
2000
y solo tengo 15 minutos.
11:03
So let's cut to the chase.
258
663260
2000
Por lo tanto, vamos directo al grano.
11:05
How should we be making our decisions?
259
665260
4000
¿Cómo debemos tomar nuestras decisiones?
11:09
Is it Plato, is it Aristotle, is it Kant, is it Mill?
260
669260
3000
¿De acuerdo a Platón, a Aristóteles, a Kant, a Mill?
11:12
What should we be doing? What's the answer?
261
672260
2000
¿Qué debemos hacer? ¿Cuál es la respuesta?
11:14
What's the formula that we can use in any situation
262
674260
3000
¿Cuál es la fórmula que podemos usar en cualquier situación
11:17
to determine what we should do,
263
677260
2000
para determinar qué debemos hacer,
11:19
whether we should use that guy's data or not?
264
679260
2000
sea que debamos o no usar la información de ese hombre?
11:21
What's the formula?
265
681260
3000
¿Cuál es la fórmula?
11:25
There's not a formula.
266
685260
2000
No hay fórmula.
11:29
There's not a simple answer.
267
689260
2000
No hay una respuesta simple.
11:31
Ethics is hard.
268
691260
3000
La ética es algo difícil.
11:34
Ethics requires thinking.
269
694260
3000
Requiere reflexión.
11:38
And that's uncomfortable.
270
698260
2000
Y eso es incómodo.
11:40
I know; I spent a lot of my career
271
700260
2000
Lo sé; pasé gran parte de mi carrera
11:42
in artificial intelligence,
272
702260
2000
en inteligencia artificial,
11:44
trying to build machines that could do some of this thinking for us,
273
704260
3000
tratando de construir máquinas que pudiesen pensar algunas de estas cuestiones por nosotros,
11:47
that could give us answers.
274
707260
2000
que pudiesen darnos respuestas.
11:49
But they can't.
275
709260
2000
Pero ellas no pueden.
11:51
You can't just take human thinking
276
711260
2000
No se puede tomar el pensamiento humano
11:53
and put it into a machine.
277
713260
2000
y ponerlo dentro de una máquina.
11:55
We're the ones who have to do it.
278
715260
3000
Somos nosotros quienes debemos hacerlo.
11:58
Happily, we're not machines, and we can do it.
279
718260
3000
Felizmente, no somos máquinas y podemos hacerlo.
12:01
Not only can we think,
280
721260
2000
Y no sólo podemos pensar,
12:03
we must.
281
723260
2000
debemos hacerlo.
12:05
Hannah Arendt said,
282
725260
2000
Hannah Arendt dijo:
12:07
"The sad truth
283
727260
2000
"La triste verdad
12:09
is that most evil done in this world
284
729260
2000
es que el mayor daño hecho en este mundo
12:11
is not done by people
285
731260
2000
no lo causan las personas
12:13
who choose to be evil.
286
733260
2000
que eligen ser malas.
12:15
It arises from not thinking."
287
735260
3000
Surge de la falta de pensamiento".
12:18
That's what she called the "banality of evil."
288
738260
4000
Es lo que ella llamaba la "banalidad del mal".
12:22
And the response to that
289
742260
2000
Y la respuesta a eso
12:24
is that we demand the exercise of thinking
290
744260
2000
es que demandamos el ejercicio del pensamiento
12:26
from every sane person.
291
746260
3000
de cada persona sana.
12:29
So let's do that. Let's think.
292
749260
2000
Así que hagámoslo. Pensemos.
12:31
In fact, let's start right now.
293
751260
3000
De hecho, empecemos ahora mismo.
12:34
Every person in this room do this:
294
754260
3000
Cada persona de esta sala haga esto:
12:37
think of the last time you had a decision to make
295
757260
3000
piensen en la última vez que tuvieron que tomar una decisión
12:40
where you were worried to do the right thing,
296
760260
2000
donde estuvieron preocupados por hacer lo correcto,
12:42
where you wondered, "What should I be doing?"
297
762260
2000
donde se preguntaron, "¿Qué debo hacer?"
12:44
Bring that to mind,
298
764260
2000
Recuerden ese momento.
12:46
and now reflect on that
299
766260
2000
Y ahora reflexionen en eso
12:48
and say, "How did I come up that decision?
300
768260
3000
y digan: "¿Cómo llegué a esa decisión?
12:51
What did I do? Did I follow my gut?
301
771260
3000
¿Qué hice? ¿Seguí mi intuición?
12:54
Did I have somebody vote on it? Or did I punt to legal?"
302
774260
2000
¿Pedí la votación de alguien? ¿Pedí opinión legal?"
12:56
Or now we have a few more choices.
303
776260
3000
O, ahora, tenemos algunas opciones más.
12:59
"Did I evaluate what would be the highest pleasure
304
779260
2000
"¿Evalué cuál sería el mayor de los placeres
13:01
like Mill would?
305
781260
2000
como lo haría Mill?
13:03
Or like Kant, did I use reason to figure out what was intrinsically right?"
306
783260
3000
O al igual que Kant, ¿usé la razón para decidir qué era intrínsecamente correcto?"
13:06
Think about it. Really bring it to mind. This is important.
307
786260
3000
Piensen en esto. Recuerden. Esto es importante.
13:09
It is so important
308
789260
2000
Es tan importante
13:11
we are going to spend 30 seconds of valuable TEDTalk time
309
791260
2000
que vamos a usar 30 segundos del valioso tiempo de TED
13:13
doing nothing but thinking about this.
310
793260
2000
nada más que para pensar en esto.
13:15
Are you ready? Go.
311
795260
2000
¿Están listos? Vamos.
13:33
Stop. Good work.
312
813260
3000
Paren. Buen trabajo.
13:36
What you just did,
313
816260
2000
Lo que acaban de hacer,
13:38
that's the first step towards taking responsibility
314
818260
2000
es el primer paso en el sentido de asumir responsabilidad
13:40
for what we should do with all of our power.
315
820260
3000
por lo que debemos hacer con todo nuestro poder.
13:45
Now the next step -- try this.
316
825260
3000
Ahora el siguiente paso -- prueben esto.
13:49
Go find a friend and explain to them
317
829260
2000
Busquen un amigo y explíquenle
13:51
how you made that decision.
318
831260
2000
cómo tomaron esa decisión.
13:53
Not right now. Wait till I finish talking.
319
833260
2000
Ahora no. Esperen el final de la charla.
13:55
Do it over lunch.
320
835260
2000
Durante el almuerzo.
13:57
And don't just find another technologist friend;
321
837260
3000
Y no lo hagan con otro amigo tecnólogo;
14:00
find somebody different than you.
322
840260
2000
encuentren alguien diferente a ustedes.
14:02
Find an artist or a writer --
323
842260
2000
Encuentren un artista o un escritor --
14:04
or, heaven forbid, find a philosopher and talk to them.
324
844260
3000
o, Dios nos libre, encuentren un filósofo y hablen con ellos.
14:07
In fact, find somebody from the humanities.
325
847260
2000
De hecho, encuentren alguien de las humanidades.
14:09
Why? Because they think about problems
326
849260
2000
¿Por qué? Porque ellos piensan en los problemas
14:11
differently than we do as technologists.
327
851260
2000
de forma diferente a como lo hacemos los tecnólogos.
14:13
Just a few days ago, right across the street from here,
328
853260
3000
Hace unos días, aquí en frente, al otro lado de la calle,
14:16
there was hundreds of people gathered together.
329
856260
2000
había cientos de personas reunidas.
14:18
It was technologists and humanists
330
858260
2000
Eran tecnólogos y humanistas
14:20
at that big BiblioTech Conference.
331
860260
2000
en una conferencias sobre Bibliotecas Tecnológicas.
14:22
And they gathered together
332
862260
2000
Y ellos se reunieron
14:24
because the technologists wanted to learn
333
864260
2000
porque los tecnólogos querían aprender
14:26
what it would be like to think from a humanities perspective.
334
866260
3000
cómo era pensar desde una perspectiva humanista.
14:29
You have someone from Google
335
869260
2000
Hay alguien de Google
14:31
talking to someone who does comparative literature.
336
871260
2000
hablando con alguien que hace literatura comparada.
14:33
You're thinking about the relevance of 17th century French theater --
337
873260
3000
Están pensando sobre la relevancia del teatro francés del siglo XVII --
14:36
how does that bear upon venture capital?
338
876260
2000
¿cómo se relaciona eso con el capital de riesgo?
14:38
Well that's interesting. That's a different way of thinking.
339
878260
3000
Bien eso es interesante. Es una forma de pensar diferente.
14:41
And when you think in that way,
340
881260
2000
Y cuando piensan de esa forma,
14:43
you become more sensitive to the human considerations,
341
883260
3000
se vuelven más sensibles a las cuestionas humanas,
14:46
which are crucial to making ethical decisions.
342
886260
3000
lo cual es crucial para tomar decisiones éticas.
14:49
So imagine that right now
343
889260
2000
Entonces, imaginen que ahora mismo
14:51
you went and you found your musician friend.
344
891260
2000
van y encuentran a su amigo músico.
14:53
And you're telling him what we're talking about,
345
893260
3000
Y le cuentan lo que estuvimos hablando,
14:56
about our whole data revolution and all this --
346
896260
2000
sobre la revolución de la información y todo eso --
14:58
maybe even hum a few bars of our theme music.
347
898260
2000
incluso tarareando algunas partes de nuestro tema:
15:00
♫ Dum ta da da dum dum ta da da dum ♫
348
900260
3000
♫ Dum ta da da dum dum ta da da dum ♫
15:03
Well, your musician friend will stop you and say,
349
903260
2000
Bueno, su amigo músico los detendrá y dirá:
15:05
"You know, the theme music
350
905260
2000
"Sabes, la música de fondo
15:07
for your data revolution,
351
907260
2000
para tu revolución de la información,
15:09
that's an opera, that's Wagner.
352
909260
2000
es una ópera, es Wagner.
15:11
It's based on Norse legend.
353
911260
2000
Se basa en la mitología nórdica.
15:13
It's Gods and mythical creatures
354
913260
2000
Son dioses y criaturas míticas
15:15
fighting over magical jewelry."
355
915260
3000
luchando por joyas mágicas".
15:19
That's interesting.
356
919260
3000
Eso es interesante.
15:22
Now it's also a beautiful opera,
357
922260
3000
También es una ópera hermosa.
15:25
and we're moved by that opera.
358
925260
3000
Y esa ópera nos emociona.
15:28
We're moved because it's about the battle
359
928260
2000
Nos emociona porque es sobre la lucha
15:30
between good and evil,
360
930260
2000
entre el bien y el mal,
15:32
about right and wrong.
361
932260
2000
sobre lo correcto y lo incorrecto.
15:34
And we care about right and wrong.
362
934260
2000
Y nos importa lo que lo correcto y lo incorrecto.
15:36
We care what happens in that opera.
363
936260
3000
Nos importa lo que pasa en la ópera.
15:39
We care what happens in "Apocalypse Now."
364
939260
3000
Nos importa lo que pasa en "Apocalipsis Now".
15:42
And we certainly care
365
942260
2000
Y sin duda que nos importa
15:44
what happens with our technologies.
366
944260
2000
lo que pasa con nuestras tecnologías.
15:46
We have so much power today,
367
946260
2000
Hoy tenemos mucho poder,
15:48
it is up to us to figure out what to do,
368
948260
3000
depende de nosotros decidir qué hacer.
15:51
and that's the good news.
369
951260
2000
Y esa es la buena noticia.
15:53
We're the ones writing this opera.
370
953260
3000
Somos nosotros los que escribimos esta ópera.
15:56
This is our movie.
371
956260
2000
Es nuestra película.
15:58
We figure out what will happen with this technology.
372
958260
3000
Nosotros decidimos lo que pasará con esta tecnología.
16:01
We determine how this will all end.
373
961260
3000
Nosotros determinamos cómo terminará todo esto.
16:04
Thank you.
374
964260
2000
Gracias.
16:06
(Applause)
375
966260
5000
(Aplausos)
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7