What will a future without secrets look like? | Alessandro Acquisti

Alessandro Acquisti: La importancia de la privacidad

202,332 views

2013-10-18 ・ TED


New videos

What will a future without secrets look like? | Alessandro Acquisti

Alessandro Acquisti: La importancia de la privacidad

202,332 views ・ 2013-10-18

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Sebastian Betti Revisor: Carlos Arturo Morales
00:12
I would like to tell you a story
0
12641
2354
Quiero contarles una historia
00:14
connecting the notorious privacy incident
1
14995
3176
que conecta el célebre incidente de privacidad
00:18
involving Adam and Eve,
2
18171
2769
que involucró a Adán y Eva,
00:20
and the remarkable shift in the boundaries
3
20940
3446
y el cambio notorio de los límites
00:24
between public and private which has occurred
4
24386
2686
entre lo público y lo privado
00:27
in the past 10 years.
5
27072
1770
ocurrido en los últimos 10 años.
00:28
You know the incident.
6
28842
1298
Ya conocen el incidente.
00:30
Adam and Eve one day in the Garden of Eden
7
30140
3330
Adán y Eva, un día en el Jardín del Edén,
00:33
realize they are naked.
8
33470
1843
se dan cuenta de que están desnudos.
00:35
They freak out.
9
35313
1500
Se asustan.
00:36
And the rest is history.
10
36813
2757
Y el resto es historia.
00:39
Nowadays, Adam and Eve
11
39570
2188
Hoy en día, Adán y Eva
00:41
would probably act differently.
12
41758
2361
probablemente actuarían diferente.
00:44
[@Adam Last nite was a blast! loved dat apple LOL]
13
44119
2268
[@Adan ¡Lo de anoche fue genial! Me encantó la manzana LOL] (Risas)
00:46
[@Eve yep.. babe, know what happened to my pants tho?]
14
46387
1873
(Risas) [@Eva Sip... bebé, ¿sabes qué le pasó a mis pantalones?]
00:48
We do reveal so much more information
15
48260
2636
Revelamos mucha más información
00:50
about ourselves online than ever before,
16
50896
3334
personal en línea que nunca antes,
00:54
and so much information about us
17
54230
1704
y las empresas recolectan mucha más
00:55
is being collected by organizations.
18
55934
2224
información sobre nosotros.
00:58
Now there is much to gain and benefit
19
58158
3282
Podemos ganar mucho y beneficiarnos
01:01
from this massive analysis of personal information,
20
61440
2446
del análisis masivo de esta información personal,
01:03
or big data,
21
63886
1946
o "big data",
01:05
but there are also complex tradeoffs that come
22
65832
2638
pero también hay un precio grande que pagar en términos de privacidad,
[Salí por una pizza] [Mis amigos y la NSA]
01:08
from giving away our privacy.
23
68470
3098
en contraprestación.
01:11
And my story is about these tradeoffs.
24
71568
4023
Mi historia trata de esas contraprestaciones.
01:15
We start with an observation which, in my mind,
25
75591
2584
Empecemos con un verdad que, en mi opinión,
01:18
has become clearer and clearer in the past few years,
26
78175
3327
se ha hecho cada vez más evidente en los últimos años:
01:21
that any personal information
27
81502
2097
toda información personal
01:23
can become sensitive information.
28
83599
2285
puede volverse sensible.
01:25
Back in the year 2000, about 100 billion photos
29
85884
4125
En el 2000, se tomaron unos 100 000 millones
01:30
were shot worldwide,
30
90009
1912
de fotos en el mundo,
01:31
but only a minuscule proportion of them
31
91921
3065
pero solo una ínfima parte de ellas
01:34
were actually uploaded online.
32
94986
1883
se subíeron a la Web.
01:36
In 2010, only on Facebook, in a single month,
33
96869
3361
En el 2010, solo en Facebook, en un solo mes,
01:40
2.5 billion photos were uploaded,
34
100230
3270
se subieron 2500 millones de fotos,
01:43
most of them identified.
35
103500
1882
la mayoría identificadas.
01:45
In the same span of time,
36
105382
1880
En el mismo lapso de tiempo,
01:47
computers' ability to recognize people in photos
37
107262
4870
la capacidad de las computadoras para reconocer personas en las fotos
01:52
improved by three orders of magnitude.
38
112132
3608
mejoró en tres órdenes de magnitud.
01:55
What happens when you combine
39
115740
1882
¿Qué ocurre cuando uno combina
01:57
these technologies together:
40
117622
1501
estas tecnologías:
01:59
increasing availability of facial data;
41
119123
2658
aumento de la disponibilidad de datos faciales;
02:01
improving facial recognizing ability by computers;
42
121781
3648
mejora en el reconocimiento facial informático;
02:05
but also cloud computing,
43
125429
2182
y también la computación en la nube,
02:07
which gives anyone in this theater
44
127611
1888
que nos da a todos los presentes en la sala
02:09
the kind of computational power
45
129499
1560
el poder computacional
02:11
which a few years ago was only the domain
46
131059
1886
que hace unos años estaba disponible
02:12
of three-letter agencies;
47
132945
1782
solo para agencias gubernamentales;
02:14
and ubiquitous computing,
48
134727
1378
y la computación ubicua,
02:16
which allows my phone, which is not a supercomputer,
49
136105
2892
que le permite a mi móvil, que no es una supercomputadora,
02:18
to connect to the Internet
50
138997
1671
conectarse a Internet
02:20
and do there hundreds of thousands
51
140668
2334
y tomar allí cientos de miles
02:23
of face metrics in a few seconds?
52
143002
2639
de medidas faciales en unos pocos segundos?
02:25
Well, we conjecture that the result
53
145641
2628
Bueno, pensamos que el resultado
02:28
of this combination of technologies
54
148269
2064
de esta combinación de tecnologías
02:30
will be a radical change in our very notions
55
150333
2888
será un cambio radical en nuestras nociones
02:33
of privacy and anonymity.
56
153221
2257
de privacidad y anonimato.
02:35
To test that, we did an experiment
57
155478
1993
Para comprobalo hicimos un experimento
02:37
on Carnegie Mellon University campus.
58
157471
2121
en el campus del Carnegie Mellon.
02:39
We asked students who were walking by
59
159592
2099
Le pedimos a los estudiantes que pasaban por allí
02:41
to participate in a study,
60
161691
1779
que participaran en un estudio,
02:43
and we took a shot with a webcam,
61
163470
2562
les tomamos una foto con una cámara web
02:46
and we asked them to fill out a survey on a laptop.
62
166032
2782
y les pedimos que completaran una encuesta en el portátil.
02:48
While they were filling out the survey,
63
168814
1979
Mientras completaban la encuesta,
02:50
we uploaded their shot to a cloud-computing cluster,
64
170793
2797
subimos la foto a un clúster de computación en la nube,
02:53
and we started using a facial recognizer
65
173590
1727
y usamos un reconocedor facial
02:55
to match that shot to a database
66
175317
2405
para cotejar esa foto con una base de datos
02:57
of some hundreds of thousands of images
67
177722
2393
de cientos de miles de imágenes
03:00
which we had downloaded from Facebook profiles.
68
180115
3596
que habíamos bajado de perfiles de Facebook.
03:03
By the time the subject reached the last page
69
183711
3259
Para cuando el sujeto llegaba al final
03:06
on the survey, the page had been dynamically updated
70
186970
3347
de la encuesta, la página se había actualizado en forma dinámica
03:10
with the 10 best matching photos
71
190317
2313
con las 10 fotos encontradas por el reconocedor
03:12
which the recognizer had found,
72
192630
2285
que mejor concordaban,
03:14
and we asked the subjects to indicate
73
194915
1738
y le pedímos al sujeto que indicara
03:16
whether he or she found themselves in the photo.
74
196653
4120
si se encontraba en la foto.
03:20
Do you see the subject?
75
200773
3699
¿Ven al sujeto?
03:24
Well, the computer did, and in fact did so
76
204472
2845
Bueno, la computadora sí, y de hecho,
03:27
for one out of three subjects.
77
207317
2149
reconoció 1 de cada 3 sujetos.
03:29
So essentially, we can start from an anonymous face,
78
209466
3184
En esencia, podemos partir de un rostro anónimo,
03:32
offline or online, and we can use facial recognition
79
212650
3484
en disco o en la web, y usar el reconocimiento facial
03:36
to give a name to that anonymous face
80
216134
2360
para ponerle nombre a ese rostro anónimo
03:38
thanks to social media data.
81
218494
2108
gracias a las redes sociales.
03:40
But a few years back, we did something else.
82
220602
1872
Pero hace unos años hicimos algo más.
03:42
We started from social media data,
83
222474
1823
Partimos de datos de redes sociales,
03:44
we combined it statistically with data
84
224297
3051
los combinamos estadísticamente con datos
03:47
from U.S. government social security,
85
227348
2102
de la seguridad social del gobierno de EE.UU.
03:49
and we ended up predicting social security numbers,
86
229450
3324
y terminamos prediciendo los números de la seguridad social,
03:52
which in the United States
87
232774
1512
que en Estados Unidos
03:54
are extremely sensitive information.
88
234286
2040
son una información extremadamente sensible.
03:56
Do you see where I'm going with this?
89
236326
2093
¿Ven a dónde quiero llegar con esto?
03:58
So if you combine the two studies together,
90
238419
2922
Si combinan los dos estudios,
04:01
then the question becomes,
91
241341
1512
entonces la pregunta pasa a ser:
04:02
can you start from a face and,
92
242853
2720
¿Podemos partir de un rostro
04:05
using facial recognition, find a name
93
245573
2311
y mediante reconocimiento facial, hallar un nombre
04:07
and publicly available information
94
247884
2669
e información pública
04:10
about that name and that person,
95
250553
1932
sobre ese nombre y esa persona,
04:12
and from that publicly available information
96
252485
2248
y a partir de esa información pública
04:14
infer non-publicly available information,
97
254733
2042
inferir información no pública,
04:16
much more sensitive ones
98
256775
1606
mucho más sensible,
04:18
which you link back to the face?
99
258381
1492
para luego asociarla a aquel rostro?
04:19
And the answer is, yes, we can, and we did.
100
259873
1916
La respuesta es sí se puede, y lo hicimos.
04:21
Of course, the accuracy keeps getting worse.
101
261789
2568
Por supuesto, la precisión va desmejorando a cada paso.
04:24
[27% of subjects' first 5 SSN digits identified (with 4 attempts)]
102
264357
944
[Se identificó el 27% de los 5 primeros dígitos del SSN de los sujetos (con 4 intentos)]
04:25
But in fact, we even decided to develop an iPhone app
103
265301
3827
Decidimos incluso, desarrollar una app para iPhone,
04:29
which uses the phone's internal camera
104
269128
2715
que usa la cámara interna del móvil
04:31
to take a shot of a subject
105
271843
1600
para tomar una foto del sujeto
04:33
and then upload it to a cloud
106
273443
1487
y subirla a la nube,
04:34
and then do what I just described to you in real time:
107
274930
2662
y luego hacer lo que les describí en tiempo real:
04:37
looking for a match, finding public information,
108
277592
2088
cotejarla, encontrar información pública,
04:39
trying to infer sensitive information,
109
279680
1730
tratar de inferir información sensible,
04:41
and then sending back to the phone
110
281410
2591
y luego enviarla nuevamente al móvil
04:44
so that it is overlaid on the face of the subject,
111
284001
3609
para ser superpuesta en el rostro del sujeto,
04:47
an example of augmented reality,
112
287610
1901
un ejemplo de realidad aumentada,
04:49
probably a creepy example of augmented reality.
113
289511
2451
quizá un ejemplo escalofriante de realidad aumentada.
04:51
In fact, we didn't develop the app to make it available,
114
291962
3339
De hecho, no desarrollamos la app para que estuviera disponible,
04:55
just as a proof of concept.
115
295301
1922
sino como una prueba de concepto.
04:57
In fact, take these technologies
116
297223
2313
Incluso tomamos estas tecnologías
04:59
and push them to their logical extreme.
117
299536
1837
y las llevamos al extremo lógico.
05:01
Imagine a future in which strangers around you
118
301373
2719
Imaginen un futuro en el que los extraños que los rodeen
05:04
will look at you through their Google Glasses
119
304092
2311
los miren con sus gafas Google
05:06
or, one day, their contact lenses,
120
306403
2307
o, algún día, con sus lentes de contacto,
05:08
and use seven or eight data points about you
121
308710
4020
y usen 7 o 8 datos de ustedes
05:12
to infer anything else
122
312730
2582
para inferir todo lo demás
05:15
which may be known about you.
123
315312
2603
que pueda saberse.
05:17
What will this future without secrets look like?
124
317915
4794
¿Cómo será ese futuro sin secretos?
05:22
And should we care?
125
322709
1964
¿Debería importarnos?
05:24
We may like to believe
126
324673
1891
Nos gustaría creer
05:26
that the future with so much wealth of data
127
326564
3040
que un futuro con tanta riqueza de datos
05:29
would be a future with no more biases,
128
329604
2514
sería un futuro sin más prejuicios,
05:32
but in fact, having so much information
129
332118
3583
pero, de hecho, contar con tanta información
05:35
doesn't mean that we will make decisions
130
335701
2191
no significa que tomaremos decisiones
05:37
which are more objective.
131
337892
1706
más objetivas.
05:39
In another experiment, we presented to our subjects
132
339598
2560
En otro experimento, presentamos a nuestros sujetos
05:42
information about a potential job candidate.
133
342158
2246
información sobre un potencial candidato laboral.
05:44
We included in this information some references
134
344404
3178
incluimos algunas referencias
05:47
to some funny, absolutely legal,
135
347582
2646
a cierta información totalmente legal,
05:50
but perhaps slightly embarrassing information
136
350228
2465
divertida pero un poco embarazosa,
05:52
that the subject had posted online.
137
352693
2020
que el candidato había publicado en línea.
05:54
Now interestingly, among our subjects,
138
354713
2366
Curiosamente, entre nuestros sujetos
05:57
some had posted comparable information,
139
357079
3083
algunos habían publicado información similar
06:00
and some had not.
140
360162
2362
y otros no.
06:02
Which group do you think
141
362524
1949
¿Qué grupo ceeen
06:04
was more likely to judge harshly our subject?
142
364473
4552
que mostró propensión a juzgar con más severidad a nuestro sujeto?
06:09
Paradoxically, it was the group
143
369025
1957
Paradójicamente, fue el grupo
06:10
who had posted similar information,
144
370982
1733
que había publicado información similar,
06:12
an example of moral dissonance.
145
372715
2942
un ejemplo de disonancia moral.
06:15
Now you may be thinking,
146
375657
1750
Quizá estén pensando
06:17
this does not apply to me,
147
377407
1702
que eso no los afecta a Uds.
06:19
because I have nothing to hide.
148
379109
2162
porque no tienen nada que ocultar.
06:21
But in fact, privacy is not about
149
381271
2482
Pero, de hecho, la privacidad no tiene que ver
06:23
having something negative to hide.
150
383753
3676
con tener algo negativo que ocultar.
06:27
Imagine that you are the H.R. director
151
387429
2354
Imaginen que son el director de RR.HH.
06:29
of a certain organization, and you receive résumés,
152
389783
2947
de cierta empresa, que reciben unas hojas de vida
06:32
and you decide to find more information about the candidates.
153
392730
2473
y deciden buscar más información sobre los candidatos.
06:35
Therefore, you Google their names
154
395203
2460
Entonces, googlean sus nombres
06:37
and in a certain universe,
155
397663
2240
y en determinado universo
06:39
you find this information.
156
399903
2008
encuentran esta información--
06:41
Or in a parallel universe, you find this information.
157
401911
4437
O en un universo paralelo, encuentran esta información.
06:46
Do you think that you would be equally likely
158
406348
2717
¿Creen que todos los candidatos tendrían con Uds.
06:49
to call either candidate for an interview?
159
409065
2803
la misma oportunidad de ser llamados para una entrevista?
06:51
If you think so, then you are not
160
411868
2282
Si piensan que sí, entonces no son
06:54
like the U.S. employers who are, in fact,
161
414150
2582
como los empleadores de EE.UU. ya que, de hecho,
06:56
part of our experiment, meaning we did exactly that.
162
416732
3307
en algún punto de nuestro experimento hicimos exactamente eso.
07:00
We created Facebook profiles, manipulating traits,
163
420039
3182
Creamos perfiles de Facebook, manipulamos los rasgos,
07:03
then we started sending out résumés to companies in the U.S.,
164
423221
2851
y luego empezamos a enviar hojas de vida a empresas en EE.UU.,
07:06
and we detected, we monitored,
165
426072
1908
y detectamos, monitoreamos,
07:07
whether they were searching for our candidates,
166
427980
2393
si estaban buscando información de nuestros candidatos,
07:10
and whether they were acting on the information
167
430373
1832
y si actuaban con base en la información
07:12
they found on social media. And they were.
168
432205
1938
que encontraban en los medios sociales. Y lo hicieron.
07:14
Discrimination was happening through social media
169
434143
2101
Se discriminó con base en los medios sociales
07:16
for equally skilled candidates.
170
436244
3073
a candidatos con iguales habilidades.
07:19
Now marketers like us to believe
171
439317
4575
Los vendedores quieren que creamos
07:23
that all information about us will always
172
443892
2269
que toda la información sobre nosotros siempre
07:26
be used in a manner which is in our favor.
173
446161
3273
será usada a nuestro favor.
07:29
But think again. Why should that be always the case?
174
449434
3715
Pero piensen de nuevo. ¿Por qué habría de ser siempre así?
07:33
In a movie which came out a few years ago,
175
453149
2664
En una película de hace unos años,
07:35
"Minority Report," a famous scene
176
455813
2553
"Minority Report", en una escena famosa
07:38
had Tom Cruise walk in a mall
177
458366
2576
Tom Cruise camina por un centro comercial
07:40
and holographic personalized advertising
178
460942
3776
rodeado de publicidad
07:44
would appear around him.
179
464718
1835
holográfica personalizada.
07:46
Now, that movie is set in 2054,
180
466553
3227
La película transcurre en el 2054,
07:49
about 40 years from now,
181
469780
1642
dentro de unos 40 años,
07:51
and as exciting as that technology looks,
182
471422
2908
y aunque la tecnología luce emocionante,
07:54
it already vastly underestimates
183
474330
2646
subestima en mucho
07:56
the amount of information that organizations
184
476976
2140
la cantidad de información que las organizaciones
07:59
can gather about you, and how they can use it
185
479116
2483
pueden recolectar sobre nosotros, y la forma de usarla
08:01
to influence you in a way that you will not even detect.
186
481599
3398
para influir en nosotros de maneras imperceptibles.
08:04
So as an example, this is another experiment
187
484997
2103
Como ejemplo, está este otro experimento
08:07
actually we are running, not yet completed.
188
487100
2273
que estamos haciendo y que todavía no terminamos.
08:09
Imagine that an organization has access
189
489373
2319
Imaginemos que una organización tiene acceso
08:11
to your list of Facebook friends,
190
491692
2056
a tu lista de amigos de Facebook,
08:13
and through some kind of algorithm
191
493748
1772
y mediante algún tipo de algoritmo
08:15
they can detect the two friends that you like the most.
192
495520
3734
puede identificar sus dos mejores amigos.
08:19
And then they create, in real time,
193
499254
2280
Que luego crean, en tiempo real,
08:21
a facial composite of these two friends.
194
501534
2842
un rostro compuesto de estos dos amigos.
08:24
Now studies prior to ours have shown that people
195
504376
3069
Estudios previos al nuestro han demostrado que las personas
08:27
don't recognize any longer even themselves
196
507445
2885
no se reconocen ni a sí mismas
08:30
in facial composites, but they react
197
510330
2462
en rostros compuestos, pero reaccionan
08:32
to those composites in a positive manner.
198
512792
2117
a esas composiciones de manera positiva.
08:34
So next time you are looking for a certain product,
199
514909
3415
Y entonces, la próxima vez que busquen algún producto
08:38
and there is an ad suggesting you to buy it,
200
518324
2559
y que haya una publicidad sugiriéndoles que lo compren,
08:40
it will not be just a standard spokesperson.
201
520883
2907
no será un vendedor común.
08:43
It will be one of your friends,
202
523790
2313
Será uno de sus amigos,
08:46
and you will not even know that this is happening.
203
526103
3303
y ni siquiera sabrán lo que está pasando.
08:49
Now the problem is that
204
529406
2413
El problema es que
08:51
the current policy mechanisms we have
205
531819
2519
los mecanismos que tenemos en la política acutal
08:54
to protect ourselves from the abuses of personal information
206
534338
3438
para la protección contra los abusos de la información personal
08:57
are like bringing a knife to a gunfight.
207
537776
2984
son como llevar un cuchillo a un tiroteo.
09:00
One of these mechanisms is transparency,
208
540760
2913
Uno de estos mecanismos es la transparencia,
09:03
telling people what you are going to do with their data.
209
543673
3200
decirle a las personas lo que uno va a hacer con sus datos.
09:06
And in principle, that's a very good thing.
210
546873
2106
En principio, eso es algo muy bueno.
09:08
It's necessary, but it is not sufficient.
211
548979
3667
Es necesario, pero no es suficiente.
09:12
Transparency can be misdirected.
212
552646
3698
La transparencia puede estar mal dirigida.
09:16
You can tell people what you are going to do,
213
556344
2104
Uno puede contarle a la gente lo que hará,
09:18
and then you still nudge them to disclose
214
558448
2232
y luego empujarlos a revelar
09:20
arbitrary amounts of personal information.
215
560680
2623
cantidades arbitrarias de información personal.
09:23
So in yet another experiment, this one with students,
216
563303
2886
Por eso en un experimento más, este con estudiantes,
09:26
we asked them to provide information
217
566189
3058
les pedimos que nos dieran información
09:29
about their campus behavior,
218
569247
1813
sobre su comportamiento en el campus,
09:31
including pretty sensitive questions, such as this one.
219
571060
2940
formulándoles preguntas tan sensibles como estas.
09:34
[Have you ever cheated in an exam?]
220
574000
621
09:34
Now to one group of subjects, we told them,
221
574621
2300
[¿Alguna vez te copiaste en un examen?]
A un grupo de sujetos les dijimos:
09:36
"Only other students will see your answers."
222
576921
2841
"Solo otro grupo de estudiantes verá sus respuestas".
09:39
To another group of subjects, we told them,
223
579762
1579
A otro grupo de sujetos les dijimos:
09:41
"Students and faculty will see your answers."
224
581341
3561
"Sus respuestas serán vistas por estudiantes y profesores".
09:44
Transparency. Notification. And sure enough, this worked,
225
584902
2591
Transparencia. Notificación. Y por supuesto, esto funcionó,
09:47
in the sense that the first group of subjects
226
587493
1407
en el sentido de que el primer grupo de sujetos
09:48
were much more likely to disclose than the second.
227
588900
2568
fue mucho más propenso a revelar información que el segundo.
09:51
It makes sense, right?
228
591468
1520
Tiene sentido, ¿no?
09:52
But then we added the misdirection.
229
592988
1490
Pero luego añadimos un distractor.
09:54
We repeated the experiment with the same two groups,
230
594478
2760
Repetimos el experimento con los mismos dos grupos,
09:57
this time adding a delay
231
597238
2427
esta vez añadiendo una demora
09:59
between the time we told subjects
232
599665
2935
entre el tiempo en que le dijimos a los sujetos
10:02
how we would use their data
233
602600
2080
cómo usaríamos sus datos
10:04
and the time we actually started answering the questions.
234
604680
4388
y el tiempo en que empezamos a [formular] las preguntas.
10:09
How long a delay do you think we had to add
235
609068
2561
¿Cuánta demora creen que tuvimos que añadir
10:11
in order to nullify the inhibitory effect
236
611629
4613
para anular el efecto inhibidor
10:16
of knowing that faculty would see your answers?
237
616242
3411
de saber que los profesores verían sus respuestas?
10:19
Ten minutes?
238
619653
1780
¿10 minutos?
10:21
Five minutes?
239
621433
1791
¿5 minutos?
10:23
One minute?
240
623224
1776
¿1 minuto?
10:25
How about 15 seconds?
241
625000
2049
¿Qué tal 15 segundos?
10:27
Fifteen seconds were sufficient to have the two groups
242
627049
2668
Quince segundos fueron suficientes para que ambos grupos
10:29
disclose the same amount of information,
243
629717
1568
revelaran la misma cantidad de información,
10:31
as if the second group now no longer cares
244
631285
2746
como si al segundo grupo no le importara más
10:34
for faculty reading their answers.
245
634031
2656
que los profesores leyeran sus respuestas.
10:36
Now I have to admit that this talk so far
246
636687
3336
Tengo que admitir que esta charla hasta ahora
10:40
may sound exceedingly gloomy,
247
640023
2480
puede sonar en extremo negativa,
10:42
but that is not my point.
248
642503
1721
pero esa no es mi intención.
10:44
In fact, I want to share with you the fact that
249
644224
2699
De hecho, quiero compartir con Uds.
10:46
there are alternatives.
250
646923
1772
las alternativas que hay.
10:48
The way we are doing things now is not the only way
251
648695
2499
La forma en que hacemos las cosas ahora no es la única
10:51
they can done, and certainly not the best way
252
651194
3037
forma de hacerlas, y ciertamente no es la mejor
10:54
they can be done.
253
654231
2027
forma en que pueden ser hechas.
10:56
When someone tells you, "People don't care about privacy,"
254
656258
4171
Cuando alguien les diga: "La gente no se preocupa por la privacidad",
11:00
consider whether the game has been designed
255
660429
2642
piensen si el juego no ha sido diseñado
11:03
and rigged so that they cannot care about privacy,
256
663071
2724
y manipulado para que no se preocupen por la privacidad,
11:05
and coming to the realization that these manipulations occur
257
665795
3262
y cuando concluyamos que que estas manipulaciones ocurren,
11:09
is already halfway through the process
258
669057
1607
ya estaremos a mitad de camino
11:10
of being able to protect yourself.
259
670664
2258
de poder autoprotegernos.
11:12
When someone tells you that privacy is incompatible
260
672922
3710
Si alguien les dice que la privacidad es incompatible
11:16
with the benefits of big data,
261
676632
1849
con los beneficios del "big data",
11:18
consider that in the last 20 years,
262
678481
2473
piensen que en los últimos 20 años,
11:20
researchers have created technologies
263
680954
1917
los investigadores han creado tecnologías
11:22
to allow virtually any electronic transactions
264
682871
3318
que permiten que virtualmente cualquier transacción electrónica
11:26
to take place in a more privacy-preserving manner.
265
686189
3749
se realice en formas más preservadoras de la privacidad.
11:29
We can browse the Internet anonymously.
266
689938
2555
Podemos navegar Internet en forma anónima.
11:32
We can send emails that can only be read
267
692493
2678
Podemos enviar correos electrónicos que solo pueda leer
11:35
by the intended recipient, not even the NSA.
268
695171
3709
el destinatario, y no la NSA [agencia de seguridad].
11:38
We can have even privacy-preserving data mining.
269
698880
2997
Podemos proteger incluso la privacidad de la minería de datos.
11:41
In other words, we can have the benefits of big data
270
701877
3894
En otras palabras, podemos tener los beneficios del "big data"
11:45
while protecting privacy.
271
705771
2132
y proteger la privacidad.
11:47
Of course, these technologies imply a shifting
272
707903
3791
Estas tecnologías, claro está, implican una inversión
11:51
of cost and revenues
273
711694
1546
de la relacón costo- beneficio
11:53
between data holders and data subjects,
274
713240
2107
para los tenedores de los datos,
11:55
which is why, perhaps, you don't hear more about them.
275
715347
3453
razón por la cual, quizá, no escuchamos mucho de ellas.
11:58
Which brings me back to the Garden of Eden.
276
718800
3706
Eso me lleva de vuelta al Jardín del Edén.
12:02
There is a second privacy interpretation
277
722506
2780
Hay una segunda interpretación de la privacidad
12:05
of the story of the Garden of Eden
278
725286
1809
en la historia del Jardín del Edén
12:07
which doesn't have to do with the issue
279
727095
2096
que no tiene que ver con el tema
12:09
of Adam and Eve feeling naked
280
729191
2225
del desnudo de Adán y Eva
12:11
and feeling ashamed.
281
731416
2381
ni con sentir vergüenza.
12:13
You can find echoes of this interpretation
282
733797
2781
Pueden encontrar ecos de esta interpretación
12:16
in John Milton's "Paradise Lost."
283
736578
2782
en "El paraíso perdido" de John Milton.
12:19
In the garden, Adam and Eve are materially content.
284
739360
4197
En el jardín, Adán y Eva están materialmente contentos.
12:23
They're happy. They are satisfied.
285
743557
2104
Están felices. Están satisfechos.
12:25
However, they also lack knowledge
286
745661
2293
No obstante, carecen de conocimiento
12:27
and self-awareness.
287
747954
1640
y de autoconciencia.
12:29
The moment they eat the aptly named
288
749594
3319
En el momento en que comen el bien llamado
12:32
fruit of knowledge,
289
752913
1293
fruto del conocimiento,
12:34
that's when they discover themselves.
290
754206
2605
es cuando se descubren a sí mismos.
12:36
They become aware. They achieve autonomy.
291
756811
4031
Se hacen conscientes. Logran autonomía.
12:40
The price to pay, however, is leaving the garden.
292
760842
3126
El precio a pagar, sin embargo, es abandonar el jardín.
12:43
So privacy, in a way, is both the means
293
763968
3881
La privacidad, en cierto modo, es tanto el medio
12:47
and the price to pay for freedom.
294
767849
2962
como el precio a pagar por la libertad.
12:50
Again, marketers tell us
295
770811
2770
Y los vendedores otra vez nos dicen
12:53
that big data and social media
296
773581
3019
que el "big data" y los medios sociales
12:56
are not just a paradise of profit for them,
297
776600
2979
no son solo un paraíso de ganancias para ellos,
12:59
but a Garden of Eden for the rest of us.
298
779579
2457
sino el Jardín del Edén para el resto de nosotros.
13:02
We get free content.
299
782036
1238
Recibimos contenido gratis.
13:03
We get to play Angry Birds. We get targeted apps.
300
783274
3123
Podemos jugar a Angry Birds. Tenemos aplicaciones específicas.
13:06
But in fact, in a few years, organizations
301
786397
2897
Pero, de hecho, en unos años, las organizaciones
13:09
will know so much about us,
302
789294
1609
sabrán tanto de nosotros
13:10
they will be able to infer our desires
303
790903
2710
que podrán inferir nuestros deseos
13:13
before we even form them, and perhaps
304
793613
2204
incluso antes de formularlos y quizá hasta
13:15
buy products on our behalf
305
795817
2447
compren productos en nuestro nombre
13:18
before we even know we need them.
306
798264
2274
antes de que sepamos que los necesitamos.
13:20
Now there was one English author
307
800538
3237
Hay un escritor inglés
13:23
who anticipated this kind of future
308
803775
3045
que anticipó esta especie de futuro
13:26
where we would trade away
309
806820
1405
en el que cambiaríamos
13:28
our autonomy and freedom for comfort.
310
808225
3548
nuestra autonomía y libertad por comodidad--
13:31
Even more so than George Orwell,
311
811773
2161
Incluso más que George Orwell.
13:33
the author is, of course, Aldous Huxley.
312
813934
2761
El autor es, por supuesto, Aldous Huxley.
13:36
In "Brave New World," he imagines a society
313
816695
2854
En "Un mundo feliz", él imagina una sociedad
13:39
where technologies that we created
314
819549
2171
en la que las tecnologías que creamos
13:41
originally for freedom
315
821720
1859
en principio para la libertad
13:43
end up coercing us.
316
823579
2567
terminan coaccionándonos.
13:46
However, in the book, he also offers us a way out
317
826146
4791
Sin embargo, en el libro, él también nos ofrece una salida
13:50
of that society, similar to the path
318
830937
3438
de esa sociedad, similar al sendero
13:54
that Adam and Eve had to follow to leave the garden.
319
834375
3955
que Adán y Eva tuvieron que seguir para salir del jardín.
13:58
In the words of the Savage,
320
838330
2147
En palabras de Savage,
14:00
regaining autonomy and freedom is possible,
321
840477
3069
recuperar la autonomía y la libertad es posible,
14:03
although the price to pay is steep.
322
843546
2679
aunque el precio a pagar es elevado.
14:06
So I do believe that one of the defining fights
323
846225
5715
Por eso creo que una de las peleas decisivas
14:11
of our times will be the fight
324
851940
2563
de nuestros tiempos será la pelea
14:14
for the control over personal information,
325
854503
2387
por el control de la información personal,
14:16
the fight over whether big data will become a force
326
856890
3507
la pelea porque el "big data" se vuelva una fuerza
14:20
for freedom,
327
860397
1289
de libertad,
14:21
rather than a force which will hiddenly manipulate us.
328
861686
4746
en lugar de una fuerza que nos manipule desde las sombras.
14:26
Right now, many of us
329
866432
2593
Muchos de nosotros
14:29
do not even know that the fight is going on,
330
869025
2753
ni siquiera sabemos que se está dando esta pelea,
14:31
but it is, whether you like it or not.
331
871778
2672
pero es así, nos guste o no.
14:34
And at the risk of playing the serpent,
332
874450
2804
Y a riesgo de interpretar a la serpiente,
14:37
I will tell you that the tools for the fight
333
877254
2897
les diré que las herramientas para pelear
14:40
are here, the awareness of what is going on,
334
880151
3009
están aquí, la conciencia de lo que ocurre,
14:43
and in your hands,
335
883160
1355
y en sus manos,
14:44
just a few clicks away.
336
884515
3740
a unos pocos clics de distancia.
14:48
Thank you.
337
888255
1482
Gracias.
14:49
(Applause)
338
889737
4477
(Aplausos)
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7