Susan Etlinger: What do we do with all this big data?

Susan Etlinger: ¿Qué hacemos con todos estos datos masivos?

153,066 views

2014-10-20 ・ TED


New videos

Susan Etlinger: What do we do with all this big data?

Susan Etlinger: ¿Qué hacemos con todos estos datos masivos?

153,066 views ・ 2014-10-20

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Angela Escobar Revisor: mariana vergnano
00:13
Technology has brought us so much:
0
13354
3135
La tecnología nos ha dado mucho:
00:16
the moon landing, the Internet,
1
16489
2019
el alunizaje, el internet,
00:18
the ability to sequence the human genome.
2
18508
2625
lograr secuenciar el genoma humano.
00:21
But it also taps into a lot of our deepest fears,
3
21133
3724
También llega a nuestros miedos más hondos
00:24
and about 30 years ago,
4
24857
1856
y hace 30 años aproximadamente,
00:26
the culture critic Neil Postman wrote a book
5
26713
2553
el crítico cultural Neil Postman escribió un libro
00:29
called "Amusing Ourselves to Death,"
6
29266
2115
llamado "Divertirse hasta morir",
00:31
which lays this out really brilliantly.
7
31381
2759
en el que resalta esta verdad brillantemente.
00:34
And here's what he said,
8
34140
1650
Aquí esta lo que dijo
00:35
comparing the dystopian visions
9
35790
2263
comparando las distópicas visiones
00:38
of George Orwell and Aldous Huxley.
10
38053
3573
de George Orwell y Aldous Huxley.
00:41
He said, Orwell feared we would become
11
41626
3126
Dijo: Orwell temía que nos volviéramos
00:44
a captive culture.
12
44752
2248
una cultura cautiva.
00:47
Huxley feared we would become a trivial culture.
13
47000
3752
Huxley, en una trivial.
00:50
Orwell feared the truth would be
14
50752
2145
Orwell temía que la verdad
00:52
concealed from us,
15
52897
1923
nos sería ocultada,
00:54
and Huxley feared we would be drowned
16
54820
2190
y Huxley que seríamos ahogados
00:57
in a sea of irrelevance.
17
57010
2693
en un océano de irrelevancia.
00:59
In a nutshell, it's a choice between
18
59703
2170
En resumen, es escoger entre
01:01
Big Brother watching you
19
61873
2600
el Gran hermano viéndote
01:04
and you watching Big Brother.
20
64473
2496
y tu viendo al Gran Hermano.
01:06
(Laughter)
21
66969
1931
(Risas)
01:08
But it doesn't have to be this way.
22
68900
1734
Pero no tiene que ser así.
01:10
We are not passive consumers of data and technology.
23
70634
3336
No somos consumidores pasivos
de datos y tecnología.
01:13
We shape the role it plays in our lives
24
73970
2403
Decidimos el rol que juega en nuestra vida
01:16
and the way we make meaning from it,
25
76373
2130
y cómo le damos significado,
01:18
but to do that,
26
78503
1603
pero para hacerlo,
01:20
we have to pay as much attention to how we think
27
80106
3513
tenemos que poner mucha atención
desde cómo pensamos
01:23
as how we code.
28
83619
2030
hasta cómo codificamos.
01:25
We have to ask questions, and hard questions,
29
85649
3098
Tenemos que hacer preguntas, preguntas difíciles,
01:28
to move past counting things
30
88747
1869
para pasar de contar cosas
01:30
to understanding them.
31
90616
2602
a entenderlas.
01:33
We're constantly bombarded with stories
32
93218
2446
Estamos bombardeados constantemente por historias
01:35
about how much data there is in the world,
33
95664
2476
de los muchos datos que hay en el mundo,
01:38
but when it comes to big data
34
98140
1580
pero cuando se refiere a datos masivos,
01:39
and the challenges of interpreting it,
35
99720
2596
y los retos de interpretarlos,
01:42
size isn't everything.
36
102316
2088
el tamaño no lo es todo.
01:44
There's also the speed at which it moves,
37
104404
2903
También está la velocidad
a la que se mueven,
01:47
and the many varieties of data types,
38
107307
1696
las muchas variantes de tipos de datos,
01:49
and here are just a few examples:
39
109003
2498
he aquí algunos ejemplos:
01:51
images,
40
111501
2198
imágenes,
01:53
text,
41
113699
4007
texto,
01:57
video,
42
117706
2095
video,
01:59
audio.
43
119801
1830
audio.
02:01
And what unites this disparate types of data
44
121631
3042
Lo que une estos diferentes tipos de datos
02:04
is that they're created by people
45
124673
2221
es que son creados por gente
02:06
and they require context.
46
126894
2775
y requieren contextos.
02:09
Now, there's a group of data scientists
47
129669
2445
Hay un grupo de científicos de datos
02:12
out of the University of Illinois-Chicago,
48
132114
2305
de la Universidad de Illinois-Chicago,
02:14
and they're called the Health Media Collaboratory,
49
134419
2554
llamados Colaboración para la Salud en Medios,
02:16
and they've been working with the Centers for Disease Control
50
136973
2587
trabajando con los Centros de
Control de Enfermedades
02:19
to better understand
51
139560
1505
para entender mejor
02:21
how people talk about quitting smoking,
52
141065
2848
cómo la gente habla sobre dejar de fumar,
02:23
how they talk about electronic cigarettes,
53
143913
2680
cómo hablan de cigarros electrónicos,
02:26
and what they can do collectively
54
146593
1985
y qué pueden hacer colectivamente
02:28
to help them quit.
55
148578
1984
para ayudarse a dejarlo.
02:30
The interesting thing is, if you want to understand
56
150562
2013
Lo interesante es que, si quieres entender
02:32
how people talk about smoking,
57
152575
2216
cómo la gente habla sobre dejar de fumar,
02:34
first you have to understand
58
154791
1901
primero tienes que entender
02:36
what they mean when they say "smoking."
59
156692
2565
a qué se refieren al decir "fumar".
02:39
And on Twitter, there are four main categories:
60
159257
3926
En Twitter, hay 4 categorías principales:
02:43
number one, smoking cigarettes;
61
163183
2997
la primera, fumar cigarros;
02:46
number two, smoking marijuana;
62
166180
2807
la segunda, fumar marihuana;
02:48
number three, smoking ribs;
63
168987
2643
la tercera, ahumar costillas;
02:51
and number four, smoking hot women.
64
171630
3553
y la cuarta, chicas ardientes.
02:55
(Laughter)
65
175183
2993
(Risas)
02:58
So then you have to think about, well,
66
178176
2426
Entonces, tenemos que pensar,
03:00
how do people talk about electronic cigarettes?
67
180602
2140
¿cómo habla la gente de cigarros electrónicos?
03:02
And there are so many different ways
68
182742
2025
Y hay tantas maneras diferentes
03:04
that people do this, and you can see from the slide
69
184767
2599
en las que la gente lo hace,
y se puede ver del lado de
03:07
it's a complex kind of a query.
70
187366
2610
es un tipo complejo de búsqueda.
03:09
And what it reminds us is that
71
189976
3224
Y lo que nos recuerda es que
03:13
language is created by people,
72
193200
2411
el lenguaje es creado por la gente
03:15
and people are messy and we're complex
73
195611
2340
y la gente es enrevesada y somos complejos
03:17
and we use metaphors and slang and jargon
74
197951
2767
y usamos metáforas y argots y jergas
03:20
and we do this 24/7 in many, many languages,
75
200718
3279
24 horas por 7 días a la semana.
en muchos idiomas.
03:23
and then as soon as we figure it out, we change it up.
76
203997
3224
Y luego de un momento a otro, cambiamos.
03:27
So did these ads that the CDC put on,
77
207221
5118
Así como estos anuncios que la CDC puso,
03:32
these television ads that featured a woman
78
212339
2430
estos anuncios de TV que tenían mujeres
03:34
with a hole in her throat and that were very graphic
79
214769
2021
con un hoyo en las gargantas, muy gráficos
03:36
and very disturbing,
80
216790
1904
y perturbadores,
03:38
did they actually have an impact
81
218694
1885
¿realmente tuvieron impacto
03:40
on whether people quit?
82
220579
2671
en que la gente dejara de fumar?
03:43
And the Health Media Collaboratory respected the limits of their data,
83
223250
3307
Colaboración para la Salud en Medios respeto los límites de sus datos,
03:46
but they were able to conclude
84
226557
2005
pero fueron capaces de concluir
03:48
that those advertisements — and you may have seen them —
85
228562
3312
que esos anuncios —y los pueden haber visto—
03:51
that they had the effect of jolting people
86
231874
2591
tenían el efecto de llevar a las personas
03:54
into a thought process
87
234465
1822
hacia un proceso de pensamiento
03:56
that may have an impact on future behavior.
88
236287
3667
que podía impactar su comportamiento futuro.
03:59
And what I admire and appreciate about this project,
89
239954
3891
Lo que admiro y aprecio de este proyecto,
04:03
aside from the fact, including the fact
90
243845
1489
aparte del hecho, e incluyendo que
04:05
that it's based on real human need,
91
245334
4057
está basado en una necesidad humana real,
04:09
is that it's a fantastic example of courage
92
249391
2846
es que es un ejemplo fantástico de coraje
04:12
in the face of a sea of irrelevance.
93
252237
4443
en medio de un océano de irrelevancia.
04:16
And so it's not just big data that causes
94
256680
3305
No son solo los datos masivos los que producen
04:19
challenges of interpretation, because let's face it,
95
259985
2601
retos de interpretación,
porque enfrentémoslo,
04:22
we human beings have a very rich history
96
262586
2594
los humanos tenemos una historia muy rica
04:25
of taking any amount of data, no matter how small,
97
265180
2693
de tomar una cantidad de datos, no importa lo pequeña,
04:27
and screwing it up.
98
267873
1617
y arruinarlo.
04:29
So many years ago, you may remember
99
269490
3737
Así, hace muchos años, quizá recuerden
04:33
that former President Ronald Reagan
100
273227
2273
que el antiguo presidente Ronald Reagan
04:35
was very criticized for making a statement
101
275500
1991
fue muy criticado por una declaración
04:37
that facts are stupid things.
102
277491
3010
de que los hechos son cosas estúpidas.
04:40
And it was a slip of the tongue, let's be fair.
103
280501
2794
Se le fue la lengua, seamos justos.
En realidad quería citar la defensa
04:43
He actually meant to quote John Adams' defense
104
283295
2430
de Jhon Adams
04:45
of British soldiers in the Boston Massacre trials
105
285725
2751
a los soldados británicos
en los juicios de la Masacre de Boston
04:48
that facts are stubborn things.
106
288476
3150
de que los hechos son tozudos.
04:51
But I actually think there's
107
291626
2624
Pero creo que hay algo de sabiduría
04:54
a bit of accidental wisdom in what he said,
108
294250
3418
accidental en lo que dijo
04:57
because facts are stubborn things,
109
297668
2776
porque los hechos son tozudos,
05:00
but sometimes they're stupid, too.
110
300444
2923
pero a veces también son estúpidos.
05:03
I want to tell you a personal story
111
303367
1888
Quiero contarles una historia personal
05:05
about why this matters a lot to me.
112
305255
3548
de porque esto importa tanto para mí.
05:08
I need to take a breath.
113
308803
2437
Necesito tomar aire.
05:11
My son Isaac, when he was two,
114
311240
2754
Mi hijo Isaac, cuando tenía 2 años,
05:13
was diagnosed with autism,
115
313994
2417
fue diagnosticado con autismo,
05:16
and he was this happy, hilarious,
116
316411
2161
y era este alegre, hilarante,
05:18
loving, affectionate little guy,
117
318572
2035
amoroso, y afectuoso niñito,
05:20
but the metrics on his developmental evaluations,
118
320607
2902
pero las métricas en sus evaluaciones
de desarrollo,
05:23
which looked at things like the number of words —
119
323509
2070
que ven cosas cómo el número de palabras
05:25
at that point, none —
120
325579
3657
—en ese momento, ninguna—
05:29
communicative gestures and minimal eye contact,
121
329236
3940
gestos comunicativos y
poco contacto visual,
05:33
put his developmental level
122
333176
2003
pusieron su nivel de desarrollo
05:35
at that of a nine-month-old baby.
123
335179
3961
en el de un bebé de nueve meses.
Y el diagnóstico estaba bien
05:39
And the diagnosis was factually correct,
124
339140
2960
según los hechos,
05:42
but it didn't tell the whole story.
125
342100
3209
pero no contaba la historia completa.
05:45
And about a year and a half later,
126
345309
1401
Después de un año y medio,
05:46
when he was almost four,
127
346710
2102
cuando tenía aproximadamente cuatro,
05:48
I found him in front of the computer one day
128
348812
2363
lo encontré frente a la computadora un día
05:51
running a Google image search on women,
129
351175
5453
buscando mujeres en Google,
05:56
spelled "w-i-m-e-n."
130
356628
3616
deletreado "m-i-j-e-r-e-s".
06:00
And I did what any obsessed parent would do,
131
360244
2740
E hice lo que cualquier padre
obsesionado haría:
06:02
which is immediately started hitting the "back" button
132
362984
1901
empezar a presionar el botón "atrás"
06:04
to see what else he'd been searching for.
133
364885
3363
para ver que más había buscado.
06:08
And they were, in order: men,
134
368248
2171
Y estaban en orden: hombres,
06:10
school, bus and computer.
135
370419
7267
escuela, autobús y computadora.
06:17
And I was stunned,
136
377686
2070
Estaba sorprendida,
06:19
because we didn't know that he could spell,
137
379756
2002
porque no sabíamos que podía deletrear,
06:21
much less read, and so I asked him,
138
381758
1766
mucho menos leer, y le pregunte,
06:23
"Isaac, how did you do this?"
139
383524
2193
"Isaac, ¿cómo lo hiciste?"
06:25
And he looked at me very seriously and said,
140
385717
2678
Él me miró muy serio y dijo,
06:28
"Typed in the box."
141
388395
3352
"Escribí en la cajita".
06:31
He was teaching himself to communicate,
142
391747
3734
Estaba enseñándose a sí mismo
a comunicarse.
06:35
but we were looking in the wrong place,
143
395481
3004
Pero estábamos buscando
en el lugar equivocado.
06:38
and this is what happens when assessments
144
398485
2295
Y esto pasa cuando las tareas y los
06:40
and analytics overvalue one metric —
145
400780
2396
análisis sobrevaloran alguna métrica
06:43
in this case, verbal communication —
146
403176
2609
—en este caso, la comunicación verbal—
06:45
and undervalue others, such as creative problem-solving.
147
405785
5703
y devalúan otras,
cómo la resolución creativa de problemas.
06:51
Communication was hard for Isaac,
148
411488
2307
La comunicación era difícil para Isaac,
06:53
and so he found a workaround
149
413795
1912
así que encontró una alternativa
06:55
to find out what he needed to know.
150
415707
2857
para encontrar lo que necesitaba saber.
06:58
And when you think about it, it makes a lot of sense,
151
418564
1890
Al pensarlo, tiene mucho sentido,
07:00
because forming a question
152
420454
2081
porque hacer una pregunta
07:02
is a really complex process,
153
422535
2565
es un proceso muy complejo,
07:05
but he could get himself a lot of the way there
154
425100
2522
pero él pudo evitar mucho de eso
07:07
by putting a word in a search box.
155
427622
4092
poniendo una palabra en el buscador.
07:11
And so this little moment
156
431714
2936
Y ese pequeño momento
07:14
had a really profound impact on me
157
434650
2836
tuvo un profundo impacto en mí
07:17
and our family
158
437486
1309
y nuestra familia
07:18
because it helped us change our frame of reference
159
438795
3141
porque nos ayudó a cambiar
el marco de referencia
07:21
for what was going on with him,
160
441936
2208
sobre lo que le pasaba a él,
07:24
and worry a little bit less and appreciate
161
444144
2976
y preocuparnos menos y apreciar más
07:27
his resourcefulness more.
162
447120
2182
su forma de obtener recursos.
07:29
Facts are stupid things.
163
449302
2861
Los hechos son cosas estúpidas.
07:32
And they're vulnerable to misuse,
164
452163
2397
Y se pueden usar mal,
07:34
willful or otherwise.
165
454560
1653
manipular u otras cosas.
07:36
I have a friend, Emily Willingham, who's a scientist,
166
456213
3026
Tengo una amiga, Emily Willinghan
que es científica,
07:39
and she wrote a piece for Forbes not long ago
167
459239
2801
y escribió un artículo para Forbes
no hace mucho,
07:42
entitled "The 10 Weirdest Things
168
462040
1980
titulado "Las 10 cosas más raras
07:44
Ever Linked to Autism."
169
464020
1810
ligadas al Autismo".
07:45
It's quite a list.
170
465830
3005
Es una buena lista
07:48
The Internet, blamed for everything, right?
171
468835
3532
"El Internet" es culpado por todo ¿cierto?,
07:52
And of course mothers, because.
172
472367
3757
y claro las madres, porque sí.
07:56
And actually, wait, there's more,
173
476124
1587
Y en realidad, esperen, hay más,
07:57
there's a whole bunch in the "mother" category here.
174
477711
3430
un grupo completo
en la categoría de "madre" aquí.
08:01
And you can see it's a pretty rich and interesting list.
175
481141
4815
Pueden ver que es una lista
muy rica e interesante.
08:05
I'm a big fan of
176
485956
2193
Soy una gran fan de
08:08
being pregnant near freeways, personally.
177
488149
3704
"embarazarse cerca de autopistas".
(Risas)
08:11
The final one is interesting,
178
491853
1539
La última es interesante,
08:13
because the term "refrigerator mother"
179
493392
3003
porque el término "madre de refrigerador"
08:16
was actually the original hypothesis
180
496395
2605
fue en realidad la hipótesis original
08:19
for the cause of autism,
181
499000
1431
para la causa del autismo,
08:20
and that meant somebody who was cold and unloving.
182
500431
2735
y se refería a una persona fría
y no amorosa.
08:23
And at this point, you might be thinking,
183
503166
1562
En este momento, pueden pensar:
08:24
"Okay, Susan, we get it,
184
504728
1657
"Está bien, Susan, lo entendemos,
08:26
you can take data, you can make it mean anything."
185
506385
1782
puedes tomar datos,
y hacer que signifiquen lo que sea".
08:28
And this is true, it's absolutely true,
186
508167
4703
Y es cierto, absolutamente cierto.
08:32
but the challenge is that
187
512870
5610
Pero el reto es que
08:38
we have this opportunity
188
518480
2448
tenemos la oportunidad
08:40
to try to make meaning out of it ourselves,
189
520928
2284
de darles significado nosotros mismos,
08:43
because frankly, data doesn't create meaning. We do.
190
523212
5352
porque francamente,
los datos no crean un significado.
Nosotros se los damos.
08:48
So as businesspeople, as consumers,
191
528564
3256
Así que como personas de negocios,
como consumidores,
08:51
as patients, as citizens,
192
531820
2539
como pacientes, como ciudadanos,
08:54
we have a responsibility, I think,
193
534359
2396
tenemos una responsabilidad, creo,
08:56
to spend more time
194
536755
2194
de pasar más tiempo
08:58
focusing on our critical thinking skills.
195
538949
2870
enfocándonos
en nuestras capacidades críticas.
09:01
Why?
196
541819
1078
¿Por qué?
09:02
Because at this point in our history, as we've heard
197
542897
3178
Porque en este punto de la historia,
como hemos escuchado
09:06
many times over,
198
546075
1706
muchas veces,
09:07
we can process exabytes of data
199
547781
1981
podemos procesar exabytes de datos
09:09
at lightning speed,
200
549762
2153
a la velocidad de la luz,
09:11
and we have the potential to make bad decisions
201
551915
3515
y tenemos el potencial
de tomar malas decisiones
09:15
far more quickly, efficiently,
202
555430
1834
mucho más rápidamente, eficientemente,
09:17
and with far greater impact than we did in the past.
203
557264
5028
y con mucho más impacto que en el pasado.
09:22
Great, right?
204
562292
1388
Genial, ¿no es cierto?
09:23
And so what we need to do instead
205
563680
3030
Y lo que necesitamos hacer en su lugar
09:26
is spend a little bit more time
206
566710
2330
es pasar un poco más de tiempo
09:29
on things like the humanities
207
569040
2746
en cosas como las humanidades
09:31
and sociology, and the social sciences,
208
571786
3464
y sociología, y las ciencias sociales,
09:35
rhetoric, philosophy, ethics,
209
575250
2308
retórica, filosofía, ética,
09:37
because they give us context that is so important
210
577558
2856
porque nos dan el contexto
que es tan importante
09:40
for big data, and because
211
580414
2576
para los datos masivos, y porque
09:42
they help us become better critical thinkers.
212
582990
2418
nos ayudan
a volvernos mejores pensadores críticos.
09:45
Because after all, if I can spot
213
585408
4207
Porque después de todo, si puedo ver
un problema en un argumento,
09:49
a problem in an argument, it doesn't much matter
214
589615
2486
no importa mucho,
09:52
whether it's expressed in words or in numbers.
215
592101
2759
que este expresado en palabras o números.
09:54
And this means
216
594860
2719
Y esto significa
enseñarnos a nosotros mismos
09:57
teaching ourselves to find those confirmation biases
217
597579
4421
a encontrar esos sesgos confirmatorios
y falsas correlaciones,
10:02
and false correlations
218
602000
1822
10:03
and being able to spot a naked emotional appeal
219
603822
2138
y a ser capaces de ver una afirmación
10:05
from 30 yards,
220
605960
1662
puramente emocional
desde 10 metros,
10:07
because something that happens after something
221
607622
2522
porque que algo que pase después de otra cosa
10:10
doesn't mean it happened because of it, necessarily,
222
610144
3082
no significa que pasó por eso
necesariamente,
10:13
and if you'll let me geek out on you for a second,
223
613226
2119
y si me dejan ser geek por un segundo,
10:15
the Romans called this "post hoc ergo propter hoc,"
224
615345
4297
los romanos lo llamaban:
"post hoc ergo propter hoc",
10:19
after which therefore because of which.
225
619642
3296
"después de esto, entonces por esto".
10:22
And it means questioning disciplines like demographics.
226
622938
3757
Y significa cuestionar disciplinas
como la demografía.
10:26
Why? Because they're based on assumptions
227
626695
2520
¿Por qué?
Porque están basadas en asumir cosas,
10:29
about who we all are based on our gender
228
629215
2306
sobre quiénes somos con base en nuestro género
10:31
and our age and where we live
229
631521
1462
10:32
as opposed to data on what we actually think and do.
230
632983
3478
nuestra edad y dónde vivimos,
opuestos a datos de qué es lo que pensamos
y hacemos en realidad.
10:36
And since we have this data,
231
636461
1663
Y dado que tenemos estos datos,
10:38
we need to treat it with appropriate privacy controls
232
638124
3139
necesitamos tratarlos con adecuados
controles de privacidad
10:41
and consumer opt-in,
233
641263
3576
y al consumir optar por inclusión,
10:44
and beyond that, we need to be clear
234
644839
2993
y más allá de eso necesitamos ser claros
10:47
about our hypotheses,
235
647832
2103
en nuestras hipótesis,
10:49
the methodologies that we use,
236
649935
2596
las metodologías que usamos,
10:52
and our confidence in the result.
237
652531
2804
y nuestro nivel de confianza en el resultado.
10:55
As my high school algebra teacher used to say,
238
655335
2474
Cómo decía mi maestro de álgebra:
10:57
show your math,
239
657809
1531
"muestra tus matemáticas,
10:59
because if I don't know what steps you took,
240
659340
3441
porque si no sé qué pasos usaste,
11:02
I don't know what steps you didn't take,
241
662781
1991
no sé qué pasos no tomaste,
11:04
and if I don't know what questions you asked,
242
664772
2438
y si no sé qué preguntas hiciste,
11:07
I don't know what questions you didn't ask.
243
667210
3197
no sé qué preguntas no hiciste".
Significa preguntarnos a nosotros mismos,
11:10
And it means asking ourselves, really,
244
670407
1523
11:11
the hardest question of all:
245
671930
1479
la pregunta más difícil de todas:
11:13
Did the data really show us this,
246
673409
3500
¿Los datos en realidad nos lo muestran,
11:16
or does the result make us feel
247
676909
2311
o el resultado nos hace sentir
11:19
more successful and more comfortable?
248
679220
3878
más exitosos y más cómodos?
11:23
So the Health Media Collaboratory,
249
683098
2584
Así que los de Colaboración por la Salud en Medios
11:25
at the end of their project, they were able
250
685682
1699
al final del proyecto, pudieron
11:27
to find that 87 percent of tweets
251
687381
3408
encontrar 87 % de tweets
11:30
about those very graphic and disturbing
252
690789
2144
sobre esos muy gráficos y perturbadores
11:32
anti-smoking ads expressed fear,
253
692933
4038
anuncios para dejar de fumar
que expresaban miedo,
11:36
but did they conclude
254
696971
1856
pero ¿concluyeron que hicieron
11:38
that they actually made people stop smoking?
255
698827
3161
que la gente dejara de fumar?
11:41
No. It's science, not magic.
256
701988
2542
No. Es ciencia, no magia.
11:44
So if we are to unlock
257
704530
3190
Así que si vamos a abrir
11:47
the power of data,
258
707720
2862
el poder de los datos,
11:50
we don't have to go blindly into
259
710582
3448
no tenemos que ir a ciegas en la visión
11:54
Orwell's vision of a totalitarian future,
260
714030
3436
de Orwell de un futuro totalitario,
11:57
or Huxley's vision of a trivial one,
261
717466
3117
o la visión de Huxley de uno trivial,
12:00
or some horrible cocktail of both.
262
720583
3020
o un horrible cóctel de ambos.
12:03
What we have to do
263
723603
2379
Lo que tenemos que hacer es tratar
12:05
is treat critical thinking with respect
264
725982
2718
al pensamiento crítico con respeto
12:08
and be inspired by examples
265
728700
2029
y ser inspirados por ejemplos
12:10
like the Health Media Collaboratory,
266
730729
2610
cómo el de Colaboración por la Salud en Medios
y como dicen
12:13
and as they say in the superhero movies,
267
733339
2328
en las películas de superhéroes:
12:15
let's use our powers for good.
268
735667
1822
"Usemos nuestros poderes para el bien".
12:17
Thank you.
269
737489
2351
Gracias.
(Aplausos)
12:19
(Applause)
270
739840
2334
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7