Susan Etlinger: What do we do with all this big data?

149,431 views ・ 2014-10-20

TED


Dubbelklik op de Engelse ondertitels hieronder om de video af te spelen.

Vertaald door: Heleen van Maanen Nagekeken door: Rik Delaet
00:13
Technology has brought us so much:
0
13354
3135
Technologie heeft ons zoveel gebracht:
00:16
the moon landing, the Internet,
1
16489
2019
naar de Maan gaan, het Internet,
00:18
the ability to sequence the human genome.
2
18508
2625
het menselijk genoom kunnen bepalen.
00:21
But it also taps into a lot of our deepest fears,
3
21133
3724
Maar technologie boort ook onze diepste angsten aan.
00:24
and about 30 years ago,
4
24857
1856
Ongeveer 30 jaar geleden,
00:26
the culture critic Neil Postman wrote a book
5
26713
2553
schreef cultuurcriticus Neil Postman een boek,
00:29
called "Amusing Ourselves to Death,"
6
29266
2115
dat "We amuseren ons kapot!" heet,
00:31
which lays this out really brilliantly.
7
31381
2759
dat dit op briljante wijze uiteenzet.
00:34
And here's what he said,
8
34140
1650
Hij maakte een vergelijking tussen de dystopische visies
00:35
comparing the dystopian visions
9
35790
2263
00:38
of George Orwell and Aldous Huxley.
10
38053
3573
van George Orwell en Aldous Huxley.
00:41
He said, Orwell feared we would become
11
41626
3126
Hij zei: "Orwell was bang dat we een gevangen cultuur zouden krijgen.
00:44
a captive culture.
12
44752
2248
00:47
Huxley feared we would become a trivial culture.
13
47000
3752
Huxley was bang dat het een triviale cultuur zou worden."
00:50
Orwell feared the truth would be
14
50752
2145
Orwell was bang dat de waarheid voor ons verborgen gehouden zou worden.
00:52
concealed from us,
15
52897
1923
00:54
and Huxley feared we would be drowned
16
54820
2190
Huxley was bang dat we zouden verdrinken in een zee van irrelevantie.
00:57
in a sea of irrelevance.
17
57010
2693
00:59
In a nutshell, it's a choice between
18
59703
2170
In een notendop is het de keuze tussen
01:01
Big Brother watching you
19
61873
2600
Big Brother houdt jou in de gaten
01:04
and you watching Big Brother.
20
64473
2496
en jij houdt Big Brother in de gaten.
01:06
(Laughter)
21
66969
1931
(Gelach)
01:08
But it doesn't have to be this way.
22
68900
1734
Zo hoeft het echter niet te zijn.
01:10
We are not passive consumers of data and technology.
23
70634
3336
We zijn geen passieve consumenten van data en technologie.
01:13
We shape the role it plays in our lives
24
73970
2403
We bepalen zelf de rol die ze in ons leven spelen,
01:16
and the way we make meaning from it,
25
76373
2130
en de manier waarop we er betekenis aan geven.
01:18
but to do that,
26
78503
1603
Maar om dat te doen,
moeten we evenveel aandacht geven aan hoe we denken als aan hoe we coderen.
01:20
we have to pay as much attention to how we think
27
80106
3513
01:23
as how we code.
28
83619
2030
01:25
We have to ask questions, and hard questions,
29
85649
3098
We moeten onszelf vragen stellen, moeilijke vragen,
01:28
to move past counting things
30
88747
1869
die verder gaan dan dingen tellen
01:30
to understanding them.
31
90616
2602
naar dingen begrijpen.
01:33
We're constantly bombarded with stories
32
93218
2446
We worden overstelpt met verhalen over hoeveel data er in de wereld is,
01:35
about how much data there is in the world,
33
95664
2476
01:38
but when it comes to big data
34
98140
1580
maar als het om grote datasets gaat en de uitdaging om deze te interpreteren,
01:39
and the challenges of interpreting it,
35
99720
2596
01:42
size isn't everything.
36
102316
2088
dan is afmeting niet het enige dat telt.
01:44
There's also the speed at which it moves,
37
104404
2903
Ook de snelheid waarmee het zich ontwikkelt
en de variëteit van de gegevens.
01:47
and the many varieties of data types,
38
107307
1696
Hier zijn wat voorbeelden:
01:49
and here are just a few examples:
39
109003
2498
01:51
images,
40
111501
2198
Beelden,
01:53
text,
41
113699
4007
tekst,
01:57
video,
42
117706
2095
video,
01:59
audio.
43
119801
1830
audio.
02:01
And what unites this disparate types of data
44
121631
3042
Gemeenschappelijk aan deze verschillende data
02:04
is that they're created by people
45
124673
2221
is dat ze door mensen gemaakt zijn
02:06
and they require context.
46
126894
2775
en dat ze context nodig hebben.
02:09
Now, there's a group of data scientists
47
129669
2445
Er is een groep datawetenschappers
02:12
out of the University of Illinois-Chicago,
48
132114
2305
van de Universiteit van Illinois-Chicago,
02:14
and they're called the Health Media Collaboratory,
49
134419
2554
het Samenwerkingsverband Gezondheid & Media,
02:16
and they've been working with the Centers for Disease Control
50
136973
2587
en zij werken met de centra voor ziektebeheersing
02:19
to better understand
51
139560
1505
om beter te begrijpen
02:21
how people talk about quitting smoking,
52
141065
2848
hoe mensen praten over stoppen met roken,
02:23
how they talk about electronic cigarettes,
53
143913
2680
hoe ze praten over de elektrische sigaret
02:26
and what they can do collectively
54
146593
1985
en wat ze samen kunnen doen om deze mensen te helpen stoppen.
02:28
to help them quit.
55
148578
1984
02:30
The interesting thing is, if you want to understand
56
150562
2013
Het is interessant dat je om te begrijpen
02:32
how people talk about smoking,
57
152575
2216
hoe mensen praten over roken
02:34
first you have to understand
58
154791
1901
eerst moet begrijpen
02:36
what they mean when they say "smoking."
59
156692
2565
wat ze bedoelen als ze 'roken' zeggen.
02:39
And on Twitter, there are four main categories:
60
159257
3926
Op Twitter zijn er vier categorieën:
02:43
number one, smoking cigarettes;
61
163183
2997
nummer één, het roken van sigaretten;
02:46
number two, smoking marijuana;
62
166180
2807
nummer twee, het roken van marihuana;
02:48
number three, smoking ribs;
63
168987
2643
nummer drie, het roken van spare ribs
02:51
and number four, smoking hot women.
64
171630
3553
en nummer vier, 'rokend' hete vrouwen.
02:55
(Laughter)
65
175183
2993
(Gelach)
02:58
So then you have to think about, well,
66
178176
2426
Dan moet je je afvragen
03:00
how do people talk about electronic cigarettes?
67
180602
2140
hoe mensen praten over de elektrische sigaret?
03:02
And there are so many different ways
68
182742
2025
Er zijn zoveel manieren
03:04
that people do this, and you can see from the slide
69
184767
2599
waarop mensen dit doen. Je kunt op de dia zien
03:07
it's a complex kind of a query.
70
187366
2610
dat het een complexe vraag is.
03:09
And what it reminds us is that
71
189976
3224
Het herinnert ons eraan
03:13
language is created by people,
72
193200
2411
dat taal door mensen gemaakt wordt.
03:15
and people are messy and we're complex
73
195611
2340
Wij zijn slordig en complex,
03:17
and we use metaphors and slang and jargon
74
197951
2767
gebruiken metaforen, straattaal en jargon
03:20
and we do this 24/7 in many, many languages,
75
200718
3279
en dat 24 uur per dag in heel veel talen,
03:23
and then as soon as we figure it out, we change it up.
76
203997
3224
en zodra we iets uitvogelen, dan veranderen we het.
03:27
So did these ads that the CDC put on,
77
207221
5118
Zo ook met de advertenties van de Amerikaanse Gezondheidsraad.
03:32
these television ads that featured a woman
78
212339
2430
Die advertenties waren erg grafisch,
03:34
with a hole in her throat and that were very graphic
79
214769
2021
met een vrouw met een gat in haar keel in de hoofdrol.
03:36
and very disturbing,
80
216790
1904
Erg beangstigend.
03:38
did they actually have an impact
81
218694
1885
Hadden deze advertenties echt invloed op de keuze om te stoppen?
03:40
on whether people quit?
82
220579
2671
03:43
And the Health Media Collaboratory respected the limits of their data,
83
223250
3307
Het Samenwerkingsverband respecteerde de grenzen van hun data,
03:46
but they were able to conclude
84
226557
2005
maar kon wel concluderen
03:48
that those advertisements — and you may have seen them —
85
228562
3312
dat deze advertenties -- jullie hebben ze misschien gezien --
03:51
that they had the effect of jolting people
86
231874
2591
ervoor zorgden dat mensen erover gingen nadenken.
03:54
into a thought process
87
234465
1822
03:56
that may have an impact on future behavior.
88
236287
3667
Wat invloed kan hebben op toekomstig gedrag.
03:59
And what I admire and appreciate about this project,
89
239954
3891
Ik bewonder en waardeer aan dit project
04:03
aside from the fact, including the fact
90
243845
1489
dat het het gebaseerd is op een werkelijk menselijke behoefte,
04:05
that it's based on real human need,
91
245334
4057
04:09
is that it's a fantastic example of courage
92
249391
2846
én een mooi voorbeeld van moed is in een zee van irrelevante zaken.
04:12
in the face of a sea of irrelevance.
93
252237
4443
04:16
And so it's not just big data that causes
94
256680
3305
Het zijn niet alleen die grote hoeveelheden data
04:19
challenges of interpretation, because let's face it,
95
259985
2601
die verschillen in interpretatie aan de kaak stellen.
04:22
we human beings have a very rich history
96
262586
2594
Wij mensen hebben een rijke historie
04:25
of taking any amount of data, no matter how small,
97
265180
2693
om iedere hoeveelheid gegevens, hoe klein ook, te verdraaien.
04:27
and screwing it up.
98
267873
1617
04:29
So many years ago, you may remember
99
269490
3737
Misschien herinneren jullie je
04:33
that former President Ronald Reagan
100
273227
2273
dat voormalig president Ronald Reagan
04:35
was very criticized for making a statement
101
275500
1991
bekritiseerd werd vanwege een verklaring
04:37
that facts are stupid things.
102
277491
3010
dat feiten stomme dingen zijn.
04:40
And it was a slip of the tongue, let's be fair.
103
280501
2794
Het was een verspreking, laten we eerlijk zijn.
04:43
He actually meant to quote John Adams' defense
104
283295
2430
Hij wilde John Adams citeren, in zijn verdediging
04:45
of British soldiers in the Boston Massacre trials
105
285725
2751
in de rechtszaken rondom het bloedbad van Boston,
04:48
that facts are stubborn things.
106
288476
3150
dat 'feiten koppige dingen zijn'.
04:51
But I actually think there's
107
291626
2624
Toch denk ik dat er een toevallige wijsheid zit in wat hij zei,
04:54
a bit of accidental wisdom in what he said,
108
294250
3418
04:57
because facts are stubborn things,
109
297668
2776
want feiten zijn koppige dingen
05:00
but sometimes they're stupid, too.
110
300444
2923
en soms zijn ze ook stom.
05:03
I want to tell you a personal story
111
303367
1888
Ik wil wat persoonlijks vertellen over waarom dit mij kan schelen.
05:05
about why this matters a lot to me.
112
305255
3548
05:08
I need to take a breath.
113
308803
2437
Ik moet even adem halen.
05:11
My son Isaac, when he was two,
114
311240
2754
Toen mijn zoon Isaac twee was, werd er autisme geconstateerd.
05:13
was diagnosed with autism,
115
313994
2417
05:16
and he was this happy, hilarious,
116
316411
2161
Hij was een blij, grappig liefhebbend, aanhalig jongetje,
05:18
loving, affectionate little guy,
117
318572
2035
05:20
but the metrics on his developmental evaluations,
118
320607
2902
maar gemeten op de ontwikkelingsschaal
05:23
which looked at things like the number of words —
119
323509
2070
die keek naar het aantal woorden -- op dat moment geen --
05:25
at that point, none —
120
325579
3657
05:29
communicative gestures and minimal eye contact,
121
329236
3940
naar communicatieve gebaren en het minimale oogcontact,
05:33
put his developmental level
122
333176
2003
scoorde hij op ontwikkelingsniveau als een baby van negen maanden oud.
05:35
at that of a nine-month-old baby.
123
335179
3961
05:39
And the diagnosis was factually correct,
124
339140
2960
De diagnose was feitelijk correct,
05:42
but it didn't tell the whole story.
125
342100
3209
maar vertelde niet het hele verhaal.
05:45
And about a year and a half later,
126
345309
1401
Anderhalf jaar later, toen hij bijna vier was,
05:46
when he was almost four,
127
346710
2102
05:48
I found him in front of the computer one day
128
348812
2363
vond ik hem op een dag achter de computer
05:51
running a Google image search on women,
129
351175
5453
waar hij via Google afbeeldingen zocht van vrouwen,
05:56
spelled "w-i-m-e-n."
130
356628
3616
dat hij als "w-i-m-e-n" spelde.
06:00
And I did what any obsessed parent would do,
131
360244
2740
Ik deed wat iedere geobsedeerde ouder doet,
06:02
which is immediately started hitting the "back" button
132
362984
1901
op 'vorige' klikken
06:04
to see what else he'd been searching for.
133
364885
3363
om te zien wat hij nog meer gezocht had.
06:08
And they were, in order: men,
134
368248
2171
Dat waren in deze volgorde: mannen,
06:10
school, bus and computer.
135
370419
7267
school, bus en computer.
06:17
And I was stunned,
136
377686
2070
Ik was verbijsterd,
06:19
because we didn't know that he could spell,
137
379756
2002
want we wisten niet dat hij kon spellen,
06:21
much less read, and so I asked him,
138
381758
1766
laat staan lezen, dus ik vroeg hem:
06:23
"Isaac, how did you do this?"
139
383524
2193
"Isaac, hoe heb je dat gedaan?"
06:25
And he looked at me very seriously and said,
140
385717
2678
Hij keek me heel serieus aan en zei:
06:28
"Typed in the box."
141
388395
3352
"Ik heb het ingetypt."
06:31
He was teaching himself to communicate,
142
391747
3734
Hij leerde zichzelf communiceren,
06:35
but we were looking in the wrong place,
143
395481
3004
maar wij zochten op de verkeerde plek,
06:38
and this is what happens when assessments
144
398485
2295
en dit gebeurt er wanneer testen
06:40
and analytics overvalue one metric —
145
400780
2396
en analyses één aspect overwaarderen --
06:43
in this case, verbal communication —
146
403176
2609
in dit geval verbale communicatie --
06:45
and undervalue others, such as creative problem-solving.
147
405785
5703
en andere aspecten onderwaarderen, zoals creatieve probleemoplossing.
06:51
Communication was hard for Isaac,
148
411488
2307
Communicatie was moeilijk voor Isaac,
06:53
and so he found a workaround
149
413795
1912
dus vond hij een manier eromheen om te leren wat hij nodig had.
06:55
to find out what he needed to know.
150
415707
2857
06:58
And when you think about it, it makes a lot of sense,
151
418564
1890
Het is eigenlijk heel zinnig,
07:00
because forming a question
152
420454
2081
want een vraag formuleren is een heel complex proces,
07:02
is a really complex process,
153
422535
2565
07:05
but he could get himself a lot of the way there
154
425100
2522
maar hij kon eromheen werken door een woord in een zoekvak te typen.
07:07
by putting a word in a search box.
155
427622
4092
07:11
And so this little moment
156
431714
2936
Dit momentje...
07:14
had a really profound impact on me
157
434650
2836
had veel invloed op mij
07:17
and our family
158
437486
1309
en op ons gezin
07:18
because it helped us change our frame of reference
159
438795
3141
omdat het ons hielp ons referentiekader te veranderen
07:21
for what was going on with him,
160
441936
2208
over wat er met hem gebeurde,
07:24
and worry a little bit less and appreciate
161
444144
2976
en ons minder zorgen maken en zijn vindingrijkheid meer waarderen.
07:27
his resourcefulness more.
162
447120
2182
07:29
Facts are stupid things.
163
449302
2861
Feiten zijn stomme dingen.
07:32
And they're vulnerable to misuse,
164
452163
2397
En ze zijn kwetsbaar voor misbruik, met opzet of anderzins.
07:34
willful or otherwise.
165
454560
1653
07:36
I have a friend, Emily Willingham, who's a scientist,
166
456213
3026
Een vriendin die wetenschapper is, Emily Willingham,
07:39
and she wrote a piece for Forbes not long ago
167
459239
2801
schreef kort geleden een stuk voor Forbes,
07:42
entitled "The 10 Weirdest Things
168
462040
1980
Het heette: "De 10 Raarste Dingen die Ooit aan Autisme Gelinkt zijn."
07:44
Ever Linked to Autism."
169
464020
1810
07:45
It's quite a list.
170
465830
3005
Het is nogal een lijst.
07:48
The Internet, blamed for everything, right?
171
468835
3532
Het Internet, krijgt overal de schuld van, toch?
07:52
And of course mothers, because.
172
472367
3757
En moeders natuurlijk, omdat.
07:56
And actually, wait, there's more,
173
476124
1587
Wacht, er is meer,
07:57
there's a whole bunch in the "mother" category here.
174
477711
3430
er is een heleboel in de categorie 'moeders'.
08:01
And you can see it's a pretty rich and interesting list.
175
481141
4815
Het is een behoorlijk rijke en interessante lijst.
08:05
I'm a big fan of
176
485956
2193
Ik ben persoonlijk een fan
08:08
being pregnant near freeways, personally.
177
488149
3704
van ‘zwanger zijn in de buurt van snelwegen’.
08:11
The final one is interesting,
178
491853
1539
De laatste is interessant,
08:13
because the term "refrigerator mother"
179
493392
3003
want de term 'koelkastmoeder'
08:16
was actually the original hypothesis
180
496395
2605
was de originele hypothese
08:19
for the cause of autism,
181
499000
1431
als oorzaak van autisme
08:20
and that meant somebody who was cold and unloving.
182
500431
2735
en het betekende iemand die koud en afstandelijk was.
08:23
And at this point, you might be thinking,
183
503166
1562
Nu denken jullie misschien,
08:24
"Okay, Susan, we get it,
184
504728
1657
"Ok, Susan, we snappen het,
08:26
you can take data, you can make it mean anything."
185
506385
1782
je kunt data alles laten zeggen."
08:28
And this is true, it's absolutely true,
186
508167
4703
En dat is waar, echt waar,
08:32
but the challenge is that
187
512870
5610
maar de uitdaging is
08:38
we have this opportunity
188
518480
2448
dat we de kans hebben
08:40
to try to make meaning out of it ourselves,
189
520928
2284
om er zelf betekenis aan te geven,
08:43
because frankly, data doesn't create meaning. We do.
190
523212
5352
omdat de data zelf geen betekenis geeft. Dat doen wij.
08:48
So as businesspeople, as consumers,
191
528564
3256
Dus als zakenman, als consument, als patiënt, als burger,
08:51
as patients, as citizens,
192
531820
2539
08:54
we have a responsibility, I think,
193
534359
2396
hebben wij, denk ik, een verantwoordelijkheid,
08:56
to spend more time
194
536755
2194
om meer tijd te besteden aan
08:58
focusing on our critical thinking skills.
195
538949
2870
ons kritisch denkvermogen.
09:01
Why?
196
541819
1078
Waarom?
09:02
Because at this point in our history, as we've heard
197
542897
3178
Omdat we, zoals we al zo vaak gehoord hebben,
09:06
many times over,
198
546075
1706
09:07
we can process exabytes of data
199
547781
1981
we kunnen met lichtsnelheid exabytes aan data verwerken,
09:09
at lightning speed,
200
549762
2153
09:11
and we have the potential to make bad decisions
201
551915
3515
we kunnen veel sneller en efficiënter slechte keuzes maken
09:15
far more quickly, efficiently,
202
555430
1834
09:17
and with far greater impact than we did in the past.
203
557264
5028
en met veel grotere gevolgen dat in het verleden.
09:22
Great, right?
204
562292
1388
Geweldig, toch?
09:23
And so what we need to do instead
205
563680
3030
In plaats daarvan moeten we
09:26
is spend a little bit more time
206
566710
2330
wat meer tijd besteden
09:29
on things like the humanities
207
569040
2746
aan zaken zoals geesteswetenschappen,
09:31
and sociology, and the social sciences,
208
571786
3464
sociologie en sociale wetenschappen,
09:35
rhetoric, philosophy, ethics,
209
575250
2308
retoriek, filosofie, ethiek,
09:37
because they give us context that is so important
210
577558
2856
omdat ze ons hele belangrijke context verschaffen
09:40
for big data, and because
211
580414
2576
voor die grote datasets
09:42
they help us become better critical thinkers.
212
582990
2418
en omdat ze ons helpen betere kritische denkers te worden.
09:45
Because after all, if I can spot
213
585408
4207
Want als ik een probleem in een discussie kan ontdekken,
09:49
a problem in an argument, it doesn't much matter
214
589615
2486
dan maakt het niet uit of dat in woorden of in getallen is.
09:52
whether it's expressed in words or in numbers.
215
592101
2759
09:54
And this means
216
594860
2719
Dit betekent
09:57
teaching ourselves to find those confirmation biases
217
597579
4421
dat we onszelf moeten leren om onze eigen vertekening te herkennen
10:02
and false correlations
218
602000
1822
en de valse correlaties
10:03
and being able to spot a naked emotional appeal
219
603822
2138
en een emotioneel argument vanop 50 meter te herkennen.
10:05
from 30 yards,
220
605960
1662
10:07
because something that happens after something
221
607622
2522
Omdat als iets na iets anders gebeurt,
10:10
doesn't mean it happened because of it, necessarily,
222
610144
3082
betekent dat niet dat het erdoor veroorzaakt is.
10:13
and if you'll let me geek out on you for a second,
223
613226
2119
Als ik even mag,
10:15
the Romans called this "post hoc ergo propter hoc,"
224
615345
4297
de Romeinen noemden dit "post hoc ergo propter hoc,"
10:19
after which therefore because of which.
225
619642
3296
of “nadat, dus doordat”.
10:22
And it means questioning disciplines like demographics.
226
622938
3757
Het betekent bijvoorbeeld kritisch zijn over demografie.
10:26
Why? Because they're based on assumptions
227
626695
2520
Waarom? Omdat het is gebaseerd op aannames
10:29
about who we all are based on our gender
228
629215
2306
over wie we zijn, gebaseerd op geslacht,
10:31
and our age and where we live
229
631521
1462
onze leeftijd en waar we wonen
10:32
as opposed to data on what we actually think and do.
230
632983
3478
en niet op gegevens over wat we echt denken en doen.
10:36
And since we have this data,
231
636461
1663
Omdat we deze gegevens hebben,
10:38
we need to treat it with appropriate privacy controls
232
638124
3139
moeten we het behandelen met de nodige privacy-waarborgen
10:41
and consumer opt-in,
233
641263
3576
waarin je kunt kiezen om mee te doen.
10:44
and beyond that, we need to be clear
234
644839
2993
Daarbuiten moeten we duidelijk zijn
10:47
about our hypotheses,
235
647832
2103
over onze hypotheses
10:49
the methodologies that we use,
236
649935
2596
en de methodes die we gebruiken
10:52
and our confidence in the result.
237
652531
2804
en over het vertrouwen dat we in het resultaat hebben.
10:55
As my high school algebra teacher used to say,
238
655335
2474
Zoals mijn wiskundeleraar vroeger zei:
10:57
show your math,
239
657809
1531
“Laat je berekening zien.”,
10:59
because if I don't know what steps you took,
240
659340
3441
want als ik niet weet welke stappen je gezet hebt,
11:02
I don't know what steps you didn't take,
241
662781
1991
dan weet ik niet welke je niet gezet hebt.
11:04
and if I don't know what questions you asked,
242
664772
2438
Als ik niet weet welke vragen je gesteld hebt,
11:07
I don't know what questions you didn't ask.
243
667210
3197
dan weet ik niet welke vragen je niet gesteld hebt.
11:10
And it means asking ourselves, really,
244
670407
1523
Dit betekent dat we onszelf
11:11
the hardest question of all:
245
671930
1479
het moeilijkste moeten vragen:
11:13
Did the data really show us this,
246
673409
3500
“Blijkt dit echt uit de gegevens,
11:16
or does the result make us feel
247
676909
2311
of zorgt het resultaat ervoor
11:19
more successful and more comfortable?
248
679220
3878
dat we ons succesvoller en geruster voelen?”
11:23
So the Health Media Collaboratory,
249
683098
2584
De Samenwerking van Gezondheid & Media, kon aan het eind van hun project zeggen
11:25
at the end of their project, they were able
250
685682
1699
11:27
to find that 87 percent of tweets
251
687381
3408
dat 87% van de tweets angst weergaven,
11:30
about those very graphic and disturbing
252
690789
2144
over die hele grafische en confronterende anti-rookreclames.
11:32
anti-smoking ads expressed fear,
253
692933
4038
11:36
but did they conclude
254
696971
1856
Maar concludeerden ze ook
11:38
that they actually made people stop smoking?
255
698827
3161
dat ze mensen lieten stoppen met roken?
11:41
No. It's science, not magic.
256
701988
2542
Nee. Het is wetenschap, geen magie.
11:44
So if we are to unlock
257
704530
3190
Als we de kracht van de data kunnen vrijmaken,
11:47
the power of data,
258
707720
2862
11:50
we don't have to go blindly into
259
710582
3448
dan hoeven we Orwell niet blind te volgen
11:54
Orwell's vision of a totalitarian future,
260
714030
3436
in zijn totalitaire toekomstvisie, noch Huxley in zijn triviale visie,
11:57
or Huxley's vision of a trivial one,
261
717466
3117
12:00
or some horrible cocktail of both.
262
720583
3020
noch een verschrikkelijke cocktail van beide.
12:03
What we have to do
263
723603
2379
Wat we moeten doen, is kritisch denken met respect bejegenen
12:05
is treat critical thinking with respect
264
725982
2718
12:08
and be inspired by examples
265
728700
2029
en geïnspireerd raken door voorbeelden
12:10
like the Health Media Collaboratory,
266
730729
2610
zoals de Samenwerking van Gezondheid en Media.
12:13
and as they say in the superhero movies,
267
733339
2328
Zoals ze in films met superhelden zeggen:
12:15
let's use our powers for good.
268
735667
1822
“Gebruik die macht om iets goeds te doen.”
12:17
Thank you.
269
737489
2351
Dank je wel.
12:19
(Applause)
270
739840
2334
(Applaus)
Over deze website

Deze site laat u kennismaken met YouTube-video's die nuttig zijn om Engels te leren. U ziet Engelse lessen gegeven door topdocenten uit de hele wereld. Dubbelklik op de Engelse ondertitels op elke videopagina om de video af te spelen. De ondertitels scrollen synchroon met het afspelen van de video. Heeft u opmerkingen of verzoeken, neem dan contact met ons op via dit contactformulier.

https://forms.gle/WvT1wiN1qDtmnspy7