Susan Etlinger: What do we do with all this big data?

149,425 views ・ 2014-10-20

TED


Vă rugăm să faceți dublu clic pe subtitrările în limba engleză de mai jos pentru a reda videoclipul.

Traducător: Raluca Bujoreanu Corector: Ariana Bleau Lugo
00:13
Technology has brought us so much:
0
13354
3135
Tehnologia a făcut posibile așa de multe lucruri
00:16
the moon landing, the Internet,
1
16489
2019
aterizarea pe lună, Internetul,
00:18
the ability to sequence the human genome.
2
18508
2625
posibilitatea de a decoda genomul uman.
00:21
But it also taps into a lot of our deepest fears,
3
21133
3724
Dar ea are de-a face și cu fricile noaste cele mai puternice
00:24
and about 30 years ago,
4
24857
1856
și acum vreo 30 de ani
00:26
the culture critic Neil Postman wrote a book
5
26713
2553
criticul Neil Postman a scris o carte
00:29
called "Amusing Ourselves to Death,"
6
29266
2115
numită „Ne amuzăm până la moarte”
00:31
which lays this out really brilliantly.
7
31381
2759
care abordează problema asta foarte bine.
00:34
And here's what he said,
8
34140
1650
Iată ce a spus,
00:35
comparing the dystopian visions
9
35790
2263
comparând viziunile distopice
00:38
of George Orwell and Aldous Huxley.
10
38053
3573
ale lui George Orwell și Aldous Huxley.
00:41
He said, Orwell feared we would become
11
41626
3126
A spus ca Orwell se temea că vom deveni
00:44
a captive culture.
12
44752
2248
o cultură captivă.
00:47
Huxley feared we would become a trivial culture.
13
47000
3752
Huxley se temea că vom deveni o cultură banală.
00:50
Orwell feared the truth would be
14
50752
2145
Orwell se temea că adevărul
00:52
concealed from us,
15
52897
1923
ne va fi ascuns,
00:54
and Huxley feared we would be drowned
16
54820
2190
iar Huxley se temea că ne vom îneca
00:57
in a sea of irrelevance.
17
57010
2693
într-o mare de irelevanță.
00:59
In a nutshell, it's a choice between
18
59703
2170
Pe scurt, e o alegere între
01:01
Big Brother watching you
19
61873
2600
a fi urmărit de Big Brother
01:04
and you watching Big Brother.
20
64473
2496
sau a urmări Big Brother.
01:06
(Laughter)
21
66969
1931
(Râsete)
01:08
But it doesn't have to be this way.
22
68900
1734
Dar nu trebuie să fie așa.
01:10
We are not passive consumers of data and technology.
23
70634
3336
Nu suntem utilizatori pasivi de date și tehnologie.
01:13
We shape the role it plays in our lives
24
73970
2403
Noi definim rolul lor în viețile noastre
01:16
and the way we make meaning from it,
25
76373
2130
și modul în care le interpretăm înțelesul,
01:18
but to do that,
26
78503
1603
dar pentru a face asta,
01:20
we have to pay as much attention to how we think
27
80106
3513
trebuie să acordăm aceeași importanță modului de gândire
01:23
as how we code.
28
83619
2030
ca modului de codare.
01:25
We have to ask questions, and hard questions,
29
85649
3098
Trebuie să ne punem întrebări; întrebări dificile
01:28
to move past counting things
30
88747
1869
să trecem de la a număra lucruri
01:30
to understanding them.
31
90616
2602
la a le înțelege.
01:33
We're constantly bombarded with stories
32
93218
2446
Suntem bombardați constant cu povești
01:35
about how much data there is in the world,
33
95664
2476
despre cât de multă data există în lume,
dar când e vorba de volume mari de date
01:38
but when it comes to big data
34
98140
1580
01:39
and the challenges of interpreting it,
35
99720
2596
și de provocările acestora,
mărimea nu contează.
01:42
size isn't everything.
36
102316
2088
01:44
There's also the speed at which it moves,
37
104404
2903
Contează și viteza cu care se mișcă,
01:47
and the many varieties of data types,
38
107307
1696
varietățile de tipuri de date,
01:49
and here are just a few examples:
39
109003
2498
iar aici avem numai câteva exemple:
01:51
images,
40
111501
2198
imagini,
01:53
text,
41
113699
4007
text,
01:57
video,
42
117706
2095
video,
01:59
audio.
43
119801
1830
audio.
02:01
And what unites this disparate types of data
44
121631
3042
Și ce unește aceste tipuri disparate de date
02:04
is that they're created by people
45
124673
2221
este că toate sunt create de oameni
02:06
and they require context.
46
126894
2775
și au nevoie de un context.
02:09
Now, there's a group of data scientists
47
129669
2445
Există un grup de oameni de știință
02:12
out of the University of Illinois-Chicago,
48
132114
2305
de la Universitatea Illinois-Chicago
02:14
and they're called the Health Media Collaboratory,
49
134419
2554
numit Health Media Collaboratory,
02:16
and they've been working with the Centers for Disease Control
50
136973
2587
care a lucrat cu Centrul de Control al Bolilor
02:19
to better understand
51
139560
1505
pentru a înțelege mai bine
02:21
how people talk about quitting smoking,
52
141065
2848
cum vorbesc oamenii despre lăsatul de fumat,
02:23
how they talk about electronic cigarettes,
53
143913
2680
cum vorbesc despre țigările electronice,
02:26
and what they can do collectively
54
146593
1985
și ce pot face ei împreună
02:28
to help them quit.
55
148578
1984
pentru a-i ajuta să se lase de fumat.
02:30
The interesting thing is, if you want to understand
56
150562
2013
Lucrul interesant este că, dacă vrei să înțelegi
02:32
how people talk about smoking,
57
152575
2216
cum vorbesc oamenii despre fumat,
02:34
first you have to understand
58
154791
1901
trebuie mai întâi să înțelegi
02:36
what they mean when they say "smoking."
59
156692
2565
la ce se referă ei când spun „fumat”.
02:39
And on Twitter, there are four main categories:
60
159257
3926
Și pe Twitter, sunt 4 mari categorii:
02:43
number one, smoking cigarettes;
61
163183
2997
unu, fumatul de țigări;
02:46
number two, smoking marijuana;
62
166180
2807
doi, fumatul de marijuana;
02:48
number three, smoking ribs;
63
168987
2643
trei, costițe afumate („smoking”);
02:51
and number four, smoking hot women.
64
171630
3553
și patru, femei mortale („smoking hot”).
02:55
(Laughter)
65
175183
2993
(Râsete)
02:58
So then you have to think about, well,
66
178176
2426
Așa că apoi trebuie sa te gândești
03:00
how do people talk about electronic cigarettes?
67
180602
2140
cum vorbesc oamenii despre țigări electronice?
03:02
And there are so many different ways
68
182742
2025
Și sunt așa de multe feluri
03:04
that people do this, and you can see from the slide
69
184767
2599
în care oamenii fac asta și se vede de pe slide
03:07
it's a complex kind of a query.
70
187366
2610
că e o chestiune complexă.
03:09
And what it reminds us is that
71
189976
3224
Și ne reamintește
03:13
language is created by people,
72
193200
2411
că limbile sunt create de oameni
03:15
and people are messy and we're complex
73
195611
2340
și oamenii sunt dezordonați și suntem complecși
03:17
and we use metaphors and slang and jargon
74
197951
2767
și folosim metafore și argou și jargon
03:20
and we do this 24/7 in many, many languages,
75
200718
3279
și facem asta 24/7 în multe, multe limbi
03:23
and then as soon as we figure it out, we change it up.
76
203997
3224
și apoi imediat ce ne dăm seama, schimbăm lucrurile.
03:27
So did these ads that the CDC put on,
77
207221
5118
Au avut oare reclamele astea de la CDC,
reclamele la televizor cu o femeie
03:32
these television ads that featured a woman
78
212339
2430
03:34
with a hole in her throat and that were very graphic
79
214769
2021
cu o gaură în gât,
03:36
and very disturbing,
80
216790
1904
foarte grafice și foarte deranjante
03:38
did they actually have an impact
81
218694
1885
un impact într-adevăr
03:40
on whether people quit?
82
220579
2671
asupra lăsatului de fumat?
03:43
And the Health Media Collaboratory respected the limits of their data,
83
223250
3307
Iar Health media Collaboratory a respectat limitele datelor lor,
03:46
but they were able to conclude
84
226557
2005
dar au putut concluziona
03:48
that those advertisements — and you may have seen them —
85
228562
3312
că acele reclame, pe care probabil le-ați văzut,
03:51
that they had the effect of jolting people
86
231874
2591
au avut efectul de a-i scutura pe oameni
03:54
into a thought process
87
234465
1822
și de a duce la un proces de gândire
03:56
that may have an impact on future behavior.
88
236287
3667
care ar putea avea un impact asupra comportamentului viitor.
03:59
And what I admire and appreciate about this project,
89
239954
3891
Ceea ce admir și apreciez la acest proiect,
04:03
aside from the fact, including the fact
90
243845
1489
pe lângă faptul, împreună cu faptul
04:05
that it's based on real human need,
91
245334
4057
că se bazează pe o nevoie umană reală,
04:09
is that it's a fantastic example of courage
92
249391
2846
este că e un exemplu fantastic de curaj
04:12
in the face of a sea of irrelevance.
93
252237
4443
în fața unei mări de irelevanță.
04:16
And so it's not just big data that causes
94
256680
3305
Așa că nu numai volumul mare de date
04:19
challenges of interpretation, because let's face it,
95
259985
2601
cauzează probleme de interpretare, pentru că, să fim sinceri,
04:22
we human beings have a very rich history
96
262586
2594
noi oamenii avem o istorie lungă
04:25
of taking any amount of data, no matter how small,
97
265180
2693
în a lua orice volum de date, oricât de mic
04:27
and screwing it up.
98
267873
1617
și în a-l strica.
04:29
So many years ago, you may remember
99
269490
3737
Cu mulți ani în urmă, probabil vă aduceți aminte
04:33
that former President Ronald Reagan
100
273227
2273
că fostul președinte Ronald Regan
04:35
was very criticized for making a statement
101
275500
1991
a fost foare criticat când a spus
04:37
that facts are stupid things.
102
277491
3010
că adevărurile dovedite sunt ceva stupid.
04:40
And it was a slip of the tongue, let's be fair.
103
280501
2794
A fost probabil o simplă greșeală, ca să fim sinceri.
04:43
He actually meant to quote John Adams' defense
104
283295
2430
Vroia de fapt să-l citeze pe John Adams
04:45
of British soldiers in the Boston Massacre trials
105
285725
2751
în apararea soldaților britanici în procesul masacrului din Boston
04:48
that facts are stubborn things.
106
288476
3150
că realitatea este încăpățânată.
04:51
But I actually think there's
107
291626
2624
Dar cred că este de fapt
04:54
a bit of accidental wisdom in what he said,
108
294250
3418
puțină înțelepciune accidentală în ceea ce a spus,
04:57
because facts are stubborn things,
109
297668
2776
pentru că realitatea este încăpățânată
05:00
but sometimes they're stupid, too.
110
300444
2923
dau uneori este și stupidă.
05:03
I want to tell you a personal story
111
303367
1888
Vreau să vă zic o poveste personală
05:05
about why this matters a lot to me.
112
305255
3548
despre de ce contează asta așa de mult pentru mine.
05:08
I need to take a breath.
113
308803
2437
Trebuie să repir adânc.
05:11
My son Isaac, when he was two,
114
311240
2754
Fiul meu Isaac, când avea 2 ani,
05:13
was diagnosed with autism,
115
313994
2417
a fost diagnosticat cu autism.
05:16
and he was this happy, hilarious,
116
316411
2161
Era un omuleț vesel, amuzant,
05:18
loving, affectionate little guy,
117
318572
2035
iubitor și afectuos
05:20
but the metrics on his developmental evaluations,
118
320607
2902
însă datele evaluărilor dezvoltării sale,
05:23
which looked at things like the number of words —
119
323509
2070
care luau în considerare lucruri ca numărul de cuvinte,
05:25
at that point, none —
120
325579
3657
la acel moment, zero,
05:29
communicative gestures and minimal eye contact,
121
329236
3940
gesturi de comunicare și contact vizual minim
05:33
put his developmental level
122
333176
2003
au stabilit gradul său de dezvoltare
05:35
at that of a nine-month-old baby.
123
335179
3961
ca fiind cel al unui bebeluș de 9 luni.
05:39
And the diagnosis was factually correct,
124
339140
2960
Iar diagnosticul era corect din punct de vedere al datelor,
05:42
but it didn't tell the whole story.
125
342100
3209
însă nu zicea toata povestea.
05:45
And about a year and a half later,
126
345309
1401
După vreun an jumate,
05:46
when he was almost four,
127
346710
2102
cand avea aproape 4 ani,
05:48
I found him in front of the computer one day
128
348812
2363
l-am găsit într-o zi în fața calculatorului
05:51
running a Google image search on women,
129
351175
5453
facând o căutare Google despre femei,
05:56
spelled "w-i-m-e-n."
130
356628
3616
scris „f-i-m-e-i”.
06:00
And I did what any obsessed parent would do,
131
360244
2740
Și am facut ce ar fi făcut orice părinte obsedat
06:02
which is immediately started hitting the "back" button
132
362984
1901
adică am început imediat să apas pe „Back” (înapoi)
06:04
to see what else he'd been searching for.
133
364885
3363
să văd ce altceva mai căutase.
06:08
And they were, in order: men,
134
368248
2171
Și am găsit, în ordine: bărbat
06:10
school, bus and computer.
135
370419
7267
școală, autobuz și computer.
06:17
And I was stunned,
136
377686
2070
Și am fost uimită,
06:19
because we didn't know that he could spell,
137
379756
2002
pentru că nu știam că poate să scrie,
06:21
much less read, and so I asked him,
138
381758
1766
cu atât mai mult să citească, și l-am întrebat
06:23
"Isaac, how did you do this?"
139
383524
2193
„Isaac, cum ai făcut asta?”
06:25
And he looked at me very seriously and said,
140
385717
2678
S-a uitam la mine foarte serios și a zis
06:28
"Typed in the box."
141
388395
3352
„Scris în cutie”
06:31
He was teaching himself to communicate,
142
391747
3734
Învăța singur să comunice,
06:35
but we were looking in the wrong place,
143
395481
3004
dar noi se uitam în direcția greșită
06:38
and this is what happens when assessments
144
398485
2295
și asta se întâmplă când evaluările
06:40
and analytics overvalue one metric —
145
400780
2396
și analizele supraevaluează un parametru,
06:43
in this case, verbal communication —
146
403176
2609
în acest caz, comunicarea verbală,
06:45
and undervalue others, such as creative problem-solving.
147
405785
5703
și subevaluează altele, cum ar fi gândirea creativă.
06:51
Communication was hard for Isaac,
148
411488
2307
Comunicarea era dificilă pentru Isaac
06:53
and so he found a workaround
149
413795
1912
așa că a găsit o cale
06:55
to find out what he needed to know.
150
415707
2857
de a afla ce trebuia să știe.
06:58
And when you think about it, it makes a lot of sense,
151
418564
1890
Iar când te gândești, are multă logică
07:00
because forming a question
152
420454
2081
pentru că formularea unei întrebări
07:02
is a really complex process,
153
422535
2565
este un proces complex,
07:05
but he could get himself a lot of the way there
154
425100
2522
dar el s-a descurcat
07:07
by putting a word in a search box.
155
427622
4092
punând un cuvânt într-o căsuță de căutare.
07:11
And so this little moment
156
431714
2936
Și astfel acest moment mărunt
07:14
had a really profound impact on me
157
434650
2836
a avut un impact profund asupra mea
07:17
and our family
158
437486
1309
și a familiei noastre
07:18
because it helped us change our frame of reference
159
438795
3141
pentru că ne-a ajutat să ne schimbăm cadrul de referință
07:21
for what was going on with him,
160
441936
2208
în legătură cu ce se întâmpla cu el
07:24
and worry a little bit less and appreciate
161
444144
2976
și să ne facem mai puține griji și să apreciem
07:27
his resourcefulness more.
162
447120
2182
creativitatea sa mai mult
07:29
Facts are stupid things.
163
449302
2861
Datele sunt stupide.
07:32
And they're vulnerable to misuse,
164
452163
2397
Pot fi utilizate greșit,
07:34
willful or otherwise.
165
454560
1653
de bunăvoie sau nu.
07:36
I have a friend, Emily Willingham, who's a scientist,
166
456213
3026
Am o prietenă, Emily Willingham, care e om de știință
07:39
and she wrote a piece for Forbes not long ago
167
459239
2801
care a scris un articol pentru Forbes nu demult
07:42
entitled "The 10 Weirdest Things
168
462040
1980
numit „Cele mai ciudate 10 lucruri
07:44
Ever Linked to Autism."
169
464020
1810
legate de autism.”
07:45
It's quite a list.
170
465830
3005
Este o listă destul de lungă.
07:48
The Internet, blamed for everything, right?
171
468835
3532
Internetul, mereu de vină, nu?
07:52
And of course mothers, because.
172
472367
3757
Și mamele, bineînțeles.
07:56
And actually, wait, there's more,
173
476124
1587
Și mai sunt de fapt
07:57
there's a whole bunch in the "mother" category here.
174
477711
3430
foarte multe în categoria „mame” aici.
08:01
And you can see it's a pretty rich and interesting list.
175
481141
4815
Și puteți vedea că e o listă bogată și interesantă.
08:05
I'm a big fan of
176
485956
2193
Îmi place mult
08:08
being pregnant near freeways, personally.
177
488149
3704
„să fii gravidă lângă autostrazi”.
08:11
The final one is interesting,
178
491853
1539
Ultima este interesantă
08:13
because the term "refrigerator mother"
179
493392
3003
pentru că termenul „mamă frigider”
08:16
was actually the original hypothesis
180
496395
2605
a fost ipoteza originală
08:19
for the cause of autism,
181
499000
1431
pentru cauzele autismului
08:20
and that meant somebody who was cold and unloving.
182
500431
2735
iar asta însemana o persoană rece și neafectuoasă.
08:23
And at this point, you might be thinking,
183
503166
1562
Și acum probabil vă gândiți,
08:24
"Okay, Susan, we get it,
184
504728
1657
„OK, Susan, am înțeles.
08:26
you can take data, you can make it mean anything."
185
506385
1782
Poți lua date și le poți da orice înțeles.”
08:28
And this is true, it's absolutely true,
186
508167
4703
Și e adevărat, e absolut adevărat.
08:32
but the challenge is that
187
512870
5610
Dar provocarea este că
08:38
we have this opportunity
188
518480
2448
avem oportunitatea
08:40
to try to make meaning out of it ourselves,
189
520928
2284
de a încerca să găsim singuri înțelesul,
08:43
because frankly, data doesn't create meaning. We do.
190
523212
5352
pentru că sincer, datele nu au înțeles. Noi îl dăm.
08:48
So as businesspeople, as consumers,
191
528564
3256
În calitate de oameni de afaceri, consumatori,
08:51
as patients, as citizens,
192
531820
2539
pacienți și cetățeni,
08:54
we have a responsibility, I think,
193
534359
2396
avem responsabilitatea, cred,
08:56
to spend more time
194
536755
2194
să petrecem mai mult timp
08:58
focusing on our critical thinking skills.
195
538949
2870
concentrându-ne pe abilitățile noastre de gândire critică.
09:01
Why?
196
541819
1078
De ce?
09:02
Because at this point in our history, as we've heard
197
542897
3178
Pentru că în acest moment, după cum am auzit
09:06
many times over,
198
546075
1706
de multe ori,
09:07
we can process exabytes of data
199
547781
1981
putem procesa exabiți de date
09:09
at lightning speed,
200
549762
2153
cu viteza luminii
09:11
and we have the potential to make bad decisions
201
551915
3515
și putem lua decizii proaste
09:15
far more quickly, efficiently,
202
555430
1834
mai repede, mai eficient
09:17
and with far greater impact than we did in the past.
203
557264
5028
și cu mai mare impact decât în trecut.
09:22
Great, right?
204
562292
1388
Grozav, nu?
09:23
And so what we need to do instead
205
563680
3030
Așa că ce trebuie să facem
09:26
is spend a little bit more time
206
566710
2330
este să petrecem mai mult timp
09:29
on things like the humanities
207
569040
2746
cu discipline umanistice
09:31
and sociology, and the social sciences,
208
571786
3464
ca sociologia și științele sociale,
09:35
rhetoric, philosophy, ethics,
209
575250
2308
retorica, filozofia, etica,
09:37
because they give us context that is so important
210
577558
2856
pentru că oferă context, care e atât de important
09:40
for big data, and because
211
580414
2576
pentru volumele mari de date
09:42
they help us become better critical thinkers.
212
582990
2418
și pentru că ne ajută să ne îmbunătățim gândirea critică.
09:45
Because after all, if I can spot
213
585408
4207
La urma urmei, dacă pot găsi
09:49
a problem in an argument, it doesn't much matter
214
589615
2486
o problemă într-o discuție, nu mai contează
09:52
whether it's expressed in words or in numbers.
215
592101
2759
dacă e exprimată în cuvinte sau în cifre.
09:54
And this means
216
594860
2719
Și asta înseamnă
09:57
teaching ourselves to find those confirmation biases
217
597579
4421
să ne educăm să identificăm acele predilecții
10:02
and false correlations
218
602000
1822
și legături false
10:03
and being able to spot a naked emotional appeal
219
603822
2138
și să fim capabili să identificăm o pistă falsă
10:05
from 30 yards,
220
605960
1662
de la 100 de metri,
10:07
because something that happens after something
221
607622
2522
pentru că ceva ce succede altceva
10:10
doesn't mean it happened because of it, necessarily,
222
610144
3082
nu înseamnă neaparat că s-a întâmplat din cauza lui
10:13
and if you'll let me geek out on you for a second,
223
613226
2119
și dacă mă lăsați să fiu puțin pedantă,
10:15
the Romans called this "post hoc ergo propter hoc,"
224
615345
4297
romanii numeau asta „post hoc ergo propter hoc”
10:19
after which therefore because of which.
225
619642
3296
după asta, iată că datorită asta.
10:22
And it means questioning disciplines like demographics.
226
622938
3757
Iar asta înseamnă să punem sub semnul întrebării discipline ca demografia.
10:26
Why? Because they're based on assumptions
227
626695
2520
De ce? Pentru că se bazează pe presupuneri
10:29
about who we all are based on our gender
228
629215
2306
despre cine suntem, în baza sexului
10:31
and our age and where we live
229
631521
1462
vârstei și locului unde trăim
10:32
as opposed to data on what we actually think and do.
230
632983
3478
în loc de informații despre ce gândim și cu ce ne ocupăm.
10:36
And since we have this data,
231
636461
1663
Și din moment ce avem aceste date
10:38
we need to treat it with appropriate privacy controls
232
638124
3139
trebuie să folosim controalele de confidențialitate potrivite
10:41
and consumer opt-in,
233
641263
3576
cu acordul consumatorului
10:44
and beyond that, we need to be clear
234
644839
2993
și mai mult de asta, trebuie să fim clari
10:47
about our hypotheses,
235
647832
2103
în legătură cu ipotezele
10:49
the methodologies that we use,
236
649935
2596
metodologiile pe care le folosim
10:52
and our confidence in the result.
237
652531
2804
și încerederea noastră în rezultate.
10:55
As my high school algebra teacher used to say,
238
655335
2474
Cum spunea profesorul meu de algebră din liceu
10:57
show your math,
239
657809
1531
„arată-mi calculele”
10:59
because if I don't know what steps you took,
240
659340
3441
pentru că dacă nu știu ce pași ai urmat,
11:02
I don't know what steps you didn't take,
241
662781
1991
nu știu ce pași nu ai urmat,
11:04
and if I don't know what questions you asked,
242
664772
2438
iar dacă nu știu ce întrebări ai pus,
11:07
I don't know what questions you didn't ask.
243
667210
3197
nu știu ce întrebări nu ai pus.
11:10
And it means asking ourselves, really,
244
670407
1523
Și înseamnă să ne întrebăm
11:11
the hardest question of all:
245
671930
1479
cea mai grea întrebare din toate:
11:13
Did the data really show us this,
246
673409
3500
Oare datele ne-au arătat asta,
11:16
or does the result make us feel
247
676909
2311
sau rezultatul ne face să ne simțim
11:19
more successful and more comfortable?
248
679220
3878
sau realizați și mai satisfăcuți?
11:23
So the Health Media Collaboratory,
249
683098
2584
Așa că Health Media Collaboratory
11:25
at the end of their project, they were able
250
685682
1699
au fost în stare la sfârșitul proiectului
11:27
to find that 87 percent of tweets
251
687381
3408
să vadă că 87% din tweeturile
11:30
about those very graphic and disturbing
252
690789
2144
despre reclamele acelea anti-fumat
11:32
anti-smoking ads expressed fear,
253
692933
4038
foarte grafice și deranjante provocau frică
11:36
but did they conclude
254
696971
1856
dau au putut trage concluzia
11:38
that they actually made people stop smoking?
255
698827
3161
că determinau într-adevăr oamenii să se lase de fumat?
11:41
No. It's science, not magic.
256
701988
2542
Nu. E știință, nu magie.
11:44
So if we are to unlock
257
704530
3190
Așa că dacă trebuie să dezlegăm
11:47
the power of data,
258
707720
2862
puterea datelor
11:50
we don't have to go blindly into
259
710582
3448
nu prebuie să urmăm orbește
11:54
Orwell's vision of a totalitarian future,
260
714030
3436
viziunea lui Orwell despre un viitor totalitar
11:57
or Huxley's vision of a trivial one,
261
717466
3117
sau cea a lui Huxley despre un viitor banal,
12:00
or some horrible cocktail of both.
262
720583
3020
sau vreun amestec groaznic din ambele.
12:03
What we have to do
263
723603
2379
Ce trebuie să facem
12:05
is treat critical thinking with respect
264
725982
2718
este să prețuim gândirea critică
12:08
and be inspired by examples
265
728700
2029
și să fim inspirați de exemple
12:10
like the Health Media Collaboratory,
266
730729
2610
cum ar fi cel al Health Media Collaboratory
12:13
and as they say in the superhero movies,
267
733339
2328
sau, cum spun în filmele cu supereroi,
12:15
let's use our powers for good.
268
735667
1822
să ne folosim puterile pentru bine.
12:17
Thank you.
269
737489
2351
Vă mulțumesc.
12:19
(Applause)
270
739840
2334
(Aplauze)
Despre acest site

Acest site vă va prezenta videoclipuri de pe YouTube care sunt utile pentru a învăța limba engleză. Veți vedea lecții de engleză predate de profesori de top din întreaga lume. Faceți dublu clic pe subtitrările în limba engleză afișate pe fiecare pagină video pentru a reda videoclipul de acolo. Subtitrările se derulează în sincron cu redarea videoclipului. Dacă aveți comentarii sau solicitări, vă rugăm să ne contactați folosind acest formular de contact.

https://forms.gle/WvT1wiN1qDtmnspy7