Susan Etlinger: What do we do with all this big data?

سوزان اتلینگر: با این حجم وسیع اطلاعات چه می کنیم؟

153,066 views

2014-10-20 ・ TED


New videos

Susan Etlinger: What do we do with all this big data?

سوزان اتلینگر: با این حجم وسیع اطلاعات چه می کنیم؟

153,066 views ・ 2014-10-20

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: Ali Hosseini Reviewer: soheila Jafari
00:13
Technology has brought us so much:
0
13354
3135
تکنولوژی دست آوردهای زیادی داشته است:
00:16
the moon landing, the Internet,
1
16489
2019
سفر به کره ماه، اینترنت،
00:18
the ability to sequence the human genome.
2
18508
2625
توانمندی در دست کاری ژنتیک انسان
00:21
But it also taps into a lot of our deepest fears,
3
21133
3724
اما خیلی از ترسهای قدیمی ما را نیز تازه می کند،
00:24
and about 30 years ago,
4
24857
1856
در حدود ۳۰ سال پیش
00:26
the culture critic Neil Postman wrote a book
5
26713
2553
منتقد فرهنگی، نیل پُستمن، کتابی نوشت
00:29
called "Amusing Ourselves to Death,"
6
29266
2115
به نام «زندگی در عیش، مردن در خوشی»
00:31
which lays this out really brilliantly.
7
31381
2759
که این موضوع را به خوبی بیان می کند.
00:34
And here's what he said,
8
34140
1650
او این مساله را با
00:35
comparing the dystopian visions
9
35790
2263
مقایسه تصورات جورج اورول و آلدوس هاکسلی
00:38
of George Orwell and Aldous Huxley.
10
38053
3573
از ناکجا آباد بیان می کند.
00:41
He said, Orwell feared we would become
11
41626
3126
او می گوید، اورول می ترسید که ما
00:44
a captive culture.
12
44752
2248
به لحاظ فرهنگی اسیر شویم.
00:47
Huxley feared we would become a trivial culture.
13
47000
3752
هاکسی می ترسید که ما به لحاظ فرهنگی بی محتوا شویم.
00:50
Orwell feared the truth would be
14
50752
2145
اورول می ترسید که حقیقت
00:52
concealed from us,
15
52897
1923
از ما پنهان شود.
00:54
and Huxley feared we would be drowned
16
54820
2190
و هاکسلی می ترسید که ما
00:57
in a sea of irrelevance.
17
57010
2693
در دریای حاشیه ها غرق شویم.
00:59
In a nutshell, it's a choice between
18
59703
2170
به صورت کلی، این یک انتخاب بین این است که
01:01
Big Brother watching you
19
61873
2600
«برادر بزرگ» بر شما نظارت کند
01:04
and you watching Big Brother.
20
64473
2496
یا شما بر «برادر بزرگ» نظارت کنید.
01:06
(Laughter)
21
66969
1931
(خنده حضار)
01:08
But it doesn't have to be this way.
22
68900
1734
اما لزومی ندارد که اینگونه بماند.
01:10
We are not passive consumers of data and technology.
23
70634
3336
ما مصرف کنندگان مطیع داده و فناوری نیستیم.
01:13
We shape the role it plays in our lives
24
73970
2403
ما نقش آن را در زندگی خود شکل می دهیم
01:16
and the way we make meaning from it,
25
76373
2130
و به آن معنا می دهیم،
01:18
but to do that,
26
78503
1603
ولی برای انجام این کار،
01:20
we have to pay as much attention to how we think
27
80106
3513
باید به همان میزان به نحوه فکر کردنمان اهمیت بدهیم،
01:23
as how we code.
28
83619
2030
که به نحوه کد نوشتنمان اهمیت می دهیم.
01:25
We have to ask questions, and hard questions,
29
85649
3098
ما باید سوال بپرسیم، سوالهای سخت،
01:28
to move past counting things
30
88747
1869
تا از شمارش عبور کنیم،
01:30
to understanding them.
31
90616
2602
و به ادراک و فهم اطلاعات برسیم.
01:33
We're constantly bombarded with stories
32
93218
2446
ما دائما با داستانهای مختلفی درباره این که
01:35
about how much data there is in the world,
33
95664
2476
چقدر داده در جهان وجود دارد بمباران می شویم،
01:38
but when it comes to big data
34
98140
1580
اما وقتی صحبت از داده های بزرگ
01:39
and the challenges of interpreting it,
35
99720
2596
و چالش تفسیر آن می شود،
01:42
size isn't everything.
36
102316
2088
اندازه همه چیز نیست.
01:44
There's also the speed at which it moves,
37
104404
2903
سرعت جابجایی آن نیز مطرح است،
01:47
and the many varieties of data types,
38
107307
1696
و تنوع اشکال مختلف داده،
01:49
and here are just a few examples:
39
109003
2498
اینجا فقط چند نمونه را می گویم:
01:51
images,
40
111501
2198
تصاویر،
01:53
text,
41
113699
4007
متن،
01:57
video,
42
117706
2095
ویدیو،
01:59
audio.
43
119801
1830
صوت.
02:01
And what unites this disparate types of data
44
121631
3042
و چیزی که این داده ها را به هم مربوط می سازد
02:04
is that they're created by people
45
124673
2221
این است که همه آنها توسط آدمها تولید شده اند
02:06
and they require context.
46
126894
2775
و همه آنها مفهوم دارند.
02:09
Now, there's a group of data scientists
47
129669
2445
بسیار خوب، گروهی از دانشمندان
02:12
out of the University of Illinois-Chicago,
48
132114
2305
در دانشگاه ایلینویز-شیکاگو وجود دارند،
02:14
and they're called the Health Media Collaboratory,
49
134419
2554
که به آنان «کارگروه سلامت رسانه» می گویند،
02:16
and they've been working with the Centers for Disease Control
50
136973
2587
و با مراکز کنترل بیماری ها کار می کنند
02:19
to better understand
51
139560
1505
تا درک بهتری داشته باشند از گفتگوی
02:21
how people talk about quitting smoking,
52
141065
2848
مردم در رابطه با ترک دود( سیگار)،
02:23
how they talk about electronic cigarettes,
53
143913
2680
درباره سیگارهای الکترونیکی،
02:26
and what they can do collectively
54
146593
1985
و این که کلا چه کاری می توان انجام داد،
02:28
to help them quit.
55
148578
1984
که به ترک سیگار کمک شود.
02:30
The interesting thing is, if you want to understand
56
150562
2013
نکته جالب این است که اگر بخواهیم درک کنیم
02:32
how people talk about smoking,
57
152575
2216
که مردم چطور درباره دود حرف می زنند،
02:34
first you have to understand
58
154791
1901
ابتدا باید بفهمیم که
02:36
what they mean when they say "smoking."
59
156692
2565
منظور آنها وقتی می گویند «دود» چیست.
02:39
And on Twitter, there are four main categories:
60
159257
3926
و در توییتر، ۴ دسته بندی اصلی وجود دارد:
02:43
number one, smoking cigarettes;
61
163183
2997
شماره یک: دود سیگار؛
02:46
number two, smoking marijuana;
62
166180
2807
شماره دو: دود ماریجوانا (علف)
02:48
number three, smoking ribs;
63
168987
2643
شماره سه: کباب دودی
02:51
and number four, smoking hot women.
64
171630
3553
شماره سه: با دخترهای خوشگل اشنا شوید.(دود کردن دخترها)
02:55
(Laughter)
65
175183
2993
(خنده حضار)
02:58
So then you have to think about, well,
66
178176
2426
پس بعد باید درباره این فکر کنید که،
03:00
how do people talk about electronic cigarettes?
67
180602
2140
چطور راجع به سیگارهای الکترونیکی صحبت می شود؟
03:02
And there are so many different ways
68
182742
2025
و مردم به اشکال مختلفی این کار را
03:04
that people do this, and you can see from the slide
69
184767
2599
انجام می دهند، که می توانید در اسلاید ببینید که
03:07
it's a complex kind of a query.
70
187366
2610
بسیار پیچیده است.
03:09
And what it reminds us is that
71
189976
3224
و آنچه که به یاد ما می آورد این است که
03:13
language is created by people,
72
193200
2411
زبان توسط افراد ایجاد می شود،
03:15
and people are messy and we're complex
73
195611
2340
و افراد درهم و برهم و پیچیده اند
03:17
and we use metaphors and slang and jargon
74
197951
2767
و ما از ضرب المثل وکنایه و هجو استفاده می کنیم
03:20
and we do this 24/7 in many, many languages,
75
200718
3279
و این کار را هر روز و هر ساعت، به زبانهای مختلف انجام می دهیم.
03:23
and then as soon as we figure it out, we change it up.
76
203997
3224
و بعد به محض اینکه کارمان با آن تمام می شود، تغییرش می دهیم.
03:27
So did these ads that the CDC put on,
77
207221
5118
مانند کاری که تبلیغات شرکت CDC انجام داد.
03:32
these television ads that featured a woman
78
212339
2430
تبلیغاتی تلویزیونی که زنی را نشان می داد
03:34
with a hole in her throat and that were very graphic
79
214769
2021
با یک سوراخ روی گلویش، با تصویری واضح
03:36
and very disturbing,
80
216790
1904
و بسیار ناراحت کننده،
03:38
did they actually have an impact
81
218694
1885
آیا واقعا تاثیری بر روی
03:40
on whether people quit?
82
220579
2671
ترک سیگار داشت؟
03:43
And the Health Media Collaboratory respected the limits of their data,
83
223250
3307
و «کارگروه سلامت رسانه» با احترام به محدودیت اطلاعاتشان،
03:46
but they were able to conclude
84
226557
2005
نتیجه گیری کرد که
03:48
that those advertisements — and you may have seen them —
85
228562
3312
این گونه تبلیغات - که شما ممکن است دیده باشید -
03:51
that they had the effect of jolting people
86
231874
2591
مردم را درگیر به یک
03:54
into a thought process
87
234465
1822
فرآیند فکری می کنند
03:56
that may have an impact on future behavior.
88
236287
3667
که ممکن است بر رفتار آنها در آینده اثر بگذارد.
03:59
And what I admire and appreciate about this project,
89
239954
3891
و آنچه که من در ارتباط با این پروژه تحسین می کنم،
04:03
aside from the fact, including the fact
90
243845
1489
به جز این حقیقت که
04:05
that it's based on real human need,
91
245334
4057
بر اساس نیاز واقعی انسان است،
04:09
is that it's a fantastic example of courage
92
249391
2846
این است که این یک مثال فوق العاده از «شجاعت»
04:12
in the face of a sea of irrelevance.
93
252237
4443
در مواجهه با «دریایی از حاشیه ها» است.
04:16
And so it's not just big data that causes
94
256680
3305
و خب تنها حجم عظیم اطلاعات نیستند که باعث می شوند
04:19
challenges of interpretation, because let's face it,
95
259985
2601
چالش هایی در تفسیر رخ دهد٬ زیرا بگذارید با آن روبرو شویم٬
04:22
we human beings have a very rich history
96
262586
2594
ما انسان ها تاریخی غنی داریم
04:25
of taking any amount of data, no matter how small,
97
265180
2693
از گرفتن هر حجمی از اطلاعات٬ هرچند کوچک٬
04:27
and screwing it up.
98
267873
1617
و نهایتاً خراب کردن آن.
04:29
So many years ago, you may remember
99
269490
3737
خب چندین سال پیش شما ممکن است به یاد داشته باشید
04:33
that former President Ronald Reagan
100
273227
2273
که رئیس جمهور سابق رونالد ریگان
04:35
was very criticized for making a statement
101
275500
1991
شدیدا بخاطر صحبتش درباره
04:37
that facts are stupid things.
102
277491
3010
«احمقانه بودن حقایق» انتقاد شد.
04:40
And it was a slip of the tongue, let's be fair.
103
280501
2794
بیایید منصف باشیم چون اون از دستش در رفت.
04:43
He actually meant to quote John Adams' defense
104
283295
2430
در حقیقت منظورش نقلی قولی از دفاعیه جان آدامز بود
04:45
of British soldiers in the Boston Massacre trials
105
285725
2751
درباره سربازان بریتانیایی در محاکمه «قتل عام بوستون»
04:48
that facts are stubborn things.
106
288476
3150
که حقایق مطالبی سرسخت هستند.
04:51
But I actually think there's
107
291626
2624
اما من واقعاً فکر می کنم
04:54
a bit of accidental wisdom in what he said,
108
294250
3418
تصادفاً مقداری از ذکاوت در آن چه گفت وجود دارد٬
04:57
because facts are stubborn things,
109
297668
2776
چرا که واقعاً حقایق محکمند،
05:00
but sometimes they're stupid, too.
110
300444
2923
اما برخی اوقات احمقانه هم هستند.
05:03
I want to tell you a personal story
111
303367
1888
می خواهم داستانی شخصی را برایتان بگویم
05:05
about why this matters a lot to me.
112
305255
3548
که چرا اینقدر این مسأله برایم مهم است.
05:08
I need to take a breath.
113
308803
2437
بگذارید نفسی تازه کنم.
05:11
My son Isaac, when he was two,
114
311240
2754
پسرم ایزاک٬ در دو سالگی
05:13
was diagnosed with autism,
115
313994
2417
مبتلا به اوتیسم شد٬
05:16
and he was this happy, hilarious,
116
316411
2161
و او مرد کوچک خوشحال، بشاش،
05:18
loving, affectionate little guy,
117
318572
2035
دوست داشتنی و خونگرم بود
05:20
but the metrics on his developmental evaluations,
118
320607
2902
اما مقیاس های ارزیابی رشد او،
05:23
which looked at things like the number of words —
119
323509
2070
که به مواردی چون تعداد کلمات نگاه می کرد
05:25
at that point, none —
120
325579
3657
و در آن زمان،
05:29
communicative gestures and minimal eye contact,
121
329236
3940
نبود علائم روشنی از ارتباط و حداقل تماس چشمی
05:33
put his developmental level
122
333176
2003
سطح رشد او را
05:35
at that of a nine-month-old baby.
123
335179
3961
برابر با کودکی 9 ماهه قرار داد.
05:39
And the diagnosis was factually correct,
124
339140
2960
و تشخیص بیماری در حقیقت درست بود٬
05:42
but it didn't tell the whole story.
125
342100
3209
اما تمام ماجرا را بیان نمی کرد.
05:45
And about a year and a half later,
126
345309
1401
و یکسال و نیم بعد٬
05:46
when he was almost four,
127
346710
2102
وقتی که پسرم ۴ ساله بود٬
05:48
I found him in front of the computer one day
128
348812
2363
روزی دیدم پسرم جلوی کامپیوتر نشسته
05:51
running a Google image search on women,
129
351175
5453
و جستجوی تصویری را درباره کلمه «زنان» انجام می دهد٬
05:56
spelled "w-i-m-e-n."
130
356628
3616
در حالی که یک حرف از کلمه را اشتباه هجی کرده بود.
06:00
And I did what any obsessed parent would do,
131
360244
2740
و من کاری را کردم که هر مادر حساسی انجام می داد٬
06:02
which is immediately started hitting the "back" button
132
362984
1901
و فوراً کلید عقبگرد را زدم
06:04
to see what else he'd been searching for.
133
364885
3363
تا ببینم او درباره چه چیزهایی جستجو می کرده است.
06:08
And they were, in order: men,
134
368248
2171
و آن ها به ترتیب: مردان٬
06:10
school, bus and computer.
135
370419
7267
مدرسه٬ اتوبوس و کامپیوتر بودند.
06:17
And I was stunned,
136
377686
2070
و من شگفت زده شدم٬
06:19
because we didn't know that he could spell,
137
379756
2002
چون ما نمی دانستیم که او می تواند هجی کند٬
06:21
much less read, and so I asked him,
138
381758
1766
یا بخواند، و خب از او پرسیدم،
06:23
"Isaac, how did you do this?"
139
383524
2193
«ایزاک٬ چطور این کار رو کردی؟»
06:25
And he looked at me very seriously and said,
140
385717
2678
او خیلی جدی به من نگاه کرد و گفت٬
06:28
"Typed in the box."
141
388395
3352
«تو این کادر جستجو نوشتم.»
06:31
He was teaching himself to communicate,
142
391747
3734
او به خودش یاد می داد تا ارتباط برقرار کند٬
06:35
but we were looking in the wrong place,
143
395481
3004
اما ما در مسیر غلطی بودیم٬
06:38
and this is what happens when assessments
144
398485
2295
و این چیزی است که اتفاق می افتد وقتی ارزیابی ها
06:40
and analytics overvalue one metric —
145
400780
2396
و تحلیل ها یک ویژگی را بیشتر اهمیت می دهند
06:43
in this case, verbal communication —
146
403176
2609
که در این مورد ارتباط کلامی بود
06:45
and undervalue others, such as creative problem-solving.
147
405785
5703
و بقیه را نادیده می گیرد٬ مانند حل خلاق مسائل.
06:51
Communication was hard for Isaac,
148
411488
2307
برقراری ارتباط برای ایزاک سخت بود٬
06:53
and so he found a workaround
149
413795
1912
و او راهی میانبر را پیدا کرد
06:55
to find out what he needed to know.
150
415707
2857
تا بفهمد که چه چیزی را نیاز دارد که بداند.
06:58
And when you think about it, it makes a lot of sense,
151
418564
1890
وقتی درباره آن فکر میکنید٬ منطقی است،
07:00
because forming a question
152
420454
2081
زیرا طرح یک سؤال
07:02
is a really complex process,
153
422535
2565
فرآیندی کاملاً پیچیده است٬
07:05
but he could get himself a lot of the way there
154
425100
2522
اما او توانست خود را در این مسیر
07:07
by putting a word in a search box.
155
427622
4092
با گذاشتن کلمه را در کادر جستجو، قرار دهد.
07:11
And so this little moment
156
431714
2936
و خب این اتفاق کوتاه
07:14
had a really profound impact on me
157
434650
2836
اثر واقعاً عمیقی بر من
07:17
and our family
158
437486
1309
و خانواده ام گذاشت.
07:18
because it helped us change our frame of reference
159
438795
3141
چرا که کمک کرد تا چارچوب نگاهمان را
07:21
for what was going on with him,
160
441936
2208
درباره وضعیت پسرم تغییر دهیم٬
07:24
and worry a little bit less and appreciate
161
444144
2976
و اندکی از نگرانی خود بکاهیم
07:27
his resourcefulness more.
162
447120
2182
و تدبیر او را قدر بدانیم.
07:29
Facts are stupid things.
163
449302
2861
حقایق احمقانه هستند.
07:32
And they're vulnerable to misuse,
164
452163
2397
و آنها در معرض سوء استفاده
07:34
willful or otherwise.
165
454560
1653
استفاده خودسرانه و ... هستند.
07:36
I have a friend, Emily Willingham, who's a scientist,
166
456213
3026
من دوستی به نام امیلی ویلینگتون که دانشمند است دارم٬
07:39
and she wrote a piece for Forbes not long ago
167
459239
2801
اندکی پیش متنی را برای «فوربس» نوشت
07:42
entitled "The 10 Weirdest Things
168
462040
1980
به عنوان «۱۰ چیز بسیار عجیب
07:44
Ever Linked to Autism."
169
464020
1810
مرتبط با اوتیسم»
07:45
It's quite a list.
170
465830
3005
لیست جالبی بود.
07:48
The Internet, blamed for everything, right?
171
468835
3532
اینترنت در همه چیز مقصر است٬ درسته؟
07:52
And of course mothers, because.
172
472367
3757
و همچنین مادران.
07:56
And actually, wait, there's more,
173
476124
1587
و خب چیزهای دیگری هم هستند٬
07:57
there's a whole bunch in the "mother" category here.
174
477711
3430
گروه بزرگی از موارد مرتبط با «مادر» اینجاست.
08:01
And you can see it's a pretty rich and interesting list.
175
481141
4815
و شما می بینید که این لیستی بلند بالا و جالب است.
08:05
I'm a big fan of
176
485956
2193
من که به شخصه، طرفدار
08:08
being pregnant near freeways, personally.
177
488149
3704
«زن باردار که نزدیک بزرگ راه زندگی می کند» هستم.
08:11
The final one is interesting,
178
491853
1539
آخری بسیار عجیب است.
08:13
because the term "refrigerator mother"
179
493392
3003
به خاطر عبارت «مادر یخچالی»
08:16
was actually the original hypothesis
180
496395
2605
که عملاً فرضیه ای اساسی
08:19
for the cause of autism,
181
499000
1431
برای دلیل اوتیسم است،
08:20
and that meant somebody who was cold and unloving.
182
500431
2735
و این یعنی کسی که سرد و غیردوست داشتنی است.
08:23
And at this point, you might be thinking,
183
503166
1562
و در اینجا، شما ممکن است فکر کنید،
08:24
"Okay, Susan, we get it,
184
504728
1657
«خب سوزان ما فهمیدیم
08:26
you can take data, you can make it mean anything."
185
506385
1782
میتونی اطلاعات رو هرجوری تفسیر کنی»
08:28
And this is true, it's absolutely true,
186
508167
4703
و این درسته٬ کاملاً درسته٬
08:32
but the challenge is that
187
512870
5610
اما چالش این است که
08:38
we have this opportunity
188
518480
2448
ما این فرصت را داریم
08:40
to try to make meaning out of it ourselves,
189
520928
2284
تا معنایی مناسب را از آن استخراج کنیم٬
08:43
because frankly, data doesn't create meaning. We do.
190
523212
5352
چرا که صریح بگم٬ اطلاعات معنایی ندارند٬ بلکه ما معنا می سازیم.
08:48
So as businesspeople, as consumers,
191
528564
3256
پس به عنوان تاجر٬ مصرف کننده٬
08:51
as patients, as citizens,
192
531820
2539
بیمار٬ شهروند و ...
08:54
we have a responsibility, I think,
193
534359
2396
فکر می کنم که همه ما مسئولیم٬
08:56
to spend more time
194
536755
2194
تا زمان بیشتری بگذاریم
08:58
focusing on our critical thinking skills.
195
538949
2870
بر تمرکز روی توانایی تفکر تشخیصی مان.
09:01
Why?
196
541819
1078
چرا؟
09:02
Because at this point in our history, as we've heard
197
542897
3178
زیرا در نقطه از تاریخ٬ همانطور که شنیدیم
09:06
many times over,
198
546075
1706
بارها و بارها٬
09:07
we can process exabytes of data
199
547781
1981
می توانیم میلیاردها گیگا داده را پردازش کنیم
09:09
at lightning speed,
200
549762
2153
با سرعت نور،
09:11
and we have the potential to make bad decisions
201
551915
3515
و ما بالقوه ممکن است تصمیماتی بد بگیریم
09:15
far more quickly, efficiently,
202
555430
1834
آن هم بسیار سریع و در لحظه
09:17
and with far greater impact than we did in the past.
203
557264
5028
و اثری به مراتب بزرگتر نسبت به گذشته٬
09:22
Great, right?
204
562292
1388
بزرگ٬ نه؟
09:23
And so what we need to do instead
205
563680
3030
پس آنچه که ما باید به جایش انجام دهیم
09:26
is spend a little bit more time
206
566710
2330
اندکی صرف وقت بیشتر است
09:29
on things like the humanities
207
569040
2746
روی مسائلی همچون انسانیت٬
09:31
and sociology, and the social sciences,
208
571786
3464
جامعه شناسی و علوم اجتماعی٬
09:35
rhetoric, philosophy, ethics,
209
575250
2308
سخنوری٬ فلسفه٬ اخلاق٬
09:37
because they give us context that is so important
210
577558
2856
چون آنها زمینه ای را در اختیار ما می گذارند که
09:40
for big data, and because
211
580414
2576
برای داده های بزرگ بسیار مهم هستند٬
09:42
they help us become better critical thinkers.
212
582990
2418
و چون به ما کمک می کنند تا متفکرین بهتری شویم.
09:45
Because after all, if I can spot
213
585408
4207
چون به هرترتیب٬ اگر بتوانم
09:49
a problem in an argument, it doesn't much matter
214
589615
2486
مشکلی را در یک بحث مشخص کنم٬ مهم نیست که
09:52
whether it's expressed in words or in numbers.
215
592101
2759
در قالب کلمات و یا ارقام مطرح شود.
09:54
And this means
216
594860
2719
و این یعنی
09:57
teaching ourselves to find those confirmation biases
217
597579
4421
به خود یاد یاد دهیم تا آن تعصبات را پیدا کنیم
10:02
and false correlations
218
602000
1822
و ارتباطات غلط را تشخیص دهیم
10:03
and being able to spot a naked emotional appeal
219
603822
2138
و بتوانیم نظر احساسی را شناسایی کنیم
10:05
from 30 yards,
220
605960
1662
از فاصله ای دور
10:07
because something that happens after something
221
607622
2522
چرا که چیزی بعد از چیز دیگری اتفاق می افتد
10:10
doesn't mean it happened because of it, necessarily,
222
610144
3082
لزوما دلیل رخ داد آن نیست٬
10:13
and if you'll let me geek out on you for a second,
223
613226
2119
و اگر بگذارید تا من برای لحظه ای شما را به هیجان ببرم
10:15
the Romans called this "post hoc ergo propter hoc,"
224
615345
4297
رومی ها به این می گفتند: «post hoc ergo propter hoc...»
10:19
after which therefore because of which.
225
619642
3296
به این معنا که هر چیزی علت چیز دیگری است.
10:22
And it means questioning disciplines like demographics.
226
622938
3757
و این یعنی اصول را مثل سرشماری بپرسید.
10:26
Why? Because they're based on assumptions
227
626695
2520
چرا؟ چون آن ها بر مبنای فرضیاتی هستند
10:29
about who we all are based on our gender
228
629215
2306
درباره این که همه ما طبق جنسیت
10:31
and our age and where we live
229
631521
1462
سن و محل زندگی٬ چه کسانی هستیم
10:32
as opposed to data on what we actually think and do.
230
632983
3478
برخلاف اطلاعاتی درباره آن چه ما واقعاً فکر می کنیم و انجام می دهیم.
10:36
And since we have this data,
231
636461
1663
و از آنجا که این اطلاعات را داریم٬
10:38
we need to treat it with appropriate privacy controls
232
638124
3139
ما لازم است تا با کنترل های مناسب حیطه شخصی نگاه کنیم
10:41
and consumer opt-in,
233
641263
3576
و هم چنین بحث انتخاب مصرف کننده
10:44
and beyond that, we need to be clear
234
644839
2993
و فراتر از این٬ لازم است تا درباره
10:47
about our hypotheses,
235
647832
2103
فرضیاتمان واضح صحبت کنیم٬
10:49
the methodologies that we use,
236
649935
2596
و همچنین روش های مورد استفاده
10:52
and our confidence in the result.
237
652531
2804
و اطمینانمان به نتایج.
10:55
As my high school algebra teacher used to say,
238
655335
2474
همانطور که معلم جبر من در دبیرستان همیشه می گفت٬
10:57
show your math,
239
657809
1531
ریاضی خودت رو نشون بده٬
10:59
because if I don't know what steps you took,
240
659340
3441
چرا که اگر من ندانم که چه گام هایی را تا الآن برداشتی٬
11:02
I don't know what steps you didn't take,
241
662781
1991
نخواهم فهمید که چه گام هایی را برنداشته ای٬
11:04
and if I don't know what questions you asked,
242
664772
2438
و اگر ندانم چه سوالاتی را پرسیده ای٬
11:07
I don't know what questions you didn't ask.
243
667210
3197
نخواهم فهمید کدام را نپرسیده ای.
11:10
And it means asking ourselves, really,
244
670407
1523
و این یعنی از خودمان بپرسیم٬
11:11
the hardest question of all:
245
671930
1479
سخت ترین سوال ممکن را:
11:13
Did the data really show us this,
246
673409
3500
آیا اطلاعات واقعاً این را نشان دادند
11:16
or does the result make us feel
247
676909
2311
یا نتایج به ما احساس بیشتری از
11:19
more successful and more comfortable?
248
679220
3878
موفقیت و راحتی می دهند؟
11:23
So the Health Media Collaboratory,
249
683098
2584
خوب کارگروه سلامت رسانه٬
11:25
at the end of their project, they were able
250
685682
1699
در انتهای پروژه خود٬ توانستند
11:27
to find that 87 percent of tweets
251
687381
3408
دریابند که حدود ۸۷ درصد توییت ها
11:30
about those very graphic and disturbing
252
690789
2144
درباره صحنه های واضح و ناراحت کننده
11:32
anti-smoking ads expressed fear,
253
692933
4038
در تبلیغات علیه سیگار منجر به ترس می شود٬
11:36
but did they conclude
254
696971
1856
اما آیا آنها نتیجه گرفتند
11:38
that they actually made people stop smoking?
255
698827
3161
که توانستند واقعاً جلوی مردم را از کشیدن سیگار بگیرند؟
11:41
No. It's science, not magic.
256
701988
2542
نه٬ این علم است و نه جادو.
11:44
So if we are to unlock
257
704530
3190
اگر ما قدرت اطلاعات را
11:47
the power of data,
258
707720
2862
آزاد کنیم
11:50
we don't have to go blindly into
259
710582
3448
کورکورانه به مسیری نمی رویم که
11:54
Orwell's vision of a totalitarian future,
260
714030
3436
دید اورول از آینده اسیری٬
11:57
or Huxley's vision of a trivial one,
261
717466
3117
یا نگاه هاکسی درباره بی محتوایی٬
12:00
or some horrible cocktail of both.
262
720583
3020
یا ترکیبی وحشتناکی از هر دو‌ باشد.
12:03
What we have to do
263
723603
2379
آنچه باید بکنیم
12:05
is treat critical thinking with respect
264
725982
2718
احترام به تفکر تشخیصی است
12:08
and be inspired by examples
265
728700
2029
و الهام از نمونه های واقعی است
12:10
like the Health Media Collaboratory,
266
730729
2610
مانند کارگروه سلامت رسانه٬
12:13
and as they say in the superhero movies,
267
733339
2328
و همانطور که در فیلم های ابرقهرمانی می گویند
12:15
let's use our powers for good.
268
735667
1822
از قدرتمان در کارهای خوب استفاده کنیم.
12:17
Thank you.
269
737489
2351
ممنون.
12:19
(Applause)
270
739840
2334
(تشویق)
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7