Susan Etlinger: What do we do with all this big data?

153,066 views ・ 2014-10-20

TED


אנא לחץ פעמיים על הכתוביות באנגלית למטה כדי להפעיל את הסרטון.

מתרגם: Ido Dekkers מבקר: Tal Dekkers
00:13
Technology has brought us so much:
0
13354
3135
הטכנולוגיה הביאה לנו כל כך הרבה:
00:16
the moon landing, the Internet,
1
16489
2019
הנחיתה על הירח, האינטרנט,
00:18
the ability to sequence the human genome.
2
18508
2625
היכולת למפות את הגנום האנושי.
00:21
But it also taps into a lot of our deepest fears,
3
21133
3724
אבל היא גם מנצלת הרבה מהפחדים הגדולים ביותר שלנו,
00:24
and about 30 years ago,
4
24857
1856
ולפני כשלושים שנה,
00:26
the culture critic Neil Postman wrote a book
5
26713
2553
מבקר התרבות ניל פוסטמן כתב ספר
00:29
called "Amusing Ourselves to Death,"
6
29266
2115
שנקרא "לשעשע את עצמנו למוות",
00:31
which lays this out really brilliantly.
7
31381
2759
שמסביר את זה בצורה ממש מבריקה.
00:34
And here's what he said,
8
34140
1650
והנה מה שהוא אמר,
00:35
comparing the dystopian visions
9
35790
2263
באמצעות השוואה החזיונות הדיסטופיים
00:38
of George Orwell and Aldous Huxley.
10
38053
3573
של ג'ורג' אורוול ואלדוס האקסלי,
00:41
He said, Orwell feared we would become
11
41626
3126
הוא אמר, "אורוול חשש שנהפוך
00:44
a captive culture.
12
44752
2248
לתרבות שבויה,
00:47
Huxley feared we would become a trivial culture.
13
47000
3752
האקסלי חשש שנהפוך לתרבות טריוויאלית.
00:50
Orwell feared the truth would be
14
50752
2145
אורוול חשש שהאמת
00:52
concealed from us,
15
52897
1923
תוסתר מאתנו,
00:54
and Huxley feared we would be drowned
16
54820
2190
והאקסלי חשש שנטבע
00:57
in a sea of irrelevance.
17
57010
2693
בים של חוסר רלוונטיות.
00:59
In a nutshell, it's a choice between
18
59703
2170
על קצה המזלג, זוהי הבחירה בין
01:01
Big Brother watching you
19
61873
2600
האח הגדול שצופה בך
01:04
and you watching Big Brother.
20
64473
2496
ואתה צופה ב"אח הגדול".
01:06
(Laughter)
21
66969
1931
(צחוק)
01:08
But it doesn't have to be this way.
22
68900
1734
אבל זה לא חייב להיות כך.
01:10
We are not passive consumers of data and technology.
23
70634
3336
אנחנו איננו צרכניים פאסיביים של מידע וטכנולוגיה
01:13
We shape the role it plays in our lives
24
73970
2403
אנו מעצבים את התפקיד אותו הם תופסים בחיינו
01:16
and the way we make meaning from it,
25
76373
2130
והדרך בה אנו שואבים משמעות מהם,
01:18
but to do that,
26
78503
1603
אבל על מנת לעשות זאת,
01:20
we have to pay as much attention to how we think
27
80106
3513
עלינו לשים לב באותה מידה לאופן החשיבה שלנו
01:23
as how we code.
28
83619
2030
ולצורת הקידוד שלנו.
01:25
We have to ask questions, and hard questions,
29
85649
3098
עלינו לשאול שאלות, ושאלות קשות,
01:28
to move past counting things
30
88747
1869
להתעלות מעל ספירת דברים
01:30
to understanding them.
31
90616
2602
להבנתם.
01:33
We're constantly bombarded with stories
32
93218
2446
אנחנו, באופן מתמיד, מופגזים בסיפורים
01:35
about how much data there is in the world,
33
95664
2476
על כמה מידע קיים בעולם
01:38
but when it comes to big data
34
98140
1580
אבל כאשר מדובר במידע גדול
01:39
and the challenges of interpreting it,
35
99720
2596
והאתגרים הכרוכים בהבנתו,
01:42
size isn't everything.
36
102316
2088
הגודל אינו הכל.
01:44
There's also the speed at which it moves,
37
104404
2903
ישנה גם המהירות בה הוא נע,
01:47
and the many varieties of data types,
38
107307
1696
והמאפיינים הרבים של סוגי המידע הקיים.
01:49
and here are just a few examples:
39
109003
2498
והנה כמה דוגמאות:
01:51
images,
40
111501
2198
תמונות,
01:53
text,
41
113699
4007
טקסט,
01:57
video,
42
117706
2095
וידאו,
01:59
audio.
43
119801
1830
אודיו (שמע).
02:01
And what unites this disparate types of data
44
121631
3042
ומה שמאחד את סוגי המידע השונים האלה
02:04
is that they're created by people
45
124673
2221
הוא שהם נוצרו על ידי אנשים
02:06
and they require context.
46
126894
2775
והם דורשים הקשר.
02:09
Now, there's a group of data scientists
47
129669
2445
עכשיו, ישנה קבוצה של מדעני מידע
02:12
out of the University of Illinois-Chicago,
48
132114
2305
באוניברסיטת שיקגו אילינוי,
02:14
and they're called the Health Media Collaboratory,
49
134419
2554
והם נקראים שיתופיות מדיית הבריאות,
02:16
and they've been working with the Centers for Disease Control
50
136973
2587
והם עבדו עם המרכז למניעת מחלות
02:19
to better understand
51
139560
1505
כדי להבין טוב יותר
02:21
how people talk about quitting smoking,
52
141065
2848
איך אנשים מדברים על להפסיק לעשן,
02:23
how they talk about electronic cigarettes,
53
143913
2680
איך הם מדברים על סיגריות אלקטרוניות,
02:26
and what they can do collectively
54
146593
1985
ומה הם יכולים לעשות יחד
02:28
to help them quit.
55
148578
1984
כדי לעזור להם להפסיק.
02:30
The interesting thing is, if you want to understand
56
150562
2013
הדבר המעניין הוא, אם אתם רוצים להבין
02:32
how people talk about smoking,
57
152575
2216
איך אנשים מדברים על עישון,
02:34
first you have to understand
58
154791
1901
ראשית אתם צריכים להבין
02:36
what they mean when they say "smoking."
59
156692
2565
מה הם מתכונים כשהם אומרים "עישון."
02:39
And on Twitter, there are four main categories:
60
159257
3926
ובטוויטר, יש ארבע קטגוריות עיקריות:
02:43
number one, smoking cigarettes;
61
163183
2997
מספר אחת, עישון סיגריות;
02:46
number two, smoking marijuana;
62
166180
2807
מספר שתיים, עישון מריחואנה;
02:48
number three, smoking ribs;
63
168987
2643
מספר שלוש, עישון צלעות;
02:51
and number four, smoking hot women.
64
171630
3553
ומספר ארבע: נשים חתיכות.
02:55
(Laughter)
65
175183
2993
(צחוק)
02:58
So then you have to think about, well,
66
178176
2426
אז אתם צריכים לחשוב, ובכן,
03:00
how do people talk about electronic cigarettes?
67
180602
2140
איך אנשים מדברים על סיגריות אלקטרוניות?
03:02
And there are so many different ways
68
182742
2025
ויש כל כך הרבה דרכים שונות
03:04
that people do this, and you can see from the slide
69
184767
2599
שאנשים עושים את זה, ואתם יכולים לראות מהשקופית הזו
03:07
it's a complex kind of a query.
70
187366
2610
שזה סוג מורכב של שאילתה.
03:09
And what it reminds us is that
71
189976
3224
ומה שזה מזכיר לנו זה
03:13
language is created by people,
72
193200
2411
ששפה נוצרת על ידי אנשים,
03:15
and people are messy and we're complex
73
195611
2340
ואנשים הם בלגניסטים ואנחנו מורכבים
03:17
and we use metaphors and slang and jargon
74
197951
2767
ואנחנו משתמשים במטאפורות וסלאנג וג'ארגון
03:20
and we do this 24/7 in many, many languages,
75
200718
3279
ואנחנו עושים את זה 24/7 בהרבה, הרבה שפות,
03:23
and then as soon as we figure it out, we change it up.
76
203997
3224
ואז מייד כשנבין את זה, נשנה את זה.
03:27
So did these ads that the CDC put on,
77
207221
5118
אז האם הפרסומות האלו זה שהעלו ה CDC,
03:32
these television ads that featured a woman
78
212339
2430
פרסומות הטלויזיה שהראו אישה
03:34
with a hole in her throat and that were very graphic
79
214769
2021
עם חור בגרון ושהיו מאוד גרפיות
03:36
and very disturbing,
80
216790
1904
ומאוד מטרידות,
03:38
did they actually have an impact
81
218694
1885
האם למעשה היתה להן השפעה
03:40
on whether people quit?
82
220579
2671
על האם אנשים הפסיקו?
03:43
And the Health Media Collaboratory respected the limits of their data,
83
223250
3307
ושותפות מדיית הבריאות כיבדו את גבולות המידע,
03:46
but they were able to conclude
84
226557
2005
אבל הם היו מסוגלים לסכם
03:48
that those advertisements — and you may have seen them —
85
228562
3312
שהפרסומות האלו -- ואולי ראיתם אותן --
03:51
that they had the effect of jolting people
86
231874
2591
שהיה להם את האפקט של זעזוע אנשים
03:54
into a thought process
87
234465
1822
לתוך תהליך חשיבה
03:56
that may have an impact on future behavior.
88
236287
3667
שאולי יהיה לו השפעה על התנהגות עתידית.
03:59
And what I admire and appreciate about this project,
89
239954
3891
ומה שאני מעריצה ומעריכה בנוגע לפרוייקט הזה,
04:03
aside from the fact, including the fact
90
243845
1489
חוץ העובדה, כולל העובדה
04:05
that it's based on real human need,
91
245334
4057
שזה מבוסס על צורך אנושי אמיתי,
04:09
is that it's a fantastic example of courage
92
249391
2846
זה שזו דוגמה נפלאה לאומץ
04:12
in the face of a sea of irrelevance.
93
252237
4443
למול ים של חוסר רלוונטיות.
04:16
And so it's not just big data that causes
94
256680
3305
וכך זה לא רק מידע גדול שגורם
04:19
challenges of interpretation, because let's face it,
95
259985
2601
לאתגרים של פירוש, מפני שבואו נסכים,
04:22
we human beings have a very rich history
96
262586
2594
לנו האנשים יש הסטוריה ארוכה
04:25
of taking any amount of data, no matter how small,
97
265180
2693
של לקחת כל כמות של מידע, לא משנה כמה קטנה,
04:27
and screwing it up.
98
267873
1617
ולדפוק את זה.
04:29
So many years ago, you may remember
99
269490
3737
אז לפני הרבה שנים, אתם אולי זוכרים
04:33
that former President Ronald Reagan
100
273227
2273
שהנשיא לשעבר רונאלד רייגן
04:35
was very criticized for making a statement
101
275500
1991
היה תחת ביקורת על ההצהרה
04:37
that facts are stupid things.
102
277491
3010
שעובדות הן דבר מטופש.
04:40
And it was a slip of the tongue, let's be fair.
103
280501
2794
וזאת היתה פליטת פה, בואו נהיה כנים.
04:43
He actually meant to quote John Adams' defense
104
283295
2430
הוא למעשה התכוון לצטט את ההגנה של ג'ון אדמס
04:45
of British soldiers in the Boston Massacre trials
105
285725
2751
על חיילים בריטים במשפטי הטבח בבוסטון
04:48
that facts are stubborn things.
106
288476
3150
שעובדות הן דבר עיקש.
04:51
But I actually think there's
107
291626
2624
אבל אני למעשה חושבת שיש
04:54
a bit of accidental wisdom in what he said,
108
294250
3418
מעט חוכמה מקרית במה שהוא אמר,
04:57
because facts are stubborn things,
109
297668
2776
מפני שעובדות הן דברים עקשניים,
05:00
but sometimes they're stupid, too.
110
300444
2923
אבל לפעמים הן גם טפשיות.
05:03
I want to tell you a personal story
111
303367
1888
אני רוצה לספר לכם סיפור אישי
05:05
about why this matters a lot to me.
112
305255
3548
על למה זה ממש משנה לי.
05:08
I need to take a breath.
113
308803
2437
אני צריכה לקחת נשימה.
05:11
My son Isaac, when he was two,
114
311240
2754
בני אייזק, כשהוא היה בן שנתים,
05:13
was diagnosed with autism,
115
313994
2417
אובחן עם אוטיזם,
05:16
and he was this happy, hilarious,
116
316411
2161
והוא היה בחור קטן ושמח, קורע מצחוק,
05:18
loving, affectionate little guy,
117
318572
2035
אוהב, מלא חיבה,
05:20
but the metrics on his developmental evaluations,
118
320607
2902
אבל המדידות של ההתפתחות שלו,
05:23
which looked at things like the number of words —
119
323509
2070
שבחנו דברים כמו מספר המילים --
05:25
at that point, none —
120
325579
3657
באותה נקודה, אפס --
05:29
communicative gestures and minimal eye contact,
121
329236
3940
מחוות תיקשורתיות וקשר עין מינימלי,
05:33
put his developmental level
122
333176
2003
שמו אותו ברמה התפתחותית
05:35
at that of a nine-month-old baby.
123
335179
3961
של תינוק בן תשעה חודשים.
05:39
And the diagnosis was factually correct,
124
339140
2960
והאבחנה היתה נכונה עובדתית,
05:42
but it didn't tell the whole story.
125
342100
3209
אבל היא לא סיפרה את כל הסיפור.
05:45
And about a year and a half later,
126
345309
1401
ובערך שנה וחצי מאוחר יותר,
05:46
when he was almost four,
127
346710
2102
כשהוא היה כמעט בן ארבע,
05:48
I found him in front of the computer one day
128
348812
2363
מצאתי אותו מול המחשב יום אחד
05:51
running a Google image search on women,
129
351175
5453
מריץ חיפוש תמונות בגוגל על נשים,
05:56
spelled "w-i-m-e-n."
130
356628
3616
ומאויית "w-i-m-e-n."
06:00
And I did what any obsessed parent would do,
131
360244
2740
ועשיתי מה שכל הורה אובססיבי היה עושה,
06:02
which is immediately started hitting the "back" button
132
362984
1901
שזה מייד ללחוץ על כפתור אחורה
06:04
to see what else he'd been searching for.
133
364885
3363
כדי לראות מה עוד הוא חיפש.
06:08
And they were, in order: men,
134
368248
2171
וזה היה לפי הסדר: גברים,
06:10
school, bus and computer.
135
370419
7267
בית ספר, אוטובוס ומחשב.
06:17
And I was stunned,
136
377686
2070
והייתי המומה,
06:19
because we didn't know that he could spell,
137
379756
2002
מפני שלא ידענו שהוא יודע לאיית,
06:21
much less read, and so I asked him,
138
381758
1766
שלא לדבר על לקרוא, אז שאלתי אותו,
06:23
"Isaac, how did you do this?"
139
383524
2193
"אייזק, איך עשית את זה?"
06:25
And he looked at me very seriously and said,
140
385717
2678
והוא הסתכל עלי מאוד ברצינות ואמר,
06:28
"Typed in the box."
141
388395
3352
"הקלדתי בתיבה."
06:31
He was teaching himself to communicate,
142
391747
3734
הוא לימד את עצמו לתקשר,
06:35
but we were looking in the wrong place,
143
395481
3004
אבל חיפשנו במקום הלא נכון,
06:38
and this is what happens when assessments
144
398485
2295
וזה מה שקורה כשהערכות
06:40
and analytics overvalue one metric —
145
400780
2396
ואנליזה נותנות ערך גבוה מדי למידה אחת --
06:43
in this case, verbal communication —
146
403176
2609
במקרה הזה, תקשורת מילולית --
06:45
and undervalue others, such as creative problem-solving.
147
405785
5703
וערך חסר לאחרות, כמו פתרון בעיות יצירתי.
06:51
Communication was hard for Isaac,
148
411488
2307
תקשורת היתה קשה לאייזק,
06:53
and so he found a workaround
149
413795
1912
אז הוא מצא דרך עוקפת
06:55
to find out what he needed to know.
150
415707
2857
כדי למצוא מה שהוא היה צריך לדעת.
06:58
And when you think about it, it makes a lot of sense,
151
418564
1890
וכשאני חושבת על זה, זה מאוד הגיוני,
07:00
because forming a question
152
420454
2081
מפני שליצור שאלה
07:02
is a really complex process,
153
422535
2565
זה תהליך ממש מורכב,
07:05
but he could get himself a lot of the way there
154
425100
2522
אבל הוא היה יכול להביא את עצמו את רוב הדרך לשם
07:07
by putting a word in a search box.
155
427622
4092
על ידי הקלדת מילים לתיבת חיפוש.
07:11
And so this little moment
156
431714
2936
אז לרגע הקטן הזה
07:14
had a really profound impact on me
157
434650
2836
היתה השפעה משמעותית עלי
07:17
and our family
158
437486
1309
והמשפחה שלנו
07:18
because it helped us change our frame of reference
159
438795
3141
מפני שזה עזר לנו לשנות את מסגרת ההתיחסות שלנו
07:21
for what was going on with him,
160
441936
2208
למה שקורה איתו,
07:24
and worry a little bit less and appreciate
161
444144
2976
ולדאוג מעט פחות ולהעריך
07:27
his resourcefulness more.
162
447120
2182
את התושיה שלו יותר.
07:29
Facts are stupid things.
163
449302
2861
עובדות הן דבר מטופש.
07:32
And they're vulnerable to misuse,
164
452163
2397
והן פגיעות לשימוש לא נכון,
07:34
willful or otherwise.
165
454560
1653
זדוני או לא.
07:36
I have a friend, Emily Willingham, who's a scientist,
166
456213
3026
יש לי חברה, אמילי ווילינגהאם, שהיא מדענית,
07:39
and she wrote a piece for Forbes not long ago
167
459239
2801
והיא כתבה מאמר לפורבס לא מזמן
07:42
entitled "The 10 Weirdest Things
168
462040
1980
שנקרא "10 הדברים המוזרים
07:44
Ever Linked to Autism."
169
464020
1810
שקושרו אי פעם לאוטיזם."
07:45
It's quite a list.
170
465830
3005
זו חתיכת רשימה.
07:48
The Internet, blamed for everything, right?
171
468835
3532
האינטרנט, מואשם בהכל, נכון?
07:52
And of course mothers, because.
172
472367
3757
וכמובן אמהות, מפני ש.
07:56
And actually, wait, there's more,
173
476124
1587
ולמעשה, חכו, יש עוד,
07:57
there's a whole bunch in the "mother" category here.
174
477711
3430
יש קבוצה שלמה בקטגוריה של "אמא" פה.
08:01
And you can see it's a pretty rich and interesting list.
175
481141
4815
ואתם יכולים לראות שזו רשימה ממש עשירה ומעניינת.
08:05
I'm a big fan of
176
485956
2193
אני אוהדת גדולה של
08:08
being pregnant near freeways, personally.
177
488149
3704
להיות בהריון ליד כבישים מהירים , אישית.
08:11
The final one is interesting,
178
491853
1539
האחרון הוא מעניין,
08:13
because the term "refrigerator mother"
179
493392
3003
מפני שהמונח "אמא מקרר"
08:16
was actually the original hypothesis
180
496395
2605
היה למעשה ההיפותזה המקורית
08:19
for the cause of autism,
181
499000
1431
לסיבה לאוטיזם,
08:20
and that meant somebody who was cold and unloving.
182
500431
2735
והכוונה למישהי שהיא קרה ולא אוהבת.
08:23
And at this point, you might be thinking,
183
503166
1562
ובנקודה הזו, אתם אולי חושבים,
08:24
"Okay, Susan, we get it,
184
504728
1657
"אוקיי, סוזן, אנחנו מבינים,
08:26
you can take data, you can make it mean anything."
185
506385
1782
אפשר לקחת מידע, אפשר לתת לו משמעות אחרת לגמרי."
08:28
And this is true, it's absolutely true,
186
508167
4703
וזה נכון, זה לגמרי נכון,
08:32
but the challenge is that
187
512870
5610
אבל האתגר הוא
08:38
we have this opportunity
188
518480
2448
שיש לנו הזדמנות
08:40
to try to make meaning out of it ourselves,
189
520928
2284
לנסות לתת משמעות מתוכנו,
08:43
because frankly, data doesn't create meaning. We do.
190
523212
5352
מפני שלמען האמת, מידע לא יוצר משמעות, אנחנו יוצרים אותה.
08:48
So as businesspeople, as consumers,
191
528564
3256
אז כאנשי עסקים, כצרכנים,
08:51
as patients, as citizens,
192
531820
2539
כפציינטים, כאזרחים,
08:54
we have a responsibility, I think,
193
534359
2396
יש לנו את האחריות, אני חושבת,
08:56
to spend more time
194
536755
2194
לבלות יותר זמן
08:58
focusing on our critical thinking skills.
195
538949
2870
בלהתמקד בכישורי החשיבה הביקורתית שלנו,
09:01
Why?
196
541819
1078
למה?
09:02
Because at this point in our history, as we've heard
197
542897
3178
מפני שבנקודה הזו בהסטוריה שלנו, כמו ששמענו
09:06
many times over,
198
546075
1706
הרבה פעמים בעבר,
09:07
we can process exabytes of data
199
547781
1981
אנחנו יכולים לעבד אקסבייטים של מידע
09:09
at lightning speed,
200
549762
2153
במהירות האור,
09:11
and we have the potential to make bad decisions
201
551915
3515
ויש לנו את הפוטנציאל לעשות החלטות גרועות
09:15
far more quickly, efficiently,
202
555430
1834
הרבה יותר במהירות, ביעילות,
09:17
and with far greater impact than we did in the past.
203
557264
5028
ועם הרבה יותר השפעה משהיה לנו בעבר.
09:22
Great, right?
204
562292
1388
נפלא, נכון?
09:23
And so what we need to do instead
205
563680
3030
וכך מה שאנחנו צריכים לעשות במקום
09:26
is spend a little bit more time
206
566710
2330
זה לבלות מעט יותר זמן
09:29
on things like the humanities
207
569040
2746
על דברים כמו הומניות
09:31
and sociology, and the social sciences,
208
571786
3464
וסוציולוגיה, ומדעי החברה,
09:35
rhetoric, philosophy, ethics,
209
575250
2308
רטוריקה, פילוסופיה, אתיקה,
09:37
because they give us context that is so important
210
577558
2856
מפני שהם נותנים לנו הקשר שהוא כל כך חשוב
09:40
for big data, and because
211
580414
2576
למידע גדול, ובגלל
09:42
they help us become better critical thinkers.
212
582990
2418
שהם עוזרים לנו להפוך להוגים ביקורתיים טובים יותר.
09:45
Because after all, if I can spot
213
585408
4207
מפני שאחרי הכל, אם אנחנו יכולים לזהות
09:49
a problem in an argument, it doesn't much matter
214
589615
2486
בעיה בטיעון, זה לא משנה ממש
09:52
whether it's expressed in words or in numbers.
215
592101
2759
אם זה מתבטא במילים או מספרים.
09:54
And this means
216
594860
2719
וזה אומר
09:57
teaching ourselves to find those confirmation biases
217
597579
4421
ללמד את עצמנו למצוא את הטיות האישור
10:02
and false correlations
218
602000
1822
וקישורים שגויים
10:03
and being able to spot a naked emotional appeal
219
603822
2138
ולהיות מסוגלים לזהות משיכה רגשית ערומה
10:05
from 30 yards,
220
605960
1662
ממרחק 30 מטר,
10:07
because something that happens after something
221
607622
2522
מפני שמשהו שקורה אחרי משהו
10:10
doesn't mean it happened because of it, necessarily,
222
610144
3082
לא אומר שזה קרה בגללו, בהכרח,
10:13
and if you'll let me geek out on you for a second,
223
613226
2119
ואם אתם תתנו לי להיות גיקית לגמרי לשניה,
10:15
the Romans called this "post hoc ergo propter hoc,"
224
615345
4297
הרומאים קראו לזה "פוסט הוק ארגו פרופטר הוק,"
10:19
after which therefore because of which.
225
619642
3296
אחרי כן לכן בגלל ש.
10:22
And it means questioning disciplines like demographics.
226
622938
3757
וזה אומר פקפוק בתורות כמו דמוגרפיה.
10:26
Why? Because they're based on assumptions
227
626695
2520
למה? מפני שהן מבוססות על הנחות
10:29
about who we all are based on our gender
228
629215
2306
על מי אנחנו שמבוססות על מגדר
10:31
and our age and where we live
229
631521
1462
והגיל שלנו ואיפה אנחנו חיים
10:32
as opposed to data on what we actually think and do.
230
632983
3478
בניגוד למידע על מה אנחנו באמת חושבים או עושים.
10:36
And since we have this data,
231
636461
1663
ומאחר ויש לנו את המידע הזה,
10:38
we need to treat it with appropriate privacy controls
232
638124
3139
אנחנו צריכים להתייחס אליו עם שליטות מתאימות על הפרטיות
10:41
and consumer opt-in,
233
641263
3576
וצרכנים שמצטרפים,
10:44
and beyond that, we need to be clear
234
644839
2993
ומעבר לזה, אנחנו צריכים להיות ברורים
10:47
about our hypotheses,
235
647832
2103
בנוגע להיפותזות,
10:49
the methodologies that we use,
236
649935
2596
המתודולוגיות בהן אנחנו משתמשים,
10:52
and our confidence in the result.
237
652531
2804
והביטחון שלנו בתוצאות.
10:55
As my high school algebra teacher used to say,
238
655335
2474
כמו שהמורה שלי לאלגברה בתיכון נהגה להגיד,
10:57
show your math,
239
657809
1531
תראו את המתמטיקה שלכם,
10:59
because if I don't know what steps you took,
240
659340
3441
מפני שאם אתם לא יודעים איזה צעדים לקחתם,
11:02
I don't know what steps you didn't take,
241
662781
1991
אני לא יודעת איזה צעדים לא לקחתם,
11:04
and if I don't know what questions you asked,
242
664772
2438
ואם אני לא יודעת איזה שאלות שאלתם,
11:07
I don't know what questions you didn't ask.
243
667210
3197
אני לא יודעת איזה שאלות לא שאלתם.
11:10
And it means asking ourselves, really,
244
670407
1523
וזה אומר לשאול את עצמנו, באמת,
11:11
the hardest question of all:
245
671930
1479
את השאלה הקשה מכל:
11:13
Did the data really show us this,
246
673409
3500
האם המידע באמת הראה לנו את זה,
11:16
or does the result make us feel
247
676909
2311
או שהתוצאה גורמת לנו להרגיש
11:19
more successful and more comfortable?
248
679220
3878
יותר מצליחים ויותר בנוח?
11:23
So the Health Media Collaboratory,
249
683098
2584
אז שותפות מדיית הבריאות,
11:25
at the end of their project, they were able
250
685682
1699
בסופו של הפרוייקט, הם היו מסוגלים
11:27
to find that 87 percent of tweets
251
687381
3408
למצוא ש 87 אחוז של הציוצים
11:30
about those very graphic and disturbing
252
690789
2144
בנוגע לפרסומות המאוד גרפיות
11:32
anti-smoking ads expressed fear,
253
692933
4038
ומטרידות נגד עישון הביעו פחד,
11:36
but did they conclude
254
696971
1856
אבל האם הם הסיקו
11:38
that they actually made people stop smoking?
255
698827
3161
שהן למעשה גרמו לאנשים להפסיק לעשן?
11:41
No. It's science, not magic.
256
701988
2542
לא. זה מדע, לא קסם.
11:44
So if we are to unlock
257
704530
3190
אז אם אנחנו רוצים לשחרר
11:47
the power of data,
258
707720
2862
את הכוח של המידע,
11:50
we don't have to go blindly into
259
710582
3448
אנחנו לא צריכים ללכת עיוורים
11:54
Orwell's vision of a totalitarian future,
260
714030
3436
לתוך החזון הטוטליטרי של העתיד של אורוול,
11:57
or Huxley's vision of a trivial one,
261
717466
3117
או העתיד הטריוויאלי של האקסלי,
12:00
or some horrible cocktail of both.
262
720583
3020
או קוקטייל נוראי של שניהם.
12:03
What we have to do
263
723603
2379
מה שאנחנו צריכים לעשות
12:05
is treat critical thinking with respect
264
725982
2718
זה להתייחס לחשיבה ביקורתית בכבוד
12:08
and be inspired by examples
265
728700
2029
ולקבל השראה מדוגמאות
12:10
like the Health Media Collaboratory,
266
730729
2610
כמו שותפות מדיית הבריאות,
12:13
and as they say in the superhero movies,
267
733339
2328
וכמו שהם אומרים בסרטים של גיבורי על,
12:15
let's use our powers for good.
268
735667
1822
בואו נשתמש בכוח שלנו לטובה.
12:17
Thank you.
269
737489
2351
תודה לכם.
12:19
(Applause)
270
739840
2334
(מחאות כפיים)
על אתר זה

אתר זה יציג בפניכם סרטוני YouTube המועילים ללימוד אנגלית. תוכלו לראות שיעורי אנגלית המועברים על ידי מורים מהשורה הראשונה מרחבי העולם. לחץ פעמיים על הכתוביות באנגלית המוצגות בכל דף וידאו כדי להפעיל את הסרטון משם. הכתוביות גוללות בסנכרון עם הפעלת הווידאו. אם יש לך הערות או בקשות, אנא צור איתנו קשר באמצעות טופס יצירת קשר זה.

https://forms.gle/WvT1wiN1qDtmnspy7