The human insights missing from big data | Tricia Wang

246,282 views ・ 2017-08-02

TED


אנא לחץ פעמיים על הכתוביות באנגלית למטה כדי להפעיל את הסרטון.

מתרגם: Zeeva Livshitz מבקר: Ido Dekkers
00:12
In ancient Greece,
0
12705
1545
ביוון העתיקה,
00:15
when anyone from slaves to soldiers, poets and politicians,
1
15256
3943
כשאדם כלשהו, בין אם עבד, חייל, משורר או פוליטיקאי,
00:19
needed to make a big decision on life's most important questions,
2
19223
4004
היה זקוק לקבל החלטה גורלית בשאלות הכי חשובות בחיים,
00:23
like, "Should I get married?"
3
23251
1391
כמו "האם עלי להתחתן?"
00:24
or "Should we embark on this voyage?"
4
24666
1857
או "האם עלינו לצאת למסע הזה?"
00:26
or "Should our army advance into this territory?"
5
26547
2928
או "האם הצבא שלנו צריך להתקדם לתוך הטריטוריה הזאת?"
00:29
they all consulted the oracle.
6
29499
2579
כולם התייעצו עם האורקל.
00:32
So this is how it worked:
7
32840
1440
אז ככה זה עבד:
00:34
you would bring her a question and you would get on your knees,
8
34304
3112
הייתם שואלים אותה שאלה כשאתם כורעים על הברכיים,
00:37
and then she would go into this trance.
9
37440
1871
ואז היא היתה נכנסת לטראנס.
00:39
It would take a couple of days,
10
39335
1549
זה היה לוקח כמה ימים,
00:40
and then eventually she would come out of it,
11
40908
2163
ואז לבסוף היא היתה יוצאת מזה,
00:43
giving you her predictions as your answer.
12
43095
2536
ומשיבה לשאלות בעזרת התחזיות שלה.
00:46
From the oracle bones of ancient China
13
46730
2566
מעצמות האורקל של סין העתיקה
00:49
to ancient Greece to Mayan calendars,
14
49320
2345
ליוון העתיקה וללוחות הזמן של תרבות המאיה,
00:51
people have craved for prophecy
15
51689
2296
אנשים השתוקקו לנבואה
00:54
in order to find out what's going to happen next.
16
54009
3137
כדי לגלות מה עומד לקרות.
00:58
And that's because we all want to make the right decision.
17
58336
3239
וזה משום שכולנו רוצים לקבל את ההחלטה הנכונה.
01:01
We don't want to miss something.
18
61599
1545
אנחנו לא רוצים להחמיץ משהו.
01:03
The future is scary,
19
63712
1743
העתיד מפחיד,
01:05
so it's much nicer knowing that we can make a decision
20
65479
2717
והרבה יותר נעים לדעת שאנחנו יכולים לקבל החלטה
01:08
with some assurance of the outcome.
21
68220
1982
עם הבטחה כלשהי לגבי התוצאה.
01:10
Well, we have a new oracle,
22
70899
1611
ובכן, יש לנו אורקל חדש,
01:12
and it's name is big data,
23
72534
2145
ושמו ביג דאטה,
01:14
or we call it "Watson" or "deep learning" or "neural net."
24
74703
3939
או שנקרא לו "ווטסון" או "למידה לעומק" או "רשת עצבית".
01:19
And these are the kinds of questions we ask of our oracle now,
25
79160
4012
ואלו הן סוג השאלות שאנחנו שואלים את האורקל שלנו כעת,
01:23
like, "What's the most efficient way to ship these phones
26
83196
3922
כמו "מהי הדרך היעילה ביותר לשלוח את הטלפונים האלה
01:27
from China to Sweden?"
27
87142
1823
מסין לשבדיה?"
01:28
Or, "What are the odds
28
88989
1800
או "מהם הסיכויים
01:30
of my child being born with a genetic disorder?"
29
90813
3363
שהילד שלי יוולד עם בעיה גנטית?"
01:34
Or, "What are the sales volume we can predict for this product?"
30
94772
3244
או "מה היקף המכירות שניתן לחזות עבור המוצר הזה?"
01:39
I have a dog. Her name is Elle, and she hates the rain.
31
99928
4047
יש לי כלבה, ששמה אל, והיא שונאת את הגשם.
01:43
And I have tried everything to untrain her.
32
103999
3306
וניסיתי הכל כדי לשנות זאת אצלה.
01:47
But because I have failed at this,
33
107329
2771
אבל בגלל שנכשלתי בזה,
01:50
I also have to consult an oracle, called Dark Sky,
34
110124
3286
עלי גם להתייעץ עם אורקל, שנקרא "שמיים אפלים",
01:53
every time before we go on a walk,
35
113434
1635
בכל פעם לפני שאנחנו יוצאות לטיול,
01:55
for very accurate weather predictions in the next 10 minutes.
36
115093
3577
כדי לקבל תחזיות מזג אויר מדויקות ב 10 דקות הקרובות.
02:01
She's so sweet.
37
121355
1303
היא כל כך חמודה.
02:03
So because of all of this, our oracle is a $122 billion industry.
38
123647
5707
אז לפיכך, האורקל שלנו הוא תעשייה של 122 מיליארד דולר.
02:09
Now, despite the size of this industry,
39
129826
3376
ולמרות גודלה של התעשייה הזאת,
02:13
the returns are surprisingly low.
40
133226
2456
הרווחים נמוכים להפליא.
02:16
Investing in big data is easy,
41
136162
2494
השקעה בביג דאטה היא קלה,
02:18
but using it is hard.
42
138680
1933
אבל השימוש בה הוא קשה.
02:21
Over 73 percent of big data projects aren't even profitable,
43
141801
4040
מעל 73 אחוזים של פרוייקטים של ביג דאטה אינם רווחיים אפילו,
02:25
and I have executives coming up to me saying,
44
145865
2431
ויש לי מנהלים שבאים אלי ואומרים,
02:28
"We're experiencing the same thing.
45
148320
1789
"אנחנו חווים את אותו הדבר.
02:30
We invested in some big data system,
46
150133
1753
אנו משקיעים במערכת ביג דאטה כלשהי,
02:31
and our employees aren't making better decisions.
47
151910
2968
והעובדים שלנו לא מקבלים החלטות טובות יותר.
02:34
And they're certainly not coming up with more breakthrough ideas."
48
154902
3162
והם לבטח לא מעלים יותר רעיונות פורצי דרך".
02:38
So this is all really interesting to me,
49
158734
3184
אז כל זה ממש מעניין אותי,
02:41
because I'm a technology ethnographer.
50
161942
2010
משום שאני אתנוגרפית טכנולוגיה.
02:44
I study and I advise companies
51
164450
2564
אני חוקרת ומייעצת לחברות
02:47
on the patterns of how people use technology,
52
167038
2483
בנושאי הדפוסים שאנשים משתמשים בהם בטכנולוגיה,
02:49
and one of my interest areas is data.
53
169545
2678
ואחד מתחומי העניין שלי הוא נתונים.
02:52
So why is having more data not helping us make better decisions,
54
172247
5193
אז למה יותר נתונים לא עוזרים לנו לקבל החלטות טובות יותר,
02:57
especially for companies who have all these resources
55
177464
2783
בייחוד בחברות שיש להן את כל המשאבים
03:00
to invest in these big data systems?
56
180271
1736
להשקיע במערכות ביג דאטה אלה?
03:02
Why isn't it getting any easier for them?
57
182031
2398
למה זה לא מקל עליהן?
03:05
So, I've witnessed the struggle firsthand.
58
185810
2634
אז, הייתי עדה למאבק ממקור ראשון.
03:09
In 2009, I started a research position with Nokia.
59
189194
3484
ב2009, התחלתי לעבוד במחקר בנוקיה.
03:13
And at the time,
60
193052
1158
ובזמנו,
03:14
Nokia was one of the largest cell phone companies in the world,
61
194234
3158
נוקיה היתה אחת מחברות הסלולר הגדולות ביותר בעולם,
03:17
dominating emerging markets like China, Mexico and India --
62
197416
3202
היא שלטה בשווקים מתעוררים כמו סין, מקסיקו והודו --
03:20
all places where I had done a lot of research
63
200642
2502
בכל המקומות חקרתי הרבה
03:23
on how low-income people use technology.
64
203168
2676
כיצד אנשים בעלי הכנסה נמוכה משתמשים בטכנולוגיה.
03:25
And I spent a lot of extra time in China
65
205868
2330
וביליתי הרבה זמן בסין
03:28
getting to know the informal economy.
66
208222
2592
ולמדתי להכיר את הכלכלה הלא רשמית.
03:30
So I did things like working as a street vendor
67
210838
2401
אז עשיתי דברים כמו לעבוד כמוכרת בדוכן רחוב,
03:33
selling dumplings to construction workers.
68
213263
2574
מכרתי כופתאות לפועלי בניין.
03:35
Or I did fieldwork,
69
215861
1358
או שעשיתי עבודת שטח,
03:37
spending nights and days in internet cafés,
70
217243
2958
ביליתי לילות וימים בבתי קפה-אינטרנט,
03:40
hanging out with Chinese youth, so I could understand
71
220225
2546
ביליתי עם הנוער הסיני כדי להבין
03:42
how they were using games and mobile phones
72
222795
2284
איך הם משתמשים במשחקים ובטלפונים ניידים
03:45
and using it between moving from the rural areas to the cities.
73
225103
3370
ומשתמשים בהם במעבר מהכפרים לערים.
03:50
Through all of this qualitative evidence that I was gathering,
74
230155
3927
בעזרת כל הראיות האיכותיות שאספתי
03:54
I was starting to see so clearly
75
234106
2824
התחלתי לראות בבירור
03:56
that a big change was about to happen among low-income Chinese people.
76
236954
4472
שעומד להתרחש שינוי גדול בקרב הסינים בעלי ההכנסה הנמוכה.
04:02
Even though they were surrounded by advertisements for luxury products
77
242840
4367
למרות שהם היו מוקפים בפרסומות למוצרי יוקרה
04:07
like fancy toilets -- who wouldn't want one? --
78
247231
3495
כמו אסלות מפוארות -- מי לא היה רוצה אחת כזאת?
04:10
and apartments and cars,
79
250750
2890
ודירות, ומכוניות,
04:13
through my conversations with them,
80
253664
1820
באמצעות שיחות שניהלתי איתם,
04:15
I found out that the ads the actually enticed them the most
81
255508
3841
גיליתי שהפרסומות שבעצם הכי פיתו אותם
04:19
were the ones for iPhones,
82
259373
1996
היו אלה של האייפונים,
04:21
promising them this entry into this high-tech life.
83
261393
3052
שהבטיחו להם כניסה לעולם ההייטק.
04:25
And even when I was living with them in urban slums like this one,
84
265289
3163
ואפילו כשחייתי ביניהם בשכונות העוני העירוניות כמו זו,
04:28
I saw people investing over half of their monthly income
85
268476
2996
ראיתי אנשים משקיעים יותר ממחצית משכורתם החודשית
04:31
into buying a phone,
86
271496
1623
בקניית טלפון,
04:33
and increasingly, they were "shanzhai,"
87
273143
2302
ויותר ויותר מהם היו מכשירי "שאנזהאי",
04:35
which are affordable knock-offs of iPhones and other brands.
88
275469
3388
שהם חיקויים זולים של אייפונים ומותגים אחרים.
04:40
They're very usable.
89
280123
1625
הם מאוד שמישים.
04:42
Does the job.
90
282710
1322
עושים את העבודה.
04:44
And after years of living with migrants and working with them
91
284570
5789
ואחרי שנים שחייתי עם מהגרים ועבדתי אתם
04:50
and just really doing everything that they were doing,
92
290383
3434
וממש עשיתי את כל מה שהם עושים,
04:53
I started piecing all these data points together --
93
293841
3597
התחלתי להרכיב את כל נקודות הנתונים האלה יחד --
04:57
from the things that seem random, like me selling dumplings,
94
297462
3123
מהדברים שנראים רנדומליים, כמו מכירת כופתאות על ידי,
05:00
to the things that were more obvious,
95
300609
1804
לדברים שהיו ברורים יותר,
05:02
like tracking how much they were spending on their cell phone bills.
96
302437
3232
כמו מעקב אחרי הוצאות חשבונות הטלפון שלהם.
05:05
And I was able to create this much more holistic picture
97
305693
2639
והצלחתי ליצור תמונה הרבה יותר הוליסטית
05:08
of what was happening.
98
308356
1156
של המתרחש.
05:09
And that's when I started to realize
99
309536
1722
ורק אז התחלתי להבין
05:11
that even the poorest in China would want a smartphone,
100
311282
3509
שאפילו העניים ביותר בסין רצו סמארטפון,
05:14
and that they would do almost anything to get their hands on one.
101
314815
4985
והיו מוכנים לעשות כמעט הכל כדי להשיג אחד.
05:20
You have to keep in mind,
102
320893
2404
עליכם לזכור,
05:23
iPhones had just come out, it was 2009,
103
323321
3084
שאייפונים רק יצאו לשוק אז, ב2009,
05:26
so this was, like, eight years ago,
104
326429
1885
אז זה היה לפני שמונה שנים בערך,
05:28
and Androids had just started looking like iPhones.
105
328338
2437
ומכשירי אנדרואיד רק התחילו להיראות כמו אייפונים.
05:30
And a lot of very smart and realistic people said,
106
330799
2507
והרבה אנשים מאוד חכמים ומציאותיים אמרו,
05:33
"Those smartphones -- that's just a fad.
107
333330
2207
"הסמארטפונים האלה -- הם רק תופעה חולפת.
05:36
Who wants to carry around these heavy things
108
336063
2996
מי רוצה להסתובב עם המכשירים הכבדים האלה
05:39
where batteries drain quickly and they break every time you drop them?"
109
339083
3487
שמרוקנים מהר את הסוללות ונשברים בכל פעם שמפילים אותם?"
05:44
But I had a lot of data,
110
344613
1201
אבל היו לי הרבה נתונים,
05:45
and I was very confident about my insights,
111
345838
2260
והייתי בטוחה מאוד לגבי התובנות שלי.
05:48
so I was very excited to share them with Nokia.
112
348122
2829
אז מאוד התרגשתי לשתף אותן עם נוקיה.
05:53
But Nokia was not convinced,
113
353152
2517
אבל נוקיה לא השתכנעו,
05:55
because it wasn't big data.
114
355693
2335
בגלל שאלה לא היו "ביג דאטה".
05:58
They said, "We have millions of data points,
115
358842
2404
הם אמרו "יש לנו מיליוני נקודות מידע,
06:01
and we don't see any indicators of anyone wanting to buy a smartphone,
116
361270
4247
ואנחנו לא רואים שום אינדיקציות שמישהו ירצה לקנות סמארטפון,
06:05
and your data set of 100, as diverse as it is, is too weak
117
365541
4388
ומערך המידע שלך שעומד על 100 על אף שהוא מגוון הוא חלש מדי,
06:09
for us to even take seriously."
118
369953
1714
מכדי שנוכל לקחת אותו ברצינות".
06:12
And I said, "Nokia, you're right.
119
372728
1605
אז אמרתי, "נוקיה, אתם צודקים.
06:14
Of course you wouldn't see this,
120
374357
1560
ברור שלא יכולתם לראות את זה,
06:15
because you're sending out surveys assuming that people don't know
121
375941
3371
כי אתם שולחים סקרים בהנחה שאנשים לא יודעים
06:19
what a smartphone is,
122
379336
1159
מה זה סמארטפון,
06:20
so of course you're not going to get any data back
123
380519
2366
אז ברור שאתם לא הולכים לקבל שום נתונים חזרה
06:22
about people wanting to buy a smartphone in two years.
124
382909
2572
על אנשים שרוצים לקנות סמארטפון בשנתיים הקרובות.
06:25
Your surveys, your methods have been designed
125
385505
2118
הסקרים שלכם, השיטות שלכם, תוכננו
06:27
to optimize an existing business model,
126
387647
2022
כדי למטב דגם עסק קיים,
06:29
and I'm looking at these emergent human dynamics
127
389693
2608
ואני מסתכלת על דינמיקות אנושיות צומחות אלו
06:32
that haven't happened yet.
128
392325
1354
שעדיין לא קרו.
06:33
We're looking outside of market dynamics
129
393703
2438
אנחנו מסתכלים מחוץ לדינמיקה של השוק
06:36
so that we can get ahead of it."
130
396165
1631
כדי שנוכל להקדים אותה".
06:39
Well, you know what happened to Nokia?
131
399193
2244
ובכן, אתם יודעים מה קרה לנוקיה?
06:41
Their business fell off a cliff.
132
401461
2365
העסק שלהם נפל חזק.
06:44
This -- this is the cost of missing something.
133
404611
3727
זה -- זה המחיר של ההחטאה.
06:48
It was unfathomable.
134
408983
1999
זה היה בלתי ניתן להבנה.
06:51
But Nokia's not alone.
135
411823
1651
אבל נוקיה לא לבד.
06:54
I see organizations throwing out data all the time
136
414078
2581
אני רואה ארגונים שזורקים נתונים כל הזמן
06:56
because it didn't come from a quant model
137
416683
2561
בגלל שהם לא הגיעו ממודל כמותי
06:59
or it doesn't fit in one.
138
419268
1768
או שהם לא מתאימים למודל כזה.
07:02
But it's not big data's fault.
139
422039
2048
אבל זו לא אשמתו של ביג דאטה.
07:04
It's the way we use big data; it's our responsibility.
140
424762
3907
זה האופן שבו אנחנו משתמשים בביג דאטה; זאת האחריות שלנו.
07:09
Big data's reputation for success
141
429550
1911
המוניטין של ביג דאטה להצלחה
07:11
comes from quantifying very specific environments,
142
431485
3759
נובע מכימות של סביבות ספציפיות מאוד,
07:15
like electricity power grids or delivery logistics or genetic code,
143
435268
4913
כמו רשתות חשמל או מערכות שינוע או קוד גנטי,
07:20
when we're quantifying in systems that are more or less contained.
144
440205
4318
כשאנחנו מכמתים מערכות שהן פחות או יותר מוכלות.
07:24
But not all systems are as neatly contained.
145
444547
2969
אבל לא כל המערכות מוכלות בצורה כל כך מסודרת.
07:27
When you're quantifying and systems are more dynamic,
146
447540
3258
כשמכמתים והמערכות יותר דינמיות,
07:30
especially systems that involve human beings,
147
450822
3799
במיוחד מערכות שמערבות בני אדם,
07:34
forces are complex and unpredictable,
148
454645
2426
הכוחות הפועלים הם מורכבים ובלתי צפויים,
07:37
and these are things that we don't know how to model so well.
149
457095
3486
ואלו הם דברים שמהם איננו יודעים היטב כיצד ליצור דגם.
07:41
Once you predict something about human behavior,
150
461024
2813
ברגע שחוזים משהו על התנהגות אנושית,
07:43
new factors emerge,
151
463861
1855
גורמים חדשים צצים,
07:45
because conditions are constantly changing.
152
465740
2365
כי התנאים משתנים כל הזמן.
07:48
That's why it's a never-ending cycle.
153
468129
1803
לכן זהו מחזור אינסופי.
07:49
You think you know something,
154
469956
1464
אתם חושבים שאתם יודעים משהו,
07:51
and then something unknown enters the picture.
155
471444
2242
ואז משהו לא ידוע נכנס לתמונה.
07:53
And that's why just relying on big data alone
156
473710
3322
ולכן הסתמכות על ביג דאטה בלבד
07:57
increases the chance that we'll miss something,
157
477056
2849
מעלה את הסיכוי שנחסיר משהו.
07:59
while giving us this illusion that we already know everything.
158
479929
3777
בעוד שהיא מעוררת בנו את האשלייה שאנחנו כבר יודעים הכל.
08:04
And what makes it really hard to see this paradox
159
484226
3856
ומה שמקשה עלינו לראות את הפרדוקס הזה
08:08
and even wrap our brains around it
160
488106
2659
ואפילו להבין אותו
08:10
is that we have this thing that I call the quantification bias,
161
490789
3691
הוא שיש לנו את הכלי הזה שאני מכנה אותו ההטיה לכימות,
08:14
which is the unconscious belief of valuing the measurable
162
494504
3922
שהיא האמונה הלא מודעת להעדפת מידע מדיד
08:18
over the immeasurable.
163
498450
1594
על פני בלתי מדיד.
08:21
And we often experience this at our work.
164
501042
3284
ופעמים רבות אנחנו חווים את זה בעבודה שלנו.
08:24
Maybe we work alongside colleagues who are like this,
165
504350
2650
אולי אנחנו עובדים לצד עמיתים שהם כאלה,
08:27
or even our whole entire company may be like this,
166
507024
2428
או שאפילו החברה שלנו כולה עשויה להיות כזאת,
08:29
where people become so fixated on that number,
167
509476
2546
שבה אנשים הופכים כה מקובעים על המספר הזה,
08:32
that they can't see anything outside of it,
168
512046
2067
שאינם יכולים לראות שום דבר מעבר לו,
08:34
even when you present them evidence right in front of their face.
169
514137
3948
אפילו כשמציגים להם הוכחות ממש מול הפרצוף.
08:38
And this is a very appealing message,
170
518943
3371
וזהו מסר מאוד מושך,
08:42
because there's nothing wrong with quantifying;
171
522338
2343
כיוון שאין שום פגם בכמותיות;
08:44
it's actually very satisfying.
172
524705
1430
זה למעשה מאוד מספק.
08:46
I get a great sense of comfort from looking at an Excel spreadsheet,
173
526159
4362
אני מקבלת תחושה נפלאה של נוחות מהתבוננות בגיליון אלקטרוני של אקסל,
08:50
even very simple ones.
174
530545
1401
אפילו בפשוטים מאוד.
08:51
(Laughter)
175
531970
1014
(צחוק)
08:53
It's just kind of like,
176
533008
1152
זה כאילו,
08:54
"Yes! The formula worked. It's all OK. Everything is under control."
177
534184
3504
"כן! הנוסחה הצליחה. הכל בסדר. הכל תחת שליטה".
08:58
But the problem is
178
538612
2390
אבל הבעיה היא
09:01
that quantifying is addictive.
179
541026
2661
שלכמת זה ממכר.
09:03
And when we forget that
180
543711
1382
וכאשר אנחנו שוכחים את זה
09:05
and when we don't have something to kind of keep that in check,
181
545117
3038
וכשאין לנו משהו שעוזר לנו לפקח על זה,
09:08
it's very easy to just throw out data
182
548179
2118
קל מאוד פשוט לזרוק מידע
09:10
because it can't be expressed as a numerical value.
183
550321
2718
כיוון שלא ניתן לבטא אותו כערך מספרי.
09:13
It's very easy just to slip into silver-bullet thinking,
184
553063
2921
קל מאוד להחליק לתוך חשיבה מאגית,
09:16
as if some simple solution existed.
185
556008
2579
כאילו קיים פתרון פשוט כלשהו.
09:19
Because this is a great moment of danger for any organization,
186
559420
4062
כי זה רגע מסוכן מאוד עבור כל ארגון,
09:23
because oftentimes, the future we need to predict --
187
563506
2634
כי לעתים קרובות העתיד שעלינו לחזות --
09:26
it isn't in that haystack,
188
566164
2166
לא נמצא בערימת השחת הזאת,
09:28
but it's that tornado that's bearing down on us
189
568354
2538
אלא הוא סופת הטורנדו הזו שמאיימת עלינו
09:30
outside of the barn.
190
570916
1488
מחוץ לאסם.
09:34
There is no greater risk
191
574780
2326
אין דבר יותר מסוכן
09:37
than being blind to the unknown.
192
577130
1666
מלהיות עיוור ללא נודע.
09:38
It can cause you to make the wrong decisions.
193
578820
2149
זה יכול לגרום לכם לקבל החלטות שגויות.
09:40
It can cause you to miss something big.
194
580993
1974
זה יכול לגרום לכם לפספס משהו גדול.
09:43
But we don't have to go down this path.
195
583554
3101
אבל אנחנו לא חייבים ללכת בנתיב הזה.
09:47
It turns out that the oracle of ancient Greece
196
587273
3195
מסתבר שהאורקל של יוון העתיקה
09:50
holds the secret key that shows us the path forward.
197
590492
3966
מחזיקה את המפתח הסודי שמראה לנו את הדרך קדימה.
09:55
Now, recent geological research has shown
198
595474
2595
מחקר גאולוגי שנעשה לאחרונה הראה
09:58
that the Temple of Apollo, where the most famous oracle sat,
199
598093
3564
שמקדש אפולו, שבו ישבו רוב האורקלים המפורסמים,
10:01
was actually built over two earthquake faults.
200
601681
3084
נבנה למעשה מעל שני קווי שבר טקטוניים.
10:04
And these faults would release these petrochemical fumes
201
604789
2886
וקווי השבר האלה משחררים אדים פטרו-כימיים
10:07
from underneath the Earth's crust,
202
607699
1685
ממעמקי קרום כדור הארץ,
10:09
and the oracle literally sat right above these faults,
203
609408
3866
והאורקל ישבה ממש מעל קווים אלה,
10:13
inhaling enormous amounts of ethylene gas, these fissures.
204
613298
3588
ושאפה כמויות עצומות של גז אתילן מסדקים אלה.
10:16
(Laughter)
205
616910
1008
10:17
It's true.
206
617942
1173
(צחוק)
זה אמיתי.
10:19
(Laughter)
207
619139
1017
(צחוק)
10:20
It's all true, and that's what made her babble and hallucinate
208
620180
3509
הכל אמיתי, וזה מה שגרם לה לפטפט ולהזות
10:23
and go into this trance-like state.
209
623713
1724
ולהכנס למצבי טראנס.
10:25
She was high as a kite!
210
625461
1770
היא היתה מסטולה לגמרי!
10:27
(Laughter)
211
627255
4461
(צחוק)
10:31
So how did anyone --
212
631740
2779
אז איך מישהו --
10:34
How did anyone get any useful advice out of her
213
634543
3030
איך מישהו יכול היה לקבל עצה שימושית כלשהי ממנה
10:37
in this state?
214
637597
1190
במצב הזה?
10:39
Well, you see those people surrounding the oracle?
215
639317
2381
ובכן, אתם רואים את האנשים שמקיפים את האורקל?
10:41
You see those people holding her up,
216
641722
1879
אתם רואים את האנשים שנושאים אותה,
10:43
because she's, like, a little woozy?
217
643625
1717
כי היא כאילו קצת מבולבלת?
10:45
And you see that guy on your left-hand side
218
645366
2308
ואתם רואים את הבחור הזה בצדכם השמאלי
10:47
holding the orange notebook?
219
647698
1598
מחזיק את המחברת הכתומה?
10:49
Well, those were the temple guides,
220
649925
1730
ובכן אלה היו כוהני הדת של המקדש,
10:51
and they worked hand in hand with the oracle.
221
651679
3016
והם עבדו יד ביד עם האורקל.
10:55
When inquisitors would come and get on their knees,
222
655904
2516
כאשר מבקרים היו באים וכורעים על ברכיהם,
10:58
that's when the temple guides would get to work,
223
658444
2340
כוהני המקדש היו נכנסים לפעולה,
11:00
because after they asked her questions,
224
660808
1864
כי אחרי ששאלו אותה שאלות,
11:02
they would observe their emotional state,
225
662696
2001
הם היו בוחנים את מצבם הרגשי,
11:04
and then they would ask them follow-up questions,
226
664721
2324
ואז הם היו שואלים אותם שאלות נוספות,
11:07
like, "Why do you want to know this prophecy? Who are you?
227
667069
2834
כמו "למה אתה רוצה לשמוע את הנבואה הזאת? מי אתה?
11:09
What are you going to do with this information?"
228
669927
2264
מה אתה הולך לעשות עם המידע הזה?"
11:12
And then the temple guides would take this more ethnographic,
229
672215
3182
ואז כוהני המקדש היו בוחרים במידע היותר אתנוגרפי,
11:15
this more qualitative information,
230
675421
2156
והיותר איכותני,
11:17
and interpret the oracle's babblings.
231
677601
2075
ומפרשים את הפטפוטים של האורקל.
11:21
So the oracle didn't stand alone,
232
681248
2292
כך שהאורקל לא עמדה לבד,
11:23
and neither should our big data systems.
233
683564
2148
וכך גם מערכות הביג דאטה שלנו.
11:26
Now to be clear,
234
686450
1161
אני רוצה להבהיר.
11:27
I'm not saying that big data systems are huffing ethylene gas,
235
687635
3459
איני אומרת שמערכות ביג דאטה שואפות גז אתילן,
11:31
or that they're even giving invalid predictions.
236
691118
2353
ואפילו לא שהן נותנות תחזיות מוטעות.
11:33
The total opposite.
237
693495
1161
ההפך הגמור.
11:34
But what I am saying
238
694680
2068
אבל מה שאני אומרת הוא
11:36
is that in the same way that the oracle needed her temple guides,
239
696772
3832
שבאותו אופן שבו האורקל נזקקה לכוהני המקדש שלה,
11:40
our big data systems need them, too.
240
700628
2288
מערכות הביג דאטה שלנו זקוקות להם גם כן.
11:42
They need people like ethnographers and user researchers
241
702940
4109
הן זקוקות לאנשים כמו אתנוגרפים וחוקרי משתמשים
11:47
who can gather what I call thick data.
242
707073
2506
שיכולים לאסוף את מה שאני קוראת לו "נתוני עובי."
11:50
This is precious data from humans,
243
710322
2991
זהו מידע יקר ערך שבא מבני אדם,
11:53
like stories, emotions and interactions that cannot be quantified.
244
713337
4102
כמו סיפורים, רגשות, ואינטרקציות שלא ניתנים לכימות.
11:57
It's the kind of data that I collected for Nokia
245
717463
2322
זהו סוג המידע שאני אספתי עבור נוקיה
11:59
that comes in in the form of a very small sample size,
246
719809
2669
שמגיע בצורה של מדגם קטן מאוד,
12:02
but delivers incredible depth of meaning.
247
722502
2955
אבל מספק עומק גדול של משמעות.
12:05
And what makes it so thick and meaty
248
725481
3680
ומה שהופך אותו לעבה ובשרני
12:10
is the experience of understanding the human narrative.
249
730265
4029
זו חוויית ההבנה של הנרטיב האנושי.
12:14
And that's what helps to see what's missing in our models.
250
734318
3639
וזה מה שעוזר לנו לראות מה חסר במודלים שלנו.
12:18
Thick data grounds our business questions in human questions,
251
738671
4045
נתוני-עובי מקרקעים את השאלות העסקיות שלנו בנושאי שאלות אנושיות,
12:22
and that's why integrating big and thick data
252
742740
3562
ולכן השילוב של ביג דאטה ונתוני עובי
12:26
forms a more complete picture.
253
746326
1689
יוצר תמונה יותר מלאה.
12:28
Big data is able to offer insights at scale
254
748592
2881
ביג דאטה יכולים לספק תובנות בקנה מידה
12:31
and leverage the best of machine intelligence,
255
751497
2647
ולמנף את האינטליגנציה המכנית הטובה ביותר,
12:34
whereas thick data can help us rescue the context loss
256
754168
3572
בעוד שנתוני-עובי יכולים לעזור לנו להציל את אובדן ההקשר
12:37
that comes from making big data usable,
257
757764
2098
שמגיע מהפיכת ביג דאטה לשמישים,
12:39
and leverage the best of human intelligence.
258
759886
2181
ולמנף את האינטליגנציה האנושית הטובה ביותר.
12:42
And when you actually integrate the two, that's when things get really fun,
259
762091
3552
וכאשר למעשה משלבים את שניהם, הכיף ממש מתחיל,
12:45
because then you're no longer just working with data
260
765667
2436
כי אז אתם כבר לא רק עובדים עם נתונים
12:48
you've already collected.
261
768127
1196
שכבר אספתם.
12:49
You get to also work with data that hasn't been collected.
262
769347
2737
אלא עובדים גם עם נתונים שעוד לא נאספו.
12:52
You get to ask questions about why:
263
772108
1719
תוכלו לשאול שאלות כמו למה:
12:53
Why is this happening?
264
773851
1317
למה זה קורה?
12:55
Now, when Netflix did this,
265
775598
1379
עכשיו, כשנטפליקס עשו את זה,
12:57
they unlocked a whole new way to transform their business.
266
777001
3035
הם גילו דרך חדשה לחלוטין לשנות את העסק שלהם.
13:01
Netflix is known for their really great recommendation algorithm,
267
781226
3956
נטפליקס ידועים באלגוריתם ההמלצות המצוין שלהם,
13:05
and they had this $1 million prize for anyone who could improve it.
268
785206
4797
והם הציעו פרס של מיליון דולר לכל מי שיוכל לשפר אותו.
13:10
And there were winners.
269
790027
1314
והיו שם זוכים.
13:12
But Netflix discovered the improvements were only incremental.
270
792075
4323
אבל נטפליקס גילו שהשיפורים היו מזעריים בלבד.
13:17
So to really find out what was going on,
271
797224
1964
אז כדי לגלות מה באמת קרה,
13:19
they hired an ethnographer, Grant McCracken,
272
799212
3741
הם שכרו אתנוגרף בשם גרנט מק'קראקן,
13:22
to gather thick data insights.
273
802977
1546
כדי שיאסוף תובנות מנתוני-עובי.
13:24
And what he discovered was something that they hadn't seen initially
274
804547
3924
והוא גילה משהו שהם לא ראו מלכתחילה
13:28
in the quantitative data.
275
808495
1355
בנתונים הכמותיים.
13:30
He discovered that people loved to binge-watch.
276
810892
2728
הוא גילה שאנשים אוהבים לצפות בכמה פרקים של סדרות ברצף.
13:33
In fact, people didn't even feel guilty about it.
277
813644
2353
למעשה, אנשים אפילו לא חשו אשמים בשל כך.
13:36
They enjoyed it.
278
816021
1255
הם נהנו מזה.
13:37
(Laughter)
279
817300
1026
(צחוק)
13:38
So Netflix was like, "Oh. This is a new insight."
280
818350
2356
אז נטפליקס החליטו, "אוקיי זאת תובנה חדשה,
13:40
So they went to their data science team,
281
820730
1938
והם הלכו לצוות מדעני הנתונים שלהם,
13:42
and they were able to scale this big data insight
282
822692
2318
והצליחו לדרג את התובנה הזו
13:45
in with their quantitative data.
283
825034
2587
באמצעות הנתונים הכמותיים שלהם.
13:47
And once they verified it and validated it,
284
827645
3170
וברגע שהם אישרו ואימתו את זה,
13:50
Netflix decided to do something very simple but impactful.
285
830839
4761
נטפליקס החליטו לעשות משהו פשוט מאוד, אך בעל השפעה.
13:56
They said, instead of offering the same show from different genres
286
836654
6492
הם אמרו, שבמקום להציע את אותה הסדרה בז'אנרים שונים
14:03
or more of the different shows from similar users,
287
843170
3888
או יותר מהסדרות השונות ממשתמשים דומים,
14:07
we'll just offer more of the same show.
288
847082
2554
פשוט נציע יותר מאותה הסדרה.
14:09
We'll make it easier for you to binge-watch.
289
849660
2105
נקל עליכם לצפות בה ברצף.
14:11
And they didn't stop there.
290
851789
1486
והם לא עצרו שם.
14:13
They did all these things
291
853299
1474
הם עשו את כל הדברים
14:14
to redesign their entire viewer experience,
292
854797
2959
כדי לעצב מחדש את חווית הצופה שלהם כולה,
14:17
to really encourage binge-watching.
293
857780
1758
כדי באמת לעודד צפייה ברצף.
14:20
It's why people and friends disappear for whole weekends at a time,
294
860050
3241
לכן אנשים וחברים נעלמים במשך סופי שבוע שלמים מדי פעם,
14:23
catching up on shows like "Master of None."
295
863315
2343
כדי להשלים צפייה בסדרות כמו "מאסטר של אף אחד".
14:25
By integrating big data and thick data, they not only improved their business,
296
865682
4173
על ידי שילוב של נתוני-עתק ונתוני-עובי הם לא רק שיפרו את העסק שלהם,
14:29
but they transformed how we consume media.
297
869879
2812
אלא שינו את האופן בו אנחנו צורכים מדיה.
14:32
And now their stocks are projected to double in the next few years.
298
872715
4552
ועכשיו צופים שהמניות שלהם יכפילו את ערכן בשנים הקרובות.
14:38
But this isn't just about watching more videos
299
878100
3830
אבל לא מדובר כאן רק בצפייה בעוד כמה פרקים
14:41
or selling more smartphones.
300
881954
1620
או במכירה של יותר סמארטפונים.
14:43
For some, integrating thick data insights into the algorithm
301
883963
4050
עבור אחדים, שילוב של תובנות נתוני-עובי לתוך האלגוריתם
14:48
could mean life or death,
302
888037
2263
יכול להיות עניין של חיים או מוות,
14:50
especially for the marginalized.
303
890324
2146
בייחוד עבור אלה שנמצאים בשוליים.
14:53
All around the country, police departments are using big data
304
893558
3434
בכל רחבי המדינה במחלקות משטרה משתמשים בביג דאטה
14:57
for predictive policing,
305
897016
1963
לחיזוי שיטור,
14:59
to set bond amounts and sentencing recommendations
306
899003
3084
כדי לקבוע סכומי ערבות והמלצות פסק דין
15:02
in ways that reinforce existing biases.
307
902111
3147
בדרכים שמחזקות דעות קדומות קיימות.
15:06
NSA's Skynet machine learning algorithm
308
906116
2423
אלגוריתם הלמידה של מכונת סקיי-נט של נ.ס.א.
15:08
has possibly aided in the deaths of thousands of civilians in Pakistan
309
908563
5444
ייתכן וסייעה במותם של אלפי אזרחים בפקיסטן
15:14
from misreading cellular device metadata.
310
914031
2721
בגלל טעויות בקריאת מטא-נתונים במכשירים סלולריים
15:18
As all of our lives become more automated,
311
918951
3403
מאחר וכל חיינו הפכו להיות יותר אוטומטיים,
15:22
from automobiles to health insurance or to employment,
312
922378
3080
החל ממכוניות, לביטוח רפואי, או לתעסוקה,
15:25
it is likely that all of us
313
925482
2350
סביר להניח שכולנו
15:27
will be impacted by the quantification bias.
314
927856
2989
נושפע מדעות קדומות כמותיות.
15:32
Now, the good news is that we've come a long way
315
932792
2621
עכשיו החדשות הטובות הן שעברנו דרך ארוכה
15:35
from huffing ethylene gas to make predictions.
316
935437
2450
מנשיפת גז אתילן לעשיית תחזיות.
15:37
We have better tools, so let's just use them better.
317
937911
3070
יש לנו כלים טובים יותר, בואו ונשתמש בהם יותר טוב.
15:41
Let's integrate the big data with the thick data.
318
941005
2323
בואו ונשלב את ביג דאטה עם נתוני-העובי.
15:43
Let's bring our temple guides with the oracles,
319
943352
2261
נביא גם את כוהני המקדש שלנו יחד עם האורקלים,
15:45
and whether this work happens in companies or nonprofits
320
945637
3376
ובין אם עבודה זו מתרחשת בחברות או במלכ"רים
15:49
or government or even in the software,
321
949037
2469
או בממשלה או אפילו בתוכנה,
15:51
all of it matters,
322
951530
1792
כל זה חשוב,
15:53
because that means we're collectively committed
323
953346
3023
כי זה אומר שאנו מחויבים באופן קולקטיבי
15:56
to making better data,
324
956393
2191
להביא נתונים טובים יותר,
15:58
better algorithms, better outputs
325
958608
1836
אלגוריתמים טובים יותר, פלט טוב יותר
16:00
and better decisions.
326
960468
1643
החלטות טובות יותר.
16:02
This is how we'll avoid missing that something.
327
962135
3558
כך נימנע מלהחסיר דבר מה.
16:07
(Applause)
328
967042
3948
(מחיאות כפיים)
על אתר זה

אתר זה יציג בפניכם סרטוני YouTube המועילים ללימוד אנגלית. תוכלו לראות שיעורי אנגלית המועברים על ידי מורים מהשורה הראשונה מרחבי העולם. לחץ פעמיים על הכתוביות באנגלית המוצגות בכל דף וידאו כדי להפעיל את הסרטון משם. הכתוביות גוללות בסנכרון עם הפעלת הווידאו. אם יש לך הערות או בקשות, אנא צור איתנו קשר באמצעות טופס יצירת קשר זה.

https://forms.gle/WvT1wiN1qDtmnspy7