Kenneth Cukier: Big data is better data

530,099 views ・ 2014-09-23

TED


אנא לחץ פעמיים על הכתוביות באנגלית למטה כדי להפעיל את הסרטון.

מתרגם: Yubal Masalker מבקר: Sigal Tifferet
00:12
America's favorite pie is?
0
12787
3845
העוגה החביבה על האמריקאים היא...?
00:16
Audience: Apple. Kenneth Cukier: Apple. Of course it is.
1
16632
3506
קהל: תפוחים. קנת קוקיאר: תפוחים, כמובן.
00:20
How do we know it?
2
20138
1231
איך אנו יודעים?
00:21
Because of data.
3
21369
2753
בגלל הנתונים.
00:24
You look at supermarket sales.
4
24122
2066
רואים את המכירות בסופרמרקטים.
00:26
You look at supermarket sales of 30-centimeter pies
5
26188
2866
בודקים את המכירות של כל עוגות
00:29
that are frozen, and apple wins, no contest.
6
29054
4075
30 הס"מ הקפואות, ועוגות התפוחים מנצחות בגדול.
00:33
The majority of the sales are apple.
7
33129
5180
רוב המכירות הן של עוגות תפוחים.
00:38
But then supermarkets started selling
8
38309
2964
אבל אז הסופרמרקטים החלו למכור
00:41
smaller, 11-centimeter pies,
9
41273
2583
עוגות יותר קטנות, בקוטר 11 ס"מ,
00:43
and suddenly, apple fell to fourth or fifth place.
10
43856
4174
ופתאום עוגות התפוחים ירדו למקום הרביעי או החמישי.
00:48
Why? What happened?
11
48030
2875
מדוע? מה קרה?
00:50
Okay, think about it.
12
50905
2818
חישבו על זה.
00:53
When you buy a 30-centimeter pie,
13
53723
3848
כאשר אנו קונים עוגת 30 ס"מ,
00:57
the whole family has to agree,
14
57571
2261
כל המשפחה צריכה להסכים,
00:59
and apple is everyone's second favorite.
15
59832
3791
ועוגת תפוחים היא בעדיפות שניה אצל כל אחד.
01:03
(Laughter)
16
63623
1935
(צחוק)
01:05
But when you buy an individual 11-centimeter pie,
17
65558
3615
אבל כשקונים עוגת 11 ס"מ אישית,
01:09
you can buy the one that you want.
18
69173
3745
אפשר לקנות את זו שכל אחד אוהב אישית.
01:12
You can get your first choice.
19
72918
4015
כל אחד מקבל את מה שבעדיפות ראשונה אצלו.
01:16
You have more data.
20
76933
1641
יש יותר נתונים.
01:18
You can see something
21
78574
1554
ניתן לראות דברים
01:20
that you couldn't see
22
80128
1132
שלא ניתן היה לראות
01:21
when you only had smaller amounts of it.
23
81260
3953
כאשר היו פחות נתונים.
01:25
Now, the point here is that more data
24
85213
2475
העניין הוא שיותר נתונים
01:27
doesn't just let us see more,
25
87688
2283
אינם מאפשרים רק לראות יותר --
01:29
more of the same thing we were looking at.
26
89971
1854
יותר מאותם הדברים שראינו קודם.
01:31
More data allows us to see new.
27
91825
3613
יותר נתונים מאפשרים לראות דברים חדשים.
01:35
It allows us to see better.
28
95438
3094
הם מאפשרים לנו לראות יותר טוב.
01:38
It allows us to see different.
29
98532
3656
הם מאפשרים להסתכל אחרת.
01:42
In this case, it allows us to see
30
102188
3173
במקרה זה, הם מאפשרים לראות
01:45
what America's favorite pie is:
31
105361
2913
מהי העוגה האהובה באמריקה:
01:48
not apple.
32
108274
2542
לא עוגת תפוחים.
01:50
Now, you probably all have heard the term big data.
33
110816
3614
כולכם בוודאי שמעתם את המושג 'ביג דאטה'.
01:54
In fact, you're probably sick of hearing the term
34
114430
2057
בטח נמאס לכם לשמוע את המושג
01:56
big data.
35
116487
1630
'ביג דאטה'.
01:58
It is true that there is a lot of hype around the term,
36
118117
3330
אכן, יש הרבה הפרזה סביב המושג,
02:01
and that is very unfortunate,
37
121447
2332
וזה חבל מאוד,
02:03
because big data is an extremely important tool
38
123779
3046
כי ביג דאטה הוא כלי חשוב ביותר
02:06
by which society is going to advance.
39
126825
3734
שבאמצעותו החברה עתידה להתקדם.
02:10
In the past, we used to look at small data
40
130559
3561
בעבר, נהגנו להסתכל על נתונים מצומצמים
02:14
and think about what it would mean
41
134120
1704
ולחשוב מה משמעותם
02:15
to try to understand the world,
42
135824
1496
בניסיון להבין את העולם,
02:17
and now we have a lot more of it,
43
137320
1991
וכעת יש לנו הרבה יותר כאלה,
02:19
more than we ever could before.
44
139311
2722
יותר ממה שיכלו להיות אי-פעם בעבר.
02:22
What we find is that when we have
45
142033
1877
מה שאנו מגלים הוא שכאשר יש לנו
02:23
a large body of data, we can fundamentally do things
46
143910
2724
מסד נתונים גדול, ניתן לעשות דברים
02:26
that we couldn't do when we only had smaller amounts.
47
146634
3276
שלא יכולנו לעשות כאשר היו לנו פחות נתונים.
02:29
Big data is important, and big data is new,
48
149910
2641
ביג דאטה הוא חשוב והוא חדש,
02:32
and when you think about it,
49
152551
1777
וכאשר חושבים על כך,
02:34
the only way this planet is going to deal
50
154328
2216
הדרך היחידה בה עולמנו יוכל
02:36
with its global challenges —
51
156544
1789
להתמודד עם האתגרים הגלובליים --
02:38
to feed people, supply them with medical care,
52
158333
3537
לספק לכולם אוכל, טיפול רפואי,
02:41
supply them with energy, electricity,
53
161870
2810
אנרגיה, חשמל,
02:44
and to make sure they're not burnt to a crisp
54
164680
1789
וגם לוודא שלא ייצלו בגלל
02:46
because of global warming —
55
166469
1238
ההתחממות הגלובלית --
02:47
is because of the effective use of data.
56
167707
4195
תהיה באמצעות שימוש יעיל בנתונים.
02:51
So what is new about big data? What is the big deal?
57
171902
3870
אז מה כל-כך שונה בביג דאטה? על מה כל הרעש?
02:55
Well, to answer that question, let's think about
58
175772
2517
כדי לענות על השאלה, הבה נחשוב
02:58
what information looked like,
59
178289
1896
כיצד המידע נראה פעם,
03:00
physically looked like in the past.
60
180185
3034
כיצד הוא נראה בפועל בעבר.
03:03
In 1908, on the island of Crete,
61
183219
3611
ב-1908, באי כרתים,
03:06
archaeologists discovered a clay disc.
62
186830
4735
ארכיאולוגים גילו דיסקה מחימר.
03:11
They dated it from 2000 B.C., so it's 4,000 years old.
63
191565
4059
הם תיארכו אותה ל-2000 לפנה"ס, כלומר, לפני 4,000 שנה.
03:15
Now, there's inscriptions on this disc,
64
195624
2004
יש כיתוב על הדיסקה
03:17
but we actually don't know what it means.
65
197628
1327
שאין אנו יודעים את פירושו.
03:18
It's a complete mystery, but the point is that
66
198955
2098
זוהי תעלומה. אבל מה שחשוב כאן
03:21
this is what information used to look like
67
201053
1928
הוא שכך נראה מידע
03:22
4,000 years ago.
68
202981
2089
לפני 4,000 שנה.
03:25
This is how society stored
69
205070
2548
זו הדרך בה החברה
איחסנה והעבירה מידע.
03:27
and transmitted information.
70
207618
3524
03:31
Now, society hasn't advanced all that much.
71
211142
4160
החברה לא התקדמה מאז כל-כך.
03:35
We still store information on discs,
72
215302
3474
אנו עדיין מאחסנים מידע על דיסקות,
03:38
but now we can store a lot more information,
73
218776
3184
אבל היום אנו יכולים לאחסן הרבה יותר מידע,
03:41
more than ever before.
74
221960
1260
הרבה יותר מאי-פעם.
03:43
Searching it is easier. Copying it easier.
75
223220
3093
יותר קל לחפש אותו. יותר קל להעתיקו.
03:46
Sharing it is easier. Processing it is easier.
76
226313
3500
יותר קל לשתפו. יותר קל לעבדו.
03:49
And what we can do is we can reuse this information
77
229813
2766
ניתן גם להשתמש בו למטרות
03:52
for uses that we never even imagined
78
232579
1834
שאף פעם לא חשבנו עליהן
03:54
when we first collected the data.
79
234413
3195
כאשר אספנו את המידע.
03:57
In this respect, the data has gone
80
237608
2252
בהקשר זה, המידע הפך
03:59
from a stock to a flow,
81
239860
3532
ממצבור לזרם,
04:03
from something that is stationary and static
82
243392
3938
ממשהו שהוא נייח וסטטי
04:07
to something that is fluid and dynamic.
83
247330
3609
למשהו שהוא זורם ודינמי.
04:10
There is, if you will, a liquidity to information.
84
250939
4023
מתקיימת, אם תרצו, נוזליות של מידע.
04:14
The disc that was discovered off of Crete
85
254962
3474
הדיסקה מלפני 4,000 שנה
04:18
that's 4,000 years old, is heavy,
86
258436
3764
שנתגלתה בכרתים היא כבדה.
היא אינה מחזיקה הרבה מידע,
04:22
it doesn't store a lot of information,
87
262200
1962
04:24
and that information is unchangeable.
88
264162
3116
והמידע הזה אינו ניתן לשינוי.
04:27
By contrast, all of the files
89
267278
4011
לעומתו, כל הקבצים
04:31
that Edward Snowden took
90
271289
1861
שאדוארד סנודן לקח
04:33
from the National Security Agency in the United States
91
273150
2621
מהסוכנות לביטחון לאומי של ארה"ב
04:35
fits on a memory stick
92
275771
2419
נכנסים בזכרון נייד
04:38
the size of a fingernail,
93
278190
3010
בגודל של ציפורן,
04:41
and it can be shared at the speed of light.
94
281200
4745
וניתן לשתפם במהירות האור.
04:45
More data. More.
95
285945
5255
יותר נתונים. יותר.
04:51
Now, one reason why we have so much data in the world today
96
291200
1974
אחת הסיבות שיש לנו כל-כך הרבה מידע היום
04:53
is we are collecting things
97
293174
1432
היא שאנו אוספים דברים
04:54
that we've always collected information on,
98
294606
3280
שתמיד אספנו עליהם מידע,
04:57
but another reason why is we're taking things
99
297886
2656
אבל סיבה נוספת היא שאנו אוספים דברים
05:00
that have always been informational
100
300542
2812
שתמיד היו קשורים במידע
05:03
but have never been rendered into a data format
101
303354
2486
אבל אף פעם לא היו בתבנית של נתונים
05:05
and we are putting it into data.
102
305840
2419
וכעת אנו הופכים אותם לנתונים.
05:08
Think, for example, the question of location.
103
308259
3308
חישבו למשל על שאלת המיקום.
05:11
Take, for example, Martin Luther.
104
311567
2249
לדוגמא, מרטין לותר.
05:13
If we wanted to know in the 1500s
105
313816
1597
אם היינו רוצים לדעת ב-1500
05:15
where Martin Luther was,
106
315413
2667
איפה נמצא מרטין לותר,
05:18
we would have to follow him at all times,
107
318080
2092
היינו צריכים לעקוב אחריו כל הזמן,
05:20
maybe with a feathery quill and an inkwell,
108
320172
2137
אולי עם קולמוס-נוצה וקסת-דיו,
05:22
and record it,
109
322309
1676
ולרשום את המיקומים.
05:23
but now think about what it looks like today.
110
323985
2183
אבל חישבו כיצד זה היה נראה היום.
05:26
You know that somewhere,
111
326168
2122
אנו יודעים שהיכן שהוא,
05:28
probably in a telecommunications carrier's database,
112
328290
2446
ככל הנראה בבסיס נתונים של חברת תקשורת,
05:30
there is a spreadsheet or at least a database entry
113
330736
3036
ישנו גיליון אלקטרוני או לפחות רשומה
05:33
that records your information
114
333772
2088
הרושמת את המידע על כל אחד
05:35
of where you've been at all times.
115
335860
2063
ואיפה הוא היה בכל עת.
05:37
If you have a cell phone,
116
337923
1360
אם יש לך טלפון נייד,
05:39
and that cell phone has GPS, but even if it doesn't have GPS,
117
339283
2847
ובו יש איכון לווייני, אבל גם אם אין,
05:42
it can record your information.
118
342130
2385
הוא יכול לתעד את המידע עליך.
05:44
In this respect, location has been datafied.
119
344515
4084
מבחינה זו, המיקום הפך לנתון.
05:48
Now think, for example, of the issue of posture,
120
348599
4601
חישבו למשל על תנוחה,
05:53
the way that you are all sitting right now,
121
353200
1285
האופן בו אתם ישובים כרגע,
05:54
the way that you sit,
122
354485
2030
האופן בו אתה יושב,
05:56
the way that you sit, the way that you sit.
123
356515
2771
האופן בו אתה יושב, האופן בו את יושבת.
05:59
It's all different, and it's a function of your leg length
124
359286
2077
אצל כל אחד זה שונה וזו פונקציה
06:01
and your back and the contours of your back,
125
361363
2093
של אורך הרגל, הגב והקימור שלו,
06:03
and if I were to put sensors, maybe 100 sensors
126
363456
2531
ואם הייתי שם חיישנים, אולי 100 חיישנים
06:05
into all of your chairs right now,
127
365987
1766
בכל הכיסאות שלכם,
06:07
I could create an index that's fairly unique to you,
128
367753
3600
הייתי יכול ליצור תבנית די ייחודית לכל אחד,
06:11
sort of like a fingerprint, but it's not your finger.
129
371353
4409
מין טביעת אצבע, אבל לא מאצבע.
06:15
So what could we do with this?
130
375762
2969
אז מה היינו עושים עם זה?
06:18
Researchers in Tokyo are using it
131
378731
2397
חוקרים בטוקיו משתמשים בזה
06:21
as a potential anti-theft device in cars.
132
381128
4388
בתור אמצעי אפשרי נגד גניבת מכוניות.
06:25
The idea is that the carjacker sits behind the wheel,
133
385516
2924
הרעיון הוא שכאשר הפורץ יישב מאחורי ההגה
06:28
tries to stream off, but the car recognizes
134
388440
2104
וינסה להתניע, המכונית תזהה
06:30
that a non-approved driver is behind the wheel,
135
390544
2362
שנהג לא מורשה יושב מאחורי ההגה,
06:32
and maybe the engine just stops, unless you
136
392906
2164
ואולי המנוע ייכבה, אלא אם
תוקלד סיסמה בלוח המחוונים
06:35
type in a password into the dashboard
137
395070
3177
06:38
to say, "Hey, I have authorization to drive." Great.
138
398247
4658
כדי לומר, "יש לי הרשאה לנהוג." מצוין.
06:42
What if every single car in Europe
139
402905
2553
מה אם בכל מכונית באירופה
06:45
had this technology in it?
140
405458
1457
תהיה טכנולוגיה זו?
06:46
What could we do then?
141
406915
3165
מה היינו יכולים לעשות אז?
06:50
Maybe, if we aggregated the data,
142
410080
2240
אם היינו צוברים את הנתונים,
06:52
maybe we could identify telltale signs
143
412320
3814
אולי היינו יכולים לזהות סימנים מקדימים
06:56
that best predict that a car accident
144
416134
2709
לתאונת דרכים
06:58
is going to take place in the next five seconds.
145
418843
5893
העומדת להתרחש תוך 5 השניות הקרובות.
07:04
And then what we will have datafied
146
424736
2557
ומה שנאגור אז כנתונים
07:07
is driver fatigue,
147
427293
1783
זו עייפות הנהג,
07:09
and the service would be when the car senses
148
429076
2334
והמענה יהיה כאשר המכונית
07:11
that the person slumps into that position,
149
431410
3437
תחוש שהאדם צונח לאותו מצב,
07:14
automatically knows, hey, set an internal alarm
150
434847
3994
היא תדע זאת אוטומטית, תפעיל אתראה פנימית
07:18
that would vibrate the steering wheel, honk inside
151
438841
2025
שתרעיד את ההגה, תצפור,
07:20
to say, "Hey, wake up,
152
440866
1721
כדי לומר, "אדוני, תתעורר,
07:22
pay more attention to the road."
153
442587
1904
שים לב לכביש."
07:24
These are the sorts of things we can do
154
444491
1853
דברים כאלה נוכל לבצע כאשר
07:26
when we datafy more aspects of our lives.
155
446344
2821
נהפוך לנתונים יותר ויותר היבטים מחיינו.
07:29
So what is the value of big data?
156
449165
3675
מה הערך של ביג דאטה?
07:32
Well, think about it.
157
452840
2190
חישבו על זה.
07:35
You have more information.
158
455030
2412
יש לנו יותר מידע.
07:37
You can do things that you couldn't do before.
159
457442
3341
ניתן לעשות דברים שלא ניתן היה קודם.
07:40
One of the most impressive areas
160
460783
1676
אחד התחומים הכי מרשימים
07:42
where this concept is taking place
161
462459
1729
שבו זה קורה
07:44
is in the area of machine learning.
162
464188
3307
הוא התחום של מכונות לומדות.
07:47
Machine learning is a branch of artificial intelligence,
163
467495
3077
מכונות לומדות הוא ענף של אינטליגנציה מלאכותית,
07:50
which itself is a branch of computer science.
164
470572
3378
שהיא בעצמה ענף של מדעי המחשב.
07:53
The general idea is that instead of
165
473950
1543
הרעיון באופן כללי הוא
07:55
instructing a computer what do do,
166
475493
2117
שבמקום להורות למחשב מה לעשות,
07:57
we are going to simply throw data at the problem
167
477610
2620
פשוט נזרוק נתונים בנוגע לבעיה
08:00
and tell the computer to figure it out for itself.
168
480230
3206
ונאמר למחשב שימצא פיתרון לבד.
08:03
And it will help you understand it
169
483436
1777
כדי להבין את הרעיון
08:05
by seeing its origins.
170
485213
3552
נסתכל על המקור שלו.
08:08
In the 1950s, a computer scientist
171
488765
2388
בשנות ה-50, איש מדעי המחשב
08:11
at IBM named Arthur Samuel liked to play checkers,
172
491153
3592
באיי-בי-אם, בשם ארתור סמואל, אהב לשחק דמקה,
08:14
so he wrote a computer program
173
494745
1402
אז הוא כתב תוכנת מחשב
08:16
so he could play against the computer.
174
496147
2813
כדי שיוכל לשחק נגד המחשב.
08:18
He played. He won.
175
498960
2711
הוא שיחק וניצח.
08:21
He played. He won.
176
501671
2103
הוא שיחק וניצח.
08:23
He played. He won,
177
503774
3015
הוא שיחק וניצח,
08:26
because the computer only knew
178
506789
1778
כי המחשב ידע
08:28
what a legal move was.
179
508567
2227
רק מהלכים חוקיים.
08:30
Arthur Samuel knew something else.
180
510794
2087
ארתור סמואל ידע משהו אחר.
08:32
Arthur Samuel knew strategy.
181
512881
4629
ארתור סמואל ידע אסטרטגיה.
08:37
So he wrote a small sub-program alongside it
182
517510
2396
לכן הוא כתב תוכנת-משנה
08:39
operating in the background, and all it did
183
519906
1974
שפעלה ברקע, וכל מה שהיא עשתה
08:41
was score the probability
184
521880
1817
היה לאמוד את הסבירות
08:43
that a given board configuration would likely lead
185
523697
2563
שסידור נתון על הלוח יוביל
08:46
to a winning board versus a losing board
186
526260
2910
לעמדת ניצחון לעומת עמדת הפסד
08:49
after every move.
187
529170
2508
לאחר כל מהלך.
08:51
He plays the computer. He wins.
188
531678
3150
הוא שיחק נגד המחשב וניצח.
08:54
He plays the computer. He wins.
189
534828
2508
הוא שיחק נגד המחשב וניצח
08:57
He plays the computer. He wins.
190
537336
3731
הוא שיחק נגד המחשב וניצח.
09:01
And then Arthur Samuel leaves the computer
191
541067
2277
ואז ארתור סמואל עזב את המחשב
09:03
to play itself.
192
543344
2227
כדי שישחק עם עצמו.
09:05
It plays itself. It collects more data.
193
545571
3509
הוא שיחק עם עצמו ואסף יותר מידע.
09:09
It collects more data. It increases the accuracy of its prediction.
194
549080
4309
הוא אסף יותר מידע וזה הגדיל את הדיוק של החיזוי שלו.
09:13
And then Arthur Samuel goes back to the computer
195
553389
2104
ואז ארתור סמואל חזר למחשב,
09:15
and he plays it, and he loses,
196
555493
2318
שיחק נגדו והפסיד,
09:17
and he plays it, and he loses,
197
557811
2069
ושיחק נגדו והפסיד,
09:19
and he plays it, and he loses,
198
559880
2047
ושיחק נגדו והפסיד,
09:21
and Arthur Samuel has created a machine
199
561927
2599
וכך ארתור סמואל יצר מכונה
09:24
that surpasses his ability in a task that he taught it.
200
564526
6288
שהתעלתה על יכולתו, במשימה שהוא עצמו לימד אותה.
09:30
And this idea of machine learning
201
570814
2498
והרעיון הזה של למידת מכונה
09:33
is going everywhere.
202
573312
3927
מגיע לכל מקום.
09:37
How do you think we have self-driving cars?
203
577239
3149
איך לדעתכם יש לנו מכוניות ללא נהג?
09:40
Are we any better off as a society
204
580388
2137
האם נהיה במצב יותר טוב כחברה
09:42
enshrining all the rules of the road into software?
205
582525
3285
אם נכניס את כל חוקי התנועה לתוך תוכנה?
09:45
No. Memory is cheaper. No.
206
585810
2598
לא. האם הזיכרון זול יותר? לא.
09:48
Algorithms are faster. No. Processors are better. No.
207
588408
3994
האלגוריתמים מהירים יותר? לא. המעבדים טובים יותר? לא.
09:52
All of those things matter, but that's not why.
208
592402
2772
כל הדברים הללו חשובים, אבל הם לא הסיבה.
09:55
It's because we changed the nature of the problem.
209
595174
3141
הסיבה היא ששינינו את אופי הבעיה.
09:58
We changed the nature of the problem from one
210
598315
1530
שינינו את אופי הבעיה
09:59
in which we tried to overtly and explicitly
211
599845
2245
ממצב שבו ניסינו באופן מוגזם ובגלוי
10:02
explain to the computer how to drive
212
602090
2581
להסביר למחשב כיצד לנהוג
10:04
to one in which we say,
213
604671
1316
למצב בו אנו אומרים,
10:05
"Here's a lot of data around the vehicle.
214
605987
1876
"הנה, קח לך המון נתונים על הרכב.
10:07
You figure it out.
215
607863
1533
ואתה תמצא את הפיתרון.
10:09
You figure it out that that is a traffic light,
216
609396
1867
אתה תמצא שזה רמזור,
10:11
that that traffic light is red and not green,
217
611263
2081
שהרמזור אדום ולא ירוק,
10:13
that that means that you need to stop
218
613344
2014
פירושו שצריך לעצור
10:15
and not go forward."
219
615358
3083
ולא להתקדם."
10:18
Machine learning is at the basis
220
618441
1518
למידת מכונות נמצאת
10:19
of many of the things that we do online:
221
619959
1991
ביסוד הרבה דברים שאנו מבצעים ברשת:
10:21
search engines,
222
621950
1857
מנועי חיפוש,
10:23
Amazon's personalization algorithm,
223
623807
3801
אלגוריתמים של אמזון להתאמה אישית,
10:27
computer translation,
224
627608
2212
תרגום ממוחשב,
10:29
voice recognition systems.
225
629820
4290
מערכות לזיהוי קול.
10:34
Researchers recently have looked at
226
634110
2835
לאחרונה, חוקרים התעמקו
10:36
the question of biopsies,
227
636945
3195
בסוגיית הביופסיה,
10:40
cancerous biopsies,
228
640140
2767
של דגימת רקמות סרטניות,
10:42
and they've asked the computer to identify
229
642907
2315
והם ביקשו ממחשב לקבוע,
10:45
by looking at the data and survival rates
230
645222
2471
באמצעות בחינת הנתונים
10:47
to determine whether cells are actually
231
647693
4667
ושיעורי התמותה, אם התאים
הם באמת סרטניים,
10:52
cancerous or not,
232
652360
2544
10:54
and sure enough, when you throw the data at it,
233
654904
1778
וכשהנתונים הוזנו למחשב,
10:56
through a machine-learning algorithm,
234
656682
2047
באמצעות אלגוריתם למידת מכונה,
10:58
the machine was able to identify
235
658729
1877
המכונה היתה מסוגלת לזהות
11:00
the 12 telltale signs that best predict
236
660606
2262
את 12 הסימנים המחשידים שמנבאים הכי טוב
11:02
that this biopsy of the breast cancer cells
237
662868
3299
שריקמה זו מתאי סרטן-שד
11:06
are indeed cancerous.
238
666167
3218
היא אכן ממאירה.
11:09
The problem: The medical literature
239
669385
2498
הבעיה: הספרות הרפואית
11:11
only knew nine of them.
240
671883
2789
הכירה רק 9 מהם.
11:14
Three of the traits were ones
241
674672
1800
שלושה מהסימנים היו כאלה
11:16
that people didn't need to look for,
242
676472
2975
שלא היה צורך שאנשים יחפשו,
11:19
but that the machine spotted.
243
679447
5531
אבל המכונה איתרה אותם.
11:24
Now, there are dark sides to big data as well.
244
684978
5925
אבל, ישנם גם צדדים אפלים לביג דאטה.
11:30
It will improve our lives, but there are problems
245
690903
2074
ביג דאטה ישפר את חיינו,
11:32
that we need to be conscious of,
246
692977
2640
אבל יש גם בעיות שצריך להיות מודעים אליהן.
11:35
and the first one is the idea
247
695617
2623
הראשונה היא האפשרות
11:38
that we may be punished for predictions,
248
698240
2686
שאנו עשויים לסבול מביצוע ניבויים,
11:40
that the police may use big data for their purposes,
249
700926
3870
כי המשטרה עלולה להשתמש בביג דאטה למטרותיה,
11:44
a little bit like "Minority Report."
250
704796
2351
משהו כמו בסרט "דו"ח מיוחד".
11:47
Now, it's a term called predictive policing,
251
707147
2441
זה נקרא "שיטור מנבא",
11:49
or algorithmic criminology,
252
709588
2363
או "חקר פשיעה אלגוריתמי".
11:51
and the idea is that if we take a lot of data,
253
711951
2036
הרעיון הוא שאם לוקחים המון נתונים,
11:53
for example where past crimes have been,
254
713987
2159
לדוגמא, היכן התרחשו פשעים בעבר,
11:56
we know where to send the patrols.
255
716146
2543
נדע לאן לשגר את סיורי המשטרה.
11:58
That makes sense, but the problem, of course,
256
718689
2115
זה נראה הגיוני, אבל הבעיה
12:00
is that it's not simply going to stop on location data,
257
720804
4544
היא שזה לא ייעצר רק בנתוני המיקום,
12:05
it's going to go down to the level of the individual.
258
725348
2959
אלא זה יירד לרמת הפרט.
12:08
Why don't we use data about the person's
259
728307
2250
למה שלא נשתמש בנתונים
מתעודת התיכון של האדם?
12:10
high school transcript?
260
730557
2228
12:12
Maybe we should use the fact that
261
732785
1561
אולי עלינו להשתמש בנתונים כמו,
12:14
they're unemployed or not, their credit score,
262
734346
2028
אם האדם עובד או מובטל, רמת האשראי שלו,
12:16
their web-surfing behavior,
263
736374
1552
הרגלי גלישתו באינטרנט,
12:17
whether they're up late at night.
264
737926
1878
אם הוא ער עד מאוחר בלילה.
12:19
Their Fitbit, when it's able to identify biochemistries,
265
739804
3161
מכשיר הניטור הגופני, אם הוא מסוגל לזהות
12:22
will show that they have aggressive thoughts.
266
742965
4236
תגובות כימיות, יראה שיש לו מחשבות תוקפניות.
12:27
We may have algorithms that are likely to predict
267
747201
2221
עשויים להיות אלגוריתמים שיכולים לנבא
12:29
what we are about to do,
268
749422
1633
מה אנו עומדים לעשות,
12:31
and we may be held accountable
269
751055
1244
ואנו עלולים להיחשב
12:32
before we've actually acted.
270
752299
2590
לאחראים לדברים שטרם ביצענו בפועל.
12:34
Privacy was the central challenge
271
754889
1732
פרטיות היוותה אתגר מרכזי
12:36
in a small data era.
272
756621
2880
בעידן של נתונים מועטים.
12:39
In the big data age,
273
759501
2149
בעידן ביג דאטה,
12:41
the challenge will be safeguarding free will,
274
761650
4523
האתגר יהיה לשמור מכל משמר על הרצון החופשי,
12:46
moral choice, human volition,
275
766173
3779
על הבחירה המוסרית, על רצון האדם,
12:49
human agency.
276
769952
3068
על העצמאות האנושית.
12:54
There is another problem:
277
774540
2225
ישנה בעיה נוספת:
12:56
Big data is going to steal our jobs.
278
776765
3556
ביג דאטה יגזול מאיתנו את עבודותינו.
13:00
Big data and algorithms are going to challenge
279
780321
3512
ביג דאטה והאלגוריתמים עומדים לקרוא תיגר
13:03
white collar, professional knowledge work
280
783833
3061
על עבודות הצווארון הלבן המקצועיות
13:06
in the 21st century
281
786894
1653
של המאה ה-21
13:08
in the same way that factory automation
282
788547
2434
באותו אופן שהמיכון התעשייתי
13:10
and the assembly line
283
790981
2189
וקו הייצור קראו תיגר
13:13
challenged blue collar labor in the 20th century.
284
793170
3026
על עבודות הצווארון הכחול במאה ה-20.
13:16
Think about a lab technician
285
796196
2092
תחשבו על טכנאי מעבדה
13:18
who is looking through a microscope
286
798288
1409
שמסתכל דרך מיקרוסקופ
13:19
at a cancer biopsy
287
799697
1624
על ריקמה סרטנית
13:21
and determining whether it's cancerous or not.
288
801321
2637
ומחליט אם היא ממאירה או לא.
13:23
The person went to university.
289
803958
1972
האדם למד באוניברסיטה.
13:25
The person buys property.
290
805930
1430
הוא קנה רכוש.
13:27
He or she votes.
291
807360
1741
הוא או היא מצביעים בבחירות.
13:29
He or she is a stakeholder in society.
292
809101
3666
הוא או היא בעלי עניין בחברה.
13:32
And that person's job,
293
812767
1394
והעבודה של אותו אדם,
13:34
as well as an entire fleet
294
814161
1609
כמו גם צי שלם
13:35
of professionals like that person,
295
815770
1969
של אנשי מקצוע כמו אותו אדם,
13:37
is going to find that their jobs are radically changed
296
817739
3150
ימצאו שהעבודות שלהם השתנו באופן ניכר
13:40
or actually completely eliminated.
297
820889
2357
או למעשה התחסלו כליל.
13:43
Now, we like to think
298
823246
1284
אנו אוהבים לחשוב
13:44
that technology creates jobs over a period of time
299
824530
3187
שהטכנולוגיה יוצרת עם הזמן עבודות,
13:47
after a short, temporary period of dislocation,
300
827717
3465
לאחר תקופת-מעבר קצרה וזמנית,
13:51
and that is true for the frame of reference
301
831182
1941
וזה נכון ביחס למציאות שאנו
13:53
with which we all live, the Industrial Revolution,
302
833123
2142
חיים בה, שהיא המהפכה התעשייתית,
13:55
because that's precisely what happened.
303
835265
2328
כי זה בדיוק מה שקרה.
13:57
But we forget something in that analysis:
304
837593
2333
אבל אנו שוכחים משהו בניתוח זה:
13:59
There are some categories of jobs
305
839926
1830
ישנם כמה תחומי עבודה
14:01
that simply get eliminated and never come back.
306
841756
3420
שפשוט נמחקים ולעולם לא שבים.
14:05
The Industrial Revolution wasn't very good
307
845176
2004
המהפכה התעשייתית
לא היתה טובה במיוחד עבור סוסים.
14:07
if you were a horse.
308
847180
4002
14:11
So we're going to need to be careful
309
851182
2055
לכן יהיה עלינו להיזהר
14:13
and take big data and adjust it for our needs,
310
853237
3514
ולהתאים את ביג דאטה לצרכינו,
14:16
our very human needs.
311
856751
3185
צרכינו האנושיים ביותר.
14:19
We have to be the master of this technology,
312
859936
1954
יהיה עלינו להיות אדוניה של טכנולוגיה זו,
14:21
not its servant.
313
861890
1656
לא משרתיה.
14:23
We are just at the outset of the big data era,
314
863546
2958
אנו נמצאים רק בתחילתו של עידן ביג דאטה,
14:26
and honestly, we are not very good
315
866504
3150
והאמת היא שאנו לא מצטיינים
14:29
at handling all the data that we can now collect.
316
869654
4207
בטיפול בכל הנתונים שאנו מסוגלים לאסוף כיום.
14:33
It's not just a problem for the National Security Agency.
317
873861
3330
זו לא רק בעיה הנוגעת לסוכנות לביטחון לאומי.
14:37
Businesses collect lots of data, and they misuse it too,
318
877191
3038
חברות אוספות המון נתונים והן גם משתמשות בו לרעה,
14:40
and we need to get better at this, and this will take time.
319
880229
3667
ועלינו להשתפר בתחום זה, וזה יקח זמן.
14:43
It's a little bit like the challenge that was faced
320
883896
1822
זה קצת כמו האתגר שניצב
14:45
by primitive man and fire.
321
885718
2407
בפני האדם הקדמון עם האש.
14:48
This is a tool, but this is a tool that,
322
888125
1885
זהו כלי, אבל כלי שאם
14:50
unless we're careful, will burn us.
323
890010
3559
לא נהיה זהירים איתו, הוא ישרוף אותנו.
14:56
Big data is going to transform how we live,
324
896008
3120
ביג דאטה עומד לשנות את דרך חיינו,
14:59
how we work and how we think.
325
899128
2801
את דרך עבודתנו וחשיבתנו.
15:01
It is going to help us manage our careers
326
901929
1889
הוא יסייע לנו לנהל את הקריירות שלנו
15:03
and lead lives of satisfaction and hope
327
903818
3634
ולנהל חיים של סיפוק, תקווה
15:07
and happiness and health,
328
907452
2992
אושר ובריאות.
15:10
but in the past, we've often looked at information technology
329
910444
3306
אבל בעבר, הסתכלנו על "טכנולוגיית מידע"
15:13
and our eyes have only seen the T,
330
913750
2208
וראינו רק את ה-"ט",
15:15
the technology, the hardware,
331
915958
1686
את הטכנולוגיה, החומרה,
15:17
because that's what was physical.
332
917644
2262
כי הם היו הדברים הפיזיקליים.
15:19
We now need to recast our gaze at the I,
333
919906
2924
כעת אנו צריכים להסתכל על ה-"מ",
15:22
the information,
334
922830
1380
המידע,
15:24
which is less apparent,
335
924210
1373
הבולט פחות לעין,
15:25
but in some ways a lot more important.
336
925583
4109
אבל במובנים מסויימים הוא הרבה יותר חשוב.
15:29
Humanity can finally learn from the information
337
929692
3465
האנושות יכולה סוף-סוף ללמוד מהמידע
15:33
that it can collect,
338
933157
2418
שהיא מסוגלת לאסוף,
15:35
as part of our timeless quest
339
935575
2115
כחלק ממסעינו הנצחי
15:37
to understand the world and our place in it,
340
937690
3159
להבנת העולם ומקומנו בתוכו,
15:40
and that's why big data is a big deal.
341
940849
5631
וזו הסיבה מדוע ביג דאטה הוא עניין כה חשוב.
15:46
(Applause)
342
946480
3568
(מחיאות כפיים)
על אתר זה

אתר זה יציג בפניכם סרטוני YouTube המועילים ללימוד אנגלית. תוכלו לראות שיעורי אנגלית המועברים על ידי מורים מהשורה הראשונה מרחבי העולם. לחץ פעמיים על הכתוביות באנגלית המוצגות בכל דף וידאו כדי להפעיל את הסרטון משם. הכתוביות גוללות בסנכרון עם הפעלת הווידאו. אם יש לך הערות או בקשות, אנא צור איתנו קשר באמצעות טופס יצירת קשר זה.

https://forms.gle/WvT1wiN1qDtmnspy7