How we can protect truth in the age of misinformation | Sinan Aral

216,072 views ・ 2020-01-16

TED


אנא לחץ פעמיים על הכתוביות באנגלית למטה כדי להפעיל את הסרטון.

00:00
Translator: Ivana Korom Reviewer: Krystian Aparta
0
0
7000
תרגום: Zeeva Livshitz עריכה: Allon Sasson
00:13
So, on April 23 of 2013,
1
13468
5222
ב 23 באפריל 2013,
00:18
the Associated Press put out the following tweet on Twitter.
2
18714
5514
סוכנות הידיעות AP העלתה ציוץ בטוויטר.
00:24
It said, "Breaking news:
3
24252
2397
נאמר בו: "חדשות מרעישות:
00:26
Two explosions at the White House
4
26673
2571
שני פיצוצים ארעו בבית הלבן
00:29
and Barack Obama has been injured."
5
29268
2333
וברק אובמה נפצע."
00:32
This tweet was retweeted 4,000 times in less than five minutes,
6
32212
5425
הידיעה הזו צויצה מחדש כ-4000 פעם במשך פחות מחמש דקות,
00:37
and it went viral thereafter.
7
37661
2217
והפכה לאחר מכן לוויראלית.
00:40
Now, this tweet wasn't real news put out by the Associated Press.
8
40760
4350
הציוץ הזה לא הכיל חדשות אמיתיות שפירסמה סוכנות הידיעות AP.
00:45
In fact it was false news, or fake news,
9
45134
3333
למעשה אלה היו חדשות כזב, או "פייק ניוז",
00:48
that was propagated by Syrian hackers
10
48491
2825
שהופצו על ידי האקרים סורים
00:51
that had infiltrated the Associated Press Twitter handle.
11
51340
4694
שהסתננו לחשבון הטוויטר של AP.
00:56
Their purpose was to disrupt society, but they disrupted much more.
12
56407
3889
מטרתם היתה לשבש סדרים בחברה, אבל הם שיבשו הרבה יותר.
01:00
Because automated trading algorithms
13
60320
2476
כי אלגוריתמים אוטומטיים של מסחר
01:02
immediately seized on the sentiment on this tweet,
14
62820
3360
הגיבו מיד לתחושה שעורר הציוץ הזה,
01:06
and began trading based on the potential
15
66204
2968
והחל מסחר שמבוסס על האפשרות
01:09
that the president of the United States had been injured or killed
16
69196
3381
שנשיא ארה"ב נפגע או נהרג
01:12
in this explosion.
17
72601
1200
בפיצוץ זה.
01:14
And as they started tweeting,
18
74188
1992
וברגע שהם התחילו לצייץ,
01:16
they immediately sent the stock market crashing,
19
76204
3349
הם מיד גרמו לקריסת שוק המניות,
01:19
wiping out 140 billion dollars in equity value in a single day.
20
79577
5167
כשנמחקו 140 מיליארד דולר של שווי הון ביום אחד.
01:25
Robert Mueller, special counsel prosecutor in the United States,
21
85062
4476
רוברט מולר, יועץ תובע מיוחד בארה"ב,
01:29
issued indictments against three Russian companies
22
89562
3892
הגיש כתבי אישום נגד 3 חברות רוסיות
01:33
and 13 Russian individuals
23
93478
2619
ו- 13 בני אדם רוסיים
01:36
on a conspiracy to defraud the United States
24
96121
3167
על קשירת קשר להונות את ארה"ב
01:39
by meddling in the 2016 presidential election.
25
99312
3780
על ידי התערבות בבחירות 2016 לנשיאות.
01:43
And what this indictment tells as a story
26
103855
3564
וכתב אישום זה מספר
01:47
is the story of the Internet Research Agency,
27
107443
3142
שסוכנות המחקר של האינטרנט
01:50
the shadowy arm of the Kremlin on social media.
28
110609
3594
היא זרוע הצללים של הקרמלין במדיה החברתית.
01:54
During the presidential election alone,
29
114815
2777
במהלך הבחירות לנשיאות לבדו,
01:57
the Internet Agency's efforts
30
117616
1889
מאמצי סוכנות האינטרנט
01:59
reached 126 million people on Facebook in the United States,
31
119529
5167
הגיעו ל 126 מיליון בני אדם בפייסבוק, בארה"ב,
02:04
issued three million individual tweets
32
124720
3277
שהעלו 3 מיליון ציוצים אישיים
02:08
and 43 hours' worth of YouTube content.
33
128021
3842
ושווי של 43 שעות תוכן ביוטיוב.
02:11
All of which was fake --
34
131887
1652
שכולם היו כוזבים --
02:13
misinformation designed to sow discord in the US presidential election.
35
133563
6323
מידע כוזב שנועד לזרוע מחלוקת בבחירות לנשיאות בארה"ב.
02:20
A recent study by Oxford University
36
140996
2650
מחקר שנערך לאחרונה על ידי אוניברסיטת אוקספורד
02:23
showed that in the recent Swedish elections,
37
143670
3270
הראה שבבחירות האחרונות בשוודיה,
02:26
one third of all of the information spreading on social media
38
146964
4375
שליש מכל המידע שהתפשט ברשתות החברתיות
02:31
about the election
39
151363
1198
אודות הבחירות
02:32
was fake or misinformation.
40
152585
2087
היה כוזב או שגוי.
02:35
In addition, these types of social-media misinformation campaigns
41
155037
5078
בנוסף, סוגים אלה של קמפיינים שגויים ברשתות החברתיות
02:40
can spread what has been called "genocidal propaganda,"
42
160139
4151
עלולים להפיץ את מה שנקרא "תעמולה לרצח עם,"
02:44
for instance against the Rohingya in Burma,
43
164314
3111
כמו למשל, נגד הרוהינגה בבורמה,
02:47
triggering mob killings in India.
44
167449
2303
ולעורר רצח בידי האספסוף בהודו.
02:49
We studied fake news
45
169776
1494
חקרנו את חדשות הכזב
02:51
and began studying it before it was a popular term.
46
171294
3219
והתחלנו לחקור זאת לפני שזה הפך למונח פופולרי.
02:55
And we recently published the largest-ever longitudinal study
47
175030
5040
ולאחרונה פירסמנו את מחקר האורך הגדול ביותר שנערך אי פעם
03:00
of the spread of fake news online
48
180094
2286
על התפשטות חדשות הכזב ברשת
03:02
on the cover of "Science" in March of this year.
49
182404
3204
על השער של ה"סייאנס" במרץ השנה.
03:06
We studied all of the verified true and false news stories
50
186523
4161
חקרנו את כל סיפורי החדשות שאומתו כאמיתיים וכוזבים
03:10
that ever spread on Twitter,
51
190708
1753
שהתפשטו אי פעם בטוויטר,
03:12
from its inception in 2006 to 2017.
52
192485
3818
מראשיתו ב 2006 ועד 2017.
03:16
And when we studied this information,
53
196612
2314
וכשחקרנו את המידע הזה,
03:18
we studied verified news stories
54
198950
2876
חקרנו סיפורי חדשות מאומתים
03:21
that were verified by six independent fact-checking organizations.
55
201850
3918
שאומתו על ידי 6 ארגונים עצמאיים, שבודקים את העובדות.
03:25
So we knew which stories were true
56
205792
2762
כך ידענו אילו סיפורים היו נכונים
03:28
and which stories were false.
57
208578
2126
ואילו סיפורים היו כוזבים.
03:30
We can measure their diffusion,
58
210728
1873
אנו יכולים למדוד את ההתפשטות שלהם,
03:32
the speed of their diffusion,
59
212625
1651
את מהירות ההתפשטות שלהם,
03:34
the depth and breadth of their diffusion,
60
214300
2095
את עומקה ורוחבה של ההתפשטות,
03:36
how many people become entangled in this information cascade and so on.
61
216419
4142
כמה אנשים הסתבכו במפל מידע זה וכו'.
03:40
And what we did in this paper
62
220942
1484
ומה שעשינו עם מסמך זה
03:42
was we compared the spread of true news to the spread of false news.
63
222450
3865
היה להשוות את התפשטות חדשות האמת להתפשטות חדשות הכזב.
03:46
And here's what we found.
64
226339
1683
והנה מה שמצאנו.
03:48
We found that false news diffused further, faster, deeper
65
228046
3979
גילינו שחדשות כזב נפוצו רחוק יותר, מהר יותר, עמוק יותר
03:52
and more broadly than the truth
66
232049
1806
ובאופן הרבה יותר רחב מהאמת
03:53
in every category of information that we studied,
67
233879
3003
בכל קטגוריית מידע שחקרנו,
03:56
sometimes by an order of magnitude.
68
236906
2499
לפעמים בסדר גודל.
03:59
And in fact, false political news was the most viral.
69
239842
3524
ולמעשה חדשות כזב פוליטיות היו הכי וויראליות .
04:03
It diffused further, faster, deeper and more broadly
70
243390
3147
הן הופצו רחוק יותר, מהר יותר, עמוק ורחב יותר
04:06
than any other type of false news.
71
246561
2802
מכל סוג אחר של חדשות כזב.
04:09
When we saw this,
72
249387
1293
כשראינו את זה,
04:10
we were at once worried but also curious.
73
250704
2841
היינו בו בזמן מודאגים, אבל גם סקרנים.
04:13
Why?
74
253569
1151
מדוע?
04:14
Why does false news travel so much further, faster, deeper
75
254744
3373
מדוע חדשות כזב מגיעות הרבה יותר רחוק, מהר, עמוק
04:18
and more broadly than the truth?
76
258141
1864
ובאופן רחב יותר מאשר האמת?
04:20
The first hypothesis that we came up with was,
77
260339
2961
ההשערה הראשונה שהעלינו היתה,
04:23
"Well, maybe people who spread false news have more followers or follow more people,
78
263324
4792
"ובכן, אולי למפיצי חדשות כזב יש יותר עוקבים או נעקבים,
04:28
or tweet more often,
79
268140
1557
או שהם מצייצים יותר הרבה,
04:29
or maybe they're more often 'verified' users of Twitter, with more credibility,
80
269721
4126
או שהם לרוב משתמשי טוויטר 'מאומתים' עם אמינות רבה יותר,
04:33
or maybe they've been on Twitter longer."
81
273871
2182
או שאולי הם נמצאים בטוויטר יותר זמן."
04:36
So we checked each one of these in turn.
82
276077
2298
אז בדקנו כל אחד מאלה בזה אחר זה.
04:38
And what we found was exactly the opposite.
83
278691
2920
ומה שמצאנו היה בדיוק ההיפך.
04:41
False-news spreaders had fewer followers,
84
281635
2436
למפרסמי חדשות כזב היו פחות עוקבים,
04:44
followed fewer people, were less active,
85
284095
2254
הם עקבו אחר פחות אנשים, היו פחות פעילים,
04:46
less often "verified"
86
286373
1460
"מאומתים" לעתים פחות קרובות
04:47
and had been on Twitter for a shorter period of time.
87
287857
2960
והיו בטוויטר תקופת זמן קצרה יותר
04:50
And yet,
88
290841
1189
ועדיין,
04:52
false news was 70 percent more likely to be retweeted than the truth,
89
292054
5033
חדשות כזב צוייצו מחדש בסבירות של 70% יותר מהאמת,
04:57
controlling for all of these and many other factors.
90
297111
3363
כשמתחשבין בכל אלה ובגורמים רבים אחרים.
05:00
So we had to come up with other explanations.
91
300498
2690
אז הצטרכנו לבוא עם הסברים אחרים.
05:03
And we devised what we called a "novelty hypothesis."
92
303212
3467
והגינו משהו שקראנו לו "השערת חידוש."
05:07
So if you read the literature,
93
307038
1960
אם אתם קוראים את הספרות,
05:09
it is well known that human attention is drawn to novelty,
94
309022
3754
ידוע היטב שתשומת לב אנושית נמשכת לחידושים.
05:12
things that are new in the environment.
95
312800
2519
דברים שהם חדשים בסביבה.
05:15
And if you read the sociology literature,
96
315343
1985
ואם אתם קוראים ספרות בנושאי סוציולוגיה,
05:17
you know that we like to share novel information.
97
317352
4300
אתם יודעים שאנו אוהבים לשתף מידע חדשני.
05:21
It makes us seem like we have access to inside information,
98
321676
3838
זה גורם לנו להיראות כמו מי שיש לו גישה למידע פנימי.
05:25
and we gain in status by spreading this kind of information.
99
325538
3785
ואנו זוכים במעמד על ידי הפצת מידע מסוג זה.
05:29
So what we did was we measured the novelty of an incoming true or false tweet,
100
329792
6452
אז מדדנו את החידוש של ציוץ שנכנס, אמיתי או כוזב.
05:36
compared to the corpus of what that individual had seen
101
336268
4055
בהשוואה לאוסף שהאדם הזה ראה
05:40
in the 60 days prior on Twitter.
102
340347
2952
בטוויטר ב 60 הימים שקדמו לציוץ.
05:43
But that wasn't enough, because we thought to ourselves,
103
343323
2659
אבל זה לא הספיק, כי חשבנו לעצמנו,
05:46
"Well, maybe false news is more novel in an information-theoretic sense,
104
346006
4208
"אולי ידיעות כוזבות חדשניות יותר במובן של מידע תיאורטי,
05:50
but maybe people don't perceive it as more novel."
105
350238
3258
אבל אולי אנשים לא תופסים זאת כיותר חדשניות."
05:53
So to understand people's perceptions of false news,
106
353849
3927
אז כדי להבין כיצד אנשים תופסים חדשות כזב,
05:57
we looked at the information and the sentiment
107
357800
3690
הסתכלנו על המידע והרגש
06:01
contained in the replies to true and false tweets.
108
361514
4206
שנכלל בתשובות לציוצים של אמת וכזב.
06:06
And what we found
109
366022
1206
ומה שמצאנו
06:07
was that across a bunch of different measures of sentiment --
110
367252
4214
היה שלרוחב מקבץ של מדדי רגשות שונים --
06:11
surprise, disgust, fear, sadness,
111
371490
3301
הפתעה, סלידה, פחד, עצב,
06:14
anticipation, joy and trust --
112
374815
2484
ציפייה, שמחה ואמון --
06:17
false news exhibited significantly more surprise and disgust
113
377323
5857
חדשות כזב הציגו יותר הפתעה וסלידה באופן משמעותי,
06:23
in the replies to false tweets.
114
383204
2806
בתשובות לציוצי כזב.
06:26
And true news exhibited significantly more anticipation,
115
386392
3789
וחדשות אמת הציגו ציפייה יותר משמעותית,
06:30
joy and trust
116
390205
1547
שמחה ואמון
06:31
in reply to true tweets.
117
391776
2547
בתשובות לציוצי אמת.
06:34
The surprise corroborates our novelty hypothesis.
118
394347
3786
ההפתעה מאמתת את השערת החידוש שלנו.
06:38
This is new and surprising, and so we're more likely to share it.
119
398157
4609
זה חדש ומפתיע, ולכן סביר יותר שנשתף אותו.
06:43
At the same time, there was congressional testimony
120
403092
2925
באותו זמן הוצגה עדות בקונגרס
06:46
in front of both houses of Congress in the United States,
121
406041
3036
בפני שני בתי הקונגרס בארה"ב,
06:49
looking at the role of bots in the spread of misinformation.
122
409101
3738
שבוחנת את חלקם של הבוטים בהתפשטות של מידע מוטעה.
06:52
So we looked at this too --
123
412863
1354
אז הסתכלנו גם על זה --
06:54
we used multiple sophisticated bot-detection algorithms
124
414241
3598
השתמשנו בכמה אלגוריתמים מזהי-בוט מתוחכמים
06:57
to find the bots in our data and to pull them out.
125
417863
3074
כדי למצוא את הבוטים בנתונים שלנו ולשלוף אותם החוצה.
07:01
So we pulled them out, we put them back in
126
421347
2659
שלפנו אותם החוצה, והחזרנו אותם פנימה
07:04
and we compared what happens to our measurement.
127
424030
3119
והשווינו את מה שקרה למדידות שלנו.
07:07
And what we found was that, yes indeed,
128
427173
2293
ומה שמצאנו היה שאכן,
07:09
bots were accelerating the spread of false news online,
129
429490
3682
בוטים האיצו את התפשטות חדשות הכזב ברשת,
07:13
but they were accelerating the spread of true news
130
433196
2651
אבל הם האיצו גם את הפצת החדשות האמיתיות
07:15
at approximately the same rate.
131
435871
2405
בשיעור זהה בקירוב,
07:18
Which means bots are not responsible
132
438300
2858
מה שאומר שבוטים אינם אחראים
07:21
for the differential diffusion of truth and falsity online.
133
441182
4713
לפיזור הדיפרנציאלי של אמת וכזב ברשת.
07:25
We can't abdicate that responsibility,
134
445919
2849
איננו יכולים להתנער מאחריות זו,
07:28
because we, humans, are responsible for that spread.
135
448792
4259
משום שאנחנו, בני האדם, אחראים להתפשטות זו.
07:34
Now, everything that I have told you so far,
136
454472
3334
כל מה שסיפרתי לכם עד כה,
07:37
unfortunately for all of us,
137
457830
1754
לרוע המזל של כולנו,
07:39
is the good news.
138
459608
1261
אלה החדשות הטובות.
07:42
The reason is because it's about to get a whole lot worse.
139
462670
4450
וזה משום שהדבר עומד להחמיר הרבה יותר.
07:47
And two specific technologies are going to make it worse.
140
467850
3682
ושתי טכנולוגיות ספציפיות עומדות להחמיר את זה.
07:52
We are going to see the rise of a tremendous wave of synthetic media.
141
472207
5172
אנחנו עומדים לראות עלייה של גל אדיר של מדיה סינתטית.
07:57
Fake video, fake audio that is very convincing to the human eye.
142
477403
6031
וידאו כוזב, שמע כוזב, שמשכנעים מאוד את העין האנושית.
08:03
And this will powered by two technologies.
143
483458
2754
וזה יונע על ידי שתי טכנולוגיות.
08:06
The first of these is known as "generative adversarial networks."
144
486236
3833
הראשונה מהן מוכרת כ"רשתות גנרטיביות יריבות."
08:10
This is a machine-learning model with two networks:
145
490093
2563
זהו מודל למידת מכונה עם שתי רשתות:
08:12
a discriminator,
146
492680
1547
מאבחן,
08:14
whose job it is to determine whether something is true or false,
147
494251
4200
שתפקידו להבחין אם משהו הינו אמיתי או כוזב,
08:18
and a generator,
148
498475
1167
וגנרטור,
08:19
whose job it is to generate synthetic media.
149
499666
3150
שתפקידו להפיק מדיה סינתטית.
08:22
So the synthetic generator generates synthetic video or audio,
150
502840
5102
כך שהגנרטור הסינתטי מפיק וידאו או אודיו סינתטיים,
08:27
and the discriminator tries to tell, "Is this real or is this fake?"
151
507966
4675
והמאבחן מנסה לומר, "האם זה אמיתי או כוזב?"
08:32
And in fact, it is the job of the generator
152
512665
2874
ולמעשה זה תפקידו של הגנרטור
08:35
to maximize the likelihood that it will fool the discriminator
153
515563
4435
למקסם את הדמיון שישטה במאבחן
08:40
into thinking the synthetic video and audio that it is creating
154
520022
3587
לחשוב שהווידאו והאודיו הסינתטיים שהוא יוצר
08:43
is actually true.
155
523633
1730
הם למעשה אמיתיים.
08:45
Imagine a machine in a hyperloop,
156
525387
2373
דמיינו מכונה בהייפרלופ,
08:47
trying to get better and better at fooling us.
157
527784
2803
מנסה להשתפר יותר ויותר בלשטות בנו.
08:51
This, combined with the second technology,
158
531114
2500
זאת בשילוב עם הטכנולוגיה השנייה,
08:53
which is essentially the democratization of artificial intelligence to the people,
159
533638
5722
שהיא בעצם הדמוקרטיזציה של בינה מלאכותית לעם,
08:59
the ability for anyone,
160
539384
2189
היכולת של כל אחד,
09:01
without any background in artificial intelligence
161
541597
2830
ללא שום רקע בבינה מלאכותית
09:04
or machine learning,
162
544451
1182
או למידת מכונה,
09:05
to deploy these kinds of algorithms to generate synthetic media
163
545657
4103
להשתמש בסוגים אלה של אלגוריתמים כדי לייצר מדיה סינתטית
09:09
makes it ultimately so much easier to create videos.
164
549784
4547
הופך את יצירת סרטוני הוידאו, בסופו של דבר, הרבה יותר קלה .
09:14
The White House issued a false, doctored video
165
554355
4421
הבית הלבן פירסם סרטון וידאו מזויף
09:18
of a journalist interacting with an intern who was trying to take his microphone.
166
558800
4288
על אינטראקציה בין עיתונאי למתמחה שניסה לקחת את המיקרופון שלו.
09:23
They removed frames from this video
167
563427
1999
הם הסירו פריימים מהסרטון הזה.
09:25
in order to make his actions seem more punchy.
168
565450
3287
כדי לגרום לפעולותיו להיראות יותר תוקפניות.
09:29
And when videographers and stuntmen and women
169
569157
3385
וכאשר צלמי וידאו מקצועיים פעלולנים, וכפילים וכפילות
09:32
were interviewed about this type of technique,
170
572566
2427
התראיינו על סוג זה של טכניקה,
09:35
they said, "Yes, we use this in the movies all the time
171
575017
3828
הם אמרו, "כן, אנחנו משתמשים בזה בסרטים כל הזמן
09:38
to make our punches and kicks look more choppy and more aggressive."
172
578869
4763
כדי להפוך את האגרופים והבעיטות שלנו להיראות יותר סוערים ויותר אגרסיביים."
09:44
They then put out this video
173
584268
1867
לאחר מכן הם פירסמו את הוידאו
09:46
and partly used it as justification
174
586159
2500
ובמידת מה השתמשו בו כהצדקה
09:48
to revoke Jim Acosta, the reporter's, press pass
175
588683
3999
לשלול מהעיתונאי ג'ים אקוסטה את תעודת הכניסה לעיתונאים
09:52
from the White House.
176
592706
1339
לבית הלבן.
09:54
And CNN had to sue to have that press pass reinstated.
177
594069
4809
ו- CNN נאלצו לתבוע כדי שתעודת העיתונאי הזו תונפק מחדש.
10:00
There are about five different paths that I can think of that we can follow
178
600538
5603
אני יכול לחשוב על כחמש דרכים שונות שנוכל בעזרתן
10:06
to try and address some of these very difficult problems today.
179
606165
3739
לנסות ולטפל בכמה מהבעיות הקשות ביותר.
10:10
Each one of them has promise,
180
610379
1810
בכל אחת מהן יש הבטחה,
10:12
but each one of them has its own challenges.
181
612213
2999
אבל לכל אחת מהן יש אתגרים משלה.
10:15
The first one is labeling.
182
615236
2008
הראשונה היא תיוג,
10:17
Think about it this way:
183
617268
1357
חישבו על זה כך:
10:18
when you go to the grocery store to buy food to consume,
184
618649
3611
כשאתם הולכים לקנות מוצרי מזון במכולת,
10:22
it's extensively labeled.
185
622284
1904
הם מתויגים בהרחבה.
10:24
You know how many calories it has,
186
624212
1992
ניתן לדעת כמה קלוריות יש בהם,
10:26
how much fat it contains --
187
626228
1801
כמה שומן הם מכילים --
10:28
and yet when we consume information, we have no labels whatsoever.
188
628053
4278
אבל כשאנו צורכים מידע עדיין אין לנו תוויות כלשהן.
10:32
What is contained in this information?
189
632355
1928
מה כלול במידע הזה?
10:34
Is the source credible?
190
634307
1453
האם המקור אמין?
10:35
Where is this information gathered from?
191
635784
2317
מהיכן המידע הזה נאסף?
10:38
We have none of that information
192
638125
1825
אין לנו שום דבר מסוג זה
10:39
when we are consuming information.
193
639974
2103
כשאנו צורכים מידע.
10:42
That is a potential avenue, but it comes with its challenges.
194
642101
3238
זוהי דרך שיש בה פוטנציאל, אבל גם אתגרים משלה.
10:45
For instance, who gets to decide, in society, what's true and what's false?
195
645363
6451
למשל, מי המחליט בחברה, מה נכון ומה כוזב?
10:52
Is it the governments?
196
652387
1642
האם הממשלות?
10:54
Is it Facebook?
197
654053
1150
האם זה פייסבוק?
10:55
Is it an independent consortium of fact-checkers?
198
655601
3762
האם זה מַאֲגָד עצמאי של בודקי עובדות?
10:59
And who's checking the fact-checkers?
199
659387
2466
ומי בודק את בודקי העובדות?
11:02
Another potential avenue is incentives.
200
662427
3084
דרך פוטנציאלית נוספת היא תמריצים.
11:05
We know that during the US presidential election
201
665535
2634
אנו יודעים שבמהלך הבחירות לנשיאות ארה"ב
11:08
there was a wave of misinformation that came from Macedonia
202
668193
3690
הגיע ממקדוניה גל של מידע כוזב
11:11
that didn't have any political motive
203
671907
2337
שלא היה לו כל מניע פוליטי
11:14
but instead had an economic motive.
204
674268
2460
אבל לעומת זה היה לו מניע כלכלי.
11:16
And this economic motive existed,
205
676752
2148
והמניע הכלכלי הזה היה קיים,
11:18
because false news travels so much farther, faster
206
678924
3524
כי חדשות כזב מתפשטות הרבה יותר רחוק, ומהר
11:22
and more deeply than the truth,
207
682472
2010
ועמוק יותר מהאמת,
11:24
and you can earn advertising dollars as you garner eyeballs and attention
208
684506
4960
וכשהם מושכים תשומת לב ניתן להרוויח מהפרסום
11:29
with this type of information.
209
689490
1960
של סוג כזה של מידע.
11:31
But if we can depress the spread of this information,
210
691474
3833
אבל אם נוכל לדכא את התפשטות המידע הזה,
11:35
perhaps it would reduce the economic incentive
211
695331
2897
אולי הדבר יצמצם את התמריץ הכלכלי
11:38
to produce it at all in the first place.
212
698252
2690
לייצר אותו בכלל, מלכתחילה.
11:40
Third, we can think about regulation,
213
700966
2500
כדרך שלישית, אפשר לחשוב על רגולציה,
11:43
and certainly, we should think about this option.
214
703490
2325
וכמובן שעלינו לחשוב על אפשרות זו.
11:45
In the United States, currently,
215
705839
1611
בארצות הברית, נכון לעכשיו,
11:47
we are exploring what might happen if Facebook and others are regulated.
216
707474
4848
אנו חוקרים מה עלול לקרות אם פייסבוק ואחרים, יהיו תחת רגולציה.
11:52
While we should consider things like regulating political speech,
217
712346
3801
בעוד שלוקחים בחשבון דברים כמו הסדרת השיחה הפוליטי,
11:56
labeling the fact that it's political speech,
218
716171
2508
תיוג העובדה שזה שיח פוליטי,
11:58
making sure foreign actors can't fund political speech,
219
718703
3819
מוודאים ששחקנים זרים לא יכולים לממן שיח פוליטי,
12:02
it also has its own dangers.
220
722546
2547
יש לזה גם סכנות משלו.
12:05
For instance, Malaysia just instituted a six-year prison sentence
221
725522
4878
למשל, מלזיה זה עתה חוקקה עונש מאסר של 6 שנים
12:10
for anyone found spreading misinformation.
222
730424
2734
לכל מי שנמצא מפיץ מידע כוזב.
12:13
And in authoritarian regimes,
223
733696
2079
ובמשטרים אוטוריטריים,
12:15
these kinds of policies can be used to suppress minority opinions
224
735799
4666
שימוש במדיניות מסוג זה יכול לשמש לדיכוי דעות של מיעוטים
12:20
and to continue to extend repression.
225
740489
3508
ולהמשיך להרחיב את הדיכוי.
12:24
The fourth possible option is transparency.
226
744680
3543
האופציה הרביעית האפשרית היא שקיפות.
12:28
We want to know how do Facebook's algorithms work.
227
748843
3714
אנו רוצים לדעת כיצד פועלים האלגוריתמים של פייסבוק.
12:32
How does the data combine with the algorithms
228
752581
2880
איך הנתונים משתלבים עם האלגוריתמים
12:35
to produce the outcomes that we see?
229
755485
2838
כדי לייצר את התוצאות שאנחנו רואים?
12:38
We want them to open the kimono
230
758347
2349
אנו רוצים שהם יחשפו מידע פנימי
12:40
and show us exactly the inner workings of how Facebook is working.
231
760720
4214
ויראו לנו בדיוק את הפעולות הפנימיות לפיהן פייסבוק עובדת,
12:44
And if we want to know social media's effect on society,
232
764958
2779
ואם נרצה לדעת מהי השפעתה של המדיה החברתית,
12:47
we need scientists, researchers
233
767761
2086
נזדקק שלמדענים, חוקרים ואחרים
12:49
and others to have access to this kind of information.
234
769871
3143
תהיה גישה לסוג זה של מידע.
12:53
But at the same time,
235
773038
1547
אבל באותו זמן,
12:54
we are asking Facebook to lock everything down,
236
774609
3801
אנחנו מבקשים מפייסבוק לנעול את הכל,
12:58
to keep all of the data secure.
237
778434
2173
כדי לשמור על אבטחת כל הנתונים.
13:00
So, Facebook and the other social media platforms
238
780631
3159
וכך פייסבוק ופלטפורמות מדיה חברתית אחרות
13:03
are facing what I call a transparency paradox.
239
783814
3134
עומדות בפני מה שאני מכנה פרדוקס שקיפות.
13:07
We are asking them, at the same time,
240
787266
2674
אנחנו מבקשים מהם בה בעת,
13:09
to be open and transparent and, simultaneously secure.
241
789964
4809
להיות פתוחים ושקופים ובו בזמן מאובטחים.
13:14
This is a very difficult needle to thread,
242
794797
2691
יהיה קשה לנווט במיומנות בדרך עקלקלה
13:17
but they will need to thread this needle
243
797512
1913
אבל הם יצטרכו לעשות זאת אם ירצו
13:19
if we are to achieve the promise of social technologies
244
799449
3787
להגשים את יעדי הטכנולוגיה החברתית
13:23
while avoiding their peril.
245
803260
1642
תוך הימנעות מהסיכונים.
13:24
The final thing that we could think about is algorithms and machine learning.
246
804926
4691
הדבר האחרון שיכולנו לחשוב עליו הוא אלגוריתמים ולמידת מכונה.
13:29
Technology devised to root out and understand fake news, how it spreads,
247
809641
5277
טכנולוגיה שתבין את התפשטות חדשות הכזב
13:34
and to try and dampen its flow.
248
814942
2331
ותשרש אותן. ותנסה לדכא את זרימתן.
13:37
Humans have to be in the loop of this technology,
249
817824
2897
צריך להיות מעודכנים בכל מה שנוגע לטכנולוגיה זו,
13:40
because we can never escape
250
820745
2278
כי לעולם לא נוכל לברוח מכך
13:43
that underlying any technological solution or approach
251
823047
4038
שבבסיס כל פיתרון או גישה טכנולוגית
13:47
is a fundamental ethical and philosophical question
252
827109
4047
מונחת שאלה אתית או פילוסופית בסיסית
13:51
about how do we define truth and falsity,
253
831180
3270
כיצד אנו מגדירים אמיתי וכוזב.
13:54
to whom do we give the power to define truth and falsity
254
834474
3180
למי אנו נותנים את הכוח להגדיר אמת או שקר.
13:57
and which opinions are legitimate,
255
837678
2460
ואילו דעות הן לגיטימיות,
14:00
which type of speech should be allowed and so on.
256
840162
3706
איזה סוג של דיבור צריך להיות מותר, וכו'.
14:03
Technology is not a solution for that.
257
843892
2328
טכנולוגיה אינה הפיתרון לכך.
14:06
Ethics and philosophy is a solution for that.
258
846244
3698
אתיקה ופילוסופיה הן הפתרון לזה.
14:10
Nearly every theory of human decision making,
259
850950
3318
כמעט בכל תיאוריה של קבלת החלטות אנושית
14:14
human cooperation and human coordination
260
854292
2761
שיתוף פעולה אנושי ותיאום אנושי
14:17
has some sense of the truth at its core.
261
857077
3674
יש תחושה מסוימת של אמת בבסיסה.
14:21
But with the rise of fake news,
262
861347
2056
אבל עם עלייתן של חדשות הכזב,
14:23
the rise of fake video,
263
863427
1443
עליית הסרטונים המזויפים,
14:24
the rise of fake audio,
264
864894
1882
עלייתו של האודיו המזויף,
14:26
we are teetering on the brink of the end of reality,
265
866800
3924
אנחנו מתנודדים על סף סופה של המציאות,
14:30
where we cannot tell what is real from what is fake.
266
870748
3889
שבה איננו יכולים להבדיל בין אמיתי למזויף
14:34
And that's potentially incredibly dangerous.
267
874661
3039
וזה עלול להיות מסוכן מאין כמוהו.
14:38
We have to be vigilant in defending the truth
268
878931
3948
עלינו להיות ערניים בהגנה על האמת
14:42
against misinformation.
269
882903
1534
כנגד מידע מזויף.
14:44
With our technologies, with our policies
270
884919
3436
עם הטכנולוגיות שלנו, עם המדיניות שלנו
14:48
and, perhaps most importantly,
271
888379
1920
ואולי, הכי חשוב,
14:50
with our own individual responsibilities,
272
890323
3214
עם האחריות האישית שלנו,
14:53
decisions, behaviors and actions.
273
893561
3555
וההחלטות, ההתנהגות והמעשים.
14:57
Thank you very much.
274
897553
1437
תודה רבה לכם.
14:59
(Applause)
275
899014
3517
(מחיאות כפיים)
על אתר זה

אתר זה יציג בפניכם סרטוני YouTube המועילים ללימוד אנגלית. תוכלו לראות שיעורי אנגלית המועברים על ידי מורים מהשורה הראשונה מרחבי העולם. לחץ פעמיים על הכתוביות באנגלית המוצגות בכל דף וידאו כדי להפעיל את הסרטון משם. הכתוביות גוללות בסנכרון עם הפעלת הווידאו. אם יש לך הערות או בקשות, אנא צור איתנו קשר באמצעות טופס יצירת קשר זה.

https://forms.gle/WvT1wiN1qDtmnspy7