How we can protect truth in the age of misinformation | Sinan Aral

235,868 views ・ 2020-01-16

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

00:00
Translator: Ivana Korom Reviewer: Krystian Aparta
0
0
7000
Translator: Mitra Shishegari Reviewer: Masoud Motamedifar
00:13
So, on April 23 of 2013,
1
13468
5222
خب در ۲۳ آوریل سال ۲۰۱۳،
00:18
the Associated Press put out the following tweet on Twitter.
2
18714
5514
آسوشیتد پرس توئیتی در صفحه‌اش گذاشت.
00:24
It said, "Breaking news:
3
24252
2397
که نوشته شده بود: «خبر فوری:
00:26
Two explosions at the White House
4
26673
2571
در دو انفجار در کاخ سفید
00:29
and Barack Obama has been injured."
5
29268
2333
باراک اوباما مجروح شده است.»
00:32
This tweet was retweeted 4,000 times in less than five minutes,
6
32212
5425
این توئیت در کمتر از ۵ دقیقه ۴۰۰۰ بار توئیت مجدد شد،
00:37
and it went viral thereafter.
7
37661
2217
و بعد از آن فراگیر شد.
00:40
Now, this tweet wasn't real news put out by the Associated Press.
8
40760
4350
خب خبر این توئیت آسوشیتد پرس حقیقت نداشت.
00:45
In fact it was false news, or fake news,
9
45134
3333
در واقع خبری اشتباه یا جعلی بود،
00:48
that was propagated by Syrian hackers
10
48491
2825
که توسط هکرهای سوری پخش شده بود
00:51
that had infiltrated the Associated Press Twitter handle.
11
51340
4694
که در توئیتر آسوشیتد پرس نفوذ کرده بود.
00:56
Their purpose was to disrupt society, but they disrupted much more.
12
56407
3889
هدف آنها ایجاد اختلال در جامعه بود اما موجب اختلال خیلی شدیدتری شدند.
01:00
Because automated trading algorithms
13
60320
2476
چون الگوریتم‌های خودکار تجاری
01:02
immediately seized on the sentiment on this tweet,
14
62820
3360
بلافاصله با این توئیت تحت تاثیر قرار گرفتند،
01:06
and began trading based on the potential
15
66204
2968
و شروع به داد وستد بر اساس این پتانسیل کردند که
01:09
that the president of the United States had been injured or killed
16
69196
3381
رئیس جمهور ایالات متحده آمریکا مجروح در این انفجار
01:12
in this explosion.
17
72601
1200
یا کشته شده است.
01:14
And as they started tweeting,
18
74188
1992
و به محض اینکه آنها شروع به توئیت کردند،
01:16
they immediately sent the stock market crashing,
19
76204
3349
بلافاصله بازار سهام سقوط کرد،
01:19
wiping out 140 billion dollars in equity value in a single day.
20
79577
5167
۱۴۰ میلیارد دلار ارزش سهام در یک روز از بین رفت.
01:25
Robert Mueller, special counsel prosecutor in the United States,
21
85062
4476
رابرت مولر مشاور ویژه دادستان ایالات متحده آمریکا،
01:29
issued indictments against three Russian companies
22
89562
3892
علیه سه شرکت روسی و همینطور ۱۳ فرد روسی
01:33
and 13 Russian individuals
23
93478
2619
کیفرخواست صادر کرد.
01:36
on a conspiracy to defraud the United States
24
96121
3167
این کیفرخواست دررابطه با توطئه‌ی فریب دادن ایالات متحده آمریکا
01:39
by meddling in the 2016 presidential election.
25
99312
3780
با مداخله درانتخابات سال ۲۰۱۶ ریاست جمهوری بود.
01:43
And what this indictment tells as a story
26
103855
3564
و داستان این کیفر خواست چه بود
01:47
is the story of the Internet Research Agency,
27
107443
3142
داستان آژانس پژوهشی اینترنت بود،
01:50
the shadowy arm of the Kremlin on social media.
28
110609
3594
بازوی پنهان کرملین در رسانه‌های اجتماعی.
01:54
During the presidential election alone,
29
114815
2777
فقط در مدت انتخابات ریاست جمهوری،
01:57
the Internet Agency's efforts
30
117616
1889
با تلاش‌های آژانس اینترنتی
01:59
reached 126 million people on Facebook in the United States,
31
119529
5167
۱۲۶ میلیون نفردر امریکا از طریق فیس بوک،
02:04
issued three million individual tweets
32
124720
3277
به توئیت سه میلیون نفر
02:08
and 43 hours' worth of YouTube content.
33
128021
3842
و معادل ۴۳ ساعت محتوای یوتیوب دسترسی پیدا کردند.
02:11
All of which was fake --
34
131887
1652
که همه جعلی بودند--
02:13
misinformation designed to sow discord in the US presidential election.
35
133563
6323
اطلاعات جعلی برای ایجاد اختلاف نظر در انتخابات ریاست جمهوری ایالات متحده آمریکا.
02:20
A recent study by Oxford University
36
140996
2650
پژوهش اخیر دانشگاه آکسفورد
02:23
showed that in the recent Swedish elections,
37
143670
3270
نشان داد که در انتخابات اخیر سوئد،
02:26
one third of all of the information spreading on social media
38
146964
4375
یک سوم ازاطلاعات اشاعه داده شده در رسانه‌های اجتماعی
02:31
about the election
39
151363
1198
در مورد انتخابات
02:32
was fake or misinformation.
40
152585
2087
اطلاعات جعلی و یا اشتباه بودند.
02:35
In addition, these types of social-media misinformation campaigns
41
155037
5078
به علاوه این نوع از کمپین‌های اطلاعات اشتباه رسانه‌های اجتماعی
02:40
can spread what has been called "genocidal propaganda,"
42
160139
4151
می‌توانند چیزی باعنوان «تبلیغ نسل کشی» گسترش دهند،
02:44
for instance against the Rohingya in Burma,
43
164314
3111
برای مثال علیه روهینگیا در برمه،
02:47
triggering mob killings in India.
44
167449
2303
تحریک اوباش، موجب کشته شدن مردم در هند شد.
02:49
We studied fake news
45
169776
1494
ما خبرهای جعلی را بررسی کردیم
02:51
and began studying it before it was a popular term.
46
171294
3219
وشروع به بررسی آنها قبل آنکه فراگیرشدنشان کردیم.
02:55
And we recently published the largest-ever longitudinal study
47
175030
5040
اخیرا ما بزرگترین پژوهش طولی را
03:00
of the spread of fake news online
48
180094
2286
در مورد انتشار آنلاین اخبار جعلی منتشر کرده‌ایم
03:02
on the cover of "Science" in March of this year.
49
182404
3204
در ماه مارس امسال با عنوان «علم».
03:06
We studied all of the verified true and false news stories
50
186523
4161
ما تمام اخبار تایید شده درست و غلط را مطالعه کردیم
03:10
that ever spread on Twitter,
51
190708
1753
که تا به حال در توئیترمنتشر شده‌اند،
03:12
from its inception in 2006 to 2017.
52
192485
3818
از ابتدای سال ۲۰۰۶ تا ۲۰۱۷.
03:16
And when we studied this information,
53
196612
2314
و وقتی داشتیم این اطلاعات را مطالعه می‌کردیم،
03:18
we studied verified news stories
54
198950
2876
اخباری را مورد مطالعه قرار دادیم که تایید شده بودند
03:21
that were verified by six independent fact-checking organizations.
55
201850
3918
تایید این اخبار از طرف ۶ سازمان مستقل حقیقت یاب اتفاق افتاده بود.
03:25
So we knew which stories were true
56
205792
2762
پس می‌دانستیم کدام یک از خبرها درست هستند
03:28
and which stories were false.
57
208578
2126
و کدام یک اشتباه.
03:30
We can measure their diffusion,
58
210728
1873
میزان انتشارشان قابل اندازی‌گیری است،
03:32
the speed of their diffusion,
59
212625
1651
سرعت انتشار هم همینطور،
03:34
the depth and breadth of their diffusion,
60
214300
2095
همینطور عمق و وسعت آنها،
03:36
how many people become entangled in this information cascade and so on.
61
216419
4142
چند نفر در این نوع از انتشار اطلاعات گرفتار شده‌اند.
03:40
And what we did in this paper
62
220942
1484
و ما در این مقاله چه کردیم
03:42
was we compared the spread of true news to the spread of false news.
63
222450
3865
ما انتشار اخبار درست و غلط را باهم مقایسه کردیم.
03:46
And here's what we found.
64
226339
1683
و این چیزی است که ما به آن رسیدیم.
03:48
We found that false news diffused further, faster, deeper
65
228046
3979
ما متوجه شدیم که اخبار غلط بیشتر، سریعتر و عمیق‌تر پخش می‌شوند
03:52
and more broadly than the truth
66
232049
1806
بسیار گسترده‌تر از خبر واقعی
03:53
in every category of information that we studied,
67
233879
3003
در همه دسته بندی‌های اطلاعاتی ما مطالعه کردیم،
03:56
sometimes by an order of magnitude.
68
236906
2499
بعضی مواقع با ایجاد یک بزرگنمایی.
03:59
And in fact, false political news was the most viral.
69
239842
3524
و در واقع اخبار سیاسی غلط در صدر این انتشار بودند.
04:03
It diffused further, faster, deeper and more broadly
70
243390
3147
انتشاراخبار سیاسی بیشتر و سریع‌تر و عمیق‌تر و بسیار گسترده‌تر
04:06
than any other type of false news.
71
246561
2802
از دیگر انواع خبرها بود.
04:09
When we saw this,
72
249387
1293
وقتی این را فهمیدیم،
04:10
we were at once worried but also curious.
73
250704
2841
نه تنها نگران بودیم بلکه کنجکاو هم شده بودیم.
04:13
Why?
74
253569
1151
چرا؟
04:14
Why does false news travel so much further, faster, deeper
75
254744
3373
چرا باید اخبارغلط بسیار بیشتر، سریع‌تر و عمیق‌تر
04:18
and more broadly than the truth?
76
258141
1864
ازاخبار صحیح پخش شود؟
04:20
The first hypothesis that we came up with was,
77
260339
2961
فرضیه اولی که ما به آن رسیدیم این بود که،
04:23
"Well, maybe people who spread false news have more followers or follow more people,
78
263324
4792
«شاید منتشرکنندگان اخبار جعلی، فالوئر زیاد دارند یا نفرات زیادی را دنبال می‌کنند،
04:28
or tweet more often,
79
268140
1557
یا توئیت بیشتری می‌کنند،
04:29
or maybe they're more often 'verified' users of Twitter, with more credibility,
80
269721
4126
یا شاید اغلب آنها کاربران مورد تایید توئیتر بودند با اعتبار زیاد،
04:33
or maybe they've been on Twitter longer."
81
273871
2182
یا شاید مدت زمان زیادی هست که درتوئیتر هستند.»
04:36
So we checked each one of these in turn.
82
276077
2298
پس ما هریک از این‌ها را به ترتیب چک کردیم.
04:38
And what we found was exactly the opposite.
83
278691
2920
و آنچه که به آن رسیدیم دقیقا برعکس بود.
04:41
False-news spreaders had fewer followers,
84
281635
2436
انتشاردهندگان اخبار اشتباه دنبال کنندگان کمی دارند،
04:44
followed fewer people, were less active,
85
284095
2254
نفرات کمی را دنبال می‌کنند که فعالیت کمی دارند،
04:46
less often "verified"
86
286373
1460
و اغلب کمتر «تایید شده‌اند»
04:47
and had been on Twitter for a shorter period of time.
87
287857
2960
و سابقه حضورشان در توئیتر کم بود.
04:50
And yet,
88
290841
1189
و هنوز،
04:52
false news was 70 percent more likely to be retweeted than the truth,
89
292054
5033
به نظر می‌رسد که اخبار اشتباه ۷۰ درصد بیشتر از اخبار درست توئیت مجدد می‌شود،
04:57
controlling for all of these and many other factors.
90
297111
3363
که همه اینها و دیگر عوامل را کنترل می‌کند.
05:00
So we had to come up with other explanations.
91
300498
2690
خب ما مجبور شدیم توضیحات دیگری ارائه دهیم.
05:03
And we devised what we called a "novelty hypothesis."
92
303212
3467
و فرضیه جدید را ابداع کردیم.
05:07
So if you read the literature,
93
307038
1960
خوب اگر ادبیات خوانده باشید،
05:09
it is well known that human attention is drawn to novelty,
94
309022
3754
واضح است که انسان توجه اش به چیزهای جدید جلب می‌شود،
05:12
things that are new in the environment.
95
312800
2519
چیزهایی که در محیط جدید هستند.
05:15
And if you read the sociology literature,
96
315343
1985
و اگر ادبیات جامعه شناسی خوانده باشید،
05:17
you know that we like to share novel information.
97
317352
4300
می‌دانید که همه ما دوست داریم مطالب جدید به اشتراک بگذاریم.
05:21
It makes us seem like we have access to inside information,
98
321676
3838
این باعث می‌شود که ما اینطور به نظر برسیم که دسترسی به اطلاعات داخل داریم،
05:25
and we gain in status by spreading this kind of information.
99
325538
3785
و با انتشار این اطلاعات اوضاع را تحت کنترل داریم.
05:29
So what we did was we measured the novelty of an incoming true or false tweet,
100
329792
6452
پس کاری که ما می‌کنیم سنجش میزان جدید بودن توئیت‌های درست و یا غلط،
05:36
compared to the corpus of what that individual had seen
101
336268
4055
در مقایسه با مجموع نوشته‌هایی که یک فرد دیده است
05:40
in the 60 days prior on Twitter.
102
340347
2952
در ۶۰ روز قبل در توئیتر.
05:43
But that wasn't enough, because we thought to ourselves,
103
343323
2659
اما این کافی نبود چون ما به خودمان فکر کردیم،
05:46
"Well, maybe false news is more novel in an information-theoretic sense,
104
346006
4208
«خب شاید اخبارغلط در مفهوم اطلاعات نظری بسیار جدیدتر بودند،
05:50
but maybe people don't perceive it as more novel."
105
350238
3258
اما شاید مردم آنرا جدید تلقی نکنند.»
05:53
So to understand people's perceptions of false news,
106
353849
3927
پس برای فهم تلقی مردم از اخبار غلط،
05:57
we looked at the information and the sentiment
107
357800
3690
ما نگاهی به اطلاعات و احساسات انداختیم
06:01
contained in the replies to true and false tweets.
108
361514
4206
که شامل پاسخ به توئیت‌های غلط و درست بود.
06:06
And what we found
109
366022
1206
و آنچه که به آن رسیدیم
06:07
was that across a bunch of different measures of sentiment --
110
367252
4214
میان مجموعه‌ای از احساسات --
06:11
surprise, disgust, fear, sadness,
111
371490
3301
تعجب، نفرت، ترس، اندوه،
06:14
anticipation, joy and trust --
112
374815
2484
انتظار، شادی و اعتماد--
06:17
false news exhibited significantly more surprise and disgust
113
377323
5857
اخبار غلط بطور معناداری تعجب و نفرت را بیشتر نشان می‌دادند
06:23
in the replies to false tweets.
114
383204
2806
در پاسخ به توئیت‌های غلط.
06:26
And true news exhibited significantly more anticipation,
115
386392
3789
و اخبار درست به طور معناداری انتظار بیشتری را به نمایش گذاشته بودند،
06:30
joy and trust
116
390205
1547
و البته شادی و اعتماد
06:31
in reply to true tweets.
117
391776
2547
در پاسخ به توئیت‌های درست.
06:34
The surprise corroborates our novelty hypothesis.
118
394347
3786
تعجب, تایید کننده فرضیه جدید ما است.
06:38
This is new and surprising, and so we're more likely to share it.
119
398157
4609
جدید و تعجب آور است و می‌خواهیم که آن را به اشتراک بگذاریم.
06:43
At the same time, there was congressional testimony
120
403092
2925
در همان زمان کنگره‌ای
06:46
in front of both houses of Congress in the United States,
121
406041
3036
در مقابل دو ساختمان کنگره در ایالات متحده،
06:49
looking at the role of bots in the spread of misinformation.
122
409101
3738
با عنوان نگاهی به نقش ربات‌ها در انتشاراطلاعات غلط برگزار می شد.
06:52
So we looked at this too --
123
412863
1354
خب ما این را هم بررسی کردیم-
06:54
we used multiple sophisticated bot-detection algorithms
124
414241
3598
و ما از الگوریتم‌های تشخیص ربات استفاده نمودیم
06:57
to find the bots in our data and to pull them out.
125
417863
3074
تا ربات‌ها را در داده‌های خود پیدا و آنها را بیرون بیاندازیم.
07:01
So we pulled them out, we put them back in
126
421347
2659
خب ما آنها را بیرون انداختیم و دوباره بازگرداندیم
07:04
and we compared what happens to our measurement.
127
424030
3119
و مقایسه کردیم که چه اتفاقی برای معیار سنجش ما افتاد.
07:07
And what we found was that, yes indeed,
128
427173
2293
وچیزی که پیدا کردیم این بود که، بله واقعا،
07:09
bots were accelerating the spread of false news online,
129
429490
3682
ربات‌ها به گسترش اخبار غلط در فضای اینترنت سرعت می‌بخشند،
07:13
but they were accelerating the spread of true news
130
433196
2651
اما آنها به انتشار اخبار درست هم سرعت می‌دادند
07:15
at approximately the same rate.
131
435871
2405
تقریبا با همان میزان.
07:18
Which means bots are not responsible
132
438300
2858
که به این معناست که ربات‌ها مسئول
07:21
for the differential diffusion of truth and falsity online.
133
441182
4713
تعیین میزان تغییرات انتشار درست یا غلط بودن نیستند.
07:25
We can't abdicate that responsibility,
134
445919
2849
ما نمی‌توانیم از این مسئولیت چشم‌پوشی کنیم،
07:28
because we, humans, are responsible for that spread.
135
448792
4259
چون ما انسان‌ها مسئول انتشار آن هستیم.
07:34
Now, everything that I have told you so far,
136
454472
3334
خب تا اینجا هر چیزی را که به شما گفتم،
07:37
unfortunately for all of us,
137
457830
1754
متاسفانه برای همه ما،
07:39
is the good news.
138
459608
1261
اخبار خوب است.
07:42
The reason is because it's about to get a whole lot worse.
139
462670
4450
دلیل این است که قرار است بدتر از این شود.
07:47
And two specific technologies are going to make it worse.
140
467850
3682
و دو تکنولوژی خاص اوضاع را بدتر می‌کنند.
07:52
We are going to see the rise of a tremendous wave of synthetic media.
141
472207
5172
ما منتظر ظهور موج عظیمی از رسانه‌های مصنوعی هستیم.
07:57
Fake video, fake audio that is very convincing to the human eye.
142
477403
6031
ویدئوهای جعلی, فایل‌های صوتی جعلی که به نظر انسان متقاعدکننده هستند.
08:03
And this will powered by two technologies.
143
483458
2754
که توسط دو تکنولوژی طراحی می‌شود.
08:06
The first of these is known as "generative adversarial networks."
144
486236
3833
نام یکی از آن‌ها «شبکه های مخالف مولد» است.
08:10
This is a machine-learning model with two networks:
145
490093
2563
این یک مدل یادگیری ماشینی با دو شبکه است:
08:12
a discriminator,
146
492680
1547
یک تفکیک کننده،
08:14
whose job it is to determine whether something is true or false,
147
494251
4200
که کارش تعیین این است که آیا چیزی درست است یا نه،
08:18
and a generator,
148
498475
1167
و یک مولد،
08:19
whose job it is to generate synthetic media.
149
499666
3150
که کارش تولید رسانه مصنوعی است.
08:22
So the synthetic generator generates synthetic video or audio,
150
502840
5102
بنابراین ژنراتور مصنوعی ویدئو و صدای مصنوعی تولید می‌کند،
08:27
and the discriminator tries to tell, "Is this real or is this fake?"
151
507966
4675
و تفکیک کننده سعی می‌کند تشخیص دهد که «این درست است یا جعلی»؟
08:32
And in fact, it is the job of the generator
152
512665
2874
و در واقع این کار ژنراتور است
08:35
to maximize the likelihood that it will fool the discriminator
153
515563
4435
که شباهت را به حداکثر برساند و تفکیک کننده فریب بخورد
08:40
into thinking the synthetic video and audio that it is creating
154
520022
3587
و فکر کند که ویدئو و صدای تولید شده
08:43
is actually true.
155
523633
1730
واقعا درست است.
08:45
Imagine a machine in a hyperloop,
156
525387
2373
ماشینی درهایپرلوپ (سیستم سریع حمل ونقل) مجسم کنید،
08:47
trying to get better and better at fooling us.
157
527784
2803
که در فریب دادن ما هر روز بهتر و بهتر می‌شود.
08:51
This, combined with the second technology,
158
531114
2500
این، ترکیبی از تکنولوژی نسل دوم است که،
08:53
which is essentially the democratization of artificial intelligence to the people,
159
533638
5722
در واقع دموکراتیک سازی هوش مصنوعی برای مردم است،
08:59
the ability for anyone,
160
539384
2189
توانایی برای هر کسی،
09:01
without any background in artificial intelligence
161
541597
2830
بدون هیچ پیشینه خاصی در هوش مصنوعی
09:04
or machine learning,
162
544451
1182
یا آموزش ماشینی،
09:05
to deploy these kinds of algorithms to generate synthetic media
163
545657
4103
برای بکارگیری این نوع از الگوریتم‌ها برای تولید رسانه مصنوعی
09:09
makes it ultimately so much easier to create videos.
164
549784
4547
که در نهایت فرآیند تولید ویدئو را آسان‌تر می‌کند.
09:14
The White House issued a false, doctored video
165
554355
4421
کاخ سفید یک ویدئوی جعلی و دستکاری شده
09:18
of a journalist interacting with an intern who was trying to take his microphone.
166
558800
4288
یک خبرنگاررا که با یک کارآموزدر تعامل بود سعی داشت میکروفنش را پس بگیرد، پخش کرد.
09:23
They removed frames from this video
167
563427
1999
آنها فریم‌هایی از ویدئو را حذف کرده بودند
09:25
in order to make his actions seem more punchy.
168
565450
3287
بطوری که کارهای او تاثیرگذار به نظر برسد.
09:29
And when videographers and stuntmen and women
169
569157
3385
و وقتی فیلمبرداران و بدلکاران و زنان
09:32
were interviewed about this type of technique,
170
572566
2427
درمورد این نوع از تکنیک مصاحبه کردند،
09:35
they said, "Yes, we use this in the movies all the time
171
575017
3828
گفتند «بله ما از این همیشه در فیلم‌ها استفاده می‌کنیم
09:38
to make our punches and kicks look more choppy and more aggressive."
172
578869
4763
تا مشت و لگدهایمان واقعی‌تر و تهاجمی‌تر به نظر برسد.»
09:44
They then put out this video
173
584268
1867
آنها این ویدئو را بیرون دادند
09:46
and partly used it as justification
174
586159
2500
و تا حدی از آن برای حذف
09:48
to revoke Jim Acosta, the reporter's, press pass
175
588683
3999
جیم‌آکوستا استفاده کردند، او خبرنگارپرس‌پس (کارتی که خبرنگارازمحدودیت معاف می‌شود)
09:52
from the White House.
176
592706
1339
از کاخ سفید بود.
09:54
And CNN had to sue to have that press pass reinstated.
177
594069
4809
و CNN باید شکایت کند تا کارت پرس بازگردانده شود.
10:00
There are about five different paths that I can think of that we can follow
178
600538
5603
حدود ۵ راه مختلف وجود دارد که من فکر می‌کنم می‌توانیم پیگیری کنیم
10:06
to try and address some of these very difficult problems today.
179
606165
3739
و امروز به برخی از این مشکلات خیلی سخت بپردازیم.
10:10
Each one of them has promise,
180
610379
1810
هر کدام از آن‌ها قولی دارند،
10:12
but each one of them has its own challenges.
181
612213
2999
اما هرکدام از آنها چالش‌های خاص خود را دارند.
10:15
The first one is labeling.
182
615236
2008
اولین مورد برچسب زدن است.
10:17
Think about it this way:
183
617268
1357
اینطور به آن فکر کنید:
10:18
when you go to the grocery store to buy food to consume,
184
618649
3611
وقتی به فروشگاه موادغذایی برای خرید غذای مصرفی می‌روید،
10:22
it's extensively labeled.
185
622284
1904
برچسب بزرگی روی آن وجود دارد.
10:24
You know how many calories it has,
186
624212
1992
می‌دانید که چقدر کالری دارد،
10:26
how much fat it contains --
187
626228
1801
چقدر چربی دارد--
10:28
and yet when we consume information, we have no labels whatsoever.
188
628053
4278
با اینحال وقتی اطلاعاتی ارائه می‌کنیم برچسبی نداریم.
10:32
What is contained in this information?
189
632355
1928
این اطلاعات چه محتوایی دارد؟
10:34
Is the source credible?
190
634307
1453
آیا منبع معتبری دارد؟
10:35
Where is this information gathered from?
191
635784
2317
این اطلاعات از کجا جمع آوری می‌شوند؟
10:38
We have none of that information
192
638125
1825
ما هیچ کدام از آن اطلاعات را نداریم
10:39
when we are consuming information.
193
639974
2103
وقتی اطلاعاتی را استفاده می‌کنیم.
10:42
That is a potential avenue, but it comes with its challenges.
194
642101
3238
این یک راه بالقوه است اما با چالش‌هایی همراه است.
10:45
For instance, who gets to decide, in society, what's true and what's false?
195
645363
6451
برای مثال، در جامعه چه کسی تصمیم می‌گیرد، چه چیزی اشتباه و چه چیزی درست است؟
10:52
Is it the governments?
196
652387
1642
دولت‌ها؟
10:54
Is it Facebook?
197
654053
1150
فیس بوک؟
10:55
Is it an independent consortium of fact-checkers?
198
655601
3762
آیا این یک کنسرسیوم ازافراد حقیقت‌یاب است؟
10:59
And who's checking the fact-checkers?
199
659387
2466
چه کسی خود این افراد را چک می‌کند؟
11:02
Another potential avenue is incentives.
200
662427
3084
یکی دیگر از راه‌های بالقوه مشوق‌ها هستند.
11:05
We know that during the US presidential election
201
665535
2634
ما می‌دانیم که طی انتخابات ریاست جمهوری ایالات متحده
11:08
there was a wave of misinformation that came from Macedonia
202
668193
3690
موجی از اطلاعات جعلی از مقدونیه می‌آمد
11:11
that didn't have any political motive
203
671907
2337
هیچ انگیزه سیاسی پشت آن نبود
11:14
but instead had an economic motive.
204
674268
2460
اما در مقابل انگیزه اقتصادی در آن بود.
11:16
And this economic motive existed,
205
676752
2148
و این انگیزه اقتصادی وجود داشت،
11:18
because false news travels so much farther, faster
206
678924
3524
چون اطلاعات غلط بسیار بیشتر و سریعتر
11:22
and more deeply than the truth,
207
682472
2010
وبسیارعمیق‌ترازاطلاعات درست جابه‌جا می‌شود،
11:24
and you can earn advertising dollars as you garner eyeballs and attention
208
684506
4960
و شما هم دلارهای تبلیغات را بدست می‌آورید همانطور که توجه‌ها را سمت خود جلب می‌کنید
11:29
with this type of information.
209
689490
1960
با این نوع از اطلاعات.
11:31
But if we can depress the spread of this information,
210
691474
3833
اما اگربتوانیم گسترش این اطلاعات را تحت فشار قرار دهیم،
11:35
perhaps it would reduce the economic incentive
211
695331
2897
شاید انگیزه اقصادی را
11:38
to produce it at all in the first place.
212
698252
2690
در همان وهله اول قبل از تولید کاهش دهد.
11:40
Third, we can think about regulation,
213
700966
2500
سوم، می‌توانیم در مورد مقررات فکر کنیم،
11:43
and certainly, we should think about this option.
214
703490
2325
و مطمئنا باید در این مورد فکر کنیم.
11:45
In the United States, currently,
215
705839
1611
درحال حاضردر ایالات متحده آمریکا،
11:47
we are exploring what might happen if Facebook and others are regulated.
216
707474
4848
ما به دنبال آن هستیم که بدانیم چه اتفاقی می‌افتد اگر فیس بوک و دیگران تنظیم شوند.
11:52
While we should consider things like regulating political speech,
217
712346
3801
درحالی که ما باید مواردی چون نحوه نظارت برسخنرانی سیاسی را در نظر بگیریم
11:56
labeling the fact that it's political speech,
218
716171
2508
با این برچسب که این یک سخنرانی سیاسی است،
11:58
making sure foreign actors can't fund political speech,
219
718703
3819
با حصول اطمینان از سرمایه گذاری نکردن بازیگران خارجی از سخنرانی سیاسی،
12:02
it also has its own dangers.
220
722546
2547
که البته آن هم خطرات خودش را دارد.
12:05
For instance, Malaysia just instituted a six-year prison sentence
221
725522
4878
برای مثال، مالزی حکم شش سال زندان صادر کرده است
12:10
for anyone found spreading misinformation.
222
730424
2734
برای کسانی که اطلاعات جعلی منتشر کنند.
12:13
And in authoritarian regimes,
223
733696
2079
و در رژیم‌های استبدادی،
12:15
these kinds of policies can be used to suppress minority opinions
224
735799
4666
این نوع از سیاست برای سرکوب عقاید اقلیت استفاده می‌شود
12:20
and to continue to extend repression.
225
740489
3508
و سرکوب را افزایش می‌دهند.
12:24
The fourth possible option is transparency.
226
744680
3543
انتخاب چهارم شفافیت است.
12:28
We want to know how do Facebook's algorithms work.
227
748843
3714
ما می‌خواهیم بدانیم الگوریتم فیس بوک چگونه کار می‌کند.
12:32
How does the data combine with the algorithms
228
752581
2880
چگونه داده‌ها با الگوریتم‌ها ترکیب می‌شوند
12:35
to produce the outcomes that we see?
229
755485
2838
تا خروجی که می‌بینیم تولید شود؟
12:38
We want them to open the kimono
230
758347
2349
از آنها می‌خواهیم کیمونو را باز کنند
12:40
and show us exactly the inner workings of how Facebook is working.
231
760720
4214
و به ما نشان بدهند که دقیقا در لایه‌های داخلی فیس بوک چگونه کار می‌کند.
12:44
And if we want to know social media's effect on society,
232
764958
2779
و اگر می‌خواهیم تاثیر رسانه جمعی بر جامعه را بدانیم،
12:47
we need scientists, researchers
233
767761
2086
نیاز به دانشمند و محقق و دیگر افرادی داریم
12:49
and others to have access to this kind of information.
234
769871
3143
که دسترسی به این نوع از اطلاعات داشته باشند.
12:53
But at the same time,
235
773038
1547
اما هم زمان،
12:54
we are asking Facebook to lock everything down,
236
774609
3801
از فیس‌بوک می‌خواهیم که همه چیزرا قفل کند،
12:58
to keep all of the data secure.
237
778434
2173
که همه آن داده‌ها در امنیت باشند.
13:00
So, Facebook and the other social media platforms
238
780631
3159
پس بستر فیس بوک و دیگر رسانه های جمعی
13:03
are facing what I call a transparency paradox.
239
783814
3134
با آنچه من شفافیت متناقض می‌نامم, مواجه هستند.
13:07
We are asking them, at the same time,
240
787266
2674
ما همزمان از آن‌ها خواستیم،
13:09
to be open and transparent and, simultaneously secure.
241
789964
4809
باز و شفاف باشند و همزمان ایمن.
13:14
This is a very difficult needle to thread,
242
794797
2691
خیلی سخت است که این سوزن نخ شود،
13:17
but they will need to thread this needle
243
797512
1913
اما آنها نیازدارند که این سوزن را نخ کنند
13:19
if we are to achieve the promise of social technologies
244
799449
3787
اگر ما به وعده فناوری‌های اجتماعی دست پیدا کنیم
13:23
while avoiding their peril.
245
803260
1642
در حالیکه از خطرات آنها جلوگیری شود
13:24
The final thing that we could think about is algorithms and machine learning.
246
804926
4691
آخرین چیزی که می‌توانیم به آن فکر کنیم، الگوریتم‌ها و آموزش ماشینی است.
13:29
Technology devised to root out and understand fake news, how it spreads,
247
809641
5277
فناوری برای ریشه کن کردن و درک اخبار جعلی و چگونگی انتشار آن طراحی شده است،
13:34
and to try and dampen its flow.
248
814942
2331
که سعی در تعدیل جریان آن دارد.
13:37
Humans have to be in the loop of this technology,
249
817824
2897
انسان ها باید از این تکنولوژی آگاه باشند،
13:40
because we can never escape
250
820745
2278
چون نمی‌توانیم از آن فرار کنیم
13:43
that underlying any technological solution or approach
251
823047
4038
و پایه و اساس هر راه حل یا رویکرد فناوری
13:47
is a fundamental ethical and philosophical question
252
827109
4047
یک سوال بنیادی اخلاقی و فلسفی است
13:51
about how do we define truth and falsity,
253
831180
3270
در مورد اینکه ما چگونه درست و غلط را تعریف می‌کنیم،
13:54
to whom do we give the power to define truth and falsity
254
834474
3180
به چه کسی این قدرت را می‌دهیم که درست و غلط را تعریف کند
13:57
and which opinions are legitimate,
255
837678
2460
و کدام یک از نظرات موجه است،
14:00
which type of speech should be allowed and so on.
256
840162
3706
به کدام نوع از سخنرانی باید مجوز داده شود و از این قبیل چیزها.
14:03
Technology is not a solution for that.
257
843892
2328
تکنولوژی یک راه حل برای آن نیست.
14:06
Ethics and philosophy is a solution for that.
258
846244
3698
اخلاقیات و فلسفه راه حل آن است.
14:10
Nearly every theory of human decision making,
259
850950
3318
تقریبا هر نظریه تصمیم گیری انسانی،
14:14
human cooperation and human coordination
260
854292
2761
همکاری انسانی و هماهنگی انسانی
14:17
has some sense of the truth at its core.
261
857077
3674
در وجودش یک حس درست بودن وجود دارد.
14:21
But with the rise of fake news,
262
861347
2056
اما با ظهور اخبار جعلی،
14:23
the rise of fake video,
263
863427
1443
ظهور ویدئوهای جعلی،
14:24
the rise of fake audio,
264
864894
1882
ظهور فایل‌های صوتی جعلی،
14:26
we are teetering on the brink of the end of reality,
265
866800
3924
می‌توان در مورد نزدیک شدن به مرز پایان واقعیت صحبت کرد،
14:30
where we cannot tell what is real from what is fake.
266
870748
3889
جایی که دیگر نمی‌توان گفت چه چیزی درست است و چه چیزی غلط.
14:34
And that's potentially incredibly dangerous.
267
874661
3039
و این بطور بالقوه فوق العاده خطرناک است.
14:38
We have to be vigilant in defending the truth
268
878931
3948
باید در دفاع از حقیقت در مقابل
14:42
against misinformation.
269
882903
1534
اطلاعات اشتباه هوشیار باشیم.
14:44
With our technologies, with our policies
270
884919
3436
با تکنولوژی‌مان، با سیاست‌هایمان
14:48
and, perhaps most importantly,
271
888379
1920
و شاید مهمتر از همه چیز،
14:50
with our own individual responsibilities,
272
890323
3214
با مسئولیت پذیری فردیمان،
14:53
decisions, behaviors and actions.
273
893561
3555
تصمیمات، رفتارها و عملکردها.
14:57
Thank you very much.
274
897553
1437
خیلی ممنونم.
14:59
(Applause)
275
899014
3517
(تشویق حضار)
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7