How we can protect truth in the age of misinformation | Sinan Aral

216,072 views ・ 2020-01-16

TED


वीडियो चलाने के लिए कृपया नीचे दिए गए अंग्रेजी उपशीर्षक पर डबल-क्लिक करें।

00:00
Translator: Ivana Korom Reviewer: Krystian Aparta
0
0
7000
Translator: Renu Chandna Reviewer: Arvind Patil
00:13
So, on April 23 of 2013,
1
13468
5222
23 अप्रैल 2013 को,
00:18
the Associated Press put out the following tweet on Twitter.
2
18714
5514
एसोसिएटेड प्रेस ने ट्विटर पर निम्न ट्वीट किये ।
00:24
It said, "Breaking news:
3
24252
2397
इसमें कहा गया , "ब्रेकिंग न्यूज:
00:26
Two explosions at the White House
4
26673
2571
व्हाइट हाउस में दो विस्फोट
00:29
and Barack Obama has been injured."
5
29268
2333
और बराक ओबामा घायल हो गए हैं। "
00:32
This tweet was retweeted 4,000 times in less than five minutes,
6
32212
5425
यह ट्वीट 4,000 बार रीट्वीट किया गया पाँच मिनट से कम समय में,
00:37
and it went viral thereafter.
7
37661
2217
और इसके बाद यह वायरल हो गया।
00:40
Now, this tweet wasn't real news put out by the Associated Press.
8
40760
4350
यह ट्वीट वास्तविक समाचार नहीं था एसोसिएटेड प्रेस द्वारा भेजा गया।
00:45
In fact it was false news, or fake news,
9
45134
3333
वास्तव में यह झूठी खबर थी, या फर्जी खबर थी,
00:48
that was propagated by Syrian hackers
10
48491
2825
यह सीरिया के हैकरों द्वारा प्रचारित किया गया था
00:51
that had infiltrated the Associated Press Twitter handle.
11
51340
4694
जो एसोसिएटेड प्रेस के ट्विटर हैंडल में घुसपैठ की थी।
00:56
Their purpose was to disrupt society, but they disrupted much more.
12
56407
3889
उद्देश्य समाज में गड़बड़ करना था, पर और भी अधिक गड़बड़ हुई ।
01:00
Because automated trading algorithms
13
60320
2476
क्योंकि स्वचालित ट्रेडिंग एल्गोरिदम
01:02
immediately seized on the sentiment on this tweet,
14
62820
3360
ने तुरंत इस ट्वीट के भाव को पकड़ लिया गया,
01:06
and began trading based on the potential
15
66204
2968
और क्षमता के आधार पर काम करना शुरू किया
01:09
that the president of the United States had been injured or killed
16
69196
3381
कि संयुक्त राज्य अमेरिका के राष्ट्रपति घायल या मारे गए थे
01:12
in this explosion.
17
72601
1200
इस विस्फोट में।
01:14
And as they started tweeting,
18
74188
1992
और जैसे ही उन्होंने ट्वीट करना शुरू किया,
01:16
they immediately sent the stock market crashing,
19
76204
3349
उससे शेयर बाजार तुरंत दुर्घटनाग्रस्त हो गया,
01:19
wiping out 140 billion dollars in equity value in a single day.
20
79577
5167
एक ही दिन में140 बिलियन डॉलर इक्विटी वैल्यू का सफाया हो गया ।
01:25
Robert Mueller, special counsel prosecutor in the United States,
21
85062
4476
रॉबर्ट मुलर, संयुक्त राज्य अमेरिका के विशेष वकील प्रासीक्यूटर , ने
01:29
issued indictments against three Russian companies
22
89562
3892
तीन रूसी कंपनियों के खिलाफ अभियोग जारी किए
01:33
and 13 Russian individuals
23
93478
2619
और 13 रूसी व्यक्तियों
01:36
on a conspiracy to defraud the United States
24
96121
3167
पर संयुक्त राज्य को ठगने की साजिश
01:39
by meddling in the 2016 presidential election.
25
99312
3780
2016 के राष्ट्रपति के चुनाव में दखल देकर ।
01:43
And what this indictment tells as a story
26
103855
3564
और यह अभियोग जो कहानी बताता है
01:47
is the story of the Internet Research Agency,
27
107443
3142
वह इंटरनेट अनुसंधान एजेंसी की कहानी है,
01:50
the shadowy arm of the Kremlin on social media.
28
110609
3594
क्रेमलिन की छायादार भुजा सोशल मीडिया पर।
01:54
During the presidential election alone,
29
114815
2777
सिर्फ राष्ट्रपति चुनाव के दौरान,
01:57
the Internet Agency's efforts
30
117616
1889
इंटरनेट एजेंसी के प्रयास से
01:59
reached 126 million people on Facebook in the United States,
31
119529
5167
126 मिलियन लोगों ने संयुक्त राज्य अमेरिका में फेसबुक पर,
02:04
issued three million individual tweets
32
124720
3277
तीन मिलियन व्यक्तिगत ट्वीट
02:08
and 43 hours' worth of YouTube content.
33
128021
3842
और 43 घंटे की यूट्यूब सामग्री जारी की ।
02:11
All of which was fake --
34
131887
1652
जो सभी झूठे थे -
02:13
misinformation designed to sow discord in the US presidential election.
35
133563
6323
गलत सूचना जो बनायीं गई थी अमेरिकी राष्ट्रपति चुनाव में खलबली के लिए।
02:20
A recent study by Oxford University
36
140996
2650
ऑक्सफोर्ड यूनिवर्सिटी द्वारा हाल ही में किया गया एक अध्ययन
02:23
showed that in the recent Swedish elections,
37
143670
3270
दिखता है ताजे स्वीडिश चुनाव में ,
02:26
one third of all of the information spreading on social media
38
146964
4375
सोशल मीडिया पर फैली जानकारी का एक तिहाई हिस्सा
02:31
about the election
39
151363
1198
चुनाव के बारे में
02:32
was fake or misinformation.
40
152585
2087
नकली था या गलत सूचना थी।
02:35
In addition, these types of social-media misinformation campaigns
41
155037
5078
इसके अलावा, इस प्रकार के सोशल-मीडिया गलत सूचना अभियान
02:40
can spread what has been called "genocidal propaganda,"
42
160139
4151
फैला सकते हैं, जिसे कहा जाता है "जनसंहारक प्रचार" .
02:44
for instance against the Rohingya in Burma,
43
164314
3111
उदाहरण के लिए बर्मा में रोहिंग्या,
02:47
triggering mob killings in India.
44
167449
2303
भारत में भीड़ की हत्याओं को ट्रिगर करना।
02:49
We studied fake news
45
169776
1494
हमने फर्जी खबरों का अध्ययन किया
02:51
and began studying it before it was a popular term.
46
171294
3219
और इसका अध्ययन जब शुरू किया तब यह एक लोकप्रिय शब्द नहीं था।
02:55
And we recently published the largest-ever longitudinal study
47
175030
5040
और हमने हाल ही में प्रकाशित किया है सबसे बड़ा अनुदैर्ध्य अध्ययन
03:00
of the spread of fake news online
48
180094
2286
ऑनलाइन फर्जी खबरों का प्रसार
03:02
on the cover of "Science" in March of this year.
49
182404
3204
"विज्ञान" के कवर पर इस साल के मार्च में।
03:06
We studied all of the verified true and false news stories
50
186523
4161
हमने सभी सत्यापित का अध्ययन किया सच्ची और झूठी खबरें
03:10
that ever spread on Twitter,
51
190708
1753
जो कभी ट्विटर पर फैला था,
03:12
from its inception in 2006 to 2017.
52
192485
3818
2006 से 2017 तक इसकी स्थापना से।
03:16
And when we studied this information,
53
196612
2314
और जब हमने इस जानकारी का अध्ययन किया,
03:18
we studied verified news stories
54
198950
2876
हमने सत्यापित समाचारों का अध्ययन किया
03:21
that were verified by six independent fact-checking organizations.
55
201850
3918
कि छह द्वारा सत्यापित किया गया स्वतंत्र तथ्य-जाँच संगठन।
03:25
So we knew which stories were true
56
205792
2762
हमें पता था कि कौन सी कहानियां सच थीं
03:28
and which stories were false.
57
208578
2126
और कौन सी कहानियाँ झूठी थीं।
03:30
We can measure their diffusion,
58
210728
1873
हम उनके प्रसार को माप सकते हैं,
03:32
the speed of their diffusion,
59
212625
1651
उनके प्रसार की गति,
03:34
the depth and breadth of their diffusion,
60
214300
2095
उनके प्रसार की गहराई और चौड़ाई,
03:36
how many people become entangled in this information cascade and so on.
61
216419
4142
कितने लोग उलझ जाते हैं इस जानकारी के बहाव में, इत्यादि ।
03:40
And what we did in this paper
62
220942
1484
और इस पेपर में हमने यह किया कि
03:42
was we compared the spread of true news to the spread of false news.
63
222450
3865
हमने सच्ची खबरों के प्रसार की तुलना की झूठी खबर के प्रसार से ।
03:46
And here's what we found.
64
226339
1683
और यहाँ हमने यह पाया
03:48
We found that false news diffused further, faster, deeper
65
228046
3979
हमने पाया कि झूठी खबर ज्यादा आगे, तेजी से, और गहरी फैलती है
03:52
and more broadly than the truth
66
232049
1806
और सच्चाई से अधिक मोटे तौर पर
03:53
in every category of information that we studied,
67
233879
3003
सूचना की हर उस श्रेणी में जिसका हमने अध्ययन किया,
03:56
sometimes by an order of magnitude.
68
236906
2499
कभी-कभी परिमाण कहीं ज्यादा ।
03:59
And in fact, false political news was the most viral.
69
239842
3524
और वास्तव में, झूठी राजनीतिक खबरें सबसे ज्यादा वायरल हुई थी ।
04:03
It diffused further, faster, deeper and more broadly
70
243390
3147
यह ज्यादा आगे, तेजी से, गहराई से, और अधिक व्यापक रूप से फेली
04:06
than any other type of false news.
71
246561
2802
किसी अन्य प्रकार की झूठी खबरों की तुलना में।
04:09
When we saw this,
72
249387
1293
जब हमने यह देखा,
04:10
we were at once worried but also curious.
73
250704
2841
हम तुरंत चिंतित हो गए लेकिन उत्सुक भी।
04:13
Why?
74
253569
1151
क्यों?
04:14
Why does false news travel so much further, faster, deeper
75
254744
3373
झूठी खबर क्यों यात्रा करता है ज़्यादा आगे, तेज, और गहराई से
04:18
and more broadly than the truth?
76
258141
1864
और सच्चाई से अधिक बड़े पैमाने पर?
04:20
The first hypothesis that we came up with was,
77
260339
2961
हमारी पहली परिकल्पना थी ,
04:23
"Well, maybe people who spread false news have more followers or follow more people,
78
263324
4792
“शायद जो लोग झूठी खबरें फैलाते हैं उनके ज़्यादा अनुयायियों हों या,
अधिक लोगों का अनुसरण करते हों ,
04:28
or tweet more often,
79
268140
1557
या अधिक बार ट्वीट करतें हों ,
04:29
or maybe they're more often 'verified' users of Twitter, with more credibility,
80
269721
4126
या शायद वे 'ट्विटर के अधिक त्यापित' उपयोगकर्ता और अधिक विश्वसनीय हों,
04:33
or maybe they've been on Twitter longer."
81
273871
2182
या शायद वे ट्विटर पर लंबे समय तक रहे हैं। "
04:36
So we checked each one of these in turn.
82
276077
2298
इसलिए हमने बारी-बारी हर एक की जाँच की।
04:38
And what we found was exactly the opposite.
83
278691
2920
और जो हमने पाया ठीक इसके विपरीत था।
04:41
False-news spreaders had fewer followers,
84
281635
2436
झूठी खबर फैलाने वालों के कम अनुयायी थे,
04:44
followed fewer people, were less active,
85
284095
2254
कम लोगों का अनुसरण कर रहे थे, कम सक्रिय थे,
04:46
less often "verified"
86
286373
1460
अक्सर कम "सत्यापित" थे
04:47
and had been on Twitter for a shorter period of time.
87
287857
2960
और ट्विटर पर कम समय से थे ।
04:50
And yet,
88
290841
1189
और फिर भी,
04:52
false news was 70 percent more likely to be retweeted than the truth,
89
292054
5033
झूठी खबर 70 प्रतिशत अधिक री-ट्वीवीट होने की संभावित थी सच्चाई के मुकाबले ,
04:57
controlling for all of these and many other factors.
90
297111
3363
इन सभी और कई अन्य कारक के नियंत्रण में ।
05:00
So we had to come up with other explanations.
91
300498
2690
इसलिए हमने अन्य स्पष्टीकरण दूंदे।
05:03
And we devised what we called a "novelty hypothesis."
92
303212
3467
और हमने जो तैयार किया उसे कहा "नवीनता परिकल्पना।"
05:07
So if you read the literature,
93
307038
1960
इसलिए यदि आप साहित्य पढ़ते हैं,
05:09
it is well known that human attention is drawn to novelty,
94
309022
3754
यह जाना जाता है कि मानव ध्यान नवीनता की ऑर आकर्षित होता है,
05:12
things that are new in the environment.
95
312800
2519
जो चीजें पर्यावरण में नई हैं।
05:15
And if you read the sociology literature,
96
315343
1985
और अगर आप समाजशास्त्र साहित्य पढ़ते हैं,
05:17
you know that we like to share novel information.
97
317352
4300
आप जानते होगे कि हम नयी जानकारी साझा करना पसंद करते हैं ।
05:21
It makes us seem like we have access to inside information,
98
321676
3838
इससे हमें ऐसा लगता है जैसे हमारे पास अंदर की जानकारी है ,
05:25
and we gain in status by spreading this kind of information.
99
325538
3785
और हम प्रतिष्ठा प्राप्त करते हैं इस तरह की जानकारी फैलाकर।
05:29
So what we did was we measured the novelty of an incoming true or false tweet,
100
329792
6452
इसलिए हमने आने वाले सच्चे या झूठे ट्वीट की नवीनता को मापा ,
05:36
compared to the corpus of what that individual had seen
101
336268
4055
कॉर्पस की तुलना में उस व्यक्ति ने क्या देखा था
05:40
in the 60 days prior on Twitter.
102
340347
2952
ट्विटर पर 60 दिनों के पूर्व में।
05:43
But that wasn't enough, because we thought to ourselves,
103
343323
2659
लेकिन यह पर्याप्त नहीं था, क्योंकि हमने सोचा ,
05:46
"Well, maybe false news is more novel in an information-theoretic sense,
104
346006
4208
“शायद झूठी खबर अधिक उपन्यासिक है एक सूचना के सिद्धांत में,
05:50
but maybe people don't perceive it as more novel."
105
350238
3258
लेकिन शायद लोग इसे अधिक उपन्यासिक रूप में नहीं देखें। "
05:53
So to understand people's perceptions of false news,
106
353849
3927
तो लोगों को झूठी खबरों की धारणा को समझने के लिए ,
05:57
we looked at the information and the sentiment
107
357800
3690
हमने देखा उस भावना को जो निहित थी
06:01
contained in the replies to true and false tweets.
108
361514
4206
उन सच्चे और झूठे ट्वीट के उत्तरों में ।
06:06
And what we found
109
366022
1206
और हमने पाया कि
06:07
was that across a bunch of different measures of sentiment --
110
367252
4214
विभिन्न भावनाों एक झुंड में -
06:11
surprise, disgust, fear, sadness,
111
371490
3301
आश्चर्य, घृणा, भय, उदासी,
06:14
anticipation, joy and trust --
112
374815
2484
प्रत्याशा, आनंद और विश्वास -
06:17
false news exhibited significantly more surprise and disgust
113
377323
5857
झूठी खबर दर्शाती है काफी अधिक आश्चर्य और घृणा
06:23
in the replies to false tweets.
114
383204
2806
झूठे ट्वीट के जवाब में।
06:26
And true news exhibited significantly more anticipation,
115
386392
3789
और सच्ची खबर दर्शाती है काफी अधिक प्रत्याशा,
06:30
joy and trust
116
390205
1547
आनंद और विश्वास
06:31
in reply to true tweets.
117
391776
2547
सच्चे ट्वीट्स के जवाब में।
06:34
The surprise corroborates our novelty hypothesis.
118
394347
3786
आश्चर्य चकित कर देता है हमारी नवीनता परिकल्पना।
06:38
This is new and surprising, and so we're more likely to share it.
119
398157
4609
यह नया और आश्चर्यजनक है, इसलिए हम इसे साझा करने की
अधिक संभावना रखते हैं।
06:43
At the same time, there was congressional testimony
120
403092
2925
एक ही समय पर, कांग्रेस की गवाही थी
06:46
in front of both houses of Congress in the United States,
121
406041
3036
कांग्रेस के दोनों सदनों के सामने संयुक्त राज्य अमेरिका में,
06:49
looking at the role of bots in the spread of misinformation.
122
409101
3738
गलत सूचना के प्रसार में बॉट्स की भूमिका के लिए ।
06:52
So we looked at this too --
123
412863
1354
तो हमने इसे भी देखा -
06:54
we used multiple sophisticated bot-detection algorithms
124
414241
3598
हमने कई जटिल बॉट-डिटेक्शन एल्गोरिदम इस्तेमाल किये
06:57
to find the bots in our data and to pull them out.
125
417863
3074
हमारे डेटा में बॉट खोजने के लिए और उन्हें बाहर निकालने के लिए।
07:01
So we pulled them out, we put them back in
126
421347
2659
तो हमने उन्हें बाहर निकाला, फिर उन्हें वापस अंदर डाल दिया
07:04
and we compared what happens to our measurement.
127
424030
3119
और हमने तुलना की कि हमारे माप में क्या होता है।
07:07
And what we found was that, yes indeed,
128
427173
2293
और जो हमने पाया, वह वास्तव में ही,
07:09
bots were accelerating the spread of false news online,
129
429490
3682
ऑनलाइन झूठी खबर का प्रसार, बॉट्स बढ़ा रहे थे
07:13
but they were accelerating the spread of true news
130
433196
2651
लेकिन वे सच्ची खबर का प्रसार भी तेज कर रहे थे
07:15
at approximately the same rate.
131
435871
2405
लगभग उसी दर पर।
07:18
Which means bots are not responsible
132
438300
2858
जिसका मतलब है कि बॉट जिम्मेदार नहीं हैं
07:21
for the differential diffusion of truth and falsity online.
133
441182
4713
ऑनलाइन सच और झूठ के प्रसार में अंतर के लिए ।
07:25
We can't abdicate that responsibility,
134
445919
2849
हम उस जिम्मेदारी का पालन नहीं कर सकते,
07:28
because we, humans, are responsible for that spread.
135
448792
4259
क्योंकि हम, इंसान, उसके प्रसार के लिए जिम्मेदार हैं।
07:34
Now, everything that I have told you so far,
136
454472
3334
अब, वह सब कुछ जो मैंने तुम्हें अभी तक बताया है
07:37
unfortunately for all of us,
137
457830
1754
दुर्भाग्य से हम सभी के लिए,
07:39
is the good news.
138
459608
1261
अच्छी खबर है।
07:42
The reason is because it's about to get a whole lot worse.
139
462670
4450
इसका कारण यह है की और भी बुरा होने वाला है।
07:47
And two specific technologies are going to make it worse.
140
467850
3682
और दो विशिष्ट प्रौद्योगिकियां इसे और बुरा बनाने जा रहे हैं।
07:52
We are going to see the rise of a tremendous wave of synthetic media.
141
472207
5172
हम देखेंगे सिंथेटिक मीडिया के उदय की जबरदस्त लहर।
07:57
Fake video, fake audio that is very convincing to the human eye.
142
477403
6031
नकली वीडियो, नकली ऑडियो जो मानवीय नज़र को बहुत आश्वस्त है।
08:03
And this will powered by two technologies.
143
483458
2754
और यह दो तकनीकों द्वारा संचालित होगा।
08:06
The first of these is known as "generative adversarial networks."
144
486236
3833
इनमें से पहला "सामान्य प्रतिकूल नेटवर्क" नाम से जाना जाता है।
08:10
This is a machine-learning model with two networks:
145
490093
2563
यह एक मशीन लर्निंग मॉडल है दो नेटवर्क के साथ:
08:12
a discriminator,
146
492680
1547
एक भेद करनेवाला,
08:14
whose job it is to determine whether something is true or false,
147
494251
4200
जिसका काम है यह निर्धारित करना कि यह सच है या झूठ ,
08:18
and a generator,
148
498475
1167
और एक जनरेटर,
08:19
whose job it is to generate synthetic media.
149
499666
3150
जिसका काम है सिंथेटिक मीडिया उत्पन्न करना ।
08:22
So the synthetic generator generates synthetic video or audio,
150
502840
5102
तो सिंथेटिक जनरेटर उत्पन्न करता है, सिंथेटिक वीडियो या ऑडियो
08:27
and the discriminator tries to tell, "Is this real or is this fake?"
151
507966
4675
और भेदभावकर्ता बताने की कोशिश करता है, "यह असली या यह नकली है?"
08:32
And in fact, it is the job of the generator
152
512665
2874
और वास्तव में, यह काम है जनरेटर का
08:35
to maximize the likelihood that it will fool the discriminator
153
515563
4435
संभावना को अधिकतम करने का जिससे यह भेदभावकर्ता को बेवकूफ बना दे
08:40
into thinking the synthetic video and audio that it is creating
154
520022
3587
सोचने में कि जो सिंथेटिक वीडियो और ऑडियो बना रहा है,
08:43
is actually true.
155
523633
1730
वह वास्तव में सच है।
08:45
Imagine a machine in a hyperloop,
156
525387
2373
कल्पना करें एक मशीन की जो हाइपरलूप में है ,
08:47
trying to get better and better at fooling us.
157
527784
2803
बेहतर की कोशिश और हमें बेवकूफ बनाने में बेहतर होने के लिए ।
08:51
This, combined with the second technology,
158
531114
2500
यह दूसरी तकनीक के साथ जुड़ा है,
08:53
which is essentially the democratization of artificial intelligence to the people,
159
533638
5722
जो मूल रूप से लोकतंत्रीकरण है लोगों को कृत्रिम बुद्धिमत्ता का ,
08:59
the ability for anyone,
160
539384
2189
किसी के लिए भी,
09:01
without any background in artificial intelligence
161
541597
2830
बिना किसी पृष्ठभूमि के कृत्रिम बुद्धि में
09:04
or machine learning,
162
544451
1182
या मशीन सीखने में ,
09:05
to deploy these kinds of algorithms to generate synthetic media
163
545657
4103
ऐसे एल्गोरिदम को तैनात करने के लिए सिंथेटिक मीडिया बनाने के लिए
09:09
makes it ultimately so much easier to create videos.
164
549784
4547
यह अंततः बहुत आसान बनाता है वीडियो बनाने के लिए।
09:14
The White House issued a false, doctored video
165
554355
4421
व्हाइट हाउस ने एक झूठा, बनाया हुआ वीडियो जारी किया
09:18
of a journalist interacting with an intern who was trying to take his microphone.
166
558800
4288
एक पत्रकार का जो इंटर्न से बात करते हुए माइक्रोफोन लेने की कोशिश कर रहा था।
09:23
They removed frames from this video
167
563427
1999
उन्होंने इस वीडियो से फ्रेम हटा दिए
09:25
in order to make his actions seem more punchy.
168
565450
3287
उसके कार्यों को अधिक असरदार बनाने के लिए ।
09:29
And when videographers and stuntmen and women
169
569157
3385
और जब वीडियो ग्राफर और स्टंटमैन और महिलाओं
09:32
were interviewed about this type of technique,
170
572566
2427
से जब पुछा गया इस प्रकार की तकनीक के बारे में,
09:35
they said, "Yes, we use this in the movies all the time
171
575017
3828
उन्होंने कहा, "हां, हम इसका इस्तेमाल फिल्मों में हमेशा करते हैं
09:38
to make our punches and kicks look more choppy and more aggressive."
172
578869
4763
हमारे घूंसे और लात मारने के लिए अधिक अधिक आक्रामक दिखे । ”
09:44
They then put out this video
173
584268
1867
उन्होंने फिर यह वीडियो डाला
09:46
and partly used it as justification
174
586159
2500
और कुछ हिस्से कोऔचित्य के रूप में इस्तेमाल किया
09:48
to revoke Jim Acosta, the reporter's, press pass
175
588683
3999
जिम एकोस्टा ,रिपोर्टर का, प्रेस पास वापिस लेने के लिए,
09:52
from the White House.
176
592706
1339
व्हाइट हाउस से।
09:54
And CNN had to sue to have that press pass reinstated.
177
594069
4809
और सीएनएन को मुकदमा करना पड़ा उस प्रेस पास को बहाल करना है।
10:00
There are about five different paths that I can think of that we can follow
178
600538
5603
मेरी सोच में लगभग पांच अलग रास्ते हैं जिनका हम अनुसरण कर सकते हैं
10:06
to try and address some of these very difficult problems today.
179
606165
3739
कुछ पता करने के लिए आज की इन बहुत ही कठिन समस्याओं में से ।
10:10
Each one of them has promise,
180
610379
1810
उनमें से हर एक ने भरोसनीय है,
10:12
but each one of them has its own challenges.
181
612213
2999
लेकिन उनमें से हर एक अपनी चुनौतियां हैं।
10:15
The first one is labeling.
182
615236
2008
पहला है लेबल करना।
10:17
Think about it this way:
183
617268
1357
इसे इस तरह से सोचिये :
10:18
when you go to the grocery store to buy food to consume,
184
618649
3611
जब आप किराने की दुकान पर जाते हैं उपभोग के लिए भोजन खरीदने के लिए,
10:22
it's extensively labeled.
185
622284
1904
इसे बहुत लेबल किया गया है।
10:24
You know how many calories it has,
186
624212
1992
आपको पता है कि इसमें कितनी कैलोरी है,
10:26
how much fat it contains --
187
626228
1801
इसमें कितना वसा होता है -
10:28
and yet when we consume information, we have no labels whatsoever.
188
628053
4278
पर हम जिस सूचना का उपभोग करते हैं, उसका कोई लेबल नहीं है।
10:32
What is contained in this information?
189
632355
1928
इस जानकारी में क्या निहित है?
10:34
Is the source credible?
190
634307
1453
क्या स्रोत विश्वसनीय है?
10:35
Where is this information gathered from?
191
635784
2317
यह जानकारी कहां से एकत्र की गई है?
10:38
We have none of that information
192
638125
1825
हमारे पास वह जानकारी नहीं है
10:39
when we are consuming information.
193
639974
2103
जब हम जानकारी का उपभोग कर रहे हैं।
10:42
That is a potential avenue, but it comes with its challenges.
194
642101
3238
यह एक संभावित एवेन्यू है, लेकिन यह अपनी चुनौतियां हैं।
10:45
For instance, who gets to decide, in society, what's true and what's false?
195
645363
6451
जैसे कि समाज में,यह निर्णय कौन लेता है, कि क्या सच है और क्या झूठ ?
10:52
Is it the governments?
196
652387
1642
क्या यह सरकारें हैं?
10:54
Is it Facebook?
197
654053
1150
क्या यह फेसबुक है?
10:55
Is it an independent consortium of fact-checkers?
198
655601
3762
क्या यह एक स्वतंत्र तथ्य-चेक करने का संघ है?
10:59
And who's checking the fact-checkers?
199
659387
2466
और तथ्य-चेकर्स की जाँच कौन करता है?
11:02
Another potential avenue is incentives.
200
662427
3084
एक संभावित एवेन्यू प्रोत्साहन राशि है।
11:05
We know that during the US presidential election
201
665535
2634
हम जानते हैं कि अमेरिकी राष्ट्रपति चुनाव के दौरान
11:08
there was a wave of misinformation that came from Macedonia
202
668193
3690
गलत सूचना की लहर थी जो मैसेडोनिया से आई थी
11:11
that didn't have any political motive
203
671907
2337
इसका कोई राजनीतिक मकसद नहीं था
11:14
but instead had an economic motive.
204
674268
2460
लेकिन इसका एक आर्थिक मकसद था।
11:16
And this economic motive existed,
205
676752
2148
और यह आर्थिक मकसद मौजूद था,
11:18
because false news travels so much farther, faster
206
678924
3524
क्योंकि झूठी खबरें बहुत दूर, तेज जाती हैं
11:22
and more deeply than the truth,
207
682472
2010
और सच्चाई से अधिक गहराई से,
11:24
and you can earn advertising dollars as you garner eyeballs and attention
208
684506
4960
और आप विज्ञापन डॉलर कमा सकते हैं जब आप ध्यान आकर्षित करते हैं
11:29
with this type of information.
209
689490
1960
इस प्रकार की जानकारी के साथ।
11:31
But if we can depress the spread of this information,
210
691474
3833
लेकिन अगर हम प्रसार को दबा सकें इस जानकारी के लिए,
11:35
perhaps it would reduce the economic incentive
211
695331
2897
तो शायद यह आर्थिक प्रोत्साहन कम हो जाएगा
11:38
to produce it at all in the first place.
212
698252
2690
पहले स्थान पर, जहाँ यह पैदा किया जाता है।
11:40
Third, we can think about regulation,
213
700966
2500
तीसरा, हम विनियमन के बारे में सोच सकते हैं,
11:43
and certainly, we should think about this option.
214
703490
2325
और निश्चित ही, हमें इस विकल्प को सोचना चाहिए।
11:45
In the United States, currently,
215
705839
1611
इस समय, संयुक्त राज्य अमेरिका में,
11:47
we are exploring what might happen if Facebook and others are regulated.
216
707474
4848
हम तलाश रहे हैं कि अगर फेसबुक को विनियमित किया जाये तो क्या हो।
11:52
While we should consider things like regulating political speech,
217
712346
3801
जबकि हमें चीजों पर विचार करना चाहिए राजनीतिक भाषण को विनियमित करने,
11:56
labeling the fact that it's political speech,
218
716171
2508
तथ्य को लेबल करना कि यह राजनीतिक भाषण है,
11:58
making sure foreign actors can't fund political speech,
219
718703
3819
सुनिश्चित करना कि विदेशी कलाकार राजनीतिक भाषण को पूँजी नहीं दे सकें,
12:02
it also has its own dangers.
220
722546
2547
इसके अपने खतरे भी हैं।
12:05
For instance, Malaysia just instituted a six-year prison sentence
221
725522
4878
मिसाल के तौर पर, मलेशिया ने हाल ही में छह साल की जेल की सजा
12:10
for anyone found spreading misinformation.
222
730424
2734
बनायीं है गलत सूचना फैलाने वाले के लिए ।
12:13
And in authoritarian regimes,
223
733696
2079
और सत्तावादी शासन में,
12:15
these kinds of policies can be used to suppress minority opinions
224
735799
4666
ऐसी नीतियां अल्पसंख्यक राय को दबाने के लिए उपयोग की जा सकती हैं
12:20
and to continue to extend repression.
225
740489
3508
और दमन को जारी रखने के लिए।
12:24
The fourth possible option is transparency.
226
744680
3543
चौथा संभव विकल्प पारदर्शिता है।
12:28
We want to know how do Facebook's algorithms work.
227
748843
3714
हम जानना चाहते हैं फेसबुक के एल्गोरिदम कैसे काम करते हैं
12:32
How does the data combine with the algorithms
228
752581
2880
डेटा एल्गोरिदम के साथ गठबंधन कैसे करता है
12:35
to produce the outcomes that we see?
229
755485
2838
हम जो परिणाम देखते हैं उसका उत्पादन कैसे करता है ?
12:38
We want them to open the kimono
230
758347
2349
हम चाहते हैं कि वे किमोनो खोलें
12:40
and show us exactly the inner workings of how Facebook is working.
231
760720
4214
और हमें आंतरिक कामकाज दिखाए कि फेसबुक कैसे काम कर रहा है।
12:44
And if we want to know social media's effect on society,
232
764958
2779
और अगर हम जानना चाहते हैं सोशल मीडिया का समाज पर प्रभाव,
12:47
we need scientists, researchers
233
767761
2086
हमें वैज्ञानिकों, शोधकर्ताओं की ज़रुरत है
12:49
and others to have access to this kind of information.
234
769871
3143
और दूसरों के पास पहुंच है इस तरह की जानकारी के लिए।
12:53
But at the same time,
235
773038
1547
लेकिन उसी समय पर,
12:54
we are asking Facebook to lock everything down,
236
774609
3801
हम फेसबुक से कह रहे हैं सब कुछ बंद करने के लिए,
12:58
to keep all of the data secure.
237
778434
2173
सभी डेटा को सुरक्षित रखने के लिए।
13:00
So, Facebook and the other social media platforms
238
780631
3159
तो, फेसबुक और अन्य सोशल मीडिया प्लेटफॉर्म
13:03
are facing what I call a transparency paradox.
239
783814
3134
जिसका सामना कर रहे हैं उसे मैं पारदर्शिता विरोधाभास कहता हूँ ।
13:07
We are asking them, at the same time,
240
787266
2674
हम उनसे कह रहे हैं, एक ही समय में ,
13:09
to be open and transparent and, simultaneously secure.
241
789964
4809
खुला और पारदर्शी होना और, इसके साथ ही सुरक्षित भी ।
13:14
This is a very difficult needle to thread,
242
794797
2691
ऐसा करना बहुत ही मुश्किल है,
13:17
but they will need to thread this needle
243
797512
1913
पर उन्हें ऐसा करना होगा
13:19
if we are to achieve the promise of social technologies
244
799449
3787
अगर हम वादे को हासिल करना चाहते हैं सामाजिक प्रौद्योगिकियों का
13:23
while avoiding their peril.
245
803260
1642
और वह भी उनके संकट से बचते हुए ।
13:24
The final thing that we could think about is algorithms and machine learning.
246
804926
4691
अंतिम बात जो हमने सोची वह एल्गोरिदम और मशीन लर्निंग है।
13:29
Technology devised to root out and understand fake news, how it spreads,
247
809641
5277
प्रौद्योगिकी जो जड़ से उखाड़ फेंके नकली ख़बरों को, और समझें यह कैसे फैलता है,
13:34
and to try and dampen its flow.
248
814942
2331
और इसके प्रवाह को कम करे ।
13:37
Humans have to be in the loop of this technology,
249
817824
2897
मनुष्य को इस तकनीकी के घेरे में ही रहना है ,
13:40
because we can never escape
250
820745
2278
क्योंकि हम कभी बच नहीं सकते
13:43
that underlying any technological solution or approach
251
823047
4038
कि किसी भी तकनीकी अंतर्निहित है समाधान या दृष्टिकोण
13:47
is a fundamental ethical and philosophical question
252
827109
4047
एक मौलिक नैतिकता है और दार्शनिक सवाल
13:51
about how do we define truth and falsity,
253
831180
3270
हम सच्र और झूठ को कैसे परिभाषित करते हैं,
13:54
to whom do we give the power to define truth and falsity
254
834474
3180
हम किसको शक्ति देते हैं सत्य और मिथ्या को परिभाषित करना
13:57
and which opinions are legitimate,
255
837678
2460
और कौन सी राय वैध हैं,
14:00
which type of speech should be allowed and so on.
256
840162
3706
किस प्रकार का भाषण अनुमति दी जानी चाहिए और इत्यादि ।
14:03
Technology is not a solution for that.
257
843892
2328
तकनीक उसके लिए कोई समाधान नहीं है।
14:06
Ethics and philosophy is a solution for that.
258
846244
3698
नैतिकता और दर्शन उसके लिए एक समाधान है।
14:10
Nearly every theory of human decision making,
259
850950
3318
लगभग हर सिद्धांत मानव निर्णय लेने का,
14:14
human cooperation and human coordination
260
854292
2761
मानव सहयोग और मानव समन्वय
14:17
has some sense of the truth at its core.
261
857077
3674
इसके मूल में सच्चाई का कुछ बोध है।
14:21
But with the rise of fake news,
262
861347
2056
लेकिन नकली समाचार के उदय के साथ,
14:23
the rise of fake video,
263
863427
1443
नकली वीडियो के उदय के साथ ,
14:24
the rise of fake audio,
264
864894
1882
नकली ऑडियो के उदय के साथ ,
14:26
we are teetering on the brink of the end of reality,
265
866800
3924
हम कगार पर हैं वास्तविकता के अंत की,
14:30
where we cannot tell what is real from what is fake.
266
870748
3889
हम बता नहीं सकते जो असली है वह नकली है।
14:34
And that's potentially incredibly dangerous.
267
874661
3039
और वह संभावित है अविश्वसनीय रूप से खतरनाक।
14:38
We have to be vigilant in defending the truth
268
878931
3948
हमें सतर्क रहना होगा सच्चाई का बचाव करने में
14:42
against misinformation.
269
882903
1534
गलत सूचना के खिलाफ।
14:44
With our technologies, with our policies
270
884919
3436
हमारी तकनीकों के साथ, हमारी नीतियों के साथ
14:48
and, perhaps most importantly,
271
888379
1920
और, शायद सबसे महत्वपूर्ण बात,
14:50
with our own individual responsibilities,
272
890323
3214
हमारी व्यक्तिगत जिम्मेदारियों के साथ,
14:53
decisions, behaviors and actions.
273
893561
3555
निर्णय, व्यवहार और कार्य।
14:57
Thank you very much.
274
897553
1437
आपका बहुत बहुत धन्यवाद।
14:59
(Applause)
275
899014
3517
(तालियां)
इस वेबसाइट के बारे में

यह साइट आपको YouTube वीडियो से परिचित कराएगी जो अंग्रेजी सीखने के लिए उपयोगी हैं। आप दुनिया भर के शीर्षस्थ शिक्षकों द्वारा पढ़ाए जाने वाले अंग्रेजी पाठ देखेंगे। वहां से वीडियो चलाने के लिए प्रत्येक वीडियो पृष्ठ पर प्रदर्शित अंग्रेजी उपशीर्षक पर डबल-क्लिक करें। उपशीर्षक वीडियो प्लेबैक के साथ सिंक में स्क्रॉल करते हैं। यदि आपकी कोई टिप्पणी या अनुरोध है, तो कृपया इस संपर्क फ़ॉर्म का उपयोग करके हमसे संपर्क करें।

https://forms.gle/WvT1wiN1qDtmnspy7