How deepfakes undermine truth and threaten democracy | Danielle Citron

87,053 views ・ 2019-10-07

TED


वीडियो चलाने के लिए कृपया नीचे दिए गए अंग्रेजी उपशीर्षक पर डबल-क्लिक करें।

Translator: limbachiya deep Reviewer: RONAK PRAJAPATI
00:12
[This talk contains mature content]
0
12535
2767
इस व्याख्यान में प्रौढ़ भाषा का उपयोग किया गया हैं ।
00:17
Rana Ayyub is a journalist in India
1
17762
2992
00:20
whose work has exposed government corruption
2
20778
2602
राना अय्यूब भारत में एक पत्रकार है
जिनका काम सरकारी भ्रष्टाचारी
00:24
and human rights violations.
3
24411
2157
एवं मानव अधिकारों का उल्लंघन को सामने लाया ।
00:26
And over the years,
4
26990
1167
पिछले कुछ वर्षों में
00:28
she's gotten used to vitriol and controversy around her work.
5
28181
3303
वह अपनी काम को लेकर व्यंग्य और विवाद की आदत दाल ली ।
00:32
But none of it could have prepared her for what she faced in April 2018.
6
32149
5109
परन्तु अप्रैल 2018 के घटनाओं के लिए कुछ भी उन्हें तैयार नहीं कर सकता था ।
00:38
She was sitting in a café with a friend when she first saw it:
7
38125
3651
वह अपने मित्र के साथ कैफ़े में बैठे थे जब उन्होंने देखा -
00:41
a two-minute, 20-second video of her engaged in a sex act.
8
41800
4943
यौन क्रिया करते हुए उनका एक 2 मिनट, 20 सेकंड की वीडियो ।
00:47
And she couldn't believe her eyes.
9
47188
2349
उनको विश्वास नहीं हो रहा था
00:49
She had never made a sex video.
10
49561
2273
उन्होंने कभी ऐसे वीडियो नहीं बनायीं
00:52
But unfortunately, thousands upon thousands of people
11
52506
3465
परन्तु दुर्भाग्य से लाखों लोगों ने मान लिया
00:55
would believe it was her.
12
55995
1666
की यह वीडियो उनका ही था ।
00:58
I interviewed Ms. Ayyub about three months ago,
13
58673
2944
तीन महीने पेहले, मेरी किताब के सम्बन्ध में
मैंने उनका साक्षात्कार किया जो यौन गोपनीयता के बारे में है
01:01
in connection with my book on sexual privacy.
14
61641
2504
01:04
I'm a law professor, lawyer and civil rights advocate.
15
64681
3198
मैं एक कानून का प्रोफेसर, वकील और नागरिक अधिकार कार्यकर्ता हूँ
01:08
So it's incredibly frustrating knowing that right now,
16
68204
4611
अतः मुझे निराशा होती है कि
01:12
law could do very little to help her.
17
72839
2238
कानून उसकी मदद नहीं कर सका ।
01:15
And as we talked,
18
75458
1547
और बात करते करते
01:17
she explained that she should have seen the fake sex video coming.
19
77029
4512
उन्होंने बताया की उन्हें ऐसे वीडियो के लिए तैयार रहना चाहिए था ।
01:22
She said, "After all, sex is so often used to demean and to shame women,
20
82038
5596
उन्होंने बताया, "आख़िरकार, यौन क्रिया महिलाओं को अपमान और बदनाम
01:27
especially minority women,
21
87658
2428
करने के लिए उपयोग होता है,
01:30
and especially minority women who dare to challenge powerful men,"
22
90110
4312
विशेष रूप से अल्पसंख्यक महिलाओं,
और विशेष रूप से ऐसे महिला जो प्रभावशाली पुरुषों को
01:34
as she had in her work.
23
94446
1533
01:37
The fake sex video went viral in 48 hours.
24
97191
3976
चुनौती देने का साहस करती हैं जैसे उनहोंने अपने काम में किया था ।
01:42
All of her online accounts were flooded with screenshots of the video,
25
102064
5307
वो नकली वीडियो 48 घंटे में वायरल हो गयी ।
01:47
with graphic rape and death threats
26
107395
2627
उनके सारे ऑनलाइन अकाउंट उस वीडियो के स्क्रीनशॉट,
01:50
and with slurs about her Muslim faith.
27
110046
2533
अश्लील बलात्कार और मौत की धमकी,
01:53
Online posts suggested that she was "available" for sex.
28
113426
4564
और उनकी इस्लामी आस्था के बारे में गालियां से भर गएँ ।
ऑनलाइन पोस्ट में बताया गया की वह यौन क्रिया के लिए "उपलब्ध" है ।
01:58
And she was doxed,
29
118014
1610
01:59
which means that her home address and her cell phone number
30
119648
2778
और उनको डॉक्स (Dox) भी किया गया ।
02:02
were spread across the internet.
31
122450
1746
जिसका मतलब यह है कि उनका घर का पता और मोबाइल नंबर
02:04
The video was shared more than 40,000 times.
32
124879
4084
इंटरनेट पे फैला फैला गया था ।
02:09
Now, when someone is targeted with this kind of cybermob attack,
33
129760
3936
वो वीडियो 40000 से अधिक बार शेयर किया गया था ।
02:13
the harm is profound.
34
133720
2063
जब कोई ऐसे ऑनलाइन गिरोह का शिकार बन जाता है,
02:16
Rana Ayyub's life was turned upside down.
35
136482
3039
उसका नुक्सान गहरा होता है ।
02:20
For weeks, she could hardly eat or speak.
36
140211
3334
राना अय्यूब की ज़िन्दगी बदल गयी ।
02:23
She stopped writing and closed all of her social media accounts,
37
143919
3689
हफ़्तों तक वह शायद ही खा पाती या सो पाती ।
02:27
which is, you know, a tough thing to do when you're a journalist.
38
147632
3158
उन्होंने लिखना रोक दिया और अपने सारे सोशल मीडिया अकाउंट को बंद कर दी
02:31
And she was afraid to go outside her family's home.
39
151188
3484
जो एक पत्रकार होने के नाते करना मुश्किल है ।
02:34
What if the posters made good on their threats?
40
154696
3022
वह अपने घर से बाहर जाने से डरती थी ।
02:38
The UN Council on Human Rights confirmed that she wasn't being crazy.
41
158395
4365
संयुक्त राष्ट्र मानवाधिकार परिषद पुष्टि की गई कि वह पागल नहीं थी।
02:42
It issued a public statement saying that they were worried about her safety.
42
162784
4637
यूनाइटेड नेशंस कौंसिल ऑन ह्यूमन राइट्स (UNCHR) ने पुष्टि की कि वह पागल नहीं थी ।
02:48
What Rana Ayyub faced was a deepfake:
43
168776
4229
उन्होंने सार्वजनिक बयां दिया कि वे उनकी सुरक्षा को लेकर चिंतित थे ।
02:53
machine-learning technology
44
173029
2540
उन्होंने जो सामना किया वो एक डीपफेक (deepfake) था -
02:55
that manipulates or fabricates audio and video recordings
45
175593
4111
मशीन का सीखने की प्रौद्योगिकी (machine learning)
जो ऑडियो और वीडियो रिकॉर्डिंग का हेरफेर करके लोगों को ऐसा काम करते हुए
02:59
to show people doing and saying things
46
179728
2723
03:02
that they never did or said.
47
182475
1866
या बोलते हुए दिखा सकता है
03:04
Deepfakes appear authentic and realistic, but they're not;
48
184807
3361
जो उन्होंने न कभी किया या कहा ।
03:08
they're total falsehoods.
49
188192
1772
वे प्रामाणिक और वास्तविक दीखते है, पर वे नहीं हैं
03:11
Although the technology is still developing in its sophistication,
50
191228
3794
वे पूरी तरह से नकली हैं ।
03:15
it is widely available.
51
195046
1614
हालांकि यह प्रौद्योगिकी अभी विकसित हो रही है
03:17
Now, the most recent attention to deepfakes arose,
52
197371
3072
यह व्यापक रूप से उपलब्ध है ।
03:20
as so many things do online,
53
200467
2161
हाल ही में, डीपफेक पे ध्यान कामोद्दीपक वीडियो से आया,
03:22
with pornography.
54
202652
1255
जैसे अक्सर ऑनलाइन चीज़ों के साथ होता है ।
03:24
In early 2018,
55
204498
2111
2018 की शुरुआत में,
03:26
someone posted a tool on Reddit
56
206633
2468
किसीने ने रेड्डिट (Reddit) पर एक साधन डाला
03:29
to allow users to insert faces into porn videos.
57
209125
4412
जिससे लोग कामोद्दीपक वीडियो पे किसीका भी चेहरा लगा सकते है ।
03:33
And what followed was a cascade of fake porn videos
58
213561
3440
उसके बाद जो आया वो लोगों के मनपसंद महिला हस्तियां की
03:37
featuring people's favorite female celebrities.
59
217025
2797
नकली कामोद्दीपक वीडियो का झरना था ।
03:40
And today, you can go on YouTube and pull up countless tutorials
60
220712
3477
आज भी आपको यूट्यूब पर कदम से कदम निर्देश के साथ
03:44
with step-by-step instructions
61
224213
2286
ऐसे हज़ार प्रशिक्षण मिलेंगे
03:46
on how to make a deepfake on your desktop application.
62
226523
3163
जिससे आप अपने डेस्कटॉप पर डीपफेक बना सकते है ।
03:50
And soon we may be even able to make them on our cell phones.
63
230260
3706
और जल्द ही हम अपने मोबाइल फ़ोन पर भी बना सकते है ।
03:55
Now, it's the interaction of some of our most basic human frailties
64
235072
5382
अब, मानवीय कमज़ोरियाँ एवं
04:00
and network tools
65
240478
1682
ऐसे साधन मिलके
04:02
that can turn deepfakes into weapons.
66
242184
2666
डीपफेक को हतियार बना सकते हैं ।
04:04
So let me explain.
67
244874
1200
मैं समझती हूँ ।
04:06
As human beings, we have a visceral reaction to audio and video.
68
246875
4566
मनुष्य होने के नाते हम भावनात्मक रूप से ऑडियो और वीडियो पर प्रतिक्रिया देते हैं ।
04:11
We believe they're true,
69
251860
1488
हम उस विचार पर इनको सच मान लेते है
04:13
on the notion that of course you can believe
70
253372
2078
जो हमें बताता है की जो दिखता है
04:15
what your eyes and ears are telling you.
71
255474
2478
और सुनाई देता है वोह सच ही होगा ।
04:18
And it's that mechanism
72
258476
1699
और यह वोह तंत्र है जो हमारी
04:20
that might undermine our shared sense of reality.
73
260199
3698
वास्तविकता का साझा समझ को कमज़ोर कर सकती है ।
04:23
Although we believe deepfakes to be true, they're not.
74
263921
3147
जिस डीपफेक को हम सच मानते है वह असलियत में नकली है ।
04:27
And we're attracted to the salacious, the provocative.
75
267604
4157
और हम उत्तेजक एवं कामुक चीज़ों की ओर आकर्षित हो जाते हैं
04:32
We tend to believe and to share information
76
272365
3047
और हम ऐसे जानकारी को मानते एवं शेयर करते है
04:35
that's negative and novel.
77
275436
2023
जो नवीन और नकारात्मक है ।
04:37
And researchers have found that online hoaxes spread 10 times faster
78
277809
5019
और शोधकर्ताओं ने पाया है कि इंटरनेट पर ग़लत जानकारी
04:42
than accurate stories.
79
282852
1627
सच जानकारी से 10 गुना तेज फैलता है।
04:46
Now, we're also drawn to information
80
286015
4380
हम ऐसे जानकारी की ओर आकर्षित हो जाते है
04:50
that aligns with our viewpoints.
81
290419
1892
जो हमारे विचारों के साथ मिलते हैं ।
04:52
Psychologists call that tendency "confirmation bias."
82
292950
3561
मनोवैज्ञानिकों इस प्रवत्ति को कन्फर्मेशन बायस "confirmation bias" बोलते है।
04:57
And social media platforms supercharge that tendency,
83
297300
4387
और सोशल मीडिया उस प्रवत्ति को बढ़ाता है
05:01
by allowing us to instantly and widely share information
84
301711
3881
क्योंकि इस पर हम अपने विचारधारा के प्रति जानकारियों को तेज़ी से
05:05
that accords with our viewpoints.
85
305616
1792
और व्यापक रूप से शेयर कर सकते हैं ।
05:08
Now, deepfakes have the potential to cause grave individual and societal harm.
86
308735
5568
डीपफेक प्रौद्योगिकी के पास व्यक्तिगत या सामाजिक नुकसान पहुँचाने की शक्ति है ।
05:15
So, imagine a deepfake
87
315204
2024
ज़रा सोचिये - अगर एक डीपफेक में
05:17
that shows American soldiers in Afganistan burning a Koran.
88
317252
4182
दिखाया जाता है कि अफ़ग़ानिस्तान में अमरीकी सैनिकों ने कुरान को जलाया ।
05:22
You can imagine that that deepfake would provoke violence
89
322807
3024
अब सोचो - उस एक डीपफके से उन सैनिकों पर
05:25
against those soldiers.
90
325855
1533
कितनी हिंसा हो सकती है ।
05:27
And what if the very next day
91
327847
2873
और अगर अगले ही दिन
05:30
there's another deepfake that drops,
92
330744
2254
एक और डीपफेक प्रकाशित होता है
05:33
that shows a well-known imam based in London
93
333022
3317
जो एक प्रसिद्ध इमाम को दर्शाता है लंदन में स्थित है
05:36
praising the attack on those soldiers?
94
336363
2467
उन सैनिकों के खिलाफ।
और क्या होगा अगर अगले ही दिन
05:39
We might see violence and civil unrest,
95
339617
3163
एक और डीपफेक है जो गिरता है,
05:42
not only in Afganistan and the United Kingdom,
96
342804
3249
जो एक प्रसिद्ध इमाम को दर्शाता है लंदन में स्थित है
05:46
but across the globe.
97
346077
1515
उन सैनिकों पर हमले की प्रशंसा?
05:48
And you might say to me,
98
348251
1158
हम हिंसा और नागरिक अशांति देख सकते हैं,
05:49
"Come on, Danielle, that's far-fetched."
99
349433
2247
05:51
But it's not.
100
351704
1150
अफगानिस्तान में ही नहीं और यूनाइटेड किंगडम,
05:53
We've seen falsehoods spread
101
353293
2191
लेकिन दुनिया भर में।
05:55
on WhatsApp and other online message services
102
355508
2722
और आप मुझसे कह सकते हैं,
05:58
lead to violence against ethnic minorities.
103
358254
2761
"चलो, डैनियल, यह बहुत दूर की बात है।"
06:01
And that was just text --
104
361039
1887
लेकिन ऐसा नहीं है।
06:02
imagine if it were video.
105
362950
2024
हमने झूठ फैलाते हुए देखा है
06:06
Now, deepfakes have the potential to corrode the trust that we have
106
366593
5357
व्हाट्सएप और अन्य पर ऑनलाइन संदेश सेवाएं
06:11
in democratic institutions.
107
371974
1992
हिंसा के लिए नेतृत्व जातीय अल्पसंख्यकों के खिलाफ।
06:15
So, imagine the night before an election.
108
375006
2667
और वह सिर्फ पाठ था -
06:17
There's a deepfake showing one of the major party candidates
109
377996
3238
कल्पना कीजिए कि यह वीडियो था।
06:21
gravely sick.
110
381258
1150
डीपफेक की क्षमता है पर भरोसा करने के लिए
06:23
The deepfake could tip the election
111
383202
2333
लोकतांत्रिक संस्थानों में
06:25
and shake our sense that elections are legitimate.
112
385559
3375
इसलिए, चुनाव से पहले की रात की कल्पना करें
06:30
Imagine if the night before an initial public offering
113
390515
3326
एक गहरा दिखावा है पार्टी के प्रमुख उम्मीदवारों में से एक
06:33
of a major global bank,
114
393865
2333
गंभीर रूप से बीमार
06:36
there was a deepfake showing the bank's CEO
115
396222
3149
डीपफेक चुनाव को टाल सकता है
06:39
drunkenly spouting conspiracy theories.
116
399395
2697
और हमारी भावना को हिला कि चुनाव वैध हैं।
06:42
The deepfake could tank the IPO,
117
402887
3047
अगर रात पहले की कल्पना करो एक प्रारंभिक सार्वजनिक पेशकश
06:45
and worse, shake our sense that financial markets are stable.
118
405958
4115
एक प्रमुख वैश्विक बैंक की,
06:51
So deepfakes can exploit and magnify the deep distrust that we already have
119
411385
6989
वहाँ एक गहरा था बैंक के सीईओ को दिखा रहा है
06:58
in politicians, business leaders and other influential leaders.
120
418398
4214
नशे में धुत षड्यंत्र की थ्योरी।
07:02
They find an audience primed to believe them.
121
422945
3284
डीपफेक आईपीओ को टैंक कर सकता है,
07:07
And the pursuit of truth is on the line as well.
122
427287
2765
और बुरा, हमारी भावना को हिला वित्तीय बाजार स्थिर हैं।
07:11
Technologists expect that with advances in AI,
123
431077
3564
इसलिए डीपफेक शोषण और बढ़ सकता है हमारे पास जो गहरा अविश्वास है
07:14
soon it may be difficult if not impossible
124
434665
3682
राजनीतिके व्यापार जगत के नेताओं में और अन्य प्रभावशाली नेता।
07:18
to tell the difference between a real video and a fake one.
125
438371
3769
उन्हें एक दर्शक मिलता है उन पर विश्वास करने का प्रण किया।
07:23
So how can the truth emerge in a deepfake-ridden marketplace of ideas?
126
443022
5341
और सत्य की खोज लाइन पर भी है।
07:28
Will we just proceed along the path of least resistance
127
448752
3420
प्रौद्योगिकीविदों की उम्मीद है एअर इंडिया में अग्रिमों के साथ,
जल्द ही यह असंभव नहीं तो मुश्किल हो सकता है
07:32
and believe what we want to believe,
128
452196
2437
07:34
truth be damned?
129
454657
1150
के बीच अंतर बताने के लिए एक वास्तविक वीडियो और एक नकली।
07:36
And not only might we believe the fakery,
130
456831
3175
तो सच्चाई कैसे सामने आ सकती है विचारों की गहराई से ग्रस्त बाज़ार में?
07:40
we might start disbelieving the truth.
131
460030
3326
क्या हम सिर्फ आगे बढ़ेंगे कम से कम प्रतिरोध का रास्ता
07:43
We've already seen people invoke the phenomenon of deepfakes
132
463887
4079
और विश्वास करो कि हम क्या विश्वास करना चाहते हैं,
07:47
to cast doubt on real evidence of their wrongdoing.
133
467990
3920
सत्य को धिक्कार है?
07:51
We've heard politicians say of audio of their disturbing comments,
134
471934
5969
और न केवल हम फकीरी पर विश्वास कर सकते हैं
07:57
"Come on, that's fake news.
135
477927
1746
हम सच्चाई पर अविश्वास करना शुरू कर सकते हैं।
07:59
You can't believe what your eyes and ears are telling you."
136
479697
3920
हमने पहले ही लोगों को आह्वान करते देखा है डीपफेक की घटना
असली सबूत पर संदेह करना उनके अधर्म का।
08:04
And it's that risk
137
484402
1731
08:06
that professor Robert Chesney and I call the "liar's dividend":
138
486157
5436
राजनेताओं को ऑडियो के बारे में सुना है उनकी परेशान करने वाली टिप्पणी
08:11
the risk that liars will invoke deepfakes
139
491617
3357
Fake fake चलो, वह फर्जी खबर है।
08:14
to escape accountability for their wrongdoing.
140
494998
2905
आप विश्वास नहीं कर सकते कि आपकी आँखें और कान तुम्हें बता रहे हैं। "
08:18
So we've got our work cut out for us, there's no doubt about it.
141
498963
3071
और यह जोखिम है
08:22
And we're going to need a proactive solution
142
502606
3325
उस प्रोफेसर रॉबर्ट चेसनी और मैं "झूठा लाभांश" कहें:
08:25
from tech companies, from lawmakers,
143
505955
3511
जोखिम है कि झूठे deepfakes आह्वान करेंगे
08:29
law enforcers and the media.
144
509490
1984
जवाबदेही से बचने के लिए उनके अधर्म के लिए।
08:32
And we're going to need a healthy dose of societal resilience.
145
512093
4016
इसलिए हमने अपना काम हमारे लिए काट लिया है, इसके बारे में कोई संदेह नहीं है।
08:37
So now, we're right now engaged in a very public conversation
146
517506
3896
और हमें जरूरत पड़ने वाली है एक सक्रिय समाधान
08:41
about the responsibility of tech companies.
147
521426
2913
टेक कंपनियों से, सांसदों से,
08:44
And my advice to social media platforms
148
524926
3032
कानून प्रवर्तक और मीडिया।
08:47
has been to change their terms of service and community guidelines
149
527982
3873
और हमें जरूरत पड़ने वाली है सामाजिक लचीलापन की एक स्वस्थ खुराक।
08:51
to ban deepfakes that cause harm.
150
531879
2336
तो अब, हम अभी लगे हुए हैं बहुत ही सार्वजनिक बातचीत में
08:54
That determination, that's going to require human judgment,
151
534712
3960
जिम्मेदारी के बारे में तकनीकी कंपनियों की।
08:58
and it's expensive.
152
538696
1571
और सोशल मीडिया प्लेटफॉर्म को मेरी सलाह
09:00
But we need human beings
153
540673
2285
सेवा शर्तों को बदलने के लिए किया गया है और सामुदायिक दिशानिर्देश
09:02
to look at the content and context of a deepfake
154
542982
3873
नुकसान का कारण बनने वाले डीपफेक पर प्रतिबंध लगाने के लिए।
09:06
to figure out if it is a harmful impersonation
155
546879
3682
वह दृढ़ संकल्प, मानव निर्णय की आवश्यकता है
और यह महंगा है
09:10
or instead, if it's valuable satire, art or education.
156
550585
4382
लेकिन हमें इंसान की जरूरत है
सामग्री को देखने के लिए और एक गहरे संदर्भ का संदर्भ
अगर यह पता लगाने के लिए एक हानिकारक प्रतिरूपण
09:16
So now, what about the law?
157
556118
1495
09:18
Law is our educator.
158
558666
2349
या इसके बजाय, अगर यह मूल्यवान है व्यंग्य, कला या शिक्षा।
09:21
It teaches us about what's harmful and what's wrong.
159
561515
4038
तो अब, कानून का क्या?
09:25
And it shapes behavior it deters by punishing perpetrators
160
565577
4555
कानून हमारा शिक्षक है
यह हमें सिखाता है क्या हानिकारक है और क्या गलत है।
09:30
and securing remedies for victims.
161
570156
2267
और यह व्यवहार को बिगड़ता है अपराधियों को दंडित करके
और पीड़ितों के लिए उपचार हासिल करना।
09:33
Right now, law is not up to the challenge of deepfakes.
162
573148
4280
अभी, कानून तक नहीं है डीपफेक की चुनौती
09:38
Across the globe,
163
578116
1390
दुनिया भर में
09:39
we lack well-tailored laws
164
579530
2444
हमारे पास सुसंगत कानूनों का अभाव है
09:41
that would be designed to tackle digital impersonations
165
581998
3570
कि से निपटने के लिए डिज़ाइन किया जाएगा डिजिटल प्रतिरूपण
09:45
that invade sexual privacy,
166
585592
2231
कि यौन गोपनीयता पर आक्रमण,
09:47
that damage reputations
167
587847
1387
कि क्षति प्रतिष्ठा
09:49
and that cause emotional distress.
168
589258
1951
09:51
What happened to Rana Ayyub is increasingly commonplace.
169
591725
3873
और जो भावनात्मक संकट का कारण बनता है।
09:56
Yet, when she went to law enforcement in Delhi,
170
596074
2214
राणा अय्यूब के साथ क्या हुआ तेजी से आम हो रहा है।
09:58
she was told nothing could be done.
171
598312
2135
फिर भी, जब वह चली गई दिल्ली में कानून प्रवर्तन के लिए,
10:01
And the sad truth is that the same would be true
172
601101
3183
उसे बताया गया कि कुछ नहीं किया जा सकता है।
10:04
in the United States and in Europe.
173
604308
2266
और दुखद सत्य है वही सच होगा
10:07
So we have a legal vacuum that needs to be filled.
174
607300
4356
संयुक्त राज्य अमेरिका में और यूरोप में।
10:12
My colleague Dr. Mary Anne Franks and I are working with US lawmakers
175
612292
4092
इसलिए हमारे पास एक कानूनी वैक्यूम है जिसे भरने की जरूरत है।
10:16
to devise legislation that would ban harmful digital impersonations
176
616408
4804
मेरी सहयोगी डॉ। मेरी ऐनी फ्रैंक्स और मैं अमेरिकी सांसदों के साथ काम कर रहे हैं
प्रतिबंध लगाने के लिए कानून बनाना हानिकारक डिजिटल प्रतिरूपण
10:21
that are tantamount to identity theft.
177
621236
2533
कि पहचान की चोरी के लिए समान हैं।
10:24
And we've seen similar moves
178
624252
2126
10:26
in Iceland, the UK and Australia.
179
626402
3301
और हमने ऐसी ही चालें देखी हैं
10:30
But of course, that's just a small piece of the regulatory puzzle.
180
630157
3259
आइसलैंड, यूके और ऑस्ट्रेलिया में
लेकिन निश्चित रूप से, यह सिर्फ एक छोटा सा टुकड़ा है नियामक पहेली की
10:34
Now, I know law is not a cure-all. Right?
181
634911
3169
अब, मुझे पता है कि कानून इलाज नहीं है। सही?
10:38
It's a blunt instrument.
182
638104
1600
यह एक कुंद यंत्र है
10:40
And we've got to use it wisely.
183
640346
1539
10:42
It also has some practical impediments.
184
642411
2812
10:45
You can't leverage law against people you can't identify and find.
185
645657
5044
और हमें इसे बुद्धिमानी से उपयोग करने के लिए मिला है
इसमें कुछ व्यावहारिक बाधाएं भी हैं।
आप लोगों के खिलाफ कानून का लाभ नहीं उठा सकते आप पहचान नहीं पाते हैं।
10:51
And if a perpetrator lives outside the country
186
651463
3286
और अगर कोई अपराधी रहता है देश से बाहर
10:54
where a victim lives,
187
654773
1754
जहाँ एक पीड़ित रहता है,
10:56
then you may not be able to insist
188
656551
1629
10:58
that the perpetrator come into local courts
189
658204
2349
तो आप जोर नहीं दे सकते
11:00
to face justice.
190
660577
1150
11:02
And so we're going to need a coordinated international response.
191
662236
4063
वह अपराधी स्थानीय अदालतों में आते हैं
न्याय का सामना करना
11:07
Education has to be part of our response as well.
192
667819
3333
और इसलिए हमें जरूरत है एक समन्वित अंतर्राष्ट्रीय प्रतिक्रिया।
11:11
Law enforcers are not going to enforce laws
193
671803
3731
शिक्षा का हिस्सा बनना है हमारी प्रतिक्रिया के रूप में अच्छी तरह से।
कानून लागू करने वाले नहीं हैं कानूनों को लागू करने के लिए जा रहा है
11:15
they don't know about
194
675558
1458
11:17
and proffer problems they don't understand.
195
677040
2596
वे नहीं जानते
11:20
In my research on cyberstalking,
196
680376
2191
और समस्याओं का हल उन्हें समझ नहीं आया।
11:22
I found that law enforcement lacked the training
197
682591
3499
साइबरस्टॉकिंग पर मेरे शोध में
मैंने पाया कि कानून प्रवर्तन प्रशिक्षण का अभाव था
11:26
to understand the laws available to them
198
686114
2582
11:28
and the problem of online abuse.
199
688720
2349
उनके लिए उपलब्ध कानूनों को समझना
11:31
And so often they told victims,
200
691093
2682
और ऑनलाइन दुरुपयोग की समस्या।
11:33
"Just turn your computer off. Ignore it. It'll go away."
201
693799
3971
और इसलिए अक्सर उन्होंने पीड़ितों को बताया,
11:38
And we saw that in Rana Ayyub's case.
202
698261
2466
“बस अपने कंप्यूटर को बंद कर दो। अनदेखी करो इसे। यह चला जाएगा। "
11:41
She was told, "Come on, you're making such a big deal about this.
203
701102
3468
और हमने देखा कि राणा अय्यूब के मामले में।
11:44
It's boys being boys."
204
704594
1743
11:47
And so we need to pair new legislation with efforts at training.
205
707268
5252
उसे बताया गया, "आओ, आप इस बारे में इतनी बड़ी बात कर रहे हैं।
यह लड़के वाले लड़के हैं। ”
11:54
And education has to be aimed on the media as well.
206
714053
3429
और इसलिए हमें नए कानून बनाने की जरूरत है प्रशिक्षण में प्रयासों के साथ।
11:58
Journalists need educating about the phenomenon of deepfakes
207
718180
4260
और शिक्षा को लक्ष्य बनाना है मीडिया पर भी।
पत्रकारों को शिक्षित करने की आवश्यकता है डीपफेक की घटना के बारे में
12:02
so they don't amplify and spread them.
208
722464
3039
इसलिए वे बढ़ाना और उन्हें फैलाना नहीं है।
12:06
And this is the part where we're all involved.
209
726583
2168
12:08
Each and every one of us needs educating.
210
728775
3855
और यह हिस्सा है हम सब शामिल हैं।
हम में से हर एक को शिक्षित होने की जरूरत है।
12:13
We click, we share, we like, and we don't even think about it.
211
733375
3675
साझा करते हैं, हम पसंद करते हैं, और हम इसके बारे में सोचते भी नहीं हैं।
12:17
We need to do better.
212
737551
1547
12:19
We need far better radar for fakery.
213
739726
2809
हमें और बेहतर करने की जरूरत है
12:25
So as we're working through these solutions,
214
745744
3841
हमें फकीरी के लिए कहीं बेहतर रडार की जरूरत है।
12:29
there's going to be a lot of suffering to go around.
215
749609
2563
तो जैसा हम काम कर रहे हैं इन समाधानों के माध्यम से,
होने जा रहा है चारों ओर जाने के लिए बहुत दुख।
12:33
Rana Ayyub is still wrestling with the fallout.
216
753093
2746
12:36
She still doesn't feel free to express herself on- and offline.
217
756669
4189
राणा अय्यूब अभी भी कुश्ती कर रहे हैं नतीजे के साथ।
12:41
And as she told me,
218
761566
1365
उसे नही लगता वह स्वतंत्र है खुद को व्यक्त करने के लिए।
12:42
she still feels like there are thousands of eyes on her naked body,
219
762955
5074
और जैसा उसने मुझे बताया,
12:48
even though, intellectually, she knows it wasn't her body.
220
768053
3661
खासकर जब वह किसी को नहीं जानता उसकी तस्वीर लेने की कोशिश करता है।
12:52
And she has frequent panic attacks,
221
772371
2349
“अगर वे बनाने जा रहे हैं तो क्या होगा एक और गहरा? "वह खुद के लिए सोचता है।
12:54
especially when someone she doesn't know tries to take her picture.
222
774744
4100
और इसलिए के लिए राणा अय्यूब जैसे व्यक्ति
12:58
"What if they're going to make another deepfake?" she thinks to herself.
223
778868
3511
और हमारे लोकतंत्र की खातिर
हमें अभी कुछ करने की जरूरत है।
13:03
And so for the sake of individuals like Rana Ayyub
224
783082
3921
धन्यवाद।
13:07
and the sake of our democracy,
225
787027
2306
13:09
we need to do something right now.
226
789357
2182
(तालियां)
13:11
Thank you.
227
791563
1151
13:12
(Applause)
228
792738
2508
इस वेबसाइट के बारे में

यह साइट आपको YouTube वीडियो से परिचित कराएगी जो अंग्रेजी सीखने के लिए उपयोगी हैं। आप दुनिया भर के शीर्षस्थ शिक्षकों द्वारा पढ़ाए जाने वाले अंग्रेजी पाठ देखेंगे। वहां से वीडियो चलाने के लिए प्रत्येक वीडियो पृष्ठ पर प्रदर्शित अंग्रेजी उपशीर्षक पर डबल-क्लिक करें। उपशीर्षक वीडियो प्लेबैक के साथ सिंक में स्क्रॉल करते हैं। यदि आपकी कोई टिप्पणी या अनुरोध है, तो कृपया इस संपर्क फ़ॉर्म का उपयोग करके हमसे संपर्क करें।

https://forms.gle/WvT1wiN1qDtmnspy7