How deepfakes undermine truth and threaten democracy | Danielle Citron

85,268 views ・ 2019-10-07

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: Erfan Yasseri Reviewer: Leila Ataei
00:12
[This talk contains mature content]
0
12535
2767
(این سخنرانی محتوایی بالغانه دارد)
00:17
Rana Ayyub is a journalist in India
1
17762
2992
رانا ایوب خبرنگار هندی است که
00:20
whose work has exposed government corruption
2
20778
2602
فعالیت‌هایش، فساد حکومتی
00:24
and human rights violations.
3
24411
2157
و نقض حقوق بشر را افشا کرده است.
00:26
And over the years,
4
26990
1167
و طی سال‌ها،
00:28
she's gotten used to vitriol and controversy around her work.
5
28181
3303
به هجمه و جدال پیرامون کار خود عادت کرده بود.
00:32
But none of it could have prepared her for what she faced in April 2018.
6
32149
5109
اما هیچ‌ کدام، او را برای آنچه که در آوریل ۲۰۱۸ با آن روبه‌رو شد، آماده نکرده بود.
00:38
She was sitting in a café with a friend when she first saw it:
7
38125
3651
وقتی برای بار اول آن را مشاهده کرد با دوستی در یک کافه نشسته بود:
00:41
a two-minute, 20-second video of her engaged in a sex act.
8
41800
4943
فیلم دو دقیقه و ۲۰ ثانیه‌ای از رابطه‌ایی جنسی با حضور خودش.
00:47
And she couldn't believe her eyes.
9
47188
2349
نمی‌توانست به چشمانش اعتماد کند.
00:49
She had never made a sex video.
10
49561
2273
او هرگز یک فیلم سکسی نساخته بود.
00:52
But unfortunately, thousands upon thousands of people
11
52506
3465
اما متاسفانه هزاران هزار نفر باور داشتند
00:55
would believe it was her.
12
55995
1666
که خودش بوده است.
00:58
I interviewed Ms. Ayyub about three months ago,
13
58673
2944
من با خانم ایوب سه ماه پیش در رابطه با کتابم،
01:01
in connection with my book on sexual privacy.
14
61641
2504
با موضوع حریم جنسی، مصاحبه کردم.
01:04
I'm a law professor, lawyer and civil rights advocate.
15
64681
3198
من استاد حقوق، وکیل و طرفدار حقوق مدنی هستم.
01:08
So it's incredibly frustrating knowing that right now,
16
68204
4611
بنابراین برای من بی‌اندازه مایوس‌کننده است که می‌دانم
01:12
law could do very little to help her.
17
72839
2238
در حال حاضر قانون کمک خاصی به او نمی‌کند.
01:15
And as we talked,
18
75458
1547
و وقتی صحبت می‌کردیم،
01:17
she explained that she should have seen the fake sex video coming.
19
77029
4512
او توضیح داد که باید فکر انتشار فیلم تقلبی از رابطه جنسی را می‌کرد.
01:22
She said, "After all, sex is so often used to demean and to shame women,
20
82038
5596
او گفت، <<در واقع سکس اغلب برای تحقیر کردن و خجالت‌زده کردن زنان استفاده می‌شود،
01:27
especially minority women,
21
87658
2428
خصوصا زنان اقلیت،
01:30
and especially minority women who dare to challenge powerful men,"
22
90110
4312
و خصوصا زنان اقلیتی که جرات مبارزه با مردان قدرتمند را دارند.>>
01:34
as she had in her work.
23
94446
1533
چیزی که او در کارش داشت.
01:37
The fake sex video went viral in 48 hours.
24
97191
3976
فیلم سکس جعلی در عرض ۴۸ ساعت پخش (وایرال) شد.
01:42
All of her online accounts were flooded with screenshots of the video,
25
102064
5307
تمام حساب‌های آنلاین او غرق اسکرین‌شات‌ها از آن فیلم،
01:47
with graphic rape and death threats
26
107395
2627
و تهدیدهای گرافیکیِ تجاوز و قتل شده بود.
01:50
and with slurs about her Muslim faith.
27
110046
2533
به همراه لکه دار کردن اعتقادات اسلامی او.
01:53
Online posts suggested that she was "available" for sex.
28
113426
4564
در مطالب اینترنتی او را برای رابطه جنسی پیشنهاد می‌کردند.
01:58
And she was doxed,
29
118014
1610
و او dox شده بود،
01:59
which means that her home address and her cell phone number
30
119648
2778
به این معنی که آدرس خانه و شماره تلفن او
02:02
were spread across the internet.
31
122450
1746
در سراسر اینترنت پخش شده بود.
02:04
The video was shared more than 40,000 times.
32
124879
4084
فیلم بیش از ۴۰,۰۰۰ بار به اشتراک گذاشته شده بود.
02:09
Now, when someone is targeted with this kind of cybermob attack,
33
129760
3936
وقتی یک نفر با چنین حمله سایبری مورد هدف قرار می‌گیرد،
02:13
the harm is profound.
34
133720
2063
ضربه‌ای اساسی به او وارد شده است.
02:16
Rana Ayyub's life was turned upside down.
35
136482
3039
زندگی رانا ایوب وارونه شد.
02:20
For weeks, she could hardly eat or speak.
36
140211
3334
او برای هفته‌ها به سختی غذا می‌خورد و صحبت می‌کرد.
02:23
She stopped writing and closed all of her social media accounts,
37
143919
3689
او از نوشتن دست کشید و تمام حساب‌های شبکه‌های آنلاین خود را بست،
02:27
which is, you know, a tough thing to do when you're a journalist.
38
147632
3158
مسئله‌ای که می‌دانید چقدر مشکل است وقتی که یک خبرنگار باشید.
02:31
And she was afraid to go outside her family's home.
39
151188
3484
او از اینکه از خانه خودشان خارج شود می‌ترسید.
02:34
What if the posters made good on their threats?
40
154696
3022
اگر افرادی که مطلب گذاشته بودند، تهدیدشان را عملی می‌کردند، چه اتفاقی می‌افتاد؟
02:38
The UN Council on Human Rights confirmed that she wasn't being crazy.
41
158395
4365
شورای حقوق بشر سازمان ملل متحد تایید کرد که او دیوانه نشده است.
02:42
It issued a public statement saying that they were worried about her safety.
42
162784
4637
یک بیانیه عمومی منتشر کرد که می‌گفت که آنها نگران امنیت او هستند.
02:48
What Rana Ayyub faced was a deepfake:
43
168776
4229
رانا ایوب با یک جعل‌عمیق مواجه شده بود:
02:53
machine-learning technology
44
173029
2540
فناوری یادگیری-ماشین
02:55
that manipulates or fabricates audio and video recordings
45
175593
4111
که صوت‌ها و فیلم‌ها را دستکاری و جعل می‌کند
02:59
to show people doing and saying things
46
179728
2723
تا نشان دهد مردم چیزهایی می‌گویند و یا انجام می‌دهند که
03:02
that they never did or said.
47
182475
1866
هرگز نگفته و نکرده‌اند.
03:04
Deepfakes appear authentic and realistic, but they're not;
48
184807
3361
جعل‌عمیق‌ها به صورت موثق و واقعی ظاهر می‌شوند اما چنین نیستند،
03:08
they're total falsehoods.
49
188192
1772
آنها به کلی کذب هستند.
03:11
Although the technology is still developing in its sophistication,
50
191228
3794
فناوری هنوز با تمام پیچیدگی‌هایش در حال توسعه است،
03:15
it is widely available.
51
195046
1614
و بطور گسترده در دسترس است.
03:17
Now, the most recent attention to deepfakes arose,
52
197371
3072
اخیرا توجه به جعل‌عمیق افزایش یافته است،
03:20
as so many things do online,
53
200467
2161
به طوری که می‌شود به صورت آنلاین خیلی از
03:22
with pornography.
54
202652
1255
کارها در رابطه با پرنوگرافی انجام داد.
03:24
In early 2018,
55
204498
2111
اوایل سال ۲۰۱۸،
03:26
someone posted a tool on Reddit
56
206633
2468
یک نفر ابزاری را در Reddit منتشرکرد که
03:29
to allow users to insert faces into porn videos.
57
209125
4412
به کاربر امکان اضافه کردن چهره به فیلم‌های سکسی را می‌داد.
03:33
And what followed was a cascade of fake porn videos
58
213561
3440
و چیزی که به دنبالش بود سرازیر شدن فیلم‌های سکسی جعلی
03:37
featuring people's favorite female celebrities.
59
217025
2797
با چهره‌ی زنان مشهور و محبوب مردم بود.
03:40
And today, you can go on YouTube and pull up countless tutorials
60
220712
3477
و امروز، می‌توانید وارد سایت یوتیوب شده و تمرین‌های بیشماری را
03:44
with step-by-step instructions
61
224213
2286
با دستورالعمل‌های گام‌به‌گام
03:46
on how to make a deepfake on your desktop application.
62
226523
3163
برای درست کردن یک جعل‌عمیق بر روی کامیپوتر خود، بیابید.
03:50
And soon we may be even able to make them on our cell phones.
63
230260
3706
و به زودی شاید امکان آن را داشته باشیم تا با گوشی‌هایمان آنها را درست کنیم.
03:55
Now, it's the interaction of some of our most basic human frailties
64
235072
5382
اکنون این برهم کنش بعضی از ضعف‌های اساسی بشر و
04:00
and network tools
65
240478
1682
ابزارهای شبکه‌است که
04:02
that can turn deepfakes into weapons.
66
242184
2666
می‌تواند جعل‌عمیق را به سلاح تبدیل کند.
04:04
So let me explain.
67
244874
1200
اجازه دهید توضیح دهم.
04:06
As human beings, we have a visceral reaction to audio and video.
68
246875
4566
به عنوان انسان، ما واکنشی غریزی نسبت به فیلم وصوت داریم.
04:11
We believe they're true,
69
251860
1488
ما باور داریم آنها حقیقی هستند،
04:13
on the notion that of course you can believe
70
253372
2078
البته با این تصور که شما می‌توانید هر آنچه
04:15
what your eyes and ears are telling you.
71
255474
2478
که چشم‌ها و گوش‌هایتان می‌گوید باور کنید.
04:18
And it's that mechanism
72
258476
1699
و این همان سازوکاری است که
04:20
that might undermine our shared sense of reality.
73
260199
3698
ممکن است حس واقع‌گرایی ما را سست کند.
04:23
Although we believe deepfakes to be true, they're not.
74
263921
3147
و باور کنیم که جعل‌های عمیق درست هستند در حالی که نیستند.
04:27
And we're attracted to the salacious, the provocative.
75
267604
4157
و ما به محتوی جنسی و بحث‌برانگیز جذب می‌شویم.
04:32
We tend to believe and to share information
76
272365
3047
تمایل داریم اطلاعاتی که منفی و جدید هستند را
04:35
that's negative and novel.
77
275436
2023
باور کنیم و به اشتراک بگذاریم.
04:37
And researchers have found that online hoaxes spread 10 times faster
78
277809
5019
تحقیقات نشان داده است که حقه‌های آنلاین ده برابر داستان‌های دقیق
04:42
than accurate stories.
79
282852
1627
منتشر می‌شوند.
04:46
Now, we're also drawn to information
80
286015
4380
حال ما به اطلاعاتی که در راستای دیدگاه‌هایمان است
04:50
that aligns with our viewpoints.
81
290419
1892
کشیده می‌شویم.
04:52
Psychologists call that tendency "confirmation bias."
82
292950
3561
روانشناسان این تمایل را <<سوگیری تاییدی>> می‌نامند.
04:57
And social media platforms supercharge that tendency,
83
297300
4387
و شبکه‌های اجتماعی به شدت این گرایش را با امکان
05:01
by allowing us to instantly and widely share information
84
301711
3881
اشتراک گذاری سریع و گسترده اطلاعاتی که با نقطه نظرات ما همخوانی دارد،
05:05
that accords with our viewpoints.
85
305616
1792
تقویت می‌کنند.
05:08
Now, deepfakes have the potential to cause grave individual and societal harm.
86
308735
5568
اکنون جعل‌عمیق پتانسیل این را دارد تا موجب یک صدمه‌ی شخصی و اجتماعی جدی شود.
05:15
So, imagine a deepfake
87
315204
2024
جعل‌عمیقی را تصور کنید که
05:17
that shows American soldiers in Afganistan burning a Koran.
88
317252
4182
نشان می‌دهد که یک سرباز آمریکایی در افغانستان قرآن را می‌سوزاند.
05:22
You can imagine that that deepfake would provoke violence
89
322807
3024
می‌توانید تصور کنید که جعل‌عمیق می‌تواند به خشونت
05:25
against those soldiers.
90
325855
1533
علیه آن سربازان دامن بزند.
05:27
And what if the very next day
91
327847
2873
و چه اتفاقی خواهد افتاد، اگر در روز بعد
05:30
there's another deepfake that drops,
92
330744
2254
یک جعل‌عمیق دیگر به راه بی‌افتد،
05:33
that shows a well-known imam based in London
93
333022
3317
که نشان می‌دهد یک شیخ مشهور ساکن لندن،
05:36
praising the attack on those soldiers?
94
336363
2467
حمله به آن سربازان را ستایش می‌کند؟
05:39
We might see violence and civil unrest,
95
339617
3163
و شاید شاهد خشونت و ناآرامی‌های مدنی،
05:42
not only in Afganistan and the United Kingdom,
96
342804
3249
نه تنها در افغانستان و بریتانیا
05:46
but across the globe.
97
346077
1515
بلکه در سرتاسر جهان باشیم.
05:48
And you might say to me,
98
348251
1158
ممکن است بگویید،
05:49
"Come on, Danielle, that's far-fetched."
99
349433
2247
<<بیخیال دنیل، خیلی بعید است.>>
05:51
But it's not.
100
351704
1150
ولی نیست.
05:53
We've seen falsehoods spread
101
353293
2191
مشاهده کرده‌ایم که انتشار دروغ‌ها
05:55
on WhatsApp and other online message services
102
355508
2722
بر روی واتس‌آپ و دیگر سرویس‌های پیام‌رسان آنلاین
05:58
lead to violence against ethnic minorities.
103
358254
2761
منجر به خشونت علیه اقلیت‌های قومی می‌شود.
06:01
And that was just text --
104
361039
1887
و این فقط متن است --
06:02
imagine if it were video.
105
362950
2024
تصور کنید فیلم باشد.
06:06
Now, deepfakes have the potential to corrode the trust that we have
106
366593
5357
اکنون جعل‌عمیق پتانسیل این را دارد که اعتمادی که به نهادهای دموکراتیک داریم
06:11
in democratic institutions.
107
371974
1992
ذره ذره نابود کند.
06:15
So, imagine the night before an election.
108
375006
2667
شب قبل انتخابات را تصور کنید.
06:17
There's a deepfake showing one of the major party candidates
109
377996
3238
یک جعل‌عمیق نشان می‌دهد که یکی از کاندید‌اهای حزب اصلی
06:21
gravely sick.
110
381258
1150
به شدت مریض است.
06:23
The deepfake could tip the election
111
383202
2333
جعل‌عمیق می‌تواند انتخابات را از مسیر خود خارج کند
06:25
and shake our sense that elections are legitimate.
112
385559
3375
و احساس ما نسبت به انتخابات قانونی را تکان دهد.
06:30
Imagine if the night before an initial public offering
113
390515
3326
تصور کنید شب قبل از عرضه اولیه یک سهام،
06:33
of a major global bank,
114
393865
2333
توسط یک بانک بزرگ جهانی،
06:36
there was a deepfake showing the bank's CEO
115
396222
3149
جعل‌عمیقی نشان می‌دهد مدیرعامل آن بانک
06:39
drunkenly spouting conspiracy theories.
116
399395
2697
در حالت مستی حرف‌های بی‌جایی درباره تئوری‌ توطئه‌ می‌زند.
06:42
The deepfake could tank the IPO,
117
402887
3047
جعل‌عمیق می‌تواند عرضه سهام را به ورطه نابودی بکشاند.
06:45
and worse, shake our sense that financial markets are stable.
118
405958
4115
و بدتر، احساس ما درباره اینکه بازارهای مالی باثبات هستند را تکان دهد.
06:51
So deepfakes can exploit and magnify the deep distrust that we already have
119
411385
6989
بنابراین جعل‌های‌عمیق می‌توانند بی‌اعتمادی زیادی که همین الان هم به سیاست‌مداران،
06:58
in politicians, business leaders and other influential leaders.
120
418398
4214
رهبران اقتصادی و دیگر رهبران بانفوذ داریم بزرگتر کرده و از آن سواستقاده کنند.
07:02
They find an audience primed to believe them.
121
422945
3284
آنها مخاطب بالقوه برای باور کردن را پیدا می‌کنند.
07:07
And the pursuit of truth is on the line as well.
122
427287
2765
و همچنین دنبال کردن حقیقت هم در خطر است.
07:11
Technologists expect that with advances in AI,
123
431077
3564
اهل فن منتظر پیشرفت در هوش مصنوعی هستند،
07:14
soon it may be difficult if not impossible
124
434665
3682
بزودی به سختی و حتی غیرممکن است که
07:18
to tell the difference between a real video and a fake one.
125
438371
3769
تفاوت بین یک فیلم واقعی و تقلبی را بگوییم.
07:23
So how can the truth emerge in a deepfake-ridden marketplace of ideas?
126
443022
5341
پس حقیقت چگونه می‌تواند در بازار داغ ایده‌‌های جعلی‌عمیق نمایان شود؟
07:28
Will we just proceed along the path of least resistance
127
448752
3420
به مسیر خود بدون هیچ مقاومتی ادامه می‌دهیم
07:32
and believe what we want to believe,
128
452196
2437
و چیزی که می‌خواهیم باور کنیم را باور می‌کنیم،
07:34
truth be damned?
129
454657
1150
و حقیقت را نادیده می‌گیریم؟
07:36
And not only might we believe the fakery,
130
456831
3175
و نه تنها ممکن است جعلیات را باور کنیم،
07:40
we might start disbelieving the truth.
131
460030
3326
ممکن است باورنکردن حقیقت را هم شروع کنیم.
07:43
We've already seen people invoke the phenomenon of deepfakes
132
463887
4079
اخیرا دیده‌ایم که مردم به جعل‌های عمیق متوسل می‌شوند
07:47
to cast doubt on real evidence of their wrongdoing.
133
467990
3920
تا بر روی مدارک واقعی تخلفاتشان شبه افکنی کنند.
07:51
We've heard politicians say of audio of their disturbing comments,
134
471934
5969
شنیده‌ایم که سیاستمداران درباره صوت نظرات آزاردهنده‌شان گفته‌اند،
07:57
"Come on, that's fake news.
135
477927
1746
<<بیخیال، آنها خبرهای جعلی هستند.
07:59
You can't believe what your eyes and ears are telling you."
136
479697
3920
شما نمی‌توانید به آنچه که گوش‌ها و چشم‌هایتان می‌گوید، اعتماد کنید.>>
08:04
And it's that risk
137
484402
1731
و این همان خطری است که
08:06
that professor Robert Chesney and I call the "liar's dividend":
138
486157
5436
پرفسور روبرت چسنی و من آن را "منفعت دروغگوها" می‌نامیم.
08:11
the risk that liars will invoke deepfakes
139
491617
3357
خطر اینکه دروغگوها با توسل به جعل‌های‌عمیق
08:14
to escape accountability for their wrongdoing.
140
494998
2905
از مسئولیت تخلفاتشان فرار کنند.
08:18
So we've got our work cut out for us, there's no doubt about it.
141
498963
3071
پس ما کار بسیار سختی در پیش داریم، هیج شکی در آن نیست.
08:22
And we're going to need a proactive solution
142
502606
3325
ما به یک راه حل پیشگیرانه از شرکت‌های فناوری
08:25
from tech companies, from lawmakers,
143
505955
3511
از قانونگذارن، از حکمفرمایان
08:29
law enforcers and the media.
144
509490
1984
و رسانه‌ها نیاز داریم.
08:32
And we're going to need a healthy dose of societal resilience.
145
512093
4016
ما به دُز سالمی از مقاومت اجتماعی احتیاح داریم.
08:37
So now, we're right now engaged in a very public conversation
146
517506
3896
امروزه، در بسیاری از بحث‌های عمومی درباره
08:41
about the responsibility of tech companies.
147
521426
2913
مسئولیت شرکت‌های فناوری شرکت می‌کنیم.
08:44
And my advice to social media platforms
148
524926
3032
و پیشنهاد من به پایگاه شبکه‌های اجتماعی این بوده است که
08:47
has been to change their terms of service and community guidelines
149
527982
3873
شرایط استفاده از خدمات و دستورالعمل‌های عمومی خود را طوری تغییر دهند که
08:51
to ban deepfakes that cause harm.
150
531879
2336
جعل‌های‌عمیقی که صدمه می‌زنند را ممنوع کند.
08:54
That determination, that's going to require human judgment,
151
534712
3960
این اقدام، به یک داوری انسانی نیاز خواهد داشت،
08:58
and it's expensive.
152
538696
1571
و بسیار پرهزینه است.
09:00
But we need human beings
153
540673
2285
اما ما به انسان‌هایی نیاز داریم که
09:02
to look at the content and context of a deepfake
154
542982
3873
محتوی و متن یک جعل‌عمیق را بررسی کنند
09:06
to figure out if it is a harmful impersonation
155
546879
3682
تا تشخیص دهند که پشت آن یک هویت جعلی مخرب قرار دارد
09:10
or instead, if it's valuable satire, art or education.
156
550585
4382
یا اینکه یک طنز، هنر و یا دانش ارزشمند است.
09:16
So now, what about the law?
157
556118
1495
حالا قانون چه کار می‌کند؟
09:18
Law is our educator.
158
558666
2349
قانون مربی ماست.
09:21
It teaches us about what's harmful and what's wrong.
159
561515
4038
او به ما درباره آنچه که مضر و آنچه که اشتباه است، درس می‌دهد.
09:25
And it shapes behavior it deters by punishing perpetrators
160
565577
4555
و با مجازات افراد خاطی، رفتارهای بازدارنده را شکل می‌دهد
09:30
and securing remedies for victims.
161
570156
2267
و برای قربانیان راه چاره می‌یابد.
09:33
Right now, law is not up to the challenge of deepfakes.
162
573148
4280
در حال حاضر قانون مناسب برای جعل‌عمیق وجود ندارد.
09:38
Across the globe,
163
578116
1390
در سرتاسر جهان،
09:39
we lack well-tailored laws
164
579530
2444
با کمبود قوانین مناسب و طراحی شده
09:41
that would be designed to tackle digital impersonations
165
581998
3570
برای برخورد با هویت‌های جعلی دیجیتالی مواجهه هستیم،
09:45
that invade sexual privacy,
166
585592
2231
کسانی که نقض‌کننده حریم جنسی هستند،
09:47
that damage reputations
167
587847
1387
و اعتبار افراد را خدشه دار می‌کنند،
09:49
and that cause emotional distress.
168
589258
1951
و آنهایی که مسبب مشکلات روحی هستند.
09:51
What happened to Rana Ayyub is increasingly commonplace.
169
591725
3873
اتفاقی که برای رانا ایوب افتاد به سرعت در حال عادی شدن است.
در عین حال وقتی که به نهاد مجری قانون در دهلی رفت،
09:56
Yet, when she went to law enforcement in Delhi,
170
596074
2214
09:58
she was told nothing could be done.
171
598312
2135
به او گفتند که هیج کاری نمی‌شود انجام داد.
10:01
And the sad truth is that the same would be true
172
601101
3183
و حقیقت تلخ آن است که در اروپا
10:04
in the United States and in Europe.
173
604308
2266
و ایالات متحده هم همینطور است.
10:07
So we have a legal vacuum that needs to be filled.
174
607300
4356
بنابراین یک خلا قانونی داریم که لازم است پر شود.
10:12
My colleague Dr. Mary Anne Franks and I are working with US lawmakers
175
612292
4092
همکارم، دکتر مری آن فرنکس و من با قانون‌گذاران ایالات متحده همکاری می کنم تا
10:16
to devise legislation that would ban harmful digital impersonations
176
616408
4804
قانونی را تدوین کنیم که مانع هویت‌های جعلی دیجیتال شوند،
10:21
that are tantamount to identity theft.
177
621236
2533
کسانی که تفاوتی با سارقین هویت ندارند.
10:24
And we've seen similar moves
178
624252
2126
و ما شاهد اقدامات مشابهی در
10:26
in Iceland, the UK and Australia.
179
626402
3301
ایسلند، بریتانیا و استرالیا هستیم.
10:30
But of course, that's just a small piece of the regulatory puzzle.
180
630157
3259
و البته این فقط یک تکه کوچک از پازل نظارت است.
10:34
Now, I know law is not a cure-all. Right?
181
634911
3169
من می‌دانم که قانون علاج همه دردها نیست. درست است؟
10:38
It's a blunt instrument.
182
638104
1600
یک ابزار کند است.
10:40
And we've got to use it wisely.
183
640346
1539
و باید از آن هوشمندانه استفاده کنیم.
10:42
It also has some practical impediments.
184
642411
2812
و همجنین موانع عملی بسیاری دارد.
10:45
You can't leverage law against people you can't identify and find.
185
645657
5044
شما نمی‌توانید قانون را علیه کسانی که نمی‌شناسید و پیدا نمی‌کنید اعمال کنید.
10:51
And if a perpetrator lives outside the country
186
651463
3286
اگر فرد خاطی خارج از کشوری باشد
10:54
where a victim lives,
187
654773
1754
که قربانی در آن زندگی کند،
10:56
then you may not be able to insist
188
656551
1629
امکان ندارید بتوانید پافشاری کنید
10:58
that the perpetrator come into local courts
189
658204
2349
که آن فرد خاطی به دادگاه‌های محلی بیاید تا
11:00
to face justice.
190
660577
1150
با عدالت روبه‌رو شود.
11:02
And so we're going to need a coordinated international response.
191
662236
4063
بنابراین به یک واکنش بین‌المللی هماهنگ نیاز خواهیم داشت.
11:07
Education has to be part of our response as well.
192
667819
3333
آموزش هم باید بخشی از واکنش ما باشد.
11:11
Law enforcers are not going to enforce laws
193
671803
3731
قانونگذاران درباره چیزی که نمی‌دانند چیست
11:15
they don't know about
194
675558
1458
و چه مشکلاتی بوجود می‌آورد،
11:17
and proffer problems they don't understand.
195
677040
2596
قانون وضع نمی‌کنند.
11:20
In my research on cyberstalking,
196
680376
2191
در تحقیقاتم در مورد آزار و اذیت‌های سایبری
11:22
I found that law enforcement lacked the training
197
682591
3499
متوجه شدم مجریان قانون آموزش کافی برای
11:26
to understand the laws available to them
198
686114
2582
فهمیدن قوانینی که در اختیار دارند و
11:28
and the problem of online abuse.
199
688720
2349
معضل توهین‌های آنلاین، ندیده‌اند.
11:31
And so often they told victims,
200
691093
2682
و خیلی اوقات به قربانیان گفته‌اند،
11:33
"Just turn your computer off. Ignore it. It'll go away."
201
693799
3971
<<رایانه را خاموش کن. محل نگذار. خود به خود ناپدید می‌شود.>>
11:38
And we saw that in Rana Ayyub's case.
202
698261
2466
این را در مورد رانا ایوب مشاهده کردیم.
11:41
She was told, "Come on, you're making such a big deal about this.
203
701102
3468
به او گفته شد، <<بیخیال، بی‌خود بزرگش کردی.
11:44
It's boys being boys."
204
704594
1743
پسرها همین‌اند دیگه.>>
11:47
And so we need to pair new legislation with efforts at training.
205
707268
5252
بنابراین باید قانون جدید را با تلاش‌های در زمینه آموزش همگام کنیم.
11:54
And education has to be aimed on the media as well.
206
714053
3429
و آموزش در رسانه‌ها نیز باید هدفمند باشد.
11:58
Journalists need educating about the phenomenon of deepfakes
207
718180
4260
لازم است خبرنگاران در مورد پدیده جعل‌عمیق آموزش ببینند
12:02
so they don't amplify and spread them.
208
722464
3039
بنابراین آنها را تقویت و منتشر نمی‌کنند.
12:06
And this is the part where we're all involved.
209
726583
2168
و این جایی‌ست که همه ما باید در آن درگیر شویم.
12:08
Each and every one of us needs educating.
210
728775
3855
همه ما نیازمند آموزش هستیم.
12:13
We click, we share, we like, and we don't even think about it.
211
733375
3675
ما هستیم که کلیک می‌کنیم، به اشتراک می‌گذاریم، می‌پسندیم و حتی فکر هم نمی‌کنیم.
12:17
We need to do better.
212
737551
1547
باید بهتر عمل کنیم.
12:19
We need far better radar for fakery.
213
739726
2809
به رادارهای بهتری برای جعلیات نیاز داریم.
12:25
So as we're working through these solutions,
214
745744
3841
همان زمانی که بر روی این راه‌حل‌ها کار می‌کنیم،
12:29
there's going to be a lot of suffering to go around.
215
749609
2563
رنج زیادی در حال پخش شدن است.
12:33
Rana Ayyub is still wrestling with the fallout.
216
753093
2746
رانا ایوب هنوز با پیامدهای آن اتفاق کلنجار می‌رود.
12:36
She still doesn't feel free to express herself on- and offline.
217
756669
4189
هنوز برای بیان خودش آنلاین و آفلاین احساس راحتی نمی‌کند.
12:41
And as she told me,
218
761566
1365
و همانطور که به من گفت،
12:42
she still feels like there are thousands of eyes on her naked body,
219
762955
5074
کماکان احساس می‌کند هزاران نگاه به بدن لخت اوست،
12:48
even though, intellectually, she knows it wasn't her body.
220
768053
3661
اگرچه به صورت منطقی می‌داند که آن بدن او نبوده است.
12:52
And she has frequent panic attacks,
221
772371
2349
و به او مرتب حمله‌های عصبی می‌شود،
12:54
especially when someone she doesn't know tries to take her picture.
222
774744
4100
خصوصا زمانی که کسی که نمی‌شناسد، تلاش می‌کند از او عکس بگیرد.
12:58
"What if they're going to make another deepfake?" she thinks to herself.
223
778868
3511
با خودش فکر می‌کند: << اگر بخواهند یک جعل عمیق دیگر بسازند، چه؟>>
13:03
And so for the sake of individuals like Rana Ayyub
224
783082
3921
پس بخاطر افرادی مثل رانا ایوب
13:07
and the sake of our democracy,
225
787027
2306
و بخاطر دموکراسی
13:09
we need to do something right now.
226
789357
2182
لازم است که همین الان کاری بکنیم.
13:11
Thank you.
227
791563
1151
متشکرم.
13:12
(Applause)
228
792738
2508
(تشویق)
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7