How deepfakes undermine truth and threaten democracy | Danielle Citron

85,268 views ・ 2019-10-07

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Yasin Basaran Gözden geçirme: Ezgisu Karakaya
00:12
[This talk contains mature content]
0
12535
2767
[Bu konuşma yetişkinlere yönelik içerikler barındırır.]
00:17
Rana Ayyub is a journalist in India
1
17762
2992
Rana Ayyub, çalışmaları hükûmet yozlaşması
00:20
whose work has exposed government corruption
2
20778
2602
ve insan hakları ihlallerini açığa çıkarmış
00:24
and human rights violations.
3
24411
2157
Hint bir gazeteci.
00:26
And over the years,
4
26990
1167
Yıllar içerisinde
00:28
she's gotten used to vitriol and controversy around her work.
5
28181
3303
çalışmalarıyla ilgili eleştiri ve tartışmalara alışmıştı.
00:32
But none of it could have prepared her for what she faced in April 2018.
6
32149
5109
Ama hiçbir şey onu, Nisan 2018'de karşılaştığı şeye hazırlayamazdı.
00:38
She was sitting in a café with a friend when she first saw it:
7
38125
3651
İlk gördüğünde arkadaşıyla bir kafede oturuyordu:
00:41
a two-minute, 20-second video of her engaged in a sex act.
8
41800
4943
Kendisinin, iki dakika yirmi saniye uzunluğundaki seks videosu.
00:47
And she couldn't believe her eyes.
9
47188
2349
Gözlerine inanamadı.
00:49
She had never made a sex video.
10
49561
2273
Hiçbir zaman seks videosu çekmemişti.
00:52
But unfortunately, thousands upon thousands of people
11
52506
3465
Fakat maalesef binlerce insan
00:55
would believe it was her.
12
55995
1666
videodakinin o olduğuna inanacaktı.
00:58
I interviewed Ms. Ayyub about three months ago,
13
58673
2944
Cinsel gizlilikle ilgili kitabım bağlamında
01:01
in connection with my book on sexual privacy.
14
61641
2504
Bayan Ayyub ile üç ay önce görüştüm.
01:04
I'm a law professor, lawyer and civil rights advocate.
15
64681
3198
Bir hukuk profesörü, avukat ve sivil haklar savunucusuyum.
01:08
So it's incredibly frustrating knowing that right now,
16
68204
4611
Şu anda, hukukun ona çok az yardımının dokunabileceğini bilmek
01:12
law could do very little to help her.
17
72839
2238
o kadar sinir bozucu ki.
01:15
And as we talked,
18
75458
1547
Konuştukça
01:17
she explained that she should have seen the fake sex video coming.
19
77029
4512
sahte seks videosunun muhtemel olduğunu önceden görmesi gerektiğini söyledi.
01:22
She said, "After all, sex is so often used to demean and to shame women,
20
82038
5596
Dedi ki: "Ne de olsa seks, kadınları, özellikle azınlık kadınlarını,
01:27
especially minority women,
21
87658
2428
bilhassa güçlü erkeklere meydan okumayı göze alan azınlık kadınlarını
01:30
and especially minority women who dare to challenge powerful men,"
22
90110
4312
küçük düşürmek ve utandırmak için çok sık kullanılıyor."
01:34
as she had in her work.
23
94446
1533
Çalışmalarında yaptığı da buydu.
01:37
The fake sex video went viral in 48 hours.
24
97191
3976
Sahte seks videosu 48 saatte viral oldu.
01:42
All of her online accounts were flooded with screenshots of the video,
25
102064
5307
Tüm çevrim içi hesapları videodan ekran görüntüleriyle doldu.
01:47
with graphic rape and death threats
26
107395
2627
Sahip olduğu İslam inancıyla ilgili iftiralara,
01:50
and with slurs about her Muslim faith.
27
110046
2533
açık tecavüz ve ölüm tehditlerine maruz kaldı.
01:53
Online posts suggested that she was "available" for sex.
28
113426
4564
Çevrim içi gönderiler, onun seks için "müsait" olduğunu söylüyordu.
01:58
And she was doxed,
29
118014
1610
İfşa edildi,
01:59
which means that her home address and her cell phone number
30
119648
2778
yani ev adresi ve cep telefonu numarası
02:02
were spread across the internet.
31
122450
1746
internette yayıldı.
02:04
The video was shared more than 40,000 times.
32
124879
4084
Video 40 bin defadan fazla paylaşıldı.
02:09
Now, when someone is targeted with this kind of cybermob attack,
33
129760
3936
Artık, birisi bu tür bir siber-çete saldırısıyla hedef alındığında
02:13
the harm is profound.
34
133720
2063
verilen zarar çok derin.
02:16
Rana Ayyub's life was turned upside down.
35
136482
3039
Rana Ayyub'un hayatı altüst oldu.
02:20
For weeks, she could hardly eat or speak.
36
140211
3334
Haftalarca ne yemek yiyebildi, ne konuşabildi.
02:23
She stopped writing and closed all of her social media accounts,
37
143919
3689
Yazmayı bıraktı ve tüm sosyal medya hesaplarını kapattı.
02:27
which is, you know, a tough thing to do when you're a journalist.
38
147632
3158
Bir gazeteci için yapması çok zor bir şey.
02:31
And she was afraid to go outside her family's home.
39
151188
3484
Ailesinin evinden çıkmaya korkuyordu.
02:34
What if the posters made good on their threats?
40
154696
3022
Ya internettekiler tehditlerinde ciddiyse?
02:38
The UN Council on Human Rights confirmed that she wasn't being crazy.
41
158395
4365
BM İnsan Hakları Konseyi, Ayyub'un deli olmadığını doğruladı.
02:42
It issued a public statement saying that they were worried about her safety.
42
162784
4637
Güvenliğinden endişe duyduklarını söyleyen bir basın açıklaması yayımladılar.
02:48
What Rana Ayyub faced was a deepfake:
43
168776
4229
Rana Ayyub'un yüzleştiği şey bir deepfake videosuydu:
02:53
machine-learning technology
44
173029
2540
İnsanları, hiç yapmadıkları
02:55
that manipulates or fabricates audio and video recordings
45
175593
4111
veya söylemedikleri şeyleri yapıp söylerken göstermek için
02:59
to show people doing and saying things
46
179728
2723
ses ve video kayıtlarını manipüle eden
03:02
that they never did or said.
47
182475
1866
veya üreten makine öğrenmesi teknolojisi.
03:04
Deepfakes appear authentic and realistic, but they're not;
48
184807
3361
Deepfake videoları orijinal ve gerçekçi görünüyor ama değil;
03:08
they're total falsehoods.
49
188192
1772
tamamen yalan.
03:11
Although the technology is still developing in its sophistication,
50
191228
3794
Bu teknoloji kapsamlılığı anlamında halen gelişmekte olsa da
03:15
it is widely available.
51
195046
1614
geniş çapta ulaşılabilir durumda.
03:17
Now, the most recent attention to deepfakes arose,
52
197371
3072
Şimdiyse, deepfake videolarına yönelen en son ilginin sebebi
03:20
as so many things do online,
53
200467
2161
internetteki bir çok şeyde de olduğu gibi
03:22
with pornography.
54
202652
1255
pornografi oldu.
03:24
In early 2018,
55
204498
2111
2018'in başlarında birisi,
03:26
someone posted a tool on Reddit
56
206633
2468
kullanıcıların pornolara yüz eklemesine
03:29
to allow users to insert faces into porn videos.
57
209125
4412
imkan veren bir aracı Reddit'te paylaştı.
03:33
And what followed was a cascade of fake porn videos
58
213561
3440
Bunu, insanların en sevdiği kadın ünlüleri içeren
03:37
featuring people's favorite female celebrities.
59
217025
2797
sahte bir porno yağmuru takip etti.
03:40
And today, you can go on YouTube and pull up countless tutorials
60
220712
3477
Bugün, YouTube'a girip masaüstü uygulamanızda
03:44
with step-by-step instructions
61
224213
2286
nasıl deepfake videosu yapılacağına dair
03:46
on how to make a deepfake on your desktop application.
62
226523
3163
adım adım talimatlarla sayısız öğretici video izleyebilirsiniz.
03:50
And soon we may be even able to make them on our cell phones.
63
230260
3706
Yakında bu videoları cep telefonlarımızdan bile yapabiliriz.
03:55
Now, it's the interaction of some of our most basic human frailties
64
235072
5382
Deepfake videolarını silaha çeviren şey
04:00
and network tools
65
240478
1682
bazı en temel insani zaaflarımız
04:02
that can turn deepfakes into weapons.
66
242184
2666
ve ağ araçları arasındaki etkileşim.
04:04
So let me explain.
67
244874
1200
Açıklayayım.
04:06
As human beings, we have a visceral reaction to audio and video.
68
246875
4566
İnsanlar olarak ses ve videoya içsel bir tepki gösteririz.
04:11
We believe they're true,
69
251860
1488
Tabii ki gözlerimizin
04:13
on the notion that of course you can believe
70
253372
2078
ve kulaklarımızın söylediğine inanabileceğimiz zannıyla
04:15
what your eyes and ears are telling you.
71
255474
2478
bunların gerçek olduğuna inanırız.
04:18
And it's that mechanism
72
258476
1699
Bizim ortak gerçeklik duygumuzun
04:20
that might undermine our shared sense of reality.
73
260199
3698
altını kazan da bu mekanizmadır.
04:23
Although we believe deepfakes to be true, they're not.
74
263921
3147
Deepfake videolarının gerçek olduğuna inansak da öyle değiller.
04:27
And we're attracted to the salacious, the provocative.
75
267604
4157
Müstehcen, provokatif olan da bizi kendine çeker.
04:32
We tend to believe and to share information
76
272365
3047
Olumsuz ve yeni bilgilere inanıp
04:35
that's negative and novel.
77
275436
2023
bunları paylaşma eğilimi gösteririz.
04:37
And researchers have found that online hoaxes spread 10 times faster
78
277809
5019
Araştırmacılar, internet uydurmalarının gerçek hikayelere göre
04:42
than accurate stories.
79
282852
1627
10 kat daha hızlı yayıldığını saptadılar.
04:46
Now, we're also drawn to information
80
286015
4380
Bakış açımıza paralel bilgiler de
04:50
that aligns with our viewpoints.
81
290419
1892
bizi kendine çeker.
04:52
Psychologists call that tendency "confirmation bias."
82
292950
3561
Psikologlar bu eğilime "doğrulama yanlılığı" adını veriyor.
04:57
And social media platforms supercharge that tendency,
83
297300
4387
Sosyal medya platformları da bakış açımıza uyan bilgileri
05:01
by allowing us to instantly and widely share information
84
301711
3881
geniş alanda ve hemen paylaşmamızı sağlayarak
05:05
that accords with our viewpoints.
85
305616
1792
bu eğilime güç veriyor.
05:08
Now, deepfakes have the potential to cause grave individual and societal harm.
86
308735
5568
Deepfake videolarının bireylere ve topluma ciddi hasar verme potansiyeli var.
05:15
So, imagine a deepfake
87
315204
2024
Amerikan askerlerinin Afganistan'da
05:17
that shows American soldiers in Afganistan burning a Koran.
88
317252
4182
Kuran yaktığını gösteren bir deepfake videosu hayal edin.
05:22
You can imagine that that deepfake would provoke violence
89
322807
3024
Bu videonun o askerlere karşı şiddeti kışkırtacağını da
05:25
against those soldiers.
90
325855
1533
hayal edebilirsiniz.
05:27
And what if the very next day
91
327847
2873
Peki sonraki gün, Londra'dan ünlü bir imamın,
05:30
there's another deepfake that drops,
92
330744
2254
askerlere yapılan bu saldırıyı övdüğünü gösteren
05:33
that shows a well-known imam based in London
93
333022
3317
başka bir deepfake videosu da
05:36
praising the attack on those soldiers?
94
336363
2467
internete düşerse?
05:39
We might see violence and civil unrest,
95
339617
3163
Yalnızca Afganistan ve İngiltere'de değil,
05:42
not only in Afganistan and the United Kingdom,
96
342804
3249
tüm dünyada şiddet ve kargaşaya
05:46
but across the globe.
97
346077
1515
şahit olabiliriz.
05:48
And you might say to me,
98
348251
1158
Şunu diyebilirsiniz,
05:49
"Come on, Danielle, that's far-fetched."
99
349433
2247
"Hadi be Danielle, o kadar uzun boylu değil."
05:51
But it's not.
100
351704
1150
Ama öyle.
05:53
We've seen falsehoods spread
101
353293
2191
WhatsApp'tan ve diğer çevrim içi mesaj hizmetlerinden
05:55
on WhatsApp and other online message services
102
355508
2722
yayılan yalanların
05:58
lead to violence against ethnic minorities.
103
358254
2761
etnik azınlıklara karşı şiddete yol açtığına şahit olduk.
06:01
And that was just text --
104
361039
1887
Bunlar sadece metindi --
06:02
imagine if it were video.
105
362950
2024
bir de video olduğunu düşünün.
06:06
Now, deepfakes have the potential to corrode the trust that we have
106
366593
5357
Deepfake videoları demokratik kurumlara duyduğumuz güveni
06:11
in democratic institutions.
107
371974
1992
çürütme potansiyeline sahip.
06:15
So, imagine the night before an election.
108
375006
2667
Seçimden bir önceki geceyi düşünün.
06:17
There's a deepfake showing one of the major party candidates
109
377996
3238
Önemli parti adaylarından birini ciddi hasta olarak gösteren
06:21
gravely sick.
110
381258
1150
deepfake videosu olsa
06:23
The deepfake could tip the election
111
383202
2333
bu video seçimin sonucu tüyosunu verip
06:25
and shake our sense that elections are legitimate.
112
385559
3375
seçimlerin meşru olduğu inancımızı sarsabilir.
06:30
Imagine if the night before an initial public offering
113
390515
3326
Büyük bir küresel bankanın ilk halka arzından önceki gece
06:33
of a major global bank,
114
393865
2333
bankanın CEO'sunun
06:36
there was a deepfake showing the bank's CEO
115
396222
3149
sarhoş halde komplo teorileri anlattığını gösteren
06:39
drunkenly spouting conspiracy theories.
116
399395
2697
bir deepfake videosu olduğunu hayal edin.
06:42
The deepfake could tank the IPO,
117
402887
3047
Bu video halka arzı dibe vurdurabilir.
06:45
and worse, shake our sense that financial markets are stable.
118
405958
4115
Daha da kötüsü, finansal pazarların stabil olduğu inancımızı sarsabilir.
06:51
So deepfakes can exploit and magnify the deep distrust that we already have
119
411385
6989
Deepfake videoları; politikacı, iş liderleri ve diğer etkili liderlere
06:58
in politicians, business leaders and other influential leaders.
120
418398
4214
duyduğumuz derin güvensizliği suistimal edip büyütebilir.
07:02
They find an audience primed to believe them.
121
422945
3284
Bu videolar, kendilerine inanmaya hazır bir izleyici kitlesi buluyor.
07:07
And the pursuit of truth is on the line as well.
122
427287
2765
Gerçeğin takip edilmesi de tehlikeye giriyor.
07:11
Technologists expect that with advances in AI,
123
431077
3564
Teknologlar, yapay zekadaki gelişmelerle
07:14
soon it may be difficult if not impossible
124
434665
3682
yakın zamanda gerçek bir video ile sahtesini birbirinden ayırmanın
07:18
to tell the difference between a real video and a fake one.
125
438371
3769
imkansız değilse de zor hale gelmesini bekliyorlar.
07:23
So how can the truth emerge in a deepfake-ridden marketplace of ideas?
126
443022
5341
Deepfake videolarının yönettiği düşünce pazarında gerçek nasıl bulunur?
07:28
Will we just proceed along the path of least resistance
127
448752
3420
Gerçeğe lanet olsun deyip
sadece en kolay yoldan devam edecek
07:32
and believe what we want to believe,
128
452196
2437
ve inanmak istediğimiz şeylere mi inanacağız?
07:34
truth be damned?
129
454657
1150
07:36
And not only might we believe the fakery,
130
456831
3175
Olay sadece sahteliğe inanmak değil,
07:40
we might start disbelieving the truth.
131
460030
3326
gerçeğe inanmamaya da başlayabiliriz.
07:43
We've already seen people invoke the phenomenon of deepfakes
132
463887
4079
Kendi yanlışlarının gerçek kanıtlarına gölge düşürmek için
07:47
to cast doubt on real evidence of their wrongdoing.
133
467990
3920
deepfake videoları olgusuna başvuran insanları zaten gördük.
07:51
We've heard politicians say of audio of their disturbing comments,
134
471934
5969
Rahatsız edici yorumlarının ses kayıtları hakkında şunu diyen politikacıları duyduk,
07:57
"Come on, that's fake news.
135
477927
1746
"Hadi be, yalan haber bunlar.
07:59
You can't believe what your eyes and ears are telling you."
136
479697
3920
Gözleriniz ve kulaklarınızın anlattığına inanamazsınız."
08:04
And it's that risk
137
484402
1731
Profesör Robert Chesney ve benim
08:06
that professor Robert Chesney and I call the "liar's dividend":
138
486157
5436
"yalancının hissesi" dediğimiz de işte bu risk:
08:11
the risk that liars will invoke deepfakes
139
491617
3357
kendi yanlışlarının sorumluluğundan kaçmak için
08:14
to escape accountability for their wrongdoing.
140
494998
2905
deepfake videolarına başvuracak yalancıların oluşturduğu risk.
08:18
So we've got our work cut out for us, there's no doubt about it.
141
498963
3071
Şüphesiz, işimiz zor.
08:22
And we're going to need a proactive solution
142
502606
3325
Teknoloji şirketleri, kanun koyucular,
08:25
from tech companies, from lawmakers,
143
505955
3511
kanun uygulayıcılar ve medyadan gelecek
08:29
law enforcers and the media.
144
509490
1984
proaktif bir çözüme ihtiyacımız olacak.
08:32
And we're going to need a healthy dose of societal resilience.
145
512093
4016
Dozunda toplumsal esnekliğe ihtiyacımız olacak.
08:37
So now, we're right now engaged in a very public conversation
146
517506
3896
Şu anda, teknoloji şirketinin sorumluluğuyla ilgili
08:41
about the responsibility of tech companies.
147
521426
2913
kamusal bir diyaloğa dahiliz.
08:44
And my advice to social media platforms
148
524926
3032
Benim sosyal medya platformlarına tavsiyem
08:47
has been to change their terms of service and community guidelines
149
527982
3873
hizmet şartları ve topluluk kurallarını,
zarara sebep olan deepfake videolarını yasaklayacak şekilde değiştirmeleridir.
08:51
to ban deepfakes that cause harm.
150
531879
2336
08:54
That determination, that's going to require human judgment,
151
534712
3960
Bu kararlılık insani yargı gerektirecektir
08:58
and it's expensive.
152
538696
1571
ve pahalıdır.
09:00
But we need human beings
153
540673
2285
Ama bir deepfake videosunun içerik ve bağlamına bakıp,
09:02
to look at the content and context of a deepfake
154
542982
3873
zararlı bir canlandırma mı,
09:06
to figure out if it is a harmful impersonation
155
546879
3682
yoksa değerli hiciv, sanat veya eğitim mi olduğuna
09:10
or instead, if it's valuable satire, art or education.
156
550585
4382
karar verecek insanlara ihtiyacımız var.
09:16
So now, what about the law?
157
556118
1495
Peki ya hukuk?
09:18
Law is our educator.
158
558666
2349
Hukuk bizim öğretmenimiz.
09:21
It teaches us about what's harmful and what's wrong.
159
561515
4038
Hukuk bize neyin zararlı ve neyin yanlış olduğunu öğretir.
09:25
And it shapes behavior it deters by punishing perpetrators
160
565577
4555
Failleri cezalandırıp kurbanlar için çözüm sağlayarak
09:30
and securing remedies for victims.
161
570156
2267
caydırdığı davranışı şekillendirir.
09:33
Right now, law is not up to the challenge of deepfakes.
162
573148
4280
Şu anda hukuk, deepfake videoları görevine hazır değil.
09:38
Across the globe,
163
578116
1390
Dünya çapında,
09:39
we lack well-tailored laws
164
579530
2444
cinsel gizliliği ihlal eden,
09:41
that would be designed to tackle digital impersonations
165
581998
3570
itibar zedeleyen
ve manevi zarara sebep olan
09:45
that invade sexual privacy,
166
585592
2231
dijital kişisel canlandırmaları ele almak için tasarlanmış
09:47
that damage reputations
167
587847
1387
duruma tam uygun kanunların eksikliği içerisindeyiz.
09:49
and that cause emotional distress.
168
589258
1951
09:51
What happened to Rana Ayyub is increasingly commonplace.
169
591725
3873
Rana Ayyub'a olanlar gitgide yaygınlaşıyor.
09:56
Yet, when she went to law enforcement in Delhi,
170
596074
2214
Ayyub, Delhi'de kanunlara başvurduğunda
09:58
she was told nothing could be done.
171
598312
2135
ona yapacak hiçbir şeyin olmadığı söylendi.
10:01
And the sad truth is that the same would be true
172
601101
3183
Acı gerçekse ABD ve Avrupa'da da
10:04
in the United States and in Europe.
173
604308
2266
durumun aynı olması.
10:07
So we have a legal vacuum that needs to be filled.
174
607300
4356
Doldurulması gereken yasal bir boşluğumuz var.
10:12
My colleague Dr. Mary Anne Franks and I are working with US lawmakers
175
612292
4092
Meslektaşım Dr. Mary Anne Franks ve ben,
10:16
to devise legislation that would ban harmful digital impersonations
176
616408
4804
kimlik hırsızlığına eşdeğer olan zararlı dijital kişisel canlandırmaları
10:21
that are tantamount to identity theft.
177
621236
2533
yasaklayacak bir mevzuat tasarlamaya çalışıyoruz.
10:24
And we've seen similar moves
178
624252
2126
Benzer girişimleri İzlanda, İngiltere
10:26
in Iceland, the UK and Australia.
179
626402
3301
ve Avustralya'da gördük.
10:30
But of course, that's just a small piece of the regulatory puzzle.
180
630157
3259
Bu mevzuat, yapbozunun küçük bir parçası.
10:34
Now, I know law is not a cure-all. Right?
181
634911
3169
Hukukun her şeye çözüm olmadığını biliyorum. Öyle değil mi?
10:38
It's a blunt instrument.
182
638104
1600
Hukuk kabaca bir araç
10:40
And we've got to use it wisely.
183
640346
1539
ve bunu akıllıca kullanmalıyız.
10:42
It also has some practical impediments.
184
642411
2812
Hukuk, bazı pratik engellere de sahip.
10:45
You can't leverage law against people you can't identify and find.
185
645657
5044
Tespit edip bulamadığınız insanlara karşı hukuku kullanamazsınız.
10:51
And if a perpetrator lives outside the country
186
651463
3286
Bir fail, kurbanın yaşadığı ülkeden
10:54
where a victim lives,
187
654773
1754
başka bir ülkede yaşıyorsa
10:56
then you may not be able to insist
188
656551
1629
failin, adaletle yüzleşmek üzere
10:58
that the perpetrator come into local courts
189
658204
2349
yerel mahkemelere gelmesini
11:00
to face justice.
190
660577
1150
sağlayamamanız olası.
11:02
And so we're going to need a coordinated international response.
191
662236
4063
Koordineli uluslararası bir tepkiye ihtiyacımız olacak.
11:07
Education has to be part of our response as well.
192
667819
3333
Eğitim de bu tepkinin bir parçası olmalı.
11:11
Law enforcers are not going to enforce laws
193
671803
3731
Kanun uygulayıcılar,
bilgi sahibi olmadıkları kanunları uygulamayacak
11:15
they don't know about
194
675558
1458
11:17
and proffer problems they don't understand.
195
677040
2596
ve anlamadıkları sorunları çözmeyecekler.
11:20
In my research on cyberstalking,
196
680376
2191
Siber takiple taciz hakkındaki araştırmamda
11:22
I found that law enforcement lacked the training
197
682591
3499
kanun uygulayıcılarının,
ulaşabildikleri kanunların ve internet tacizi sorununu anlamak için
11:26
to understand the laws available to them
198
686114
2582
11:28
and the problem of online abuse.
199
688720
2349
eğitimlerinin eksik olduğunu keşfettim.
11:31
And so often they told victims,
200
691093
2682
Bu yüzden kurbanlara sık sık şunu dediler:
11:33
"Just turn your computer off. Ignore it. It'll go away."
201
693799
3971
"Bilgisayarı kapat. Görmezden gel. Geçer gider."
11:38
And we saw that in Rana Ayyub's case.
202
698261
2466
Bunu Rana Ayyub vakasında da gördük.
11:41
She was told, "Come on, you're making such a big deal about this.
203
701102
3468
Ona söylenen şuydu:
"Hadi ama, olayı ne büyüttün. Erkekler erkeklik yapıyor işte."
11:44
It's boys being boys."
204
704594
1743
11:47
And so we need to pair new legislation with efforts at training.
205
707268
5252
Bu yüzden yeni mevzuatı eğitim çabalarıyla eşleştirmeliyiz.
11:54
And education has to be aimed on the media as well.
206
714053
3429
Eğitim medyaya da yönelik olmak zorunda.
11:58
Journalists need educating about the phenomenon of deepfakes
207
718180
4260
Gazeteciler, deepfake videolarını büyütüp yaymamak konusunda
12:02
so they don't amplify and spread them.
208
722464
3039
eğitim almalı.
12:06
And this is the part where we're all involved.
209
726583
2168
İşte bu kısma hepimiz dahiliz.
12:08
Each and every one of us needs educating.
210
728775
3855
Her birimizin eğitime ihtiyacı var.
12:13
We click, we share, we like, and we don't even think about it.
211
733375
3675
Tıklıyor, paylaşıyor, beğeniyoruz, hakkında düşünmüyoruz bile.
12:17
We need to do better.
212
737551
1547
Bundan daha iyisini yapmalıyız.
12:19
We need far better radar for fakery.
213
739726
2809
Sahteliğe karşı çok daha iyi bir radarımız olmalı.
12:25
So as we're working through these solutions,
214
745744
3841
Bu çözümler için çalışırken,
12:29
there's going to be a lot of suffering to go around.
215
749609
2563
çekilecek çok çile olacak.
12:33
Rana Ayyub is still wrestling with the fallout.
216
753093
2746
Rana Ayyub bunun etkileriyle hâlâ mücadele ediyor.
12:36
She still doesn't feel free to express herself on- and offline.
217
756669
4189
Kendisini internette ve dışarıda ifade etmekte hâlâ özgür hissetmiyor.
12:41
And as she told me,
218
761566
1365
Bana söylediğine göre,
12:42
she still feels like there are thousands of eyes on her naked body,
219
762955
5074
akıl yoluyla, videodakinin kendi bedeni olmadığını bilse de
12:48
even though, intellectually, she knows it wasn't her body.
220
768053
3661
çıplak bedeni üzerinde binlerce gözün gezindiğini hâlâ hissediyor.
12:52
And she has frequent panic attacks,
221
772371
2349
Özellikle tanımadığı birisi fotoğrafını çekmeye çalıştığında,
12:54
especially when someone she doesn't know tries to take her picture.
222
774744
4100
sık sık panik atak geçiriyor.
12:58
"What if they're going to make another deepfake?" she thinks to herself.
223
778868
3511
Kendi kendine "Ya başka bir deepfake videosu yaparlarsa," diye düşünüyor.
13:03
And so for the sake of individuals like Rana Ayyub
224
783082
3921
Rana Ayyub gibi bireylerin uğruna,
13:07
and the sake of our democracy,
225
787027
2306
demokrasimizin uğruna,
13:09
we need to do something right now.
226
789357
2182
tam şu anda bir şeyler yapmamız gerekiyor.
13:11
Thank you.
227
791563
1151
Teşekkür ederim.
13:12
(Applause)
228
792738
2508
(Alkışlar)
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7