How a Deepfake Almost Ruined My Political Career | Cara Hunter | TED

40,534 views ・ 2024-12-18

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Suat Utku Merter Gözden geçirme: Eren Gokce
00:03
This talk contains mature language
0
3620
3720
[Yetişkinlere yönelik dil içerir]
00:08
“You’re a little whore,
1
8700
1840
“Sen aşağılık bir orospusun
00:10
and we've all seen your little video."
2
10540
2560
ve hepimiz o aşağılık videonu gördük.”
00:14
That was the text message that was sent to me in April of 2022.
3
14300
5280
Bu, bana Nisan 2022′de gönderilen mesajdı.
00:20
I'm sitting in my grandmother's living room
4
20300
2480
Büyükannemin salonunda, onun 90. yaş gününde,
00:22
in what is her 90th birthday,
5
22820
2640
00:25
surrounded by family and friends
6
25460
2360
aile ve arkadaşlarla beraber oturuyordum.
00:27
as my phone blows up with messages from strangers
7
27820
4480
Bu sırada ülke genelinden yabancılar,
benim bir adamla aşırı derece müstehcen
00:32
right across the country
8
32300
1840
00:34
who say they have seen a video of me
9
34140
3160
pornografik aktivitede bulunduğum bir video gördüklerine dair mesajlarla
00:37
engaging in hardcore pornographic activity with a man.
10
37340
4720
telefonumu bombardımana tutuyorlardı.
00:42
I knew this was impossible.
11
42740
1600
Bunun imkânsız olduğunu biliyordum.
00:44
With just three weeks out from my election,
12
44900
2000
Seçime sadece üç hafta kala,
00:46
I felt as though my career was crumbling before my very eyes.
13
46940
4080
kariyerimin gözlerimin önünde parçalandığını hissettim.
00:51
My heart pounded,
14
51420
1440
Kalbim sıkıştı,
00:52
my mind raced, sweat beaded on my skin.
15
52860
3160
zihnimde düşünceler koşuşturuyordu, boncuk boncuk terliyordum.
00:56
And then I watched the video, and my worst fear was realized.
16
56380
4880
Videoyu izlediğimde en korktuğum şey gerçekleşmişti.
01:01
Although this woman in the video was not me,
17
61980
3560
Videodaki kadın ben olmasam da
01:05
she looked exactly like me.
18
65540
2720
tıpkı benim gibi görünüyordu.
01:09
Impossibly like me.
19
69020
2360
İmkânsız şekilde ben.
01:11
Eerily like me.
20
71380
1200
Ürkütücü şekilde ben.
01:13
I had so many questions running through my mind.
21
73140
3040
Aklımdan geçen bir sürü soru vardı.
01:16
Was this AI?
22
76500
1360
Bu yapay zekâ mıydı?
01:17
Was it not?
23
77900
1280
Değil miydi?
01:19
Who made this?
24
79220
1160
Bunu kim yaptı?
01:20
How did they make it?
25
80420
1360
Nasıl yaptı?
01:21
Why did they make it?
26
81820
1320
Neden yaptı?
01:23
So I did what anyone would do,
27
83140
2360
Başkalarının da yapacağı şeyi yaptım
01:25
and I approached my local police service to ask for advice, for guidance.
28
85500
4680
ve yerel polise öneri ve rehberlikleri için ulaştım.
01:30
And really, where did I go from there?
29
90220
2280
Doğrusu, şimdi ne yapacağım diye sormak için.
01:32
But they informed me that they wouldn't have the cybercrime technology to assist,
30
92540
4280
Ancak bana videonun nereden geldiğini bulmak için gereken
01:36
to find out where this video came from.
31
96860
2240
siber suç teknolojisine sahip olmadıklarını söylediler.
01:39
And it was from that moment I knew that I was on my own.
32
99140
3520
Bu andan itibaren tek başıma olduğumu anladım.
01:43
Now to set the stage, as you can probably tell,
33
103380
2440
Şimdi ortamı anlatmak gerekirse
01:45
I’m from Ireland,
34
105820
1240
tahmin edebileceğiniz üzere İrlandalıyım,
01:47
and to be exact, I'm from Northern Ireland,
35
107100
2480
daha kesin olmak gerekirse Kuzey İrlanda,
01:49
which is an even smaller place.
36
109580
2000
ki burası daha da küçük bir yer.
01:51
We have just 1.8 million people,
37
111620
2680
Sadece 1,8 milyon nüfusumuz var,
01:54
very similar to the size of Vienna.
38
114340
2840
Viyana’nın nüfusuna yakın.
01:57
So you can imagine a rumor of this sinister nature,
39
117180
3440
Tahmin edebileceğiniz üzere böylesine kötü bir dedikodu
02:00
particularly in the world of politics, can go very far, very fast.
40
120620
5920
özellikle politika çevrelerinde tez yayılır.
02:06
And that old saying, “seeing is believing” began to haunt me.
41
126540
4480
Eskilerden “gördüğün şeye inan” sözü peşimi bırakmamaya başladı.
02:11
And in the weeks leading up to my election,
42
131060
2520
Seçime giden haftalarda
02:13
this video, this false video,
43
133620
1920
bu video, bu sahte video,
02:15
was shared thousands and thousands of times across WhatsApp.
44
135540
4240
WhatsApp üzerinden binlerce kez paylaşıldı.
02:20
And attached to this video was photos of me at work,
45
140260
3720
Videonun ilişiğinde de
benim işteyken güldüğüm, kampanya yürüttüğüm,
02:24
smiling, campaigning,
46
144020
2760
02:26
building a sense of trust with my constituents.
47
146820
2680
seçmenlerimle aramda güven inşa ettiğim fotoğraflarım vardı.
02:29
And as the weeks went on,
48
149540
1480
Haftalar geçtikçe
02:31
messages flooded in faster and faster,
49
151020
3920
mesajlar daha hızlı gelmeye başladı
02:34
and they were of a very vile and sexual nature.
50
154980
3040
ve son derece çirkin ve cinsel içerikliydiler.
02:38
Ding!
51
158340
1200
Ding!
02:39
"We've all seen your little video."
52
159540
2000
“Hepimiz o aşağılık videonu gördük.”
02:41
Ding!
53
161940
1120
Ding!
02:43
"You should be ashamed of yourself."
54
163100
2480
“Kendinden utanmalısın.”
02:45
Ding!
55
165620
1200
Ding!
02:46
"Ah, now I see how you got your position in politics."
56
166820
4280
“Ah, politikaya nasıl girdiğini şimdi anlıyorum.”
02:53
It was very difficult.
57
173100
1960
Çok zorlayıcıydı.
02:55
And having been in politics since the age of 23,
58
175540
3160
23 yaşımdan beri, yani dört-beş yıldır, politikanın içindeyim
02:58
and at this point I've been in it for about four to five years,
59
178740
3560
03:02
and I'm from Northern Ireland, which is a post-conflict society,
60
182300
3280
ve Kuzey İrlanda’danım, burası çatışma sonrası bir toplum.
03:05
still very deeply divided.
61
185620
1920
Hâlâ derinden bölünmüş.
03:07
So I anticipated challenges,
62
187580
2600
Zorluklar bekliyordum,
03:10
I anticipated disagreements,
63
190220
2600
anlaşmazlıklar bekliyordum.
03:12
I even anticipated attacks, is politics after all.
64
192860
2800
Saldırı bile bekliyordum, sonuçta bu politika.
03:16
But what I did not anticipate was this moment.
65
196100
3520
Ancak beklemediğim şey işte bu andı.
03:19
This was different.
66
199660
1400
Bu çok farklıydı.
03:21
This was the moment where misogyny meets the misuse of technology,
67
201060
5800
Bu kadın düşmanlığının teknolojini yanlış kullanımıyla birleştiği
03:26
and even had the potential to impact the outcome of a democratic election.
68
206900
5560
bir andı, hatta demokratik bir seçimin sonucu etkileme potansiyeli bile vardı.
03:32
And the sad thing for me was this lie became so far spread,
69
212820
5080
Benim için üzücü olan bu yalanın yayılmış olmasıydı,
03:37
so far, so fast,
70
217940
1840
çok uzağa, çok kısa sürede.
03:39
that even my own family started to believe it.
71
219820
2880
Öyle ki kendi ailem bile inanmaya başladı.
03:42
Some would say that they'd heard it at a golf club,
72
222700
2760
Bazıları golf kulübünde, bazıları barda
03:45
others would say they heard it at the bar,
73
225500
2520
03:48
and of course, some even said they heard it in a locker room.
74
228060
4320
hatta bazıları, tabii ki, soyunma odasında duyduğunu söylüyordu.
03:52
A really good example of how far this went
75
232420
2480
Bunun ne kadar ileri gittiğinin çok iyi bir örneği
03:54
was people that I knew my entire life
76
234900
2520
tüm hayatım boyunca tanıdığım kişilerin
03:57
would pass me in the street without whispering a word.
77
237460
3000
sokakta bana bir kelime etmeden yanımdan geçmesi.
04:00
People like school teachers,
78
240460
1360
Öğretmenler gibi kişiler,
04:01
people I had a sense of trust with
79
241860
1720
bir nevi güven ve yakınlık duygusuna sahip olduğum kişiler.
04:03
and, you know, an affinity with.
80
243620
2360
04:05
And that was really hard.
81
245980
1320
Bu çok zordu.
04:07
It felt like overnight I was wearing a scarlet letter.
82
247300
3920
Bir gecede utanç sembolü olmuş gibiydim.
04:11
And as things moved on
83
251660
1320
Günler geçti,
04:12
and were about two, three weeks out from the election,
84
252980
2880
artık seçime iki-üç hafta kaldı ve
04:15
I kept receiving messages, and it got wider and wider.
85
255900
3120
mesajlar almaya devam ettim ve daha da yayıldı.
04:19
It was global.
86
259060
1160
Dünya çapındaydı.
04:20
Not only was I receiving messages from Dublin and from London,
87
260220
3680
Sadece Dublin ve Londra’dan değil
04:23
but I was also receiving messages from Massachusetts, Manhattan,
88
263900
4040
aynı zamanda Massachusetts’den, Manhattan’dan da mesajlar alıyordum
04:27
and I was getting so many follows on my political social media,
89
267940
3920
bu sırada politik sosyal medya hesabıma çok fazla takip geliyordu,
04:31
predominantly from men hungry for more of this scandal.
90
271900
3920
özellikle erkeklerden, bu skandaldan fazlasını isteyen.
04:35
And this intersection of online harms impacting my real life
91
275860
5120
Çevrim içi tehditlerin çevrim dışı hayatımı etkilediği bu kesişim
04:40
was something I found utterly strange and surreal.
92
280980
4000
son derece garip ve gerçeküstü bulduğum bir şeydi.
04:45
But it got to the point where I was recognized on the street
93
285500
3800
Öyle bir noktaya gelmişti ki sokakta bir yabancı beni tanıyıp
04:49
and approached by a stranger who asked me for a sexual favor.
94
289340
6040
benden cinsel talepte bulunmuştu.
04:55
And it was just, for me, it was like in the blink of an eye,
95
295420
3080
Göz açıp kapayıncaya kadar
04:58
everything had just changed,
96
298500
2640
her şey değişmişti
05:01
and it was utterly humiliating.
97
301140
1600
ve bu tamamen utanç vericiydi.
05:02
I didn't want to leave the house,
98
302780
1680
Evden çıkmak istemedim
05:04
and I had turned notifications off in my phone
99
304460
2880
ve sırf biraz soluklanabilmek için
telefonumdaki bildirimleri kapatmam gerekti.
05:07
just so I could kind of catch my breath,
100
307380
1920
05:09
but this wasn't ideal in the lead up, of course, to an election.
101
309340
4280
Ancak bu; seçim öncesinde yapılabilecek, şüphesiz, en iyi şey değildi.
05:13
And for me, I think that was the purpose of this false video, was to do just that.
102
313620
4960
Bence bu sahte videonun amacı tam da bunu yapmaktı.
05:19
But what hurt the most for me
103
319660
2440
Beni en çok acıtan şey
05:22
was sitting down my father
104
322140
2720
bu garip, gerçeküstü durumu
05:24
and having to explain to him this strange, surreal situation.
105
324860
5760
oturup babama anlatmam gerekmesiydi.
05:30
My father is an Irishman,
106
330620
1760
Babam bir İrlandalı,
05:32
completely disconnected from tech,
107
332420
2160
teknolojiden tamamen kopuk,
05:34
and so having to explain
108
334620
1920
bu yüzden bu korkunç uydurmayı
05:36
this horrific situation was an entire fabrication
109
336580
4320
ona anlatmak çok zordu.
05:40
was very hard to do.
110
340940
1600
05:42
This was this strange moment
111
342860
2120
Bu çevrim içi dünyanın
05:45
where the online world met my life, my reality.
112
345020
4880
hayatımla, gerçeğimle kesiştiği garip bir andı.
05:50
Not only having the impact to ruin my reputation,
113
350460
4520
Sadece saygınlığımı mahvedebilecek bir etkiye sahip değildi
05:54
but have the capacity to change the outcome
114
354980
2800
aynı zamanda demokratik bir seçimin
05:57
of a democratic election.
115
357820
2200
sonucunu değiştirme gücü vardı.
06:00
And, you know,
116
360500
1160
Bilirsiniz
06:01
for years I spent so much time building trust with my constituents.
117
361700
4040
yıllarca seçmenlerimle güven inşa etmek için çok zaman harcadım.
06:05
I mean, we all know how much people like politicians.
118
365780
3360
İnsanların politikacıları ne kadar sevdiğini bilirsiniz.
06:09
You know, we’re as likeable as the tax man.
119
369180
2000
Bilirsiniz, bir vergi memuru kadar seviliriz.
06:11
So for me, it was hard.
120
371220
2880
Bu nedenle, benim için zordu.
06:14
It was really hard
121
374100
1200
Çok zordu
06:15
because it was years of hard work.
122
375300
2280
çünkü bu yılların çabasıydı.
06:18
You know, I’m so passionate about my job,
123
378100
2160
Anlarsınız, işim konusunda çok tutkuluyum
06:20
and this video, this complete falsehood,
124
380260
2920
ve bu video, tüm bu uydurma,
06:23
had the ability to just undermine years of hard work in mere seconds.
125
383180
4600
yılların çabasına saniyeler içinde zarar verme yetisine sahipti.
06:28
But instead of succumbing entirely to victimhood,
126
388220
3200
Ancak tamamen kurbanlığa yenik düşmek yerine
06:31
I ask myself today,
127
391420
1360
kendime sordum,
06:32
you know, where do we go from here?
128
392820
2280
şimdi ne yapmalıyız?
06:35
And how can AI evolve to prevent something like this happening again?
129
395140
5560
Yapay Zekâ böyle bir şeyin tekrar etmemesi için nasıl gelişebilir?
06:40
Not only has it happened to me,
130
400740
1480
Bunu sadece bana değil
06:42
but we want to future-proof and ensure that this doesn't happen
131
402220
3000
aynı zamanda yarınların kadınlarının başına gelmemesini
06:45
to the women of tomorrow.
132
405260
1760
nasıl sağlayabiliriz?
06:47
How can we, you and I, people who care about people,
133
407060
4280
Biz; sen ve ben, insanları umursayan kişiler,
bunun iyilik için çalışan bir teknoloji olmasını nasıl sağlayabiliriz?
06:51
ensure that this is a tech for good?
134
411380
2400
06:54
How can we, the policymakers, the creators, the consumers,
135
414300
4680
Biz; karar vericiler, yaratıcılar, tüketiciler olarak
06:58
ensure we regulate AI and things like social media,
136
418980
3480
yapay zekâ ve sosyal medya gibi şeyleri insanları ve insanlığı merkeze
07:02
putting humans and humanity at the center of artificial intelligence?
137
422500
5320
koyacak şekilde nasıl düzenleyebiliriz?
07:08
AI can change the world.
138
428740
2280
Yapay Zekâ dünyayı değiştirebilir.
07:11
In fact, as we've heard today, it already has.
139
431060
2880
Hatta, bugün duyduğumuz gibi, değiştirdi bile.
07:13
In a matter of seconds,
140
433940
1520
Saniyeler içinde,
07:15
people who speak completely different languages
141
435460
2240
tamamen farklı diller konuşan insanlar
07:17
can connect and understand one another.
142
437700
2160
bağlanıp birbirlerini anlayabiliyorlar.
07:19
And we've even seen the Pope as a style icon in a puffer jacket.
143
439860
3960
Hatta Papa’yı şişme mont içinde bir stil ikonu olarak bile gördük.
07:24
So some really important uses right there.
144
444180
2240
Yani bazı son derece önemli kullanım şekilleri.
07:27
But then in my case as well,
145
447220
1600
Ancak benim durumumda,
07:28
we can also see how it is weaponized against the truth.
146
448860
3440
gerçeğe karşı nasıl bir silah hâline geldiğini de görüyoruz.
07:32
And good examples of this would be art that appears like reality,
147
452620
4120
Bu konuda diğer iyi örnekler: Gerçek gibi görünen sanat,
07:36
AI-generated reviews unfairly boosting certain products
148
456740
3840
yapay zekâyla oluşturulmuş incelemelerle ürünlerin haksız yere üste çıkması,
07:40
and things like chatbot propaganda.
149
460580
2760
sohbet robotu propagandası sayılabilir.
07:43
And then, politically speaking,
150
463340
1760
Politika açısından ise,
07:45
we've seen over the years deepfakes of Nancy Pelosi slurring,
151
465140
4320
Nancy Pelosi’nin, Joe Biden’ın küfrettiği
07:49
Joe Biden cursing
152
469500
1480
ve hatta Başkan Zelensky’nin askerlerine silahlarını bırakmalarını söylediği
07:51
and even President Zelensky
153
471020
1760
07:52
asking his soldiers to surrender their weapons.
154
472820
3160
deepfake videoları gördük.
07:57
So when AI is used like this, to manipulate,
155
477220
3560
Yani yapay zekâ böyle hile için kullanıldığında
08:00
it can be a threat to our democracy.
156
480780
2960
demokrasimiz için bir tehdit olabilir.
08:03
And the tech is becoming so advanced
157
483740
2680
Teknoloji geliştikçe
08:06
that it's hard to differentiate fact from fiction.
158
486460
3400
neyin gerçek olduğunu ayırt etmek zorlaşıyor.
08:10
So how does AI interfere with politics?
159
490660
4000
Peki yapay zekâ politikaya nasıl müdahale ediyor?
08:14
And for us as politicians, what should we be worried about?
160
494660
3840
Biz politikacılar olarak neyden endişelenmeliyiz?
08:18
Could truth and democracy become shattered by AI?
161
498820
3760
Gerçeklik ve demokrasi yapay zekâ tarafından bozulabilir mi?
08:22
Has it already?
162
502580
1320
Çoktan bozuldu mu?
08:24
Well, to dive a little deeper here,
163
504300
2160
Burada daha derine inmek gerekirse
08:26
I think firstly we need to talk about the concept of truth.
164
506500
3440
bence önce gerçeklik konseptini konuşmalıyız.
08:30
Without truth, democracy collapses.
165
510300
2920
Gerçek olmadan demokrasi çöker.
08:33
Truth allows us to make informed decisions,
166
513700
3520
Gerçekler, bilgiyle karar almamızı sağlar,
08:37
it enables us to hold leaders accountable, which is very important.
167
517220
4040
liderleri sorumlu tutmamızı sağlar, ki bu çok önemlidir.
08:41
And it also allows us, as political representatives,
168
521300
3400
Politik temsilciler olarak bizim de
08:44
to create a sense of trust with our citizens and our constituents.
169
524700
3840
vatandaşlar ve seçmenlerimizle aramızda güven duygusu yaratmamızı sağlar.
08:49
But without that truth,
170
529020
1680
Ancak bu gerçek olmadan
08:50
democracy is vulnerable to misinformation,
171
530740
3280
demokrasi yanlış bilgilere, hileye
08:54
manipulation, and, of course, corruption.
172
534020
3400
ve tabii ki de yolsuzluğa karşı korumasız kalıyor.
08:57
When AI erodes truth,
173
537940
2920
Yapay zekâ gerçeği yıprattığında
09:00
it erodes trust,
174
540860
2000
güveni de yıpratıyor
09:02
and it undermines our democracy.
175
542860
2240
ve demokrasimizi baltalıyor.
09:05
And for me, in my experience with a deepfake,
176
545500
3760
Ben, bu deepfake ile olan deneyimimden yola çıkarak
09:09
I've seen what a fantastic distortion tool that deepfakes really are.
177
549260
4960
deepfakelerin ne kadar iyi bir çarpıtma aracı olduğunu gördüm.
09:14
So how can we safeguard democracy from this ever-advancing technology?
178
554220
5080
Peki bu hızla gelişen teknoloji karşısında demokrasimizi nasıl koruyabiliriz?
09:19
It's becoming ever harder to distinguish between real and synthetic content.
179
559620
4960
Gerçek ile sahte içerikleri ayırt etmek gittikçe zorlaşıyor.
09:24
And politically, what role does AI play in the future?
180
564620
4160
Politika açısından, yapay zekânın gelecekteki rolü ne?
09:28
And I can't talk about politics without talking about media as well.
181
568820
4080
Medyaya da değinmeden politika hakkında konuşamam.
09:32
They're undeniably linked, they're intertwined.
182
572900
2360
İnkâr edilemeyecek bir şekilde bağlantılılar.
09:35
And I think journalism has its own battle here as well.
183
575300
3600
Gazeteciliğin burada ayrı bir savaşı olduğuna inanıyorum.
09:39
From AI algorithms boosting articles unfairly
184
579220
3600
Makaleleri haksız yere öne çıkaran yapay zekâ algoritmalarından
09:42
to clickbait headlines,
185
582860
1520
tıklama tuzaklarına
09:44
and then also moments where they can manipulate the public as well.
186
584420
4800
ve de toplumu yanlış yönlendirdikleri durumlara kadar.
09:49
But politically speaking,
187
589220
1240
Ancak siyaset açısından,
09:50
we've seen AI-tailored political messaging
188
590500
3000
yapay zekâ tarafından desteklenen siyasi mesajların
09:53
influencing voters,
189
593540
1160
seçmenleri etkilediğini gördük.
09:54
we’ve seen it adding to existing bias.
190
594740
3240
Mevcut ön yargıyı arttırdığını gördük.
09:58
And definitely I think we all have that aunt that’s on Facebook
191
598020
2960
Sanıyorum ki hepimizin Facebook’da gördüğü
10:00
and kind of believes anything.
192
600980
1840
her şeye inanan bir teyzesi var.
10:02
So for me, as a politician,
193
602860
1440
Ben bir siyasetçi olarak
10:04
I think it's really important we dive a little deeper
194
604340
2480
yapay zekânın gazetecilik ve medya ile olan ilişkisini daha derinden
10:06
into the relationship of AI, journalism and media.
195
606820
3880
incelememizin çok önemli olduğuna inanıyorum.
10:11
But it also puts us at risk
196
611220
1840
Ancak bu bizi daha da bölünmüş ve tepkisel bir topluluk
10:13
of creating a more divided and reactionary society,
197
613100
4000
oluşturma tehlikesi altına sokuyor,
10:17
because falsehoods can create a lot of reaction.
198
617140
3000
çünkü yanlışlıklar çok fazla tepki çekebilir.
10:20
And for myself, coming from Northern Ireland,
199
620140
2320
Ben, o çatışma sonrası ülke Kuzey İrlanda’dan biri olarak
10:22
which is that post-conflict society,
200
622500
2320
10:24
I do have concerns about how it could shape our political landscape
201
624860
3960
bunun bizim ve dünya çapında diğer yerlerin
10:28
and other places across the globe.
202
628820
2320
siyasi durumunu nasıl etkileyebileceği konusunda endişelerim var.
10:32
Sadly, this deepfake video
203
632060
2320
Ne yazık ki, bu deepfake videosu
10:34
is not the only instance of me having experienced abuse with AI.
204
634380
5400
yapay zekânın suistimaliyle karşılaştığım tek durum değil.
10:39
Just six months ago,
205
639780
1280
Sadece altı ay önce
10:41
I received 15 deepfake images of myself in lingerie
206
641100
5400
iç çamaşırı içinde tahrik edici pozlar verdiğim
10:46
posing provocatively.
207
646540
1640
15 tane deepfake görseli aldım.
10:48
And I thought to myself, here we go again.
208
648620
3240
Kendime, yine başlıyoruz, dedim.
10:52
And you know, I spoke with some other female politicians.
209
652460
3720
Diğer kadın siyasetçilerle konuştum.
10:56
Thankfully, where I represent, we have more women getting into politics.
210
656980
4280
Neyse ki temsil ettiğim bölgede daha fazla kadın siyasete girmeye başladı.
11:01
But I had a really good conversation with them,
211
661300
2200
Onlarla iyi bir görüşme yaptım ve daha çok
11:03
and it’s around, if this is happening to you now,
212
663500
2320
“Bu bugün sana oluyorsa, yarın kim bilir bana ne olacak?”
11:05
what happens to me tomorrow?
213
665860
1760
üzerine oldu.
11:07
And I think this really strikes at the heart of the climate of fear
214
667660
3960
Bu bence gerçekten de kamusal yaşamdakiler için yapay zekânın yaratabileceği
11:11
that AI can create for those in public life.
215
671660
3840
korku ortamının üzerinde duruyor.
11:15
And I don't blame women.
216
675500
1160
Kadınları suçlamıyorum.
11:16
It's very sad.
217
676700
1160
Bu çok üzücü.
11:17
I don't blame women for not wanting to get into politics
218
677860
2640
Bu tarz teknolojilerin öne çıktığını görünce
11:20
when they see this kind of technology come forward,
219
680540
2400
siyasete girmek istemeyen kadınları suçlamıyorum,
11:22
so that's so important that we safeguard it.
220
682940
2480
yani bir önlem almamız önemli.
11:25
What also concerned me was the position of elderly voters
221
685420
4680
Beni endişelendiren bir diğer konu da yaşlı seçmenlerin durumuydu,
11:30
and perhaps their media literacy,
222
690100
1880
onların medya okuryazarlığı,
11:32
their comprehension of this technology.
223
692020
2200
bu teknolojiyi anlama şekilleri.
11:34
People who don't use the internet,
224
694260
2120
İnterneti kullanmayan insanlar,
11:36
who perhaps are not aware of AI and its many, many uses.
225
696420
3920
yapay zekâdan ve onun çok çeşitli kullanım şekillerinden haberdar olmayanlar.
11:40
So that was really concerning as well.
226
700340
2400
Bu da çok endişe vericiydi.
11:43
But it doesn't have to be this way.
227
703060
1800
Ancak böyle olmak zorunda değil.
11:44
We can be part of the change.
228
704900
1760
Değişimin bir parçası olabiliriz.
11:47
For me and my video,
229
707260
1920
Ben ve videoma gelirsek
11:49
I still don't know, to this day, who did this.
230
709220
3520
bugün bile bunu kimin yaptığını bilmiyorum.
11:52
I can imagine why they did it, but I don't know who did it.
231
712780
3400
Yapma nedenlerini tahmin edebiliyorum ancak kimin yaptığını bilmiyorum.
11:56
And sadly for me and for across the globe,
232
716180
3200
Ne yazık ki bu benim durumumda ve dünya genelinde
11:59
it still wouldn't be considered a crime.
233
719420
2920
hâlâ bir suç olarak görülmüyor.
12:03
So from being the enemy of fair, transparent,
234
723260
2840
Yapay Zekâ; adil, şeffaf ve saygın siyasetin,
12:06
good-natured politics,
235
726100
1600
savaşın ve uluslararası müdahalelerin
12:07
to warfare, to international interference,
236
727740
3240
düşmanı olarak
12:11
despite its beauty and its potential,
237
731020
2880
harikalığına ve potansiyeline karşın
12:13
AI is still a cause for concern.
238
733940
2880
yine de bir endişe konusu.
12:16
But it doesn't have to be this way.
239
736820
2080
Ancak böyle olmak zorunda değil.
12:19
I feel passionately that AI can be a humanistic technology
240
739260
3720
Yapay zekânın
insani değerlerle
yaşamımızı kendimizin en iyi versiyonu olmak için tamamlayan
12:23
with human values
241
743020
1560
12:24
that complements the lives that we live
242
744620
2640
12:27
to make us the very best versions of ourselves.
243
747300
3440
insancıl bir teknoloji olabileceğine içten inanıyorum.
12:31
But to do that,
244
751100
1560
Ancak bunu yapmak için
12:32
I think we need to embed ethics into this technology,
245
752700
3920
bu teknolojiye etik entegre etmemiz,
12:36
to eliminate bias, to install empathy
246
756620
4160
ön yargıyı kaldırmamız, empati eklememiz
12:40
and make sure it is aligned with human values and human principles.
247
760820
4760
ve insani değerler ve ilkelerle uyumunu sağlamamız gerektiğine inanıyorum.
12:45
Who knows, our democracy could depend on it.
248
765900
3400
Kim bilir, demokrasimiz buna bağlı olabilir.
12:49
And today I know we have some of the brightest minds in this room.
249
769300
3840
Biliyorum bugün burada son derece parlak zekâlı kişiler var.
12:53
I heard some of the talks earlier, and I'm certain of that.
250
773180
4120
Bazı konuşmaları duydum ve bundan eminim.
12:57
And I know each and every one of you have weight on your shoulders
251
777340
3120
Aynı zamanda geleceğe bakarken hepinizin omzunda bir yük olduğunu da
13:00
when looking to the future.
252
780500
1680
biliyorum.
13:02
But I also know each and every one of you want to see this tech for good.
253
782220
5400
Bir diğer yandan da her birinizin bu teknolojinin
iyilik için kullanıldığını görmek istediğini biliyorum.
13:07
And what gives me hope
254
787980
1800
Bana umut veren şey
13:09
is witnessing the movement right across the globe
255
789780
3320
hem iyi hem de kötü için kullanılabilecek
13:13
to see this hard journey begin,
256
793140
2800
bu teknolojinin düzenlenmesi için
13:15
to regulate this ever-advancing technology,
257
795940
2840
dünya çapında başlayan zorlu sürece tanık olmak.
13:18
which can be used for bad or for good.
258
798780
3000
13:22
But perhaps we, each and every one of us in this room,
259
802140
3720
Belki biz, bu salondaki her birimiz,
13:25
can be part of finding the solution.
260
805860
2360
çözümün bir parçası olabiliriz.
13:28
(Applause)
261
808860
2200
(Alkış)
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7