How we can protect truth in the age of misinformation | Sinan Aral

216,072 views ・ 2020-01-16

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

00:00
Translator: Ivana Korom Reviewer: Krystian Aparta
0
0
7000
Çeviri: Sirvan Boyraz Gözden geçirme: Nevaz Mescioğlu
00:13
So, on April 23 of 2013,
1
13468
5222
23 Nisan 2013'te
00:18
the Associated Press put out the following tweet on Twitter.
2
18714
5514
Associated Press, Twitter'da şöyle bir tweet attı.
00:24
It said, "Breaking news:
3
24252
2397
"Flaş haber:
00:26
Two explosions at the White House
4
26673
2571
Beyaz Saray'da iki patlama.
00:29
and Barack Obama has been injured."
5
29268
2333
Barack Obama yaralandı."
00:32
This tweet was retweeted 4,000 times in less than five minutes,
6
32212
5425
Bu tweet beş dakikadan kısa sürede 4000 kere paylaşıldı
00:37
and it went viral thereafter.
7
37661
2217
ve sonrasında viral oldu.
00:40
Now, this tweet wasn't real news put out by the Associated Press.
8
40760
4350
Bu tweet, Associated Press tarafından paylaşılan gerçek bir haber değildi.
00:45
In fact it was false news, or fake news,
9
45134
3333
Aslında sahte veya yalan bir haberdi.
00:48
that was propagated by Syrian hackers
10
48491
2825
Associated Press'in Twitter hesabını ele geçiren
00:51
that had infiltrated the Associated Press Twitter handle.
11
51340
4694
Suriyeli bilgisayar korsanlarınca paylaşılmıştı.
00:56
Their purpose was to disrupt society, but they disrupted much more.
12
56407
3889
Amaçları toplumda kargaşa çıkarmaktı ama çok daha fazlasını yaptılar.
01:00
Because automated trading algorithms
13
60320
2476
Çünkü otomatik borsa algoritmaları
01:02
immediately seized on the sentiment on this tweet,
14
62820
3360
bu tweet'teki hissiyatı hemen yakaladı
01:06
and began trading based on the potential
15
66204
2968
ve ABD Başkanı'nın bu patlamada
01:09
that the president of the United States had been injured or killed
16
69196
3381
yaralanmış veya öldürülmüş olması ihtimaline göre alım satım
01:12
in this explosion.
17
72601
1200
yapmaya başladı.
01:14
And as they started tweeting,
18
74188
1992
Tweet atmaya başladıklarında
01:16
they immediately sent the stock market crashing,
19
76204
3349
borsayı çöküşe soktular,
01:19
wiping out 140 billion dollars in equity value in a single day.
20
79577
5167
bir günde 140 milyar dolarlık değer kaybına yol açtılar.
01:25
Robert Mueller, special counsel prosecutor in the United States,
21
85062
4476
Özel yetkili ABD savcısı Robert Mueller
01:29
issued indictments against three Russian companies
22
89562
3892
üç Rus şirketine ve 13 Rus bireye karşı
01:33
and 13 Russian individuals
23
93478
2619
2016 başkanlık seçimine müdahale ederek
01:36
on a conspiracy to defraud the United States
24
96121
3167
ABD'yi dolandırmak amacıyla
01:39
by meddling in the 2016 presidential election.
25
99312
3780
komplo kurmaktan dava açtı.
01:43
And what this indictment tells as a story
26
103855
3564
Bu iddianamenin hikâyesi,
01:47
is the story of the Internet Research Agency,
27
107443
3142
Kremlin'in sosyal medyadaki gizli kolu olan
01:50
the shadowy arm of the Kremlin on social media.
28
110609
3594
Internet Research Agency'nin hikâyesidir.
01:54
During the presidential election alone,
29
114815
2777
Sırf başkanlık seçimlerinde
01:57
the Internet Agency's efforts
30
117616
1889
Internet Agency'nin çabaları
01:59
reached 126 million people on Facebook in the United States,
31
119529
5167
ABD'de Facebook üzerinden 126 milyon kişiye ulaştı,
02:04
issued three million individual tweets
32
124720
3277
üç milyon tekil tweet attı
02:08
and 43 hours' worth of YouTube content.
33
128021
3842
ve 43 saatlik YouTube içeriği yayınladı.
02:11
All of which was fake --
34
131887
1652
Bunların hepsi sahteydi.
02:13
misinformation designed to sow discord in the US presidential election.
35
133563
6323
ABD başkanlık seçimlerine şüphe tohumları ekme amaçlı yanlış bilgilendirmelerdi.
02:20
A recent study by Oxford University
36
140996
2650
Oxford Üniversitesi'nin yakın tarihli bir araştırması
02:23
showed that in the recent Swedish elections,
37
143670
3270
geçtiğimiz İsveç seçimlerinde
02:26
one third of all of the information spreading on social media
38
146964
4375
sosyal medyada yayınlanan seçimle ilgili bilgilerin
02:31
about the election
39
151363
1198
üçte birinin
02:32
was fake or misinformation.
40
152585
2087
yalan veya sahte olduğunu ortaya koydu.
02:35
In addition, these types of social-media misinformation campaigns
41
155037
5078
Ek olarak, yanlış bilgilendirme amaçlı bu tür sosyal medya kampanyaları
02:40
can spread what has been called "genocidal propaganda,"
42
160139
4151
Burma'da Rohingya'ya karşı yürütülen
02:44
for instance against the Rohingya in Burma,
43
164314
3111
veya Hindistan'da linçlere yol açan "soykırımcı propaganda"ların
02:47
triggering mob killings in India.
44
167449
2303
yayılmasına yol açabilir.
02:49
We studied fake news
45
169776
1494
Biz yalan haberleri araştırdık
02:51
and began studying it before it was a popular term.
46
171294
3219
ve onları araştırmaya bu terim popüler olmadan önce başladık.
02:55
And we recently published the largest-ever longitudinal study
47
175030
5040
Bu yıl Mart ayında, "Science" dergisinin kapağında
internette yayılan sahte haberleri konu alan en geniş kapsamlı
03:00
of the spread of fake news online
48
180094
2286
03:02
on the cover of "Science" in March of this year.
49
182404
3204
panel araştırmasını yayımladık.
03:06
We studied all of the verified true and false news stories
50
186523
4161
2006'daki kuruluşundan 2017'ye kadar Twitter'da yayılan
03:10
that ever spread on Twitter,
51
190708
1753
doğru veya yalan olduğu ispatlanmış
03:12
from its inception in 2006 to 2017.
52
192485
3818
tüm haberleri inceledik.
03:16
And when we studied this information,
53
196612
2314
Bu bilgileri ele alırken
03:18
we studied verified news stories
54
198950
2876
bilgi kontrolü yapan altı bağımsız kuruluşun
03:21
that were verified by six independent fact-checking organizations.
55
201850
3918
doğruladığı haberleri inceledik.
03:25
So we knew which stories were true
56
205792
2762
Yani hangilerinin doğru,
03:28
and which stories were false.
57
208578
2126
hangilerinin sahte olduğunu biliyorduk.
03:30
We can measure their diffusion,
58
210728
1873
Yayılışlarını ölçebiliyoruz,
03:32
the speed of their diffusion,
59
212625
1651
yayılışlarının hızını, derinliğini
03:34
the depth and breadth of their diffusion,
60
214300
2095
ve kapsamını ölçebiliyoruz,
03:36
how many people become entangled in this information cascade and so on.
61
216419
4142
kaç kişinin bu bilgi yağmuruna kapıldığını da.
03:40
And what we did in this paper
62
220942
1484
Bu araştırmada yaptığımız,
03:42
was we compared the spread of true news to the spread of false news.
63
222450
3865
gerçek haberlerin yayılışıyla yalan haberlerin yayılışını kıyaslamaktı.
03:46
And here's what we found.
64
226339
1683
Bulduklarımız şunlar:
03:48
We found that false news diffused further, faster, deeper
65
228046
3979
Yalan haberlerin araştırdığımız her haber kategorisinde
03:52
and more broadly than the truth
66
232049
1806
doğru haberlerden
03:53
in every category of information that we studied,
67
233879
3003
kimi zaman birkaç kat daha uzağa, daha hızlı,
03:56
sometimes by an order of magnitude.
68
236906
2499
daha geniş kapsamlı yayıldığını tespit ettik.
03:59
And in fact, false political news was the most viral.
69
239842
3524
Siyasi yalan haberler en viral olanlardı.
04:03
It diffused further, faster, deeper and more broadly
70
243390
3147
Diğer tür yalan haber türlerinden daha uzağa, daha derine
04:06
than any other type of false news.
71
246561
2802
ve daha geniş kitlelere yayılıyorlardı.
04:09
When we saw this,
72
249387
1293
Bunu gördüğümüzde
04:10
we were at once worried but also curious.
73
250704
2841
hem endişelendik hem meraklandık.
04:13
Why?
74
253569
1151
Neden?
04:14
Why does false news travel so much further, faster, deeper
75
254744
3373
Neden yalan haberler, gerçeklerden daha uzağa, daha hızlı,
04:18
and more broadly than the truth?
76
258141
1864
daha geniş çaplı yayılıyor?
04:20
The first hypothesis that we came up with was,
77
260339
2961
İlk hipotezimiz
04:23
"Well, maybe people who spread false news have more followers or follow more people,
78
263324
4792
"Belki yalan haberleri yayanların takipçisi, takip ettikleri daha çok,
04:28
or tweet more often,
79
268140
1557
daha çok tweet atıyorlar,
04:29
or maybe they're more often 'verified' users of Twitter, with more credibility,
80
269721
4126
geneli "doğrulanmış" Twitter kullanıcıları
04:33
or maybe they've been on Twitter longer."
81
273871
2182
veya daha uzun süredir Twitter'dalar.
04:36
So we checked each one of these in turn.
82
276077
2298
Sırayla bunların hepsine baktık.
04:38
And what we found was exactly the opposite.
83
278691
2920
Tam tersini bulduk.
04:41
False-news spreaders had fewer followers,
84
281635
2436
Yalan haberleri yayanların takipçileri daha azdı,
04:44
followed fewer people, were less active,
85
284095
2254
daha az kişiyi takip ediyorlardı, daha az aktif,
04:46
less often "verified"
86
286373
1460
ender olarak "doğrulanmış"tılar.
04:47
and had been on Twitter for a shorter period of time.
87
287857
2960
Daha kısa süredir Twitter'daydılar.
04:50
And yet,
88
290841
1189
Yine de
04:52
false news was 70 percent more likely to be retweeted than the truth,
89
292054
5033
bunlar ve başka faktörler dâhilinde yalan haberin tekrar tweetlenmesi ihtimali
04:57
controlling for all of these and many other factors.
90
297111
3363
05:00
So we had to come up with other explanations.
91
300498
2690
Öyleyse başka açıklamalar bulmalıydık.
05:03
And we devised what we called a "novelty hypothesis."
92
303212
3467
"Yenilik hipotezi" diye bir şey geliştirdik.
05:07
So if you read the literature,
93
307038
1960
Araştırmalara bakarsanız
05:09
it is well known that human attention is drawn to novelty,
94
309022
3754
insanın dikkatinin yeni şeylere, çevrede yeni olan şeylere
05:12
things that are new in the environment.
95
312800
2519
kaydığı iyi bilinir.
05:15
And if you read the sociology literature,
96
315343
1985
Sosyoloji külliyatına bakarsanız
05:17
you know that we like to share novel information.
97
317352
4300
yeni bilgileri paylaşmayı sevdiğimizi görürsünüz.
05:21
It makes us seem like we have access to inside information,
98
321676
3838
Gizli bir bilgiye erişimimiz varmış gibi hissettirir
05:25
and we gain in status by spreading this kind of information.
99
325538
3785
ve bu tür bilgileri yayarak statü kazanırız.
05:29
So what we did was we measured the novelty of an incoming true or false tweet,
100
329792
6452
Gelen doğru veya yalan bir tweet'in o bireyin önceki 60 günde
05:36
compared to the corpus of what that individual had seen
101
336268
4055
Twitter'da gördüklerine kıyasla ne kadar yeni bir bilgi
05:40
in the 60 days prior on Twitter.
102
340347
2952
olduğunu ölçtük.
05:43
But that wasn't enough, because we thought to ourselves,
103
343323
2659
Ama bu, yeterli değildi. "Yalan haber,
05:46
"Well, maybe false news is more novel in an information-theoretic sense,
104
346006
4208
bilgi teorisi anlamında daha yeni olabilir
05:50
but maybe people don't perceive it as more novel."
105
350238
3258
ama belki insanlar onu yeni olarak algılamıyordur." dedik.
05:53
So to understand people's perceptions of false news,
106
353849
3927
İnsanların yalan haberi nasıl algıladığını anlamak için
05:57
we looked at the information and the sentiment
107
357800
3690
doğru ve yalan haberlere verilen tepkilerdeki
06:01
contained in the replies to true and false tweets.
108
361514
4206
bilgilere ve hislere baktık.
06:06
And what we found
109
366022
1206
Sürpriz, iğrenme, korku,
06:07
was that across a bunch of different measures of sentiment --
110
367252
4214
üzüntü, beklenti, neşe ve güven gibi
06:11
surprise, disgust, fear, sadness,
111
371490
3301
farklı duyguların ölçümlerine baktığımızda
06:14
anticipation, joy and trust --
112
374815
2484
bulduğumuz şey
06:17
false news exhibited significantly more surprise and disgust
113
377323
5857
yalan haberler söz konusu olduğunda bu sahte tweet'lere verilen yanıtların
06:23
in the replies to false tweets.
114
383204
2806
çok daha fazla sürpriz ve iğrenme hissine yol açtığıydı.
06:26
And true news exhibited significantly more anticipation,
115
386392
3789
Doğru haberlerdeyse doğru tweet'lere verilen yanıtlarda
06:30
joy and trust
116
390205
1547
daha çok beklenti,
06:31
in reply to true tweets.
117
391776
2547
neşe ve güven vardı.
06:34
The surprise corroborates our novelty hypothesis.
118
394347
3786
Sürpriz, yenilik hipotezine uyuyor.
06:38
This is new and surprising, and so we're more likely to share it.
119
398157
4609
Bu, yeni ve şaşırtıcı, dolayısıyla onu paylaşma ihtimalimiz daha yüksek.
06:43
At the same time, there was congressional testimony
120
403092
2925
Aynı zamanda ABD Kongre ve Senatosu'nda
06:46
in front of both houses of Congress in the United States,
121
406041
3036
yanlış bilgilerin yayılmasında botların rolüne dair
06:49
looking at the role of bots in the spread of misinformation.
122
409101
3738
ifadeler verildi.
06:52
So we looked at this too --
123
412863
1354
Biz de buna da baktık.
06:54
we used multiple sophisticated bot-detection algorithms
124
414241
3598
Gelişmiş bot tespit algoritmaları kullanarak
06:57
to find the bots in our data and to pull them out.
125
417863
3074
verilerimizdeki botları bulup çıkardık.
07:01
So we pulled them out, we put them back in
126
421347
2659
Onları çıkardık, geri koyduk
07:04
and we compared what happens to our measurement.
127
424030
3119
ve ölçümlerimize ne olduğuna baktık.
07:07
And what we found was that, yes indeed,
128
427173
2293
Şunu bulduk, evet, gerçekten de botlar
07:09
bots were accelerating the spread of false news online,
129
429490
3682
internette yalan haberlerin yayılmasını hızlandırıyordu
07:13
but they were accelerating the spread of true news
130
433196
2651
ama doğruların yayılmasını da
07:15
at approximately the same rate.
131
435871
2405
aynı ölçüde hızlandırıyorlardı.
07:18
Which means bots are not responsible
132
438300
2858
Yani gerçeklerin ve yalanların
07:21
for the differential diffusion of truth and falsity online.
133
441182
4713
yayılışındaki farklılıkların sorumlusu botlar değil.
07:25
We can't abdicate that responsibility,
134
445919
2849
Bu sorumluluğu başkasına atamayız
07:28
because we, humans, are responsible for that spread.
135
448792
4259
çünkü o yayılmanın sorumlusu biz insanlarız.
07:34
Now, everything that I have told you so far,
136
454472
3334
Şimdiye kadar anlattıklarım
07:37
unfortunately for all of us,
137
457830
1754
ne yazık ki
07:39
is the good news.
138
459608
1261
işin iyi yanıydı.
07:42
The reason is because it's about to get a whole lot worse.
139
462670
4450
Bunun sebebi daha da kötüye gidecek olması.
07:47
And two specific technologies are going to make it worse.
140
467850
3682
Bunu kötüleştirecek iki belli başlı teknoloji var.
07:52
We are going to see the rise of a tremendous wave of synthetic media.
141
472207
5172
Sentetik medya dalgasında ciddi bir artış göreceğiz.
07:57
Fake video, fake audio that is very convincing to the human eye.
142
477403
6031
Dışarıdan bakıldığında ikna edici görünen sahte video, sahte seslendirme.
08:03
And this will powered by two technologies.
143
483458
2754
Ve iki teknoloji bunu besleyecek.
08:06
The first of these is known as "generative adversarial networks."
144
486236
3833
İlki "üretken çekişmeli ağlar" olarak biliniyor.
08:10
This is a machine-learning model with two networks:
145
490093
2563
Bu, iki ağlı bir makine öğrenimi modeli:
08:12
a discriminator,
146
492680
1547
Bir şeyin gerçek mi sahte mi
08:14
whose job it is to determine whether something is true or false,
147
494251
4200
olduğunu belirlemekle görevli bir ayrıştırıcı
08:18
and a generator,
148
498475
1167
ve sentetik medya
08:19
whose job it is to generate synthetic media.
149
499666
3150
üretmekle yükümlü üretici.
08:22
So the synthetic generator generates synthetic video or audio,
150
502840
5102
Sentetik üretici, sentetik video veya sesi üretir
08:27
and the discriminator tries to tell, "Is this real or is this fake?"
151
507966
4675
ve ayrıştırıcı şunu belirlemeyi dener: "Bu sahte mi, gerçek mi?"
08:32
And in fact, it is the job of the generator
152
512665
2874
Aslında üreticinin işi
08:35
to maximize the likelihood that it will fool the discriminator
153
515563
4435
yarattığı sentetik video ve sesin ayrıştıcı tarafından
08:40
into thinking the synthetic video and audio that it is creating
154
520022
3587
gerçek sanılması ihtimalini
08:43
is actually true.
155
523633
1730
artırmaktır.
08:45
Imagine a machine in a hyperloop,
156
525387
2373
Bizi kandırmakta ustalaşmaya çalışan,
08:47
trying to get better and better at fooling us.
157
527784
2803
döngüye takılmış bir makine hayal edin.
08:51
This, combined with the second technology,
158
531114
2500
Bu, ikinci teknolojiyle,
08:53
which is essentially the democratization of artificial intelligence to the people,
159
533638
5722
yapay zekânın demokratikleştirilmesiyle, yani makine öğrenimi
08:59
the ability for anyone,
160
539384
2189
veya yapay zekâ konusunda
09:01
without any background in artificial intelligence
161
541597
2830
herhangi bir eğitimi olmayan kişilerin bile
09:04
or machine learning,
162
544451
1182
sentetik medya üretmek için
09:05
to deploy these kinds of algorithms to generate synthetic media
163
545657
4103
bu tür algoritmaları kullanabilmesiyle birleşince
09:09
makes it ultimately so much easier to create videos.
164
549784
4547
videoların yaratılması fazlasıyla kolaylaşıyor.
09:14
The White House issued a false, doctored video
165
554355
4421
Beyaz Saray bir gazetecinin mikrofonunu almaya çalışan stajyerle
09:18
of a journalist interacting with an intern who was trying to take his microphone.
166
558800
4288
etkileşimini gösteren sahte, üstünde oynanmış bir video yayınladı.
09:23
They removed frames from this video
167
563427
1999
Eylemlerini daha dramatik kılmak için
09:25
in order to make his actions seem more punchy.
168
565450
3287
bu videodan bazı kareleri çıkardılar.
09:29
And when videographers and stuntmen and women
169
569157
3385
Bu teknik konusunda
09:32
were interviewed about this type of technique,
170
572566
2427
videograflar ve dublörlerle görüşüldüğünde
09:35
they said, "Yes, we use this in the movies all the time
171
575017
3828
"Evet, yumruklarımız ve tekmelerimiz daha etkileyici ve saldırgan görünsün diye
09:38
to make our punches and kicks look more choppy and more aggressive."
172
578869
4763
filmlerde bunu hep kullanırız." dediler.
09:44
They then put out this video
173
584268
1867
Sonra bu videoyu yayınladılar
09:46
and partly used it as justification
174
586159
2500
ve bahsi geçen gazeteci olan Jim Acosta'nın,
09:48
to revoke Jim Acosta, the reporter's, press pass
175
588683
3999
Beyaz Saray basın kartını
09:52
from the White House.
176
592706
1339
iptal etmekte kullandılar.
09:54
And CNN had to sue to have that press pass reinstated.
177
594069
4809
Basın kartının yeniden çıkarılması için CNN dava açmak zorunda kaldı.
10:00
There are about five different paths that I can think of that we can follow
178
600538
5603
Bugün bu son derece zor sorunları çözmek için
10:06
to try and address some of these very difficult problems today.
179
606165
3739
izleyebileceğimiz beş yol aklıma geliyor.
10:10
Each one of them has promise,
180
610379
1810
Hepsinin potansiyeli var
10:12
but each one of them has its own challenges.
181
612213
2999
ama kendilerine göre zorlukları da var.
10:15
The first one is labeling.
182
615236
2008
İlki etiketleme.
10:17
Think about it this way:
183
617268
1357
Bunu şöyle düşünün:
10:18
when you go to the grocery store to buy food to consume,
184
618649
3611
Yiyecek almak için markete gittiğinizde
10:22
it's extensively labeled.
185
622284
1904
hepsi detaylı şekilde etiketlenmiş.
10:24
You know how many calories it has,
186
624212
1992
Kaç kalorisi olduğunu,
10:26
how much fat it contains --
187
626228
1801
ne kadar yağ içerdiğini biliyorsunuz
10:28
and yet when we consume information, we have no labels whatsoever.
188
628053
4278
ama tükettiğimiz bilgilerin hiçbir etiketi yok.
10:32
What is contained in this information?
189
632355
1928
Bu bilgi neleri kapsıyor?
10:34
Is the source credible?
190
634307
1453
Kaynağı güvenilir mi?
10:35
Where is this information gathered from?
191
635784
2317
Bilgi nereden toplanmış?
10:38
We have none of that information
192
638125
1825
Bilgileri tüketirken
10:39
when we are consuming information.
193
639974
2103
bu bilgiler bize verilmiyor.
10:42
That is a potential avenue, but it comes with its challenges.
194
642101
3238
Bu izlenebilecek bir yol ama kendine özgü sorunları var.
10:45
For instance, who gets to decide, in society, what's true and what's false?
195
645363
6451
Mesela bir toplumda neyin doğru neyin yanlış olduğuna kim karar verir?
10:52
Is it the governments?
196
652387
1642
Hükûmet mi?
10:54
Is it Facebook?
197
654053
1150
Facebook mu?
10:55
Is it an independent consortium of fact-checkers?
198
655601
3762
Bilgileri kontrol eden bağımsız bir kurul mu?
10:59
And who's checking the fact-checkers?
199
659387
2466
Peki onları kim kontrol edecek?
11:02
Another potential avenue is incentives.
200
662427
3084
Bir diğer yol, teşvik.
11:05
We know that during the US presidential election
201
665535
2634
ABD başkanlık seçimi sırasında
11:08
there was a wave of misinformation that came from Macedonia
202
668193
3690
Makedonya'dan bir yanlış bilgi dalgası geldiğini biliyoruz.
11:11
that didn't have any political motive
203
671907
2337
Amaçları siyasi değil,
11:14
but instead had an economic motive.
204
674268
2460
ekonomikti.
11:16
And this economic motive existed,
205
676752
2148
Bu ekonomik amaç, var olabilmesini
11:18
because false news travels so much farther, faster
206
678924
3524
yalan haberin, doğrulardan çok daha hızlı,
11:22
and more deeply than the truth,
207
682472
2010
çok daha derinlere yayılmasına borçlu
11:24
and you can earn advertising dollars as you garner eyeballs and attention
208
684506
4960
ve bu tür bilgilerle insanların ilgisini çekerek
11:29
with this type of information.
209
689490
1960
reklam geliri elde edebilirsiniz.
11:31
But if we can depress the spread of this information,
210
691474
3833
Ama bu bilginin yayılmasını baskılarsak
11:35
perhaps it would reduce the economic incentive
211
695331
2897
belki de daha baştan yaratılmasına sebep olan
11:38
to produce it at all in the first place.
212
698252
2690
ekonomik teşvikleri de azaltırız.
11:40
Third, we can think about regulation,
213
700966
2500
Üçüncüsü, denetim.
11:43
and certainly, we should think about this option.
214
703490
2325
Bu seçeneği düşünmemiz gerektiği kesin.
11:45
In the United States, currently,
215
705839
1611
Şu anda ABD'de
11:47
we are exploring what might happen if Facebook and others are regulated.
216
707474
4848
Facebook ve benzerleri denetim altına alınsa ne olacağını araştırıyoruz.
11:52
While we should consider things like regulating political speech,
217
712346
3801
Siyasi söylemleri denetlemeyi, onları siyasi söylem olarak etiketlemeyi,
11:56
labeling the fact that it's political speech,
218
716171
2508
dış mihrakların siyasi söylemleri finanse etmesini
11:58
making sure foreign actors can't fund political speech,
219
718703
3819
engellemeyi göz önünde bulundurmamız gerekse de
12:02
it also has its own dangers.
220
722546
2547
bunların da kendince tehlikeleri var.
12:05
For instance, Malaysia just instituted a six-year prison sentence
221
725522
4878
Mesela Malezya yalan bilgi yaydığı tespit edilenlere
12:10
for anyone found spreading misinformation.
222
730424
2734
altı yıl hapis cezası getirdi.
12:13
And in authoritarian regimes,
223
733696
2079
Otoriter rejimlerde
12:15
these kinds of policies can be used to suppress minority opinions
224
735799
4666
bu tür düzenlemeler azınlık görüşlerini bastırmak
12:20
and to continue to extend repression.
225
740489
3508
ve baskının kapsamını genişletmek amacıyla kullanılabilir.
12:24
The fourth possible option is transparency.
226
744680
3543
Dördüncü olasılık, şeffaflık.
12:28
We want to know how do Facebook's algorithms work.
227
748843
3714
Facebook'un algoritmalarının nasıl çalıştığını bilmek istiyoruz.
12:32
How does the data combine with the algorithms
228
752581
2880
Algoritmalarla birleşen veriler
12:35
to produce the outcomes that we see?
229
755485
2838
nasıl oluyor da gördüğümüz sonuçları doğuruyor?
12:38
We want them to open the kimono
230
758347
2349
Kapıyı açmalarını
12:40
and show us exactly the inner workings of how Facebook is working.
231
760720
4214
ve Facebook'un nasıl işlediğini göstermelerini istiyoruz.
12:44
And if we want to know social media's effect on society,
232
764958
2779
Sosyal medyanın toplumdaki etkilerini öğrenmek istiyorsak
12:47
we need scientists, researchers
233
767761
2086
bilim insanları, araştırmacılar
12:49
and others to have access to this kind of information.
234
769871
3143
ve benzerlerinin bu tür bilgilere erişmesine ihtiyacımız var.
12:53
But at the same time,
235
773038
1547
Ama aynı zamanda
12:54
we are asking Facebook to lock everything down,
236
774609
3801
Facebook'tan her şeyi kilitlemesini,
12:58
to keep all of the data secure.
237
778434
2173
tüm verileri güvende tutmasını istiyoruz.
13:00
So, Facebook and the other social media platforms
238
780631
3159
Bu yüzden Facebook ve diğer sosyal medya platformları
13:03
are facing what I call a transparency paradox.
239
783814
3134
şeffaflık paradoksu dediğim şeyle karşı karşıya.
13:07
We are asking them, at the same time,
240
787266
2674
Onlardan hem açık ve şeffaf olmalarını
13:09
to be open and transparent and, simultaneously secure.
241
789964
4809
hem de güvenli olmalarını istiyoruz.
13:14
This is a very difficult needle to thread,
242
794797
2691
Bu, zor bir görev
13:17
but they will need to thread this needle
243
797512
1913
ama sosyal teknolojilerin potansiyelini değerlendirip
13:19
if we are to achieve the promise of social technologies
244
799449
3787
tehlikelerinden kaçınacaksak
13:23
while avoiding their peril.
245
803260
1642
bu görevi başarmalılar.
13:24
The final thing that we could think about is algorithms and machine learning.
246
804926
4691
Düşünmemiz gereken son konu, algoritmalar ve makine öğrenimi.
13:29
Technology devised to root out and understand fake news, how it spreads,
247
809641
5277
Yalan haberlerin köküne inip onları, nasıl yayıldıklarını anlamamızı,
13:34
and to try and dampen its flow.
248
814942
2331
akışı yavaşlatmamızı sağlayacak teknolojiler.
13:37
Humans have to be in the loop of this technology,
249
817824
2897
İnsanlar bu teknolojiden haberdar olmalı
13:40
because we can never escape
250
820745
2278
çünkü her teknolojik çözümün
13:43
that underlying any technological solution or approach
251
823047
4038
veya yaklaşımın temelinde, doğruyu ve yalanı nasıl tanımlıyoruz,
13:47
is a fundamental ethical and philosophical question
252
827109
4047
doğrunun ve yalanın ne olduğunu
13:51
about how do we define truth and falsity,
253
831180
3270
tanımlama gücünü kime veriyoruz,
13:54
to whom do we give the power to define truth and falsity
254
834474
3180
hangi görüş doğru, hangi söylemlere izin verilmeli gibi
13:57
and which opinions are legitimate,
255
837678
2460
ahlaki ve felsefi soruların
14:00
which type of speech should be allowed and so on.
256
840162
3706
yattığı gerçeğinden asla kaçamayız.
14:03
Technology is not a solution for that.
257
843892
2328
Bunun çözümü teknoloji değil.
14:06
Ethics and philosophy is a solution for that.
258
846244
3698
Bunun çözümü ahlak ve felsefe.
14:10
Nearly every theory of human decision making,
259
850950
3318
İnsanların karar vermesi, iş birliği
14:14
human cooperation and human coordination
260
854292
2761
ve koordinasyonu hakkındaki tüm teorilerin özünde
14:17
has some sense of the truth at its core.
261
857077
3674
bir tür gerçek anlayışı yatar.
14:21
But with the rise of fake news,
262
861347
2056
Ama yalan haberlerin,
14:23
the rise of fake video,
263
863427
1443
sahte videoların,
14:24
the rise of fake audio,
264
864894
1882
sahte seslendirmelerin artışıyla
14:26
we are teetering on the brink of the end of reality,
265
866800
3924
gerçeğin kıyısındaki bir noktaya geldik,
14:30
where we cannot tell what is real from what is fake.
266
870748
3889
neyin gerçek neyin yalan olduğunu ayırt edemiyoruz
14:34
And that's potentially incredibly dangerous.
267
874661
3039
ve bu, çok tehlikeli olabilir.
14:38
We have to be vigilant in defending the truth
268
878931
3948
Yanlış bilgilendirmeye karşı gerçekleri savunmak adına
14:42
against misinformation.
269
882903
1534
tetikte olmalıyız.
14:44
With our technologies, with our policies
270
884919
3436
Teknolojilerimiz, politikalarımız
14:48
and, perhaps most importantly,
271
888379
1920
ve belki de en önemlisi
14:50
with our own individual responsibilities,
272
890323
3214
bireysel sorumluluklarımızla,
14:53
decisions, behaviors and actions.
273
893561
3555
kararlarımız, davranışlarımız ve eylemlerimizle.
14:57
Thank you very much.
274
897553
1437
Çok teşekkürler.
14:59
(Applause)
275
899014
3517
(Alkışlar)
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7