Jennifer Golbeck: The curly fry conundrum: Why social media "likes" say more than you might think

376,856 views ・ 2014-04-03

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Yasemin Yelbay Gözden geçirme: Dadlez Sabak
00:12
If you remember that first decade of the web,
0
12738
1997
Çevrimiçi ağın ilk on yılını düşündüğünüzde,
00:14
it was really a static place.
1
14735
2255
çok durağan bir yer olduğunu görürsünüz.
00:16
You could go online, you could look at pages,
2
16990
2245
Çevrimiçi olurdunuz, ve sayfalara bakardınız,
00:19
and they were put up either by organizations
3
19235
2513
bu sayfalar
00:21
who had teams to do it
4
21748
1521
ya bunu yaptıracak ekipleri olan kuruluşlar
00:23
or by individuals who were really tech-savvy
5
23269
2229
ya da o zamana göre
00:25
for the time.
6
25498
1737
gerçekten teknoloji meraklısı bireyler tarafından yapılırdı.
00:27
And with the rise of social media
7
27235
1575
2000li yılların başlarında
00:28
and social networks in the early 2000s,
8
28810
2399
sosyal medyanın ve sosyal ağın gelişmesi ile birlikte,
00:31
the web was completely changed
9
31209
2149
çevrimiçi ağ tamamen değişti
00:33
to a place where now the vast majority of content
10
33358
3608
ve etkileşimde olduğumuz içeriğin büyük çoğunluğu
00:36
we interact with is put up by average users,
11
36966
3312
ortalama kullanıcılar tarafından
00:40
either in YouTube videos or blog posts
12
40278
2697
Youtube videoları ya da blog yazıları
00:42
or product reviews or social media postings.
13
42975
3315
ürün eleştirileri ya da sosyal medya mesajları şeklinde hazırlanır oldu.
00:46
And it's also become a much more interactive place,
14
46290
2347
Ayrıca, insanların yalnızca okumadığı,
00:48
where people are interacting with others,
15
48637
2637
birbirleriyle etkileştiği,
00:51
they're commenting, they're sharing,
16
51274
1696
paylaştığı ve yorum yazdığı
00:52
they're not just reading.
17
52970
1614
çok daha etkileşimli bir ortam haline geldi.
00:54
So Facebook is not the only place you can do this,
18
54584
1866
Facebook bunu yapabileceğiniz tek platform değil
00:56
but it's the biggest,
19
56450
1098
ancak hem en büyüğü,
00:57
and it serves to illustrate the numbers.
20
57548
1784
hem de rakamlarla konuşmamıza olanak tanıyor.
00:59
Facebook has 1.2 billion users per month.
21
59332
3477
Facebook'un ayda 1.2 milyar kullanıcısı var.
01:02
So half the Earth's Internet population
22
62809
1930
yani dünyanın internet kullanıcı nüfusunun yarısı
01:04
is using Facebook.
23
64739
1653
Facebook kullanıyor.
01:06
They are a site, along with others,
24
66392
1932
Diğerleri gibi bu site de
01:08
that has allowed people to create an online persona
25
68324
3219
çok az teknik bilgi gereksinimi ile
01:11
with very little technical skill,
26
71543
1782
online bir kişilik oluşturmalarına olanak sağladı
01:13
and people responded by putting huge amounts
27
73325
2476
ve insanlar da çok miktarda
01:15
of personal data online.
28
75801
1983
kişisel bilgiyi online olarak yayınladılar.
01:17
So the result is that we have behavioral,
29
77784
2543
Sonuç olarak tarihte daha önce görülmemiş bir şekilde
01:20
preference, demographic data
30
80327
1986
yüzlerce milyon insanın
01:22
for hundreds of millions of people,
31
82313
2101
davranışsal, tercihsel ve demografik
01:24
which is unprecedented in history.
32
84414
2026
bilgilerine ulaştık.
01:26
And as a computer scientist, what this means is that
33
86440
2560
Bir bilgisayar bilimcisi olarak bu benim,
01:29
I've been able to build models
34
89000
1664
siz paylaştığınızın
01:30
that can predict all sorts of hidden attributes
35
90664
2322
farkına bile varmadan
01:32
for all of you that you don't even know
36
92986
2284
sizin her türlü saklı özelliğinizi tahmin eden
01:35
you're sharing information about.
37
95270
2202
modeller tasarlamam anlamına gelmektedir.
01:37
As scientists, we use that to help
38
97472
2382
Bilim insanları olarak bizler bu bilgileri
01:39
the way people interact online,
39
99854
2114
insanların online iletişimine destek amaçlı kullanırız
01:41
but there's less altruistic applications,
40
101968
2499
ancak böyle fedakar olmayan uygulamalar da var
01:44
and there's a problem in that users don't really
41
104467
2381
ve problem, kullanıcıların bu tekniklerin
01:46
understand these techniques and how they work,
42
106848
2470
nasıl işlediğini çok iyi anlamamaları,
01:49
and even if they did, they don't have a lot of control over it.
43
109318
3128
anlasalar dahi bunları kontrol edememeleridir.
01:52
So what I want to talk to you about today
44
112446
1490
Bu nedenle bugün sizlerle
01:53
is some of these things that we're able to do,
45
113936
2702
yapabildiğimiz şeylerden bazılarını paylaşmak
01:56
and then give us some ideas of how we might go forward
46
116638
2763
ve kullanıcıların eline biraz daha fazla kontrol vermek için
01:59
to move some control back into the hands of users.
47
119401
2769
neler yapılabileceği hakkında fikirler vermek istiyorum.
02:02
So this is Target, the company.
48
122170
1586
Bu Target, bir şirket.
02:03
I didn't just put that logo
49
123756
1324
Bu zavallı hamile kadının karnına bu logoyu
02:05
on this poor, pregnant woman's belly.
50
125080
2170
öylesine koymadım.
02:07
You may have seen this anecdote that was printed
51
127250
1840
Daha önce Forbes dergisinde
02:09
in Forbes magazine where Target
52
129090
2061
bu anekdotu görmüşsünüzdür.
02:11
sent a flyer to this 15-year-old girl
53
131151
2361
Target, 15 yaşındaki bu kıza
02:13
with advertisements and coupons
54
133512
1710
kendisi daha anne ve babasına hamile
02:15
for baby bottles and diapers and cribs
55
135222
2554
olduğunu söylemeden iki hafta önce
02:17
two weeks before she told her parents
56
137776
1684
içinde biberon, bebek bezi ve bebek yatağı reklam ve kuponlarının olduğu
02:19
that she was pregnant.
57
139460
1864
bir broşür göndermişti.
02:21
Yeah, the dad was really upset.
58
141324
2704
Evet haliyle baba sinirlenmişti.
02:24
He said, "How did Target figure out
59
144028
1716
"Nasıl olur da Target liseli bir kızın hamile olduğunu
02:25
that this high school girl was pregnant
60
145744
1824
o anne ve babasına
02:27
before she told her parents?"
61
147568
1960
söylemeden önce bilebilir!"di.
02:29
It turns out that they have the purchase history
62
149528
2621
Belli oldu ki, yüzlerce, binlerce müşterinin
02:32
for hundreds of thousands of customers
63
152149
2301
alışveriş geçmişi hakkında bilgileri vardı ve
02:34
and they compute what they call a pregnancy score,
64
154450
2730
hamilelik puanı adı verilen bir değeri hesaplayarak,
02:37
which is not just whether or not a woman's pregnant,
65
157180
2332
bir kadının sadece hamile olup olmadığını değil,
02:39
but what her due date is.
66
159512
1730
ne zaman doğum yapacağını da biliyorlardı.
02:41
And they compute that
67
161242
1304
Ve bu hesaplamaları,
02:42
not by looking at the obvious things,
68
162546
1768
kızın bebek yatağı ya da bebek kıyafetleri alması gibi
02:44
like, she's buying a crib or baby clothes,
69
164314
2512
zaten bariz olan şeylere bakarak değil,
02:46
but things like, she bought more vitamins
70
166826
2943
normalden daha fazla
02:49
than she normally had,
71
169769
1717
vitamin satın alması
02:51
or she bought a handbag
72
171486
1464
ya da bebek bezi konulabilecek kadar büyük
02:52
that's big enough to hold diapers.
73
172950
1711
bir el çantası alması gibi şeyere bakarak yapıyorlar.
02:54
And by themselves, those purchases don't seem
74
174661
1910
Bu satın almalar kendi başlarına
02:56
like they might reveal a lot,
75
176571
2469
çok da bir şey ifade eder gibi değiller
02:59
but it's a pattern of behavior that,
76
179040
1978
ancak bu davranış kalıpları
03:01
when you take it in the context of thousands of other people,
77
181018
3117
binlerce diğer insan bağlamında düşünüldüğünde
03:04
starts to actually reveal some insights.
78
184135
2757
gerçekten bazı öngörüler sunmaya başlıyor.
03:06
So that's the kind of thing that we do
79
186892
1793
İşte sosyal medyada sizler hakkında tahminler yürütürken
03:08
when we're predicting stuff about you on social media.
80
188685
2567
bizim de yaptığımız bu.
03:11
We're looking for little patterns of behavior that,
81
191252
2796
Milyonlarca insanla kıyaslanıp bulunduğunda
03:14
when you detect them among millions of people,
82
194048
2682
her tür bilgiyi bize sunan
03:16
lets us find out all kinds of things.
83
196730
2706
küçük davranış kalıpları ararız.
03:19
So in my lab and with colleagues,
84
199436
1747
Laboratuarımızda ben ve iş arkadaşlarım
03:21
we've developed mechanisms where we can
85
201183
1777
sizin siyasi tercihinizi, kişilik puanınızı
03:22
quite accurately predict things
86
202960
1560
cinsiyetinizi, cinsel tercihinizi
03:24
like your political preference,
87
204520
1725
dininizi, yaşınızı, zekanızı
03:26
your personality score, gender, sexual orientation,
88
206245
3752
ve bunlara ek olarak
03:29
religion, age, intelligence,
89
209997
2873
tanıdığınız insanlara ne kadar güvendiğinizi
03:32
along with things like
90
212870
1394
ve bu ilişkilerinizin ne kadar güçlü olduğunu
03:34
how much you trust the people you know
91
214264
1937
gayet doğru şekilde tahmin eden
03:36
and how strong those relationships are.
92
216201
1804
bir mekanizma geliştirdik.
03:38
We can do all of this really well.
93
218005
1785
Bütün bunları çok iyi şekilde yapabiliyoruz.
03:39
And again, it doesn't come from what you might
94
219790
2197
Ve bütün bunlar, sizlerin de bariz olarak adlandıramayacağı
03:41
think of as obvious information.
95
221987
2102
şeylerden derleniyor.
03:44
So my favorite example is from this study
96
224089
2281
Benim en sevdiğim örnek
03:46
that was published this year
97
226370
1240
Ulusal Akademi Konferansında geçen yıl yayımlanan
03:47
in the Proceedings of the National Academies.
98
227610
1795
bir araştırmadan.
03:49
If you Google this, you'll find it.
99
229405
1285
Google'da ararsanız bulursunuz.
03:50
It's four pages, easy to read.
100
230690
1872
Dört sayfalık kolay okunan bir metin.
03:52
And they looked at just people's Facebook likes,
101
232562
3003
İnsanların Facebook'ta neleri beğendiklerine bakıp
03:55
so just the things you like on Facebook,
102
235565
1920
sadece beğendikleri şeylere bakarak bu bilgiyle
03:57
and used that to predict all these attributes,
103
237485
2138
bütün bu özellikleri
03:59
along with some other ones.
104
239623
1645
ve başka özellikleri tahmin etmişler.
04:01
And in their paper they listed the five likes
105
241268
2961
Makalelerinde yüksek zekanın en iyi göstergesi olan
04:04
that were most indicative of high intelligence.
106
244229
2787
beş beğeniyi listelemişler.
04:07
And among those was liking a page
107
247016
2324
ve bunların arasında
04:09
for curly fries. (Laughter)
108
249340
1905
kıvrık patates kızartmasının beğenildiği bir sayfa da bulunuyor (gülüşmeler)
04:11
Curly fries are delicious,
109
251245
2093
Kıvrık patates kızartması nefistir
04:13
but liking them does not necessarily mean
110
253338
2530
ama onları seviyor olmanız
04:15
that you're smarter than the average person.
111
255868
2080
ortalama bir insandan daha zeki olduğunuz anlamına gelmez.
04:17
So how is it that one of the strongest indicators
112
257948
3207
Peki nasıl oluyor da
04:21
of your intelligence
113
261155
1570
zekanızın en iyi göstergesi
04:22
is liking this page
114
262725
1447
içeriği ölçülen özellikle
04:24
when the content is totally irrelevant
115
264172
2252
hiç bir ilgisi olmayan
04:26
to the attribute that's being predicted?
116
266424
2527
bir sayfayı beğenmek oluyor?
04:28
And it turns out that we have to look at
117
268951
1584
Görülüyor ki bunun nasıl yapıldığını anlamak için
04:30
a whole bunch of underlying theories
118
270535
1618
altta yatan
04:32
to see why we're able to do this.
119
272153
2569
pek çok teoriye bakmak gerekecek.
04:34
One of them is a sociological theory called homophily,
120
274722
2913
Bunlardan bir tanesi homofili adı verilen sosyolojik bir teoridir
04:37
which basically says people are friends with people like them.
121
277635
3092
ve temelde insanların kendileri gibi olan kişilerle dost olduklarını söyler.
04:40
So if you're smart, you tend to be friends with smart people,
122
280727
2014
Yani eğer zekiyseniz zeki insanlarla dost olma eğilimindesinizdir,
04:42
and if you're young, you tend to be friends with young people,
123
282741
2630
gençseniz genç insanlarla dost olma eğiliminiz vardır
04:45
and this is well established
124
285371
1627
ve bu yüzyıllardır
04:46
for hundreds of years.
125
286998
1745
yerleşik olan bir bilgidir.
04:48
We also know a lot
126
288743
1232
Biz bilginin de
04:49
about how information spreads through networks.
127
289975
2550
ağlarda nasıl yayıldığını biliyoruz.
04:52
It turns out things like viral videos
128
292525
1754
Gördük ki viral videolar,
04:54
or Facebook likes or other information
129
294279
2406
Facebook beğenileri ya da diğer bilgiler
04:56
spreads in exactly the same way
130
296685
1888
sosyal ağlarda hastalıkların yayılması ile
04:58
that diseases spread through social networks.
131
298573
2454
aynı şekilde yayılıyor.
05:01
So this is something we've studied for a long time.
132
301027
1791
Bu uzun zamandır üzerinde çalıştığımız bir konu.
05:02
We have good models of it.
133
302818
1576
Bunun için iyi modellerimiz var.
05:04
And so you can put those things together
134
304394
2157
Bütün bu bilgileri bir araya getirerek
05:06
and start seeing why things like this happen.
135
306551
3088
böyle şeylerin neden olduğunu görmeye başlayabilirsiniz.
05:09
So if I were to give you a hypothesis,
136
309639
1814
Size bir hipotez verecek olsam
05:11
it would be that a smart guy started this page,
137
311453
3227
bu sayfayı zeki bir insanın başlattığını ve
05:14
or maybe one of the first people who liked it
138
314680
1939
bunu ilk beğenen kişilerden birinin de
05:16
would have scored high on that test.
139
316619
1736
bu testte iyi puan aldığını söylerdim.
05:18
And they liked it, and their friends saw it,
140
318355
2288
Onlar beğendiler, arkadaşları bunu gördü,
05:20
and by homophily, we know that he probably had smart friends,
141
320643
3122
ve homofili sayesinde onun da zeki arkadaşlarının olduğunu biliyoruz
05:23
and so it spread to them, and some of them liked it,
142
323765
3056
böylece bu onlara da yayıldı ve onların da bazıları beğendi
05:26
and they had smart friends,
143
326821
1189
ve onların da zeki arkadaşları vardı
05:28
and so it spread to them,
144
328010
807
05:28
and so it propagated through the network
145
328817
1973
ve bu onlara da yayıldı
böylece bu ağ boyunca
05:30
to a host of smart people,
146
330790
2569
zeki insanlar arasında yayılmış oldu
05:33
so that by the end, the action
147
333359
2056
sonunda
05:35
of liking the curly fries page
148
335415
2544
kıvrık patatesi beğenme sayfası
05:37
is indicative of high intelligence,
149
337959
1615
yüksek zekanın göstergesi haline geldi
05:39
not because of the content,
150
339574
1803
içeriği için değil ama,
05:41
but because the actual action of liking
151
341377
2522
beğenme eylemini
05:43
reflects back the common attributes
152
343899
1900
gerçekleştiren kişilerin
05:45
of other people who have done it.
153
345799
2468
ortak özelliklerinden dolayı.
05:48
So this is pretty complicated stuff, right?
154
348267
2897
Epeyce karmaşık bir şey değil mi?
05:51
It's a hard thing to sit down and explain
155
351164
2199
Ortalama bir kullanıcıyla oturup
05:53
to an average user, and even if you do,
156
353363
2848
bunu onlara anlatmak zor olacaktır,
05:56
what can the average user do about it?
157
356211
2188
zaten anlatılsa bile ortalama kullanıcının yapabileceği ne var ki?
05:58
How do you know that you've liked something
158
358399
2048
Beğendiğiniz bir şeyin
06:00
that indicates a trait for you
159
360447
1492
o beğndiğiniz şeyin içeriğiyle hiç alakası olmayan
06:01
that's totally irrelevant to the content of what you've liked?
160
361939
3545
bir özelliğinize işaret ettiğini nasıl bilebilirsiniz?
06:05
There's a lot of power that users don't have
161
365484
2546
Kullanıcıların bilgilerin nasıl kullanılacağına dair
06:08
to control how this data is used.
162
368030
2230
üzerinde hiç bir kontrolü olmayan pek çok veri var.
06:10
And I see that as a real problem going forward.
163
370260
3112
Ve ben bunu devam eden çok büyük bir sorun olarak görüyorum.
06:13
So I think there's a couple paths
164
373372
1977
Eğer kullanıcılara bu verilerin
06:15
that we want to look at
165
375349
1001
nasıl kullanılacağına dair biraz
06:16
if we want to give users some control
166
376350
1910
kontrol vermek istiyorsak
06:18
over how this data is used,
167
378260
1740
bakılması gereken bazı seçenekler var,
06:20
because it's not always going to be used
168
380000
1940
çünkü bu veriler her zaman
06:21
for their benefit.
169
381940
1381
onların yararına kullanılmayacaktır.
06:23
An example I often give is that,
170
383321
1422
Sık verdiğim bir örnek,
06:24
if I ever get bored being a professor,
171
384743
1646
eğer bir gün profesörlükten bıkarsam,
06:26
I'm going to go start a company
172
386389
1653
takım içinde nasıl çalıştığınız
06:28
that predicts all of these attributes
173
388042
1454
uyuşturucu kullanıp kullanmadığınız, alkolik olup olmadığınız
06:29
and things like how well you work in teams
174
389496
1602
gibi özelliklere bakacağım
06:31
and if you're a drug user, if you're an alcoholic.
175
391098
2671
bir şirket kurma isteğimdir.
06:33
We know how to predict all that.
176
393769
1440
Bunların hepsini nasıl tahmin edeceğimizi biliyoruz.
06:35
And I'm going to sell reports
177
395209
1761
Bu bilgileri, sizi işe almak isteyen
06:36
to H.R. companies and big businesses
178
396970
2100
insan kaynakları şirketlerine ve büyük firmalara
06:39
that want to hire you.
179
399070
2273
satacağım.
06:41
We totally can do that now.
180
401343
1177
Bunların hepsini yapabiliyoruz.
06:42
I could start that business tomorrow,
181
402520
1788
Yarın bir şirket açabilirim
06:44
and you would have absolutely no control
182
404308
2052
ve sizin, size ait bu bilgileri nasıl kullanacağım üzerinde
06:46
over me using your data like that.
183
406360
2138
hiç bir kontrolünüz olmaz.
06:48
That seems to me to be a problem.
184
408498
2292
Bu bana bir sorun gibi görünüyor.
06:50
So one of the paths we can go down
185
410790
1910
Bakacağımız seçeneklerden biri
06:52
is the policy and law path.
186
412700
2032
politika ve hukuk seçeneğidir.
06:54
And in some respects, I think that that would be most effective,
187
414732
3046
Bence bazı açılardan bu en etkilisidir
06:57
but the problem is we'd actually have to do it.
188
417778
2756
ancak sorun bununla gerçekten uğraşmanız gerektiğidir.
07:00
Observing our political process in action
189
420534
2780
Şu andaki politik süreçlerimize baktığımda
07:03
makes me think it's highly unlikely
190
423314
2379
bir kaç vekilin oturup, bunları öğrenip
07:05
that we're going to get a bunch of representatives
191
425693
1597
ve sonra da Amerikan hukukunun
07:07
to sit down, learn about this,
192
427290
1986
fikir mülkiyeti alanında geniş içerikli
07:09
and then enact sweeping changes
193
429276
2106
değişiklikler yaparak
07:11
to intellectual property law in the U.S.
194
431382
2157
kullanıcıların verilerini kontrol etmelerini sağlama
07:13
so users control their data.
195
433539
2461
ihtimalleri bana düşük görünüyor.
07:16
We could go the policy route,
196
436000
1304
Politika seçeneğine bakabiliriz,
07:17
where social media companies say,
197
437304
1479
burada da sosyal medya şirketleri size
07:18
you know what? You own your data.
198
438783
1402
elbette verileriniz size aittir
07:20
You have total control over how it's used.
199
440185
2489
nasıl kullanıldığının kontrolü tamamen sizdedir diyeceklerdir ancak
07:22
The problem is that the revenue models
200
442674
1848
sorun şu ki
07:24
for most social media companies
201
444522
1724
çoğu sosyal medya şirketinin gelir modeli
07:26
rely on sharing or exploiting users' data in some way.
202
446246
4031
kullanıcı verilerinin bir şekilde paylaşılması ya da kullanılmasına dayanıyor.
07:30
It's sometimes said of Facebook that the users
203
450277
1833
Bazen Facebook kullanıcıların müşteri değil
07:32
aren't the customer, they're the product.
204
452110
2528
ürünün kendisi olduğunu söylüyor.
07:34
And so how do you get a company
205
454638
2714
O zaman bir firmanın
07:37
to cede control of their main asset
206
457352
2558
en temel kazancından feragat ederek
07:39
back to the users?
207
459910
1249
bunu kullanıcılara geri vermesini nasıl beklersiniz?
07:41
It's possible, but I don't think it's something
208
461159
1701
Bu mümkündür tabii ancak
07:42
that we're going to see change quickly.
209
462860
2320
yakın zamanda değişecek bir şey olduğunu düşünmüyorum.
07:45
So I think the other path
210
465180
1500
O nedenle daha etkili olan
07:46
that we can go down that's going to be more effective
211
466680
2288
diğer seçeneği
07:48
is one of more science.
212
468968
1508
bilim seçeneğine bakmayı öneriyorum.
07:50
It's doing science that allowed us to develop
213
470476
2510
Bütün bu kişisel verilerin bu mekanizmalarla
07:52
all these mechanisms for computing
214
472986
1750
hesaplananabilmesine en başta olanak tanıyan şey
07:54
this personal data in the first place.
215
474736
2052
bilim oldu.
07:56
And it's actually very similar research
216
476788
2106
Kullanıcıya "Az önce gerçekleştirdiğin eylemin riski şudur"
07:58
that we'd have to do
217
478894
1438
diyebilecek bir mekanizma
08:00
if we want to develop mechanisms
218
480332
2386
yaratmak istiyorsak
08:02
that can say to a user,
219
482718
1421
ilk baştakine çok benzer
08:04
"Here's the risk of that action you just took."
220
484139
2229
araştırmalar yapmak gerekir.
08:06
By liking that Facebook page,
221
486368
2080
O Facebook sayfasını beğenerek
08:08
or by sharing this piece of personal information,
222
488448
2535
ya da diğer insanlarla şu bilgiyi paylaşarak
08:10
you've now improved my ability
223
490983
1502
uyuşturucu kullanıp kullanmadığını
08:12
to predict whether or not you're using drugs
224
492485
2086
ya da iş yerinde insanlar iyi geçinip geçinmediğini
08:14
or whether or not you get along well in the workplace.
225
494571
2862
tahmin etmemi kolaylaştırdın.
08:17
And that, I think, can affect whether or not
226
497433
1848
Bu durum, insanların bir şeyi paylaşıp paylaşmamalarını
08:19
people want to share something,
227
499281
1510
kendilerine saklamalarını, ya da tamamen çevrimdışı tutmalarını
08:20
keep it private, or just keep it offline altogether.
228
500791
3239
bence etkileyecektir.
08:24
We can also look at things like
229
504030
1563
İnsanların yükledikleri verileri
08:25
allowing people to encrypt data that they upload,
230
505593
2728
şifrelemelerine izin vermek de bir seçenektir
08:28
so it's kind of invisible and worthless
231
508321
1855
böylece Facebook gibi siteler
08:30
to sites like Facebook
232
510176
1431
ya da üçüncü şahıslar için
08:31
or third party services that access it,
233
511607
2629
bu veriler görünmez ya da yararsız olacak ve
08:34
but that select users who the person who posted it
234
514236
3247
yükleyen kişi
08:37
want to see it have access to see it.
235
517483
2670
kimlerin bu verileri göreceğini ve erişimi olacağını seçebilecektir.
08:40
This is all super exciting research
236
520153
2166
Entellektüel açıdan bu
08:42
from an intellectual perspective,
237
522319
1620
süper heyecan verici bir araştırmadır
08:43
and so scientists are going to be willing to do it.
238
523939
1859
ve bilim insanları bunu yapmak isteyecektir.
08:45
So that gives us an advantage over the law side.
239
525798
3610
Bu hukuk seçeneğine göre bize daha fazla avantaj sağlar.
08:49
One of the problems that people bring up
240
529408
1725
Bundan bahsettiğimde
08:51
when I talk about this is, they say,
241
531133
1595
insanların öne sürdükleri bir sorun,
08:52
you know, if people start keeping all this data private,
242
532728
2646
eğer herkes verilerini gizli tutarsa
08:55
all those methods that you've been developing
243
535374
2113
sizin geliştirdiğiniz tüm tahminle ilgili tüm metodların
08:57
to predict their traits are going to fail.
244
537487
2653
başarısız olacağıdır.
09:00
And I say, absolutely, and for me, that's success,
245
540140
3520
Ben de evet kesinlikle diyorum ve bence bu bir başarıdır
09:03
because as a scientist,
246
543660
1786
çünkü bir bilim insanı olarak,
09:05
my goal is not to infer information about users,
247
545446
3688
benim amacım kullanıcılar hakkında çıkarımarda bulunmak değil,
09:09
it's to improve the way people interact online.
248
549134
2767
insanların online olarak etkileşimlerini geliştirmek.
09:11
And sometimes that involves inferring things about them,
249
551901
3218
Bazen bu onlar hakkında çıkarımlar yapılmasını da gerektiriyor
09:15
but if users don't want me to use that data,
250
555119
3022
ancak eğer kullanıcılar bu verileri kullanmama izin vermezlerse
09:18
I think they should have the right to do that.
251
558141
2038
buna hakları olması gerektiğini düşünüyorum.
09:20
I want users to be informed and consenting
252
560179
2651
Ben kullanıcıların geliştirdiğimiz araçları
09:22
users of the tools that we develop.
253
562830
2112
hakkında bilgisi olan ve buna izin veren kullanıcılar olmasını istiyorum.
09:24
And so I think encouraging this kind of science
254
564942
2952
Bence bu bilimin gelişmesini desteklemek
09:27
and supporting researchers
255
567894
1346
kontrolün bir kısmından feragat ederek
09:29
who want to cede some of that control back to users
256
569240
3023
ve sosyal medya şirketlerinden geri alarak
09:32
and away from the social media companies
257
572263
2311
kullanıcıya iade etmek isteyen
09:34
means that going forward, as these tools evolve
258
574574
2671
araştırmacıları desteklemek
09:37
and advance,
259
577245
1476
ilerlemek anlamına gelecektir
09:38
means that we're going to have an educated
260
578721
1414
ve bu araçlar gelişip evrim geçirdikçe eğitimli,
09:40
and empowered user base,
261
580135
1694
ve güç sahibi bir kullanıcı tabanımız olacak
09:41
and I think all of us can agree
262
581829
1100
ve sanırım hepimiz bunun ilerleme yolunda bir ideal
09:42
that that's a pretty ideal way to go forward.
263
582929
2564
olduğu konusunda hemfikirizdir.
09:45
Thank you.
264
585493
2184
Teşekkürler.
09:47
(Applause)
265
587677
3080
(Alkış)
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7