Jennifer Golbeck: The curly fry conundrum: Why social media "likes" say more than you might think

376,125 views

2014-04-03 ・ TED


New videos

Jennifer Golbeck: The curly fry conundrum: Why social media "likes" say more than you might think

376,125 views ・ 2014-04-03

TED


Silakan klik dua kali pada teks bahasa Inggris di bawah ini untuk memutar video.

Translator: Indriani S Reviewer: Elizabeth Kwan
00:12
If you remember that first decade of the web,
0
12738
1997
Jika Anda ingat dekade pertama dari web
00:14
it was really a static place.
1
14735
2255
ia merupakan tempat yang sangat statis
00:16
You could go online, you could look at pages,
2
16990
2245
Anda bisa online, melihat-lihat laman,
00:19
and they were put up either by organizations
3
19235
2513
dan laman-laman ini milik organisasi besar
00:21
who had teams to do it
4
21748
1521
yang memiliki tim untuk membuatnya
00:23
or by individuals who were really tech-savvy
5
23269
2229
atau oleh individu yang sangat mahfum teknologi
00:25
for the time.
6
25498
1737
saat itu.
00:27
And with the rise of social media
7
27235
1575
Dan dengan munculnya media sosial
00:28
and social networks in the early 2000s,
8
28810
2399
dan jejaring sosial di awal tahun 2000-an,
00:31
the web was completely changed
9
31209
2149
web berubah secara drastis
00:33
to a place where now the vast majority of content
10
33358
3608
kini menjadi tempat dimana mayoritas konten
00:36
we interact with is put up by average users,
11
36966
3312
yang berinteraksi dengan kita dimiliki oleh pengguna biasa,
00:40
either in YouTube videos or blog posts
12
40278
2697
baik video di Youtube atau posting blog
00:42
or product reviews or social media postings.
13
42975
3315
atau ulasan produk atau posting media sosial.
00:46
And it's also become a much more interactive place,
14
46290
2347
Dan menjadi tempat yang sangat interaktif
00:48
where people are interacting with others,
15
48637
2637
dimana orang dapat berinteraksi satu sama lain
00:51
they're commenting, they're sharing,
16
51274
1696
saling memberi komentar, berbagi,
00:52
they're not just reading.
17
52970
1614
orang tidak lagi hanya membaca.
00:54
So Facebook is not the only place you can do this,
18
54584
1866
Facebook bukan satu-satunya,
00:56
but it's the biggest,
19
56450
1098
tapi ia yang terbesar,
00:57
and it serves to illustrate the numbers.
20
57548
1784
dan cukup untuk memberi gambaran.
00:59
Facebook has 1.2 billion users per month.
21
59332
3477
Facebook memiliki 1,2 miliar pengguna setiap bulannya
01:02
So half the Earth's Internet population
22
62809
1930
Jadi separuh dari populasi internet Bumi
01:04
is using Facebook.
23
64739
1653
menggunakan Facebook.
01:06
They are a site, along with others,
24
66392
1932
Mereka adalah laman, seperti lainnya,
01:08
that has allowed people to create an online persona
25
68324
3219
yang memungkinkan orang untuk menciptakan profil online
01:11
with very little technical skill,
26
71543
1782
dengan kemampuan teknis yang minim,
01:13
and people responded by putting huge amounts
27
73325
2476
dan orang meresponnya dengan menaruh sejumlah besar
01:15
of personal data online.
28
75801
1983
data-data pribadi secara online
01:17
So the result is that we have behavioral,
29
77784
2543
Sebagai hasilnya, kami memiliki data tentang
01:20
preference, demographic data
30
80327
1986
kebiasaan, preferensi, demografis
01:22
for hundreds of millions of people,
31
82313
2101
dari ratusan juta orang,
01:24
which is unprecedented in history.
32
84414
2026
hal yang tidak pernah terjadi sebelumnya.
01:26
And as a computer scientist, what this means is that
33
86440
2560
Bagi saya sebagai ilmuwan komputer, ini berarti
01:29
I've been able to build models
34
89000
1664
saya dapat membuat model-model
01:30
that can predict all sorts of hidden attributes
35
90664
2322
yang bisa memprediksi segala atribut tersembunyi
01:32
for all of you that you don't even know
36
92986
2284
dari Anda semua, bahkan tidak mengetahui
01:35
you're sharing information about.
37
95270
2202
bahwa informasi ini telah Anda berikan.
01:37
As scientists, we use that to help
38
97472
2382
Sebagai ilmuwan, kami menggunakannya untuk
01:39
the way people interact online,
39
99854
2114
membantu orang berinteraksi secara online
01:41
but there's less altruistic applications,
40
101968
2499
tapi ada aplikasi yang kurang altruistik,
01:44
and there's a problem in that users don't really
41
104467
2381
dan akan menjadi masalah jika pengguna tidak begitu
01:46
understand these techniques and how they work,
42
106848
2470
memahami teknik ini dan bagaimana cara kerjanya
01:49
and even if they did, they don't have a lot of control over it.
43
109318
3128
dan walau mereka paham, mereka tidak punya kontrol atas hal ini.
01:52
So what I want to talk to you about today
44
112446
1490
Jadi yang ingin saya sampaikan
01:53
is some of these things that we're able to do,
45
113936
2702
adalah hal-hal yang dapat kami lakukan
01:56
and then give us some ideas of how we might go forward
46
116638
2763
yang kemudian memberi ide bagaimana ke langkah berikutnya
01:59
to move some control back into the hands of users.
47
119401
2769
untuk mengembalikan kontrol ke tangan para pengguna.
02:02
So this is Target, the company.
48
122170
1586
Ini adalah perusahaan Target
02:03
I didn't just put that logo
49
123756
1324
Saya tidak menaruh logo begitu saja
02:05
on this poor, pregnant woman's belly.
50
125080
2170
di atas perut wanita hamil ini
02:07
You may have seen this anecdote that was printed
51
127250
1840
Anda mungkin pernah melihat anekdot
02:09
in Forbes magazine where Target
52
129090
2061
yang dicetak majalah Forbes dimana Target
02:11
sent a flyer to this 15-year-old girl
53
131151
2361
mengirimkan brosur kepada gadis berumur 15 tahun
02:13
with advertisements and coupons
54
133512
1710
beserta iklan dan kupon belanja
02:15
for baby bottles and diapers and cribs
55
135222
2554
untuk botol bayi, popok dan tempat tidur
02:17
two weeks before she told her parents
56
137776
1684
2 minggu sebelum ia memberitahu orang tuanya
02:19
that she was pregnant.
57
139460
1864
bahwa ia sedang hamil.
02:21
Yeah, the dad was really upset.
58
141324
2704
Yah, bapak anak ini tentu sangat marah.
02:24
He said, "How did Target figure out
59
144028
1716
Ia berkata, "Bagaimana Target tahu
02:25
that this high school girl was pregnant
60
145744
1824
bahwa anak SMA ini sedang hamil
02:27
before she told her parents?"
61
147568
1960
sebelum dia memberitahu orang tuanya?"
02:29
It turns out that they have the purchase history
62
149528
2621
Ternyata Target memiliki sejarah belanja
02:32
for hundreds of thousands of customers
63
152149
2301
ratusan ribu pelanggannya
02:34
and they compute what they call a pregnancy score,
64
154450
2730
dan mereka menghitung skor kehamilan,
02:37
which is not just whether or not a woman's pregnant,
65
157180
2332
bukan hanya apakah hamil tidaknya seorang wanita
02:39
but what her due date is.
66
159512
1730
tapi juga kapan ia melahirkan.
02:41
And they compute that
67
161242
1304
Dan mereka menghitung
02:42
not by looking at the obvious things,
68
162546
1768
tidak berdasarkan hal-hal yang kentara
02:44
like, she's buying a crib or baby clothes,
69
164314
2512
seperti membeli tempat tidur atau baju bayi,
02:46
but things like, she bought more vitamins
70
166826
2943
tapi hal-hal seperti belanja lebih banyak vitamin
02:49
than she normally had,
71
169769
1717
dari kebiasaan normalnya,
02:51
or she bought a handbag
72
171486
1464
atau membeli tas tangan yang
02:52
that's big enough to hold diapers.
73
172950
1711
cukup besar untuk menyimpan popok
02:54
And by themselves, those purchases don't seem
74
174661
1910
Dan mereka, aktivitas belanja ini
02:56
like they might reveal a lot,
75
176571
2469
tidak tampak dapat mengungkapkan banyak
02:59
but it's a pattern of behavior that,
76
179040
1978
tapi ini adalah pola tingkah laku
03:01
when you take it in the context of thousands of other people,
77
181018
3117
dimana ketika Anda mengambil konteksnya dari ribuan orang lainnya
03:04
starts to actually reveal some insights.
78
184135
2757
mulai memunculkan informasi ini.
03:06
So that's the kind of thing that we do
79
186892
1793
Jadi hal-hal yang kami lakukan
03:08
when we're predicting stuff about you on social media.
80
188685
2567
ketika kami memprediksi tentang Anda dari media sosial
03:11
We're looking for little patterns of behavior that,
81
191252
2796
Kami mencari dari pola tingkah laku yang kecil dimana
03:14
when you detect them among millions of people,
82
194048
2682
ketika Anda mendeteksinya dari jutaan orang
03:16
lets us find out all kinds of things.
83
196730
2706
memungkinkan kami untuk menemukan banyak hal.
03:19
So in my lab and with colleagues,
84
199436
1747
Di laboratorium saya dan beberapa kolega,
03:21
we've developed mechanisms where we can
85
201183
1777
membangun mekanisme dimana kami dapat
03:22
quite accurately predict things
86
202960
1560
memprediksi sesuatu dengan tepat
03:24
like your political preference,
87
204520
1725
seperti pilihan politik Anda,
03:26
your personality score, gender, sexual orientation,
88
206245
3752
skor kepribadian, jenis kelamin, orientasi seksual Anda
03:29
religion, age, intelligence,
89
209997
2873
agama, usia, kecerdasan
03:32
along with things like
90
212870
1394
dan juga hal-hal seperti
03:34
how much you trust the people you know
91
214264
1937
seberapa Anda mempercayai orang yang Anda kenal
03:36
and how strong those relationships are.
92
216201
1804
dan seberapa kuat hubungan tersebut.
03:38
We can do all of this really well.
93
218005
1785
Kami dapat melakukannya dengan baik.
03:39
And again, it doesn't come from what you might
94
219790
2197
Dan lagi, ini tidak datang dari
03:41
think of as obvious information.
95
221987
2102
informasi yang Anda anggap gamblang.
03:44
So my favorite example is from this study
96
224089
2281
Contoh penelitian favorit saya tentang hal ini
03:46
that was published this year
97
226370
1240
dipublikasikan tahun ini
03:47
in the Proceedings of the National Academies.
98
227610
1795
di Proceedings of the National Academies
03:49
If you Google this, you'll find it.
99
229405
1285
Bisa didapatkan dari Google
03:50
It's four pages, easy to read.
100
230690
1872
Hanya 4 halaman, mudah untuk dibaca.
03:52
And they looked at just people's Facebook likes,
101
232562
3003
Mereka hanya melihat hal yang orang "suka" di Facebook,
03:55
so just the things you like on Facebook,
102
235565
1920
jadi hanya dengan hal yang Anda sukai di Facebook,
03:57
and used that to predict all these attributes,
103
237485
2138
memakainya memprediksi semua atribut
03:59
along with some other ones.
104
239623
1645
bersama dengan yang lainnya.
04:01
And in their paper they listed the five likes
105
241268
2961
Di makalahnya mereka memdaftar lima hal yang disukai
04:04
that were most indicative of high intelligence.
106
244229
2787
yang mengindikasikan tingkat kecerdasan tinggi.
04:07
And among those was liking a page
107
247016
2324
Dan diantaranya adalah menyukai sebuah laman
04:09
for curly fries. (Laughter)
108
249340
1905
tentang kentang goreng keriting. (tertawa)
04:11
Curly fries are delicious,
109
251245
2093
Kentang goreng keriting memang enak,
04:13
but liking them does not necessarily mean
110
253338
2530
tapi menyukainya tidak berarti
04:15
that you're smarter than the average person.
111
255868
2080
bahwa Anda lebih cerdas dari orang pada umumnya.
04:17
So how is it that one of the strongest indicators
112
257948
3207
Jadi bagaimana kentang menjadi salah satu indikator terkuat
04:21
of your intelligence
113
261155
1570
dari tingkat kecerdasaan Anda
04:22
is liking this page
114
262725
1447
adalah dengan menyukai laman
04:24
when the content is totally irrelevant
115
264172
2252
ketika kontennya tidak relevan sama sekali
04:26
to the attribute that's being predicted?
116
266424
2527
dengan atribut yang diprediksikan?
04:28
And it turns out that we have to look at
117
268951
1584
Pada kenyataannya kami harus melihat
04:30
a whole bunch of underlying theories
118
270535
1618
sejumlah besar teori pendukung
04:32
to see why we're able to do this.
119
272153
2569
untuk mengetahui kenapa kami bisa melakukan hal ini.
04:34
One of them is a sociological theory called homophily,
120
274722
2913
Salah satu diantaranya adalah teori sosiologi, homofili
04:37
which basically says people are friends with people like them.
121
277635
3092
mengatakan bahwa orang berteman dengan orang yang mirip mereka.
04:40
So if you're smart, you tend to be friends with smart people,
122
280727
2014
Orang cerdas umumnya berteman dengan orang cerdas,
04:42
and if you're young, you tend to be friends with young people,
123
282741
2630
dan orang muda umumnya berteman dengan orang muda,
04:45
and this is well established
124
285371
1627
dan teori ini sudah terbukti
04:46
for hundreds of years.
125
286998
1745
selama ratusan tahun.
04:48
We also know a lot
126
288743
1232
Kami juga tahu banyak
04:49
about how information spreads through networks.
127
289975
2550
tentang bagaimana informasi tersebar lewat jaringan.
04:52
It turns out things like viral videos
128
292525
1754
Seperti video-video viral
04:54
or Facebook likes or other information
129
294279
2406
atau "suka" di Facebook atau informasi lainnya
04:56
spreads in exactly the same way
130
296685
1888
menyebar dengan cara yang sama persis
04:58
that diseases spread through social networks.
131
298573
2454
menyebar seperti penyakit menular di media sosial.
05:01
So this is something we've studied for a long time.
132
301027
1791
Inilah yang kami pelajari sejak lama.
05:02
We have good models of it.
133
302818
1576
Kami punya model yang bagus untuk itu.
05:04
And so you can put those things together
134
304394
2157
Sehingga Anda dapat memahami
05:06
and start seeing why things like this happen.
135
306551
3088
dan mulai melihat kenapa hal ini bisa terjadi.
05:09
So if I were to give you a hypothesis,
136
309639
1814
Jika saya boleh memberikan hipotesa,
05:11
it would be that a smart guy started this page,
137
311453
3227
bahwa seorang pemuda cerdas yang memulai laman ini,
05:14
or maybe one of the first people who liked it
138
314680
1939
atau salah satu orang pertama yang menyukainya
05:16
would have scored high on that test.
139
316619
1736
mempunyai skor tinggi di tes itu.
05:18
And they liked it, and their friends saw it,
140
318355
2288
Dan mereka menyukainya, lalu temannya melihat,
05:20
and by homophily, we know that he probably had smart friends,
141
320643
3122
dan menurut homofili, dia kemungkinan punya teman yang cerdas,
05:23
and so it spread to them, and some of them liked it,
142
323765
3056
kemudian menyebar di antara mereka, dan beberapa menyukainya
05:26
and they had smart friends,
143
326821
1189
mereka punya teman cerdas,
05:28
and so it spread to them,
144
328010
807
05:28
and so it propagated through the network
145
328817
1973
dan meluas ke mereka,
dan juga tersebar melalui jejaring
05:30
to a host of smart people,
146
330790
2569
sampai ke orang-orang cerdas,
05:33
so that by the end, the action
147
333359
2056
hingga pada akhirnya, tindakan
05:35
of liking the curly fries page
148
335415
2544
menyukai laman kentang goreng keriting
05:37
is indicative of high intelligence,
149
337959
1615
mengindikasikan kecedasan tinggi,
05:39
not because of the content,
150
339574
1803
bukan karena materi kontennya,
05:41
but because the actual action of liking
151
341377
2522
tetapi karena tindakan menyukai
05:43
reflects back the common attributes
152
343899
1900
merefleksikan kembali atribut umum dari
05:45
of other people who have done it.
153
345799
2468
orang lain yang juga melakukannya.
05:48
So this is pretty complicated stuff, right?
154
348267
2897
Jadi lumayan rumit bukan?
05:51
It's a hard thing to sit down and explain
155
351164
2199
Sulit untuk duduk dan menjelaskan
05:53
to an average user, and even if you do,
156
353363
2848
kepada pengguna biasa, dan bahkan jika Anda lakukan ini,
05:56
what can the average user do about it?
157
356211
2188
apa yang bisa mereka lakukan terhadap hal ini?
05:58
How do you know that you've liked something
158
358399
2048
Bagaimana Anda tahu ketika menyukai sesuatu
06:00
that indicates a trait for you
159
360447
1492
yang mengindikasikan sifat Anda
06:01
that's totally irrelevant to the content of what you've liked?
160
361939
3545
yang benar-benar tidak relevan dengan konten yang Anda "suka" ?
06:05
There's a lot of power that users don't have
161
365484
2546
Pengguna tidak memiliki kekuasaan untuk
06:08
to control how this data is used.
162
368030
2230
mengendalikan bagaimana datanya digunakan.
06:10
And I see that as a real problem going forward.
163
370260
3112
Dan saya melihatnya sebagai masalah nyata di masa datang.
06:13
So I think there's a couple paths
164
373372
1977
Jadi saya pikir ada dua jalur
06:15
that we want to look at
165
375349
1001
yang ingin kami lihat
06:16
if we want to give users some control
166
376350
1910
jika kami ingin memberi kendali ke pengguna
06:18
over how this data is used,
167
378260
1740
terhadap bagaimana data digunakan,
06:20
because it's not always going to be used
168
380000
1940
karena tidak selalu akan digunakan
06:21
for their benefit.
169
381940
1381
untuk keuntungan mereka.
06:23
An example I often give is that,
170
383321
1422
Contoh yang sering saya berikan,
06:24
if I ever get bored being a professor,
171
384743
1646
jika saya bosan menjadi profesor,
06:26
I'm going to go start a company
172
386389
1653
saya akan memulai satu perusahaan
06:28
that predicts all of these attributes
173
388042
1454
memprediksi semua atribut ini
06:29
and things like how well you work in teams
174
389496
1602
seperti kemampuan Anda bekerja dalam tim
06:31
and if you're a drug user, if you're an alcoholic.
175
391098
2671
apakah Anda pengguna narkotika, atau pecandu alkohol.
06:33
We know how to predict all that.
176
393769
1440
Kami bisa memprediksi semua itu.
06:35
And I'm going to sell reports
177
395209
1761
Lalu saya akan menjual laporannya
06:36
to H.R. companies and big businesses
178
396970
2100
ke perusahaan HR dan bisnis-bisnis besar
06:39
that want to hire you.
179
399070
2273
yang ingin mempekerjakan Anda.
06:41
We totally can do that now.
180
401343
1177
Kami bisa melakukannya sekarang.
06:42
I could start that business tomorrow,
181
402520
1788
Saya bisa memulai bisnis itu besok,
06:44
and you would have absolutely no control
182
404308
2052
dan Anda sama sekali tidak mempunyai kendali
06:46
over me using your data like that.
183
406360
2138
atas penggunaan data yang saya lakukan.
06:48
That seems to me to be a problem.
184
408498
2292
Bagi saya, itu menjadi masalahnya.
06:50
So one of the paths we can go down
185
410790
1910
Salah satu jalur yang dapat kita tempuh
06:52
is the policy and law path.
186
412700
2032
adalah jalur kebijakan dan hukum.
06:54
And in some respects, I think that that would be most effective,
187
414732
3046
Dan dengan hormat, saya rasa merupakan jalur yang paling efektif,
06:57
but the problem is we'd actually have to do it.
188
417778
2756
tapi masalahnya adalah kita harus benar-benar melakukannya.
07:00
Observing our political process in action
189
420534
2780
Memantau proses aksi politik
07:03
makes me think it's highly unlikely
190
423314
2379
membuat saya berpikir sangat tidak mungkin
07:05
that we're going to get a bunch of representatives
191
425693
1597
untuk mendapat sekelompok perwakilan
07:07
to sit down, learn about this,
192
427290
1986
duduk dan mempelajari hal ini,
07:09
and then enact sweeping changes
193
429276
2106
dan mempertimbangkan perubahan terhadap
07:11
to intellectual property law in the U.S.
194
431382
2157
hukum properti intelektual di AS
07:13
so users control their data.
195
433539
2461
sehingga pengguna dapat mengendalikan data mereka.
07:16
We could go the policy route,
196
436000
1304
Kita bisa memilih rute kebijakan
07:17
where social media companies say,
197
437304
1479
dimana perusahaan berkata,
07:18
you know what? You own your data.
198
438783
1402
Anda memiliki data Anda
07:20
You have total control over how it's used.
199
440185
2489
Anda memiliki kendali penuh terhadap penggunaannya.
07:22
The problem is that the revenue models
200
442674
1848
Masalahnya adalah model pendapatan
07:24
for most social media companies
201
444522
1724
kebanyakan perusahaan media sosial
07:26
rely on sharing or exploiting users' data in some way.
202
446246
4031
bergantung pada membagikan atau mengeksploitasi data pengguna.
07:30
It's sometimes said of Facebook that the users
203
450277
1833
Kerap dikatakan bahwa pengguna Facebook
07:32
aren't the customer, they're the product.
204
452110
2528
bukanlah pelanggan, melainkan sebagai produk.
07:34
And so how do you get a company
205
454638
2714
Jadi bagaimana kamu membuat perusahaan
07:37
to cede control of their main asset
206
457352
2558
memberikan hak kendali atas aset utama mereka
07:39
back to the users?
207
459910
1249
kembali ke penggunanya?
07:41
It's possible, but I don't think it's something
208
461159
1701
Itu mungkin, tapi saya rasa itu bukan hal
07:42
that we're going to see change quickly.
209
462860
2320
yang akan segera terlihat hasilnya.
07:45
So I think the other path
210
465180
1500
Jadi, saya memikirkan jalur lain
07:46
that we can go down that's going to be more effective
211
466680
2288
yang dapat kita lakukan dan akan lebih efektif
07:48
is one of more science.
212
468968
1508
satu jalur yang lebih ilmiah.
07:50
It's doing science that allowed us to develop
213
470476
2510
Dengan mengandalkan sains yang memungkinkan kami
07:52
all these mechanisms for computing
214
472986
1750
mengembangkan semua mekanisme perhitungan
07:54
this personal data in the first place.
215
474736
2052
data personal ini di awalnya.
07:56
And it's actually very similar research
216
476788
2106
And sebenarnya, penelitian yang sama
07:58
that we'd have to do
217
478894
1438
yang harus kami lakukan
08:00
if we want to develop mechanisms
218
480332
2386
jika kita ingin mengembangkan mekanisme
08:02
that can say to a user,
219
482718
1421
yang bisa memberitahu si pengguna,
08:04
"Here's the risk of that action you just took."
220
484139
2229
"Inilah risiko dari tindakan yang Anda ambil."
08:06
By liking that Facebook page,
221
486368
2080
Dengan 'menyukai' halaman di Facebook,
08:08
or by sharing this piece of personal information,
222
488448
2535
atau dengan membagi sepotong informasi pribadi ini,
08:10
you've now improved my ability
223
490983
1502
Anda meningkatkan kemampuan saya
08:12
to predict whether or not you're using drugs
224
492485
2086
memprediksi apakah Anda pengguna narkotika
08:14
or whether or not you get along well in the workplace.
225
494571
2862
atau apakah Anda betah di tempat kerja Anda.
08:17
And that, I think, can affect whether or not
226
497433
1848
Hal ini, menurut saya, dapat berdampak
08:19
people want to share something,
227
499281
1510
pada apakah orang mau berbagi,
08:20
keep it private, or just keep it offline altogether.
228
500791
3239
menyimpannya untuk diri sendiri, atau menyimpannya secara offline.
08:24
We can also look at things like
229
504030
1563
Kita juga bisa melihat hal-hal seperti
08:25
allowing people to encrypt data that they upload,
230
505593
2728
memungkinkan orang mengenkripsi data yang diunggah
08:28
so it's kind of invisible and worthless
231
508321
1855
jadi data tak tampak dan tidak berarti
08:30
to sites like Facebook
232
510176
1431
bagi laman seperti Facebook
08:31
or third party services that access it,
233
511607
2629
atau layanan pihak ketiga yang mengaksesnya,
08:34
but that select users who the person who posted it
234
514236
3247
melainkan hanya para pengguna yang diseleksi oleh si pemilik data
08:37
want to see it have access to see it.
235
517483
2670
diberi akses untuk melihat informasi ini.
08:40
This is all super exciting research
236
520153
2166
Ini merupakan penelitian yang sangat menarik
08:42
from an intellectual perspective,
237
522319
1620
dari sudut pandang intelektual,
08:43
and so scientists are going to be willing to do it.
238
523939
1859
maka ilmuwan bersedia melakukannya.
08:45
So that gives us an advantage over the law side.
239
525798
3610
Jadi hal ini memberikan kita keuntungan di sisi hukum.
08:49
One of the problems that people bring up
240
529408
1725
Salah satu masalah yang dikemukakan
08:51
when I talk about this is, they say,
241
531133
1595
saat saya bicara tentang ini, kata mereka
08:52
you know, if people start keeping all this data private,
242
532728
2646
jika orang mulai menyimpan datanya secara pribadi
08:55
all those methods that you've been developing
243
535374
2113
semua metode yang telah kamu kembangkan
08:57
to predict their traits are going to fail.
244
537487
2653
untuk memprediksi karakteristik mereka akan gagal.
09:00
And I say, absolutely, and for me, that's success,
245
540140
3520
Dan saya berkata, tentu saja, bagi saya itu merupakan kesuksesan,
09:03
because as a scientist,
246
543660
1786
karena sebagai ilmuwan,
09:05
my goal is not to infer information about users,
247
545446
3688
gol saya adalah bukan menyimpulkan informasi tentang pengguna,
09:09
it's to improve the way people interact online.
248
549134
2767
melainkan untuk meningkatkan cara berinteraksi online
09:11
And sometimes that involves inferring things about them,
249
551901
3218
Dan terkadang melibatkan penyimpulan tentang mereka,
09:15
but if users don't want me to use that data,
250
555119
3022
tetapi jika pengguna tidak mau saya menggunakan data tersebut,
09:18
I think they should have the right to do that.
251
558141
2038
menurut saya, mereka berhak memutuskannya.
09:20
I want users to be informed and consenting
252
560179
2651
Saya ingin para pengguna mengetahui dan menyetujui
09:22
users of the tools that we develop.
253
562830
2112
penggunaan dari alat yang kami kembangkan.
09:24
And so I think encouraging this kind of science
254
564942
2952
Jadi saya mendukung bentuk ilmu seperti ini
09:27
and supporting researchers
255
567894
1346
dan mendukung para peneliti
09:29
who want to cede some of that control back to users
256
569240
3023
yang mau mengembalikan kendali kepada para pengguna
09:32
and away from the social media companies
257
572263
2311
dari perusahaan-perusahaan media sosial
09:34
means that going forward, as these tools evolve
258
574574
2671
berarti kedepannya, seiring berkembangnya alat-alat ini
09:37
and advance,
259
577245
1476
dan semakin canggih,
09:38
means that we're going to have an educated
260
578721
1414
berarti kita akan memiliki basis pengguna
09:40
and empowered user base,
261
580135
1694
yang terdidik
09:41
and I think all of us can agree
262
581829
1100
saya rasa kita semua setuju
09:42
that that's a pretty ideal way to go forward.
263
582929
2564
bahwa hal ini cukup ideal di masa datang.
09:45
Thank you.
264
585493
2184
Terima kasih.
09:47
(Applause)
265
587677
3080
(Tepuk tangan)
Tentang situs web ini

Situs ini akan memperkenalkan Anda pada video YouTube yang berguna untuk belajar bahasa Inggris. Anda akan melihat pelajaran bahasa Inggris yang diajarkan oleh guru-guru terbaik dari seluruh dunia. Klik dua kali pada subtitle bahasa Inggris yang ditampilkan di setiap halaman video untuk memutar video dari sana. Subtitle bergulir selaras dengan pemutaran video. Jika Anda memiliki komentar atau permintaan, silakan hubungi kami menggunakan formulir kontak ini.

https://forms.gle/WvT1wiN1qDtmnspy7