Jennifer Golbeck: The curly fry conundrum: Why social media "likes" say more than you might think

376,125 views ・ 2014-04-03

TED


Dubbelklicka på de engelska undertexterna nedan för att spela upp videon.

Översättare: Karl Månsson Granskare: Annika Bidner
00:12
If you remember that first decade of the web,
0
12738
1997
Om du minns internets första decennium,
00:14
it was really a static place.
1
14735
2255
så var det ett väldigt stelt ställe.
00:16
You could go online, you could look at pages,
2
16990
2245
Man kunde koppla upp sig, besöka webbsidor,
00:19
and they were put up either by organizations
3
19235
2513
och dessa sattes upp av antingen organisationer
00:21
who had teams to do it
4
21748
1521
som hade folk som gjorde det
00:23
or by individuals who were really tech-savvy
5
23269
2229
eller av teknikkunniga individer
00:25
for the time.
6
25498
1737
vid den tiden.
00:27
And with the rise of social media
7
27235
1575
Och med sociala mediers ökning
00:28
and social networks in the early 2000s,
8
28810
2399
och sociala nätverk under tidigt 2000-tal,
00:31
the web was completely changed
9
31209
2149
förändrades internet helt och hållet till en plats
00:33
to a place where now the vast majority of content
10
33358
3608
där majoriteten av innehållet som vi använder
00:36
we interact with is put up by average users,
11
36966
3312
läggs upp av vanliga användare,
00:40
either in YouTube videos or blog posts
12
40278
2697
antingen med Youtube-videor eller blogginlägg
00:42
or product reviews or social media postings.
13
42975
3315
eller produktrecensioner eller inlägg på sociala medier.
00:46
And it's also become a much more interactive place,
14
46290
2347
Det har också blivit en mycket mer interaktiv plats,
00:48
where people are interacting with others,
15
48637
2637
där folk interagerar med varandra,
00:51
they're commenting, they're sharing,
16
51274
1696
de kommenterar, de delar,
00:52
they're not just reading.
17
52970
1614
de läser inte bara.
00:54
So Facebook is not the only place you can do this,
18
54584
1866
Facebook är inte den enda plats där man gör detta
00:56
but it's the biggest,
19
56450
1098
men den är störst
00:57
and it serves to illustrate the numbers.
20
57548
1784
och kan illustrera siffrorna.
00:59
Facebook has 1.2 billion users per month.
21
59332
3477
Facebook har 1,2 miljarder användare per månad.
01:02
So half the Earth's Internet population
22
62809
1930
Så halva jordens internetbefolkning
01:04
is using Facebook.
23
64739
1653
använder Facebook.
01:06
They are a site, along with others,
24
66392
1932
De är en webbplats som tillsammans med andra
01:08
that has allowed people to create an online persona
25
68324
3219
har möjliggjort för folk att skapa sig en onlineidentitet
01:11
with very little technical skill,
26
71543
1782
med väldigt begränsade teknikkunskaper,
01:13
and people responded by putting huge amounts
27
73325
2476
och folk svarade med att lägga upp enormt
01:15
of personal data online.
28
75801
1983
mycket personlig information online.
01:17
So the result is that we have behavioral,
29
77784
2543
Så resultatet är att vi har behovsmässig,
01:20
preference, demographic data
30
80327
1986
preferensmässig och demografisk data
01:22
for hundreds of millions of people,
31
82313
2101
för hundratals miljoner människor,
01:24
which is unprecedented in history.
32
84414
2026
vilket inte tidigare funnits i historien.
01:26
And as a computer scientist, what this means is that
33
86440
2560
För en datorforskare som mig betyder detta att
01:29
I've been able to build models
34
89000
1664
jag har kunnat bygga modeller
01:30
that can predict all sorts of hidden attributes
35
90664
2322
som kan förutse många gömda attribut
01:32
for all of you that you don't even know
36
92986
2284
om alla er som ni inte ens visste
01:35
you're sharing information about.
37
95270
2202
att ni delar mer er information om.
01:37
As scientists, we use that to help
38
97472
2382
Som forskare använder vi det för att förbättra sättet
01:39
the way people interact online,
39
99854
2114
som folk interagerar på nätet,
01:41
but there's less altruistic applications,
40
101968
2499
men det finns applikationer som är mindre osjälviska
01:44
and there's a problem in that users don't really
41
104467
2381
och det är ett problem att användarna inte riktigt
01:46
understand these techniques and how they work,
42
106848
2470
förstår dessa tekniker och hur de fungerar,
01:49
and even if they did, they don't have a lot of control over it.
43
109318
3128
och även om de gjorde det, har de inte så stor kontroll över det.
01:52
So what I want to talk to you about today
44
112446
1490
Det jag vill prata med er om idag
01:53
is some of these things that we're able to do,
45
113936
2702
handlar om de saker vi har en möjlighet att göra,
01:56
and then give us some ideas of how we might go forward
46
116638
2763
och sen ge oss några idéer om hur vi kan röra oss mot
01:59
to move some control back into the hands of users.
47
119401
2769
att ge tillbaka kontrollen till användarna.
02:02
So this is Target, the company.
48
122170
1586
Detta är Target, ett företag.
02:03
I didn't just put that logo
49
123756
1324
Jag satte inte det emblemet
02:05
on this poor, pregnant woman's belly.
50
125080
2170
på denna stackars gravida kvinnans mage.
02:07
You may have seen this anecdote that was printed
51
127250
1840
Du kanske har sett anekdoten som publicerades i Forbes
02:09
in Forbes magazine where Target
52
129090
2061
där Target skickade ett flygblad
02:11
sent a flyer to this 15-year-old girl
53
131151
2361
till en 15-årig flicka
02:13
with advertisements and coupons
54
133512
1710
med reklam och kuponger
02:15
for baby bottles and diapers and cribs
55
135222
2554
för nappflaskor, blöjor och spjälsängar
02:17
two weeks before she told her parents
56
137776
1684
två veckor innan hon berättat för sina föräldrar
02:19
that she was pregnant.
57
139460
1864
att hon var gravid.
02:21
Yeah, the dad was really upset.
58
141324
2704
Ja, pappan var väldigt upprörd.
02:24
He said, "How did Target figure out
59
144028
1716
Han sa, "Hur listade Target ut
02:25
that this high school girl was pregnant
60
145744
1824
att denna gymnasietjejen var gravid
02:27
before she told her parents?"
61
147568
1960
innan hon berättade för sina föräldrar?".
02:29
It turns out that they have the purchase history
62
149528
2621
Det visade sig att de hade köphistoriken
02:32
for hundreds of thousands of customers
63
152149
2301
för tiotusentals kvinnor
02:34
and they compute what they call a pregnancy score,
64
154450
2730
och beräknat, som de kallar det, en graviditetspoäng,
02:37
which is not just whether or not a woman's pregnant,
65
157180
2332
vilket inte bara räknar ut om kvinnan är gravid,
02:39
but what her due date is.
66
159512
1730
utan också när barnet kommer.
02:41
And they compute that
67
161242
1304
De räknar inte ut det
02:42
not by looking at the obvious things,
68
162546
1768
bara genom att se på det uppenbara,
02:44
like, she's buying a crib or baby clothes,
69
164314
2512
som att hon köper en spjälsäng eller barnkläder,
02:46
but things like, she bought more vitamins
70
166826
2943
utan saker som att hon köpt mer vitaminer
02:49
than she normally had,
71
169769
1717
än vanligt
02:51
or she bought a handbag
72
171486
1464
eller att hon en handväska
02:52
that's big enough to hold diapers.
73
172950
1711
som är stor nog att rymma blöjor.
02:54
And by themselves, those purchases don't seem
74
174661
1910
Och för sig själva verkar inte dessa inköp
02:56
like they might reveal a lot,
75
176571
2469
avslöja särskilt mycket
02:59
but it's a pattern of behavior that,
76
179040
1978
men det är ett beteendemönster, så när
03:01
when you take it in the context of thousands of other people,
77
181018
3117
man sätter det i samma kontext som tusentals andra,
03:04
starts to actually reveal some insights.
78
184135
2757
börjar det visa ett antal insikter.
03:06
So that's the kind of thing that we do
79
186892
1793
Det är den sortens saker vi gör
03:08
when we're predicting stuff about you on social media.
80
188685
2567
när vi förutser saker om dig på sociala medier.
03:11
We're looking for little patterns of behavior that,
81
191252
2796
Vi letar efter små beteendemönster,
03:14
when you detect them among millions of people,
82
194048
2682
som visar sig bland miljontals människor,
03:16
lets us find out all kinds of things.
83
196730
2706
som låter oss få reda på alla möjliga saker.
03:19
So in my lab and with colleagues,
84
199436
1747
I mitt labb och med kollegor,
03:21
we've developed mechanisms where we can
85
201183
1777
har vi utvecklat mekanismer som låter oss
03:22
quite accurately predict things
86
202960
1560
förutsäga saker rätt precist
03:24
like your political preference,
87
204520
1725
som dina politiska preferenser
03:26
your personality score, gender, sexual orientation,
88
206245
3752
din personlighetstyp, kön, sexuell läggning,
03:29
religion, age, intelligence,
89
209997
2873
religion, ålder, intelligens,
03:32
along with things like
90
212870
1394
tillsammans med saker som
03:34
how much you trust the people you know
91
214264
1937
hur mycket du litar på dina medmänniskor
03:36
and how strong those relationships are.
92
216201
1804
och hur starka dessa relationer är.
03:38
We can do all of this really well.
93
218005
1785
Vi kan göra allt detta väldigt väl.
03:39
And again, it doesn't come from what you might
94
219790
2197
Återigen, det kommer inte från vad ni tror
03:41
think of as obvious information.
95
221987
2102
är uppenbara saker.
03:44
So my favorite example is from this study
96
224089
2281
Mitt favoritexempel från en studie
03:46
that was published this year
97
226370
1240
som publicerades i år
03:47
in the Proceedings of the National Academies.
98
227610
1795
i Proceedings of the National Academies.
03:49
If you Google this, you'll find it.
99
229405
1285
Om du googlar så hittar du den.
03:50
It's four pages, easy to read.
100
230690
1872
Den är på fyra sidor och lättläst.
03:52
And they looked at just people's Facebook likes,
101
232562
3003
De såg bara
på folks gillningar på Facebook,
03:55
so just the things you like on Facebook,
102
235565
1920
så bara de saker man gillar på Facebook,
03:57
and used that to predict all these attributes,
103
237485
2138
och använde det för att förutse alla attribut
03:59
along with some other ones.
104
239623
1645
tillsammans med andra saker.
04:01
And in their paper they listed the five likes
105
241268
2961
Och i deras text listade de de fem gillningarna
04:04
that were most indicative of high intelligence.
106
244229
2787
som bäst indikerade hög intelligens.
04:07
And among those was liking a page
107
247016
2324
Bland dessa fanns en sida
04:09
for curly fries. (Laughter)
108
249340
1905
om curly fries. (Skratt)
04:11
Curly fries are delicious,
109
251245
2093
Curly fries är jättegoda,
04:13
but liking them does not necessarily mean
110
253338
2530
men att gilla dem betyder inte nödvändigtvis
04:15
that you're smarter than the average person.
111
255868
2080
att du är smartare än en genomsnittlig person.
04:17
So how is it that one of the strongest indicators
112
257948
3207
Hur kommer det sig att en av de starkaste indikationerna
04:21
of your intelligence
113
261155
1570
på ens intelligens
04:22
is liking this page
114
262725
1447
är att gilla denna sida
04:24
when the content is totally irrelevant
115
264172
2252
med innehåll som är totalt irrelevant
04:26
to the attribute that's being predicted?
116
266424
2527
för attributet som förutses?
04:28
And it turns out that we have to look at
117
268951
1584
Och det visar sig att vi måste se
04:30
a whole bunch of underlying theories
118
270535
1618
till en massa bakomliggande teorier
04:32
to see why we're able to do this.
119
272153
2569
för att se hur vi kan göra detta.
04:34
One of them is a sociological theory called homophily,
120
274722
2913
En av dem är en sociologisk teori som kallas homofili,
04:37
which basically says people are friends with people like them.
121
277635
3092
vilket betyder att folk är vänner med folk som liknar dem själva.
04:40
So if you're smart, you tend to be friends with smart people,
122
280727
2014
Så om du är smart känner du ofta andra smarta människor
04:42
and if you're young, you tend to be friends with young people,
123
282741
2630
och om du är ung känner du ofta unga människor
04:45
and this is well established
124
285371
1627
och detta är etablerat sen
04:46
for hundreds of years.
125
286998
1745
hundratals år tillbaka.
04:48
We also know a lot
126
288743
1232
Vi vet också mycket om
04:49
about how information spreads through networks.
127
289975
2550
hur information sprids genom nätverk.
04:52
It turns out things like viral videos
128
292525
1754
Det visar sig att virala videos
04:54
or Facebook likes or other information
129
294279
2406
eller Facebookgillningar eller annan information
04:56
spreads in exactly the same way
130
296685
1888
sprider som på exakt samma sätt
04:58
that diseases spread through social networks.
131
298573
2454
som sjukdomar sprider sig genom sociala nätverk.
05:01
So this is something we've studied for a long time.
132
301027
1791
Detta har vi studerat länge.
05:02
We have good models of it.
133
302818
1576
Vi har bra modeller för det.
05:04
And so you can put those things together
134
304394
2157
Och man kan sätta ihop saker
05:06
and start seeing why things like this happen.
135
306551
3088
och börja se varför såna här saker händer.
05:09
So if I were to give you a hypothesis,
136
309639
1814
Om jag ger er en hypotes,
05:11
it would be that a smart guy started this page,
137
311453
3227
skulle det vara att en smart kille startade den här sidan,
05:14
or maybe one of the first people who liked it
138
314680
1939
eller kanske att en av de första som gillade sidan
05:16
would have scored high on that test.
139
316619
1736
hade fått bra resultat på testet.
05:18
And they liked it, and their friends saw it,
140
318355
2288
Och de gillade det, deras vänner såg det,
05:20
and by homophily, we know that he probably had smart friends,
141
320643
3122
och genom homofili vet vi att han förmodligen hade smarta vänner,
05:23
and so it spread to them, and some of them liked it,
142
323765
3056
och så spreds det till dem, vissa av dem gillade det,
05:26
and they had smart friends,
143
326821
1189
och de hade smarta vänner och det spreds vidare,
05:28
and so it spread to them,
144
328010
807
05:28
and so it propagated through the network
145
328817
1973
och så fortplanade det sig genom nätverket
05:30
to a host of smart people,
146
330790
2569
till en samling smarta människor
05:33
so that by the end, the action
147
333359
2056
så till slut blev
05:35
of liking the curly fries page
148
335415
2544
gillandet av curly fries-sidan
05:37
is indicative of high intelligence,
149
337959
1615
en indikation på hög intelligens,
05:39
not because of the content,
150
339574
1803
inte på grund av innehållet,
05:41
but because the actual action of liking
151
341377
2522
utan för att själva gillningen
05:43
reflects back the common attributes
152
343899
1900
reflekterar vanliga attribut
05:45
of other people who have done it.
153
345799
2468
hos andra som har gjort det.
05:48
So this is pretty complicated stuff, right?
154
348267
2897
Det är rätt komplicerade saker, eller hur?
05:51
It's a hard thing to sit down and explain
155
351164
2199
Det är svårt att sätta sig och förklara
05:53
to an average user, and even if you do,
156
353363
2848
för en typisk användare, och även om man gör det,
vad kan den medelanvändaren
05:56
what can the average user do about it?
157
356211
2188
göra åt det?
05:58
How do you know that you've liked something
158
358399
2048
Hur vet du att du gillat något
06:00
that indicates a trait for you
159
360447
1492
som indikerar ett av dina drag
06:01
that's totally irrelevant to the content of what you've liked?
160
361939
3545
som är helt irrelevant för innehållet du gillar?
06:05
There's a lot of power that users don't have
161
365484
2546
Det finns mycket makt som användaren inte har
06:08
to control how this data is used.
162
368030
2230
för att kontrollera hur datan används.
06:10
And I see that as a real problem going forward.
163
370260
3112
Och jag ser det som ett stort problem i framtiden.
06:13
So I think there's a couple paths
164
373372
1977
Jag tror det finns ett par vägar
06:15
that we want to look at
165
375349
1001
som borde kolla på
06:16
if we want to give users some control
166
376350
1910
om vi vill ge användarna kontroll
06:18
over how this data is used,
167
378260
1740
över hur datan används,
06:20
because it's not always going to be used
168
380000
1940
för det kommer inte alltid att användas
06:21
for their benefit.
169
381940
1381
till deras fördel.
06:23
An example I often give is that,
170
383321
1422
Ett exempel jag ofta ger
06:24
if I ever get bored being a professor,
171
384743
1646
är att om jag någonsin tröttnar på att vara professor
06:26
I'm going to go start a company
172
386389
1653
kommer jag starta ett företag
06:28
that predicts all of these attributes
173
388042
1454
som förutser alla attribut
06:29
and things like how well you work in teams
174
389496
1602
och saker som hur du jobbar i grupp
06:31
and if you're a drug user, if you're an alcoholic.
175
391098
2671
och om du är drogmissbrukare eller alkoholist.
06:33
We know how to predict all that.
176
393769
1440
Vi vet hur vi ska förutse allt det.
06:35
And I'm going to sell reports
177
395209
1761
Och jag ska sälja rapporter
06:36
to H.R. companies and big businesses
178
396970
2100
till försäkringsbolag och storföretag
06:39
that want to hire you.
179
399070
2273
som vill anställa dig.
06:41
We totally can do that now.
180
401343
1177
Vi kan göra det nu.
06:42
I could start that business tomorrow,
181
402520
1788
Jag kan starta företaget imorgon,
06:44
and you would have absolutely no control
182
404308
2052
och du skulle inte ha någon kontroll
06:46
over me using your data like that.
183
406360
2138
över hur jag använder datan.
06:48
That seems to me to be a problem.
184
408498
2292
Det verkar för mig vara ett stort problem.
06:50
So one of the paths we can go down
185
410790
1910
En av vägarna vi kan gå
06:52
is the policy and law path.
186
412700
2032
är politikens och lagens väg.
06:54
And in some respects, I think that that would be most effective,
187
414732
3046
I vissa avseenden tror jag att det skulle vara det mest effektiva,
06:57
but the problem is we'd actually have to do it.
188
417778
2756
men problemet är att vi faktiskt skulle behöva göra det.
07:00
Observing our political process in action
189
420534
2780
Att se hur vår politiska process fungerar
07:03
makes me think it's highly unlikely
190
423314
2379
får mig att tro att det är högst osannolikt
07:05
that we're going to get a bunch of representatives
191
425693
1597
att vi kommer få en massa folkvalda
07:07
to sit down, learn about this,
192
427290
1986
att sätta sig ner och lära sig om detta,
07:09
and then enact sweeping changes
193
429276
2106
och sedan få igenom avgörande förändringar
07:11
to intellectual property law in the U.S.
194
431382
2157
på immaterialrättens lag i USA
07:13
so users control their data.
195
433539
2461
så att användarna får kontroll över sin data.
07:16
We could go the policy route,
196
436000
1304
Vi kan gå politikens väg,
07:17
where social media companies say,
197
437304
1479
där företag inom sociala medier säger
07:18
you know what? You own your data.
198
438783
1402
"Vet du vad? Du äger din data.
07:20
You have total control over how it's used.
199
440185
2489
Du har kontroll över hur den används".
07:22
The problem is that the revenue models
200
442674
1848
Problemet är att intäktsmodellerna
07:24
for most social media companies
201
444522
1724
för flertalet företag inom sociala medier
07:26
rely on sharing or exploiting users' data in some way.
202
446246
4031
baserar sig på att dela eller utnyttja användarnas data på något sätt.
07:30
It's sometimes said of Facebook that the users
203
450277
1833
Det påstås ibland om Facebook att användaren
07:32
aren't the customer, they're the product.
204
452110
2528
inte är kunden, utan de är varan.
07:34
And so how do you get a company
205
454638
2714
Hur får man ett företag
07:37
to cede control of their main asset
206
457352
2558
att ge tillbaka kontrollen över sin främsta tillgång
07:39
back to the users?
207
459910
1249
till användarna?
07:41
It's possible, but I don't think it's something
208
461159
1701
Det är möjligt, men jag tror inte att
07:42
that we're going to see change quickly.
209
462860
2320
det kommer ändras särskilt snabbt.
07:45
So I think the other path
210
465180
1500
Jag tror att den andra vägen
07:46
that we can go down that's going to be more effective
211
466680
2288
vi kan gå som är mer effektiv
07:48
is one of more science.
212
468968
1508
är en väg med mer vetenskap.
07:50
It's doing science that allowed us to develop
213
470476
2510
Det är genom vetenskapen som vi kan utveckla
07:52
all these mechanisms for computing
214
472986
1750
alla dessa mekanismer för beräkningar
07:54
this personal data in the first place.
215
474736
2052
av personliga data från första början.
07:56
And it's actually very similar research
216
476788
2106
Undersökningarna är faktiskt väldigt lika de som vi måste göra
07:58
that we'd have to do
217
478894
1438
08:00
if we want to develop mechanisms
218
480332
2386
om vi vill utveckla mekanismer
08:02
that can say to a user,
219
482718
1421
som kan säga till användaren,
08:04
"Here's the risk of that action you just took."
220
484139
2229
"Det här är risken med den handling du nyss begick".
08:06
By liking that Facebook page,
221
486368
2080
Genom att gilla den där Facebooksidan
08:08
or by sharing this piece of personal information,
222
488448
2535
eller genom att dela en del personlig information,
08:10
you've now improved my ability
223
490983
1502
har du förbättrat min möjlighet att förutse
08:12
to predict whether or not you're using drugs
224
492485
2086
om du använder droger eller inte
08:14
or whether or not you get along well in the workplace.
225
494571
2862
eller om du kommer bra överens med folk på jobbet eller inte.
08:17
And that, I think, can affect whether or not
226
497433
1848
Det tror jag kan påverka
08:19
people want to share something,
227
499281
1510
om folk vill dela något,
08:20
keep it private, or just keep it offline altogether.
228
500791
3239
hålla det för sig själv, eller bara vara offline helt och hållet.
Vi kan också kika på saker som
08:24
We can also look at things like
229
504030
1563
08:25
allowing people to encrypt data that they upload,
230
505593
2728
att låta folk kryptera uppladdade data,
08:28
so it's kind of invisible and worthless
231
508321
1855
så det är osynligt och värdelöst
08:30
to sites like Facebook
232
510176
1431
för webbplatser som Facebook
08:31
or third party services that access it,
233
511607
2629
eller tredjepartstjänster som använder det,
08:34
but that select users who the person who posted it
234
514236
3247
men den utvalda personen som valts av uppladdaren
08:37
want to see it have access to see it.
235
517483
2670
kommer att ha möjlighet att se det.
08:40
This is all super exciting research
236
520153
2166
Detta är superspännande forskning
08:42
from an intellectual perspective,
237
522319
1620
från ett intellektuellt perspektiv,
08:43
and so scientists are going to be willing to do it.
238
523939
1859
och forskare kommer vilja göra det.
08:45
So that gives us an advantage over the law side.
239
525798
3610
Det ger oss ett övertag över lagsidan.
08:49
One of the problems that people bring up
240
529408
1725
Ett av problemen som folk tar upp
08:51
when I talk about this is, they say,
241
531133
1595
när jag pratar om detta är,
08:52
you know, if people start keeping all this data private,
242
532728
2646
"Du vet, om folk börjar hålla all data privat, så kommer
08:55
all those methods that you've been developing
243
535374
2113
alla metoder som du utvecklat
08:57
to predict their traits are going to fail.
244
537487
2653
som förutser deras karaktärsdrag att misslyckas."
09:00
And I say, absolutely, and for me, that's success,
245
540140
3520
Då säger jag "Absolut, och för mig är det en succé",
09:03
because as a scientist,
246
543660
1786
för som forskare
09:05
my goal is not to infer information about users,
247
545446
3688
är mitt mål inte att få tag på information om användarna,
09:09
it's to improve the way people interact online.
248
549134
2767
utan att förbättra interaktionen mellan folk online.
09:11
And sometimes that involves inferring things about them,
249
551901
3218
Och ibland innebär det att dra slutsatser om dem,
09:15
but if users don't want me to use that data,
250
555119
3022
men om användare inte vill ge mig tillgång till den informationen,
09:18
I think they should have the right to do that.
251
558141
2038
tycker jag att de har rätt att göra det.
09:20
I want users to be informed and consenting
252
560179
2651
Jag vill att användare ska vara informerade och samtyckande
09:22
users of the tools that we develop.
253
562830
2112
användare av verktygen som vi utvecklar.
09:24
And so I think encouraging this kind of science
254
564942
2952
Och jag tycker att vi genom att uppmuntra denna sorts vetenskap
09:27
and supporting researchers
255
567894
1346
och att stötta forskare
09:29
who want to cede some of that control back to users
256
569240
3023
som vill ge tillbaka kontrollen till användarna
09:32
and away from the social media companies
257
572263
2311
från företagen inom sociala medier
09:34
means that going forward, as these tools evolve
258
574574
2671
betyder att vi går framåt när dessa verktyg utvecklas
09:37
and advance,
259
577245
1476
och går framåt,
09:38
means that we're going to have an educated
260
578721
1414
och vi kommer få en utbildad
09:40
and empowered user base,
261
580135
1694
och kraftfull användarbas,
09:41
and I think all of us can agree
262
581829
1100
och jag tror vi är överens om att det är rätt väg att gå framåt.
09:42
that that's a pretty ideal way to go forward.
263
582929
2564
09:45
Thank you.
264
585493
2184
Tack.
09:47
(Applause)
265
587677
3080
(Applåder)
Om denna webbplats

På den här webbplatsen hittar du YouTube-videor som är användbara för att lära sig engelska. Du kommer att få se engelska lektioner som ges av förstklassiga lärare från hela världen. Dubbelklicka på de engelska undertexterna som visas på varje videosida för att spela upp videon därifrån. Undertexterna rullar i takt med videouppspelningen. Om du har några kommentarer eller önskemål kan du kontakta oss via detta kontaktformulär.

https://forms.gle/WvT1wiN1qDtmnspy7