Jennifer Golbeck: The curly fry conundrum: Why social media "likes" say more than you might think

376,856 views

2014-04-03 ・ TED


New videos

Jennifer Golbeck: The curly fry conundrum: Why social media "likes" say more than you might think

376,856 views ・ 2014-04-03

TED


Моля, кликнете два пъти върху английските субтитри по-долу, за да пуснете видеото.

Translator: Boyana Hristova Reviewer: Anton Hikov
00:12
If you remember that first decade of the web,
0
12738
1997
Ако си спомнята първото десетилетие на интернета,
00:14
it was really a static place.
1
14735
2255
това беше много статично място.
00:16
You could go online, you could look at pages,
2
16990
2245
Можеше да отидеш онлайн, да разгледаш страници,
00:19
and they were put up either by organizations
3
19235
2513
които са качени от организации,
00:21
who had teams to do it
4
21748
1521
направени от техните екипи,
00:23
or by individuals who were really tech-savvy
5
23269
2229
или от хора, които са много технически грамотни
00:25
for the time.
6
25498
1737
за времето си.
00:27
And with the rise of social media
7
27235
1575
С появата на социалните медии
00:28
and social networks in the early 2000s,
8
28810
2399
и социалните мрежи в началото на 21 век,
00:31
the web was completely changed
9
31209
2149
мрежата напълно се промени
00:33
to a place where now the vast majority of content
10
33358
3608
и стана място, където по-голямата част от съдържанието,
00:36
we interact with is put up by average users,
11
36966
3312
с което се сблъскваме, е качено от обикновените потребители,
00:40
either in YouTube videos or blog posts
12
40278
2697
или под формата на видеа в YouTube, или блог постове,
00:42
or product reviews or social media postings.
13
42975
3315
или отзиви за продукт, или постове в социалните медии.
00:46
And it's also become a much more interactive place,
14
46290
2347
Тя стана много по-интерактивно място,
00:48
where people are interacting with others,
15
48637
2637
където хората общуват помежду си,
00:51
they're commenting, they're sharing,
16
51274
1696
коментират, споделят,
00:52
they're not just reading.
17
52970
1614
не само четат.
00:54
So Facebook is not the only place you can do this,
18
54584
1866
Facebook не е единственото място, където можете да правите това,
00:56
but it's the biggest,
19
56450
1098
но е най-голямото,
00:57
and it serves to illustrate the numbers.
20
57548
1784
и служи като пример за бройката.
00:59
Facebook has 1.2 billion users per month.
21
59332
3477
Facebook има 1,2 милиарда потребители всеки месец.
01:02
So half the Earth's Internet population
22
62809
1930
Половината от интернет населението на Земята
01:04
is using Facebook.
23
64739
1653
използва Facebook.
01:06
They are a site, along with others,
24
66392
1932
Това е сайт, който както някои други,
01:08
that has allowed people to create an online persona
25
68324
3219
позволява на хората да създадат онлайн персонаж
01:11
with very little technical skill,
26
71543
1782
с много малко технически умения,
01:13
and people responded by putting huge amounts
27
73325
2476
и хората реагираха като качиха огромни количества
01:15
of personal data online.
28
75801
1983
лични данни онлайн.
01:17
So the result is that we have behavioral,
29
77784
2543
В резултат имаме поведенчески,
01:20
preference, demographic data
30
80327
1986
преференциални и демографски данни
01:22
for hundreds of millions of people,
31
82313
2101
на хиляди милиони хора,
01:24
which is unprecedented in history.
32
84414
2026
което е без прецедент в историята.
01:26
And as a computer scientist, what this means is that
33
86440
2560
Като компютърен специалист, това означава, че
01:29
I've been able to build models
34
89000
1664
имам възможността да изградя модели,
01:30
that can predict all sorts of hidden attributes
35
90664
2322
които могат да предскажат всякакви видове скрити атрибути
01:32
for all of you that you don't even know
36
92986
2284
за всички вас, за които дори не знаете,
01:35
you're sharing information about.
37
95270
2202
че споделяте информация.
01:37
As scientists, we use that to help
38
97472
2382
Като учени, ние използваме това за да подпомогнем
01:39
the way people interact online,
39
99854
2114
начина, по който хората общуват онлайн,
01:41
but there's less altruistic applications,
40
101968
2499
но има и не толкова алтруистични приложения.
01:44
and there's a problem in that users don't really
41
104467
2381
Това е проблем, тъй като потребителите
01:46
understand these techniques and how they work,
42
106848
2470
не разбират напълно тези техники и как те работят,
01:49
and even if they did, they don't have a lot of control over it.
43
109318
3128
дори и да разбираха, те нямат особено голям контрол върху тях.
01:52
So what I want to talk to you about today
44
112446
1490
Така че това, за което искам да говоря,
01:53
is some of these things that we're able to do,
45
113936
2702
са нещата, които сме способни да направим,
01:56
and then give us some ideas of how we might go forward
46
116638
2763
и да ви дам няколко идеи как да подходим,
01:59
to move some control back into the hands of users.
47
119401
2769
така че да върнем част от контрола в ръцете на потребителите.
02:02
So this is Target, the company.
48
122170
1586
Това е Target, компанията.
02:03
I didn't just put that logo
49
123756
1324
Не случайно сложих логото
02:05
on this poor, pregnant woman's belly.
50
125080
2170
на корема на горката бременна жена.
02:07
You may have seen this anecdote that was printed
51
127250
1840
Може да знаете за този анекдот, който беше публикуван
02:09
in Forbes magazine where Target
52
129090
2061
в списание Forbes, в който Target
02:11
sent a flyer to this 15-year-old girl
53
131151
2361
изпратили на едно 15-годишно момиче брошура
02:13
with advertisements and coupons
54
133512
1710
с реклами и купони за намаление
02:15
for baby bottles and diapers and cribs
55
135222
2554
на бебешки бутилки, памперси и детски креватчета
02:17
two weeks before she told her parents
56
137776
1684
две седмици преди да каже на родителите си,
02:19
that she was pregnant.
57
139460
1864
че е бременна.
02:21
Yeah, the dad was really upset.
58
141324
2704
Да, бащата бил много разстроен.
02:24
He said, "How did Target figure out
59
144028
1716
Той казал: "Как Target могат да знаят,
02:25
that this high school girl was pregnant
60
145744
1824
че една ученичка е бременна,
02:27
before she told her parents?"
61
147568
1960
преди тя да е казала на родителите си?"
02:29
It turns out that they have the purchase history
62
149528
2621
Оказва се, че те имат историята на покупките
02:32
for hundreds of thousands of customers
63
152149
2301
на стотици хиляди клиенти
02:34
and they compute what they call a pregnancy score,
64
154450
2730
и изчисляват нещо, което наричат резултат на бременност,
02:37
which is not just whether or not a woman's pregnant,
65
157180
2332
което не е просто дали жената е бременна или не.
02:39
but what her due date is.
66
159512
1730
а кога е терминът й.
02:41
And they compute that
67
161242
1304
Изчисляват това
02:42
not by looking at the obvious things,
68
162546
1768
не като гледат очевидните неща,
02:44
like, she's buying a crib or baby clothes,
69
164314
2512
като това, че е купила детско креватче или бебешки дрехи,
02:46
but things like, she bought more vitamins
70
166826
2943
а неща като това дали е купила повече витамини,
02:49
than she normally had,
71
169769
1717
отколкото по принцип,
02:51
or she bought a handbag
72
171486
1464
или си е купила чанта,
02:52
that's big enough to hold diapers.
73
172950
1711
достатъчно голяма за да събере памперси.
02:54
And by themselves, those purchases don't seem
74
174661
1910
Сами по себе си тези покупки не изглеждат
02:56
like they might reveal a lot,
75
176571
2469
да разкриват особено много,
02:59
but it's a pattern of behavior that,
76
179040
1978
но това е модел на поведение, който
03:01
when you take it in the context of thousands of other people,
77
181018
3117
сложен в контекста на хиляди хора,
03:04
starts to actually reveal some insights.
78
184135
2757
разкрива определена информация.
03:06
So that's the kind of thing that we do
79
186892
1793
Това е видът на нещата, които правим,
03:08
when we're predicting stuff about you on social media.
80
188685
2567
когато предсказваме неща за вас, чрез социалните медии.
03:11
We're looking for little patterns of behavior that,
81
191252
2796
Търсим малки модели на поведение, които
03:14
when you detect them among millions of people,
82
194048
2682
когато са засечени сред милиони хора,
03:16
lets us find out all kinds of things.
83
196730
2706
ни позволяват да открием всякакви неща.
03:19
So in my lab and with colleagues,
84
199436
1747
В моята лаборатория с колегите
03:21
we've developed mechanisms where we can
85
201183
1777
разработихме механизъм, при който
03:22
quite accurately predict things
86
202960
1560
с точност можем да определим неща
03:24
like your political preference,
87
204520
1725
като политическите ви предпочитания,
03:26
your personality score, gender, sexual orientation,
88
206245
3752
характера, пола, сексуалната ориентация,
03:29
religion, age, intelligence,
89
209997
2873
религията, възрастта, интелекта
03:32
along with things like
90
212870
1394
както и други неща като
03:34
how much you trust the people you know
91
214264
1937
колко вярвате на хората, които познавате,
03:36
and how strong those relationships are.
92
216201
1804
и колко са силни връзките ви с тях.
03:38
We can do all of this really well.
93
218005
1785
Можем да правим това много добре.
03:39
And again, it doesn't come from what you might
94
219790
2197
И отново, това не произлиза
03:41
think of as obvious information.
95
221987
2102
от очевидната информация.
03:44
So my favorite example is from this study
96
224089
2281
Любимият ми пример е от проучване
03:46
that was published this year
97
226370
1240
публикувано тази година
03:47
in the Proceedings of the National Academies.
98
227610
1795
в Бюлетина на националните академии.
03:49
If you Google this, you'll find it.
99
229405
1285
Ако потърсите в Google, ще го намерите.
03:50
It's four pages, easy to read.
100
230690
1872
Четири страници е, лесно за четене.
03:52
And they looked at just people's Facebook likes,
101
232562
3003
Разгледали какво хората харесват във Facebook,
03:55
so just the things you like on Facebook,
102
235565
1920
само нещата, които харесвате във Facebook,
03:57
and used that to predict all these attributes,
103
237485
2138
и използвали това за да предскажат всички тези атрибути,
03:59
along with some other ones.
104
239623
1645
както и някои други.
04:01
And in their paper they listed the five likes
105
241268
2961
В проучването те описват петте харесвания,
04:04
that were most indicative of high intelligence.
106
244229
2787
които най-добре показват висок интелект.
04:07
And among those was liking a page
107
247016
2324
Сред тях е това да харесаш страница
04:09
for curly fries. (Laughter)
108
249340
1905
за къдрави пържени картофки. (Смях)
04:11
Curly fries are delicious,
109
251245
2093
Къдравите пържени картофки са вкусни,
04:13
but liking them does not necessarily mean
110
253338
2530
но това да ги харесваш не значи непременно,
04:15
that you're smarter than the average person.
111
255868
2080
че си по-умен от средностатистическия човек.
04:17
So how is it that one of the strongest indicators
112
257948
3207
Тогава как така един от най-силните показатели
04:21
of your intelligence
113
261155
1570
за вашия интелект
04:22
is liking this page
114
262725
1447
е да харесате страница,
04:24
when the content is totally irrelevant
115
264172
2252
в която съдържанието е абсолютно несвързано
04:26
to the attribute that's being predicted?
116
266424
2527
с атрибута, който е предсказан?
04:28
And it turns out that we have to look at
117
268951
1584
Оказва се, че трябва да разгледам
04:30
a whole bunch of underlying theories
118
270535
1618
голям брой свързани теории
04:32
to see why we're able to do this.
119
272153
2569
за да разберем как е възможно това.
04:34
One of them is a sociological theory called homophily,
120
274722
2913
Една от тях е социологическа теория наречена хомофилия,
04:37
which basically says people are friends with people like them.
121
277635
3092
която твърди, че хората са приятели с хора, с които си приличат.
04:40
So if you're smart, you tend to be friends with smart people,
122
280727
2014
Така че ако сте умни, имате склонност да сте приятели с умни хора,
04:42
and if you're young, you tend to be friends with young people,
123
282741
2630
ако сте млади, имате склонност да сте приятели с млади хора,
04:45
and this is well established
124
285371
1627
и това е силно утвърдено
04:46
for hundreds of years.
125
286998
1745
от стотици години насам.
04:48
We also know a lot
126
288743
1232
Също така знаем много
04:49
about how information spreads through networks.
127
289975
2550
за това как информацията се разпространява в общностите.
04:52
It turns out things like viral videos
128
292525
1754
Оказва се, че неща като "вирусни" видеоклипове,
04:54
or Facebook likes or other information
129
294279
2406
Facebook харесвания и друга информация,
04:56
spreads in exactly the same way
130
296685
1888
се разпространява точно по същия начин,
04:58
that diseases spread through social networks.
131
298573
2454
както болестите се разпространяват в социалните общностни.
05:01
So this is something we've studied for a long time.
132
301027
1791
Така че това е нещо, което изучаваме от много време.
05:02
We have good models of it.
133
302818
1576
Имаме добри модели за него.
05:04
And so you can put those things together
134
304394
2157
Така че може да съберем тези неща заедно
05:06
and start seeing why things like this happen.
135
306551
3088
и да разберем защо се случват такива неща.
05:09
So if I were to give you a hypothesis,
136
309639
1814
Ако трябва да изложа хипотеза,
05:11
it would be that a smart guy started this page,
137
311453
3227
тя би била, че някой умен човек е създал страницата,
05:14
or maybe one of the first people who liked it
138
314680
1939
или някой от първите хора, които са я харесали
05:16
would have scored high on that test.
139
316619
1736
би получил висок резултат на този тест.
05:18
And they liked it, and their friends saw it,
140
318355
2288
Те са я харесали и техните приятели са видяли,
05:20
and by homophily, we know that he probably had smart friends,
141
320643
3122
заради хомофилията знаем, че вероятно той е имал умни приятели,
05:23
and so it spread to them, and some of them liked it,
142
323765
3056
тя се е разпространила между тях, някои от тях са я харесали,
05:26
and they had smart friends,
143
326821
1189
те са имали умни приятели,
05:28
and so it spread to them,
144
328010
807
05:28
and so it propagated through the network
145
328817
1973
стигнала е и до тях,
и така се е разпространила в мрежата
05:30
to a host of smart people,
146
330790
2569
до цял куп умни хора,
05:33
so that by the end, the action
147
333359
2056
и накрая, действието
05:35
of liking the curly fries page
148
335415
2544
на харесване на страницата за къдрави картофки,
05:37
is indicative of high intelligence,
149
337959
1615
става показателна за висок интелект,
05:39
not because of the content,
150
339574
1803
не заради съдържанието,
05:41
but because the actual action of liking
151
341377
2522
а защото самото действие на харесване
05:43
reflects back the common attributes
152
343899
1900
отразява съвместните атрибути
05:45
of other people who have done it.
153
345799
2468
на други хора, които са го направили.
05:48
So this is pretty complicated stuff, right?
154
348267
2897
Доста сложно, нали?
05:51
It's a hard thing to sit down and explain
155
351164
2199
Трудно е да го обясниш
05:53
to an average user, and even if you do,
156
353363
2848
на средностатистическия потребител, и дори да го направиш,
05:56
what can the average user do about it?
157
356211
2188
какво може да направи той по въпроса?
05:58
How do you know that you've liked something
158
358399
2048
Как може да знаеш, че си харесал нещо,
06:00
that indicates a trait for you
159
360447
1492
което показва твоя отличителна черта,
06:01
that's totally irrelevant to the content of what you've liked?
160
361939
3545
когато то няма нищо общо със съдържанието на това, което си харесал?
06:05
There's a lot of power that users don't have
161
365484
2546
Има много власт, която потребители не притежават,
06:08
to control how this data is used.
162
368030
2230
за контролирането на това как се използват тези данни.
06:10
And I see that as a real problem going forward.
163
370260
3112
За мен това е сериозен нарастващ проблем.
06:13
So I think there's a couple paths
164
373372
1977
Така че мисля, че има няколко варианта,
06:15
that we want to look at
165
375349
1001
които можем да разгледаме,
06:16
if we want to give users some control
166
376350
1910
ако искаме да дадем на потребителите част от контрола
06:18
over how this data is used,
167
378260
1740
върху използването на тези данни,
06:20
because it's not always going to be used
168
380000
1940
защото те не винаги ще бъдат използвани
06:21
for their benefit.
169
381940
1381
в тяхна полза.
06:23
An example I often give is that,
170
383321
1422
Пример, който често давам,
06:24
if I ever get bored being a professor,
171
384743
1646
е, че ако някога се отегча от това да съм професор,
06:26
I'm going to go start a company
172
386389
1653
ще основа компания,
06:28
that predicts all of these attributes
173
388042
1454
която предсказва всички тези атрибути
06:29
and things like how well you work in teams
174
389496
1602
и неща като това колко добре работиш в екип,
06:31
and if you're a drug user, if you're an alcoholic.
175
391098
2671
дали ползваш наркотици, дали си алкохолик.
06:33
We know how to predict all that.
176
393769
1440
Знаем как да предскажем всичко това.
06:35
And I'm going to sell reports
177
395209
1761
И ще продавам доклади
06:36
to H.R. companies and big businesses
178
396970
2100
на компаниите за набиране на персонал и големите бизнеси,
06:39
that want to hire you.
179
399070
2273
които искат да ви назначат.
06:41
We totally can do that now.
180
401343
1177
В момента това е абсолютно постижимо.
06:42
I could start that business tomorrow,
181
402520
1788
Мога да започна този бизнес още утре,
06:44
and you would have absolutely no control
182
404308
2052
а вие няма да имате абсолютно никакъв контрол,
06:46
over me using your data like that.
183
406360
2138
върху използването на вашите данни.
06:48
That seems to me to be a problem.
184
408498
2292
На мен това ми изглежда като проблем.
06:50
So one of the paths we can go down
185
410790
1910
Така че единият вариант е,
06:52
is the policy and law path.
186
412700
2032
вариантът на политиката и закона.
06:54
And in some respects, I think that that would be most effective,
187
414732
3046
До някаква степен смятам, че той ще е най-ефективен,
06:57
but the problem is we'd actually have to do it.
188
417778
2756
но проблемът е, че ще трябва да го изпълним.
07:00
Observing our political process in action
189
420534
2780
Наблюдавайки политическите ни процеси в действие,
07:03
makes me think it's highly unlikely
190
423314
2379
си мисля, че е малко вероятно
07:05
that we're going to get a bunch of representatives
191
425693
1597
да накараме група представители
07:07
to sit down, learn about this,
192
427290
1986
да седнат, да се запознаят с това
07:09
and then enact sweeping changes
193
429276
2106
и да вкарат в действие радикални промени
07:11
to intellectual property law in the U.S.
194
431382
2157
в закона за интелектуалната собственост в САЩ,
07:13
so users control their data.
195
433539
2461
така че потребителите да контролират данните си.
07:16
We could go the policy route,
196
436000
1304
Можем да тръгнем по пътя на политиката,
07:17
where social media companies say,
197
437304
1479
при която социалните медии да кажат:
07:18
you know what? You own your data.
198
438783
1402
"Знаете ли какво, вие притежавате данните си.
07:20
You have total control over how it's used.
199
440185
2489
Имате контрол върху това как се използват."
07:22
The problem is that the revenue models
200
442674
1848
Проблемът е, че приходите
07:24
for most social media companies
201
444522
1724
на повечето социални медии
07:26
rely on sharing or exploiting users' data in some way.
202
446246
4031
зависят от някакъв вид споделяне и експлоатирането на потребителски данни.
07:30
It's sometimes said of Facebook that the users
203
450277
1833
Понякога казват за Facebook, че потребителите
07:32
aren't the customer, they're the product.
204
452110
2528
не са клиентите, а са продуктът.
07:34
And so how do you get a company
205
454638
2714
Тогава как да накараме една компания
07:37
to cede control of their main asset
206
457352
2558
да даде контрола върху основните си активи
07:39
back to the users?
207
459910
1249
обратно на потребителите?
07:41
It's possible, but I don't think it's something
208
461159
1701
Възможно е, но не мисля, че това е нещо,
07:42
that we're going to see change quickly.
209
462860
2320
което ще видим да се случи скоро.
07:45
So I think the other path
210
465180
1500
Така че мисля, че другият вариант,
07:46
that we can go down that's going to be more effective
211
466680
2288
който ще бъде по-ефективен,
07:48
is one of more science.
212
468968
1508
е този на повечето наука.
07:50
It's doing science that allowed us to develop
213
470476
2510
Да се занимаваме с науката, която ни е позволила да развием
07:52
all these mechanisms for computing
214
472986
1750
всички тези механизми за изчисляване
07:54
this personal data in the first place.
215
474736
2052
на личните данни.
07:56
And it's actually very similar research
216
476788
2106
Всъщност е много подобно проучване,
07:58
that we'd have to do
217
478894
1438
на това което трябва да направим,
08:00
if we want to develop mechanisms
218
480332
2386
за да разработим механизми,
08:02
that can say to a user,
219
482718
1421
които могат да кажат на потребителя
08:04
"Here's the risk of that action you just took."
220
484139
2229
"Ето това е рискът, от действието, което току що предприе."
08:06
By liking that Facebook page,
221
486368
2080
Харесвайки тази Фейсбук страница
08:08
or by sharing this piece of personal information,
222
488448
2535
или споделяйки тази лична информация,
08:10
you've now improved my ability
223
490983
1502
ти току що подобри способността ми
08:12
to predict whether or not you're using drugs
224
492485
2086
да предскажа дали използваш наркотици или не
08:14
or whether or not you get along well in the workplace.
225
494571
2862
или дали се разбираш добре или не с колегите на работа.
08:17
And that, I think, can affect whether or not
226
497433
1848
Това смятам, че може да повлияе върху решението
08:19
people want to share something,
227
499281
1510
на хората дали искат да споделят нещо,
08:20
keep it private, or just keep it offline altogether.
228
500791
3239
да го запазят лично или въобще да не го качват.
08:24
We can also look at things like
229
504030
1563
Можем да разгледаме и варианти, които
08:25
allowing people to encrypt data that they upload,
230
505593
2728
биха позволили на хората да криптират данните, които качват,
08:28
so it's kind of invisible and worthless
231
508321
1855
така че да са един вид невидими и безполезни
08:30
to sites like Facebook
232
510176
1431
за страници като Фейсбук
08:31
or third party services that access it,
233
511607
2629
или допълнителни услуги, които ги достъпват,
08:34
but that select users who the person who posted it
234
514236
3247
но да са видими за избрани потребители, за които този, който е публикувал информацията,
08:37
want to see it have access to see it.
235
517483
2670
иска тя да бъде видима.
08:40
This is all super exciting research
236
520153
2166
Това е изключително проучване
08:42
from an intellectual perspective,
237
522319
1620
от интелектуална гледна точка
08:43
and so scientists are going to be willing to do it.
238
523939
1859
и учените са склонни да го направят.
08:45
So that gives us an advantage over the law side.
239
525798
3610
Това му дава предимство пред законовият подход.
08:49
One of the problems that people bring up
240
529408
1725
Един от проблемите, които се повдигат,
08:51
when I talk about this is, they say,
241
531133
1595
когато говоря за това е следният:
08:52
you know, if people start keeping all this data private,
242
532728
2646
Знаеш ли, когато хората започнат да пазят цялата информация като лична,
08:55
all those methods that you've been developing
243
535374
2113
тогава всички тези методи, които си разработил
08:57
to predict their traits are going to fail.
244
537487
2653
за да предсказваш заплахите, ще се провалят.
09:00
And I say, absolutely, and for me, that's success,
245
540140
3520
А аз отговарям: Абсолютно! И аз мен, това е успех,
09:03
because as a scientist,
246
543660
1786
защото като учен,
09:05
my goal is not to infer information about users,
247
545446
3688
моята цел не е да разбирам информация за потребителите,
09:09
it's to improve the way people interact online.
248
549134
2767
а да подобря начина, по който взаимодействат онлайн.
09:11
And sometimes that involves inferring things about them,
249
551901
3218
Понякога това включва събиране на информация за тях,
09:15
but if users don't want me to use that data,
250
555119
3022
но ако потребителите не искат да използвам тази информация,
09:18
I think they should have the right to do that.
251
558141
2038
смятам, че трябва да имат правото да ми забранят.
09:20
I want users to be informed and consenting
252
560179
2651
Искам потребителите да бъдат информирани и осъзнати
09:22
users of the tools that we develop.
253
562830
2112
потребители на механизмите, които разработваме.
09:24
And so I think encouraging this kind of science
254
564942
2952
Смятам, че окуражавайки този вид наука
09:27
and supporting researchers
255
567894
1346
и подкрепяйки изследователите,
09:29
who want to cede some of that control back to users
256
569240
3023
които искат да върнат част от контрола обратно на потребителите
09:32
and away from the social media companies
257
572263
2311
и далеч от компаниите за социални медии,
09:34
means that going forward, as these tools evolve
258
574574
2671
означава да вървим напред и докато тези механизми се развиват
09:37
and advance,
259
577245
1476
и напредват,
09:38
means that we're going to have an educated
260
578721
1414
това означава, че ние ще имаме образована
09:40
and empowered user base,
261
580135
1694
и упълномощена потребителска база
09:41
and I think all of us can agree
262
581829
1100
и смятам, че всеки от нас би се съгласил,
09:42
that that's a pretty ideal way to go forward.
263
582929
2564
че това е съвсем идеален начин да вървим напред.
09:45
Thank you.
264
585493
2184
Благодаря ви.
09:47
(Applause)
265
587677
3080
(Аплодисменти)
Относно този уебсайт

Този сайт ще ви запознае с видеоклипове в YouTube, които са полезни за изучаване на английски език. Ще видите уроци по английски език, преподавани от първокласни учители от цял свят. Кликнете два пъти върху английските субтитри, показани на всяка страница с видеоклипове, за да възпроизведете видеото оттам. Субтитрите се превъртат в синхрон с възпроизвеждането на видеото. Ако имате някакви коментари или искания, моля, свържете се с нас, като използвате тази форма за контакт.

https://forms.gle/WvT1wiN1qDtmnspy7