Jennifer Golbeck: The curly fry conundrum: Why social media "likes" say more than you might think

376,856 views

2014-04-03 ・ TED


New videos

Jennifer Golbeck: The curly fry conundrum: Why social media "likes" say more than you might think

376,856 views ・ 2014-04-03

TED


Fare doppio clic sui sottotitoli in inglese per riprodurre il video.

Traduttore: Paola Sandrinelli Revisore: Anna Cristiana Minoli
00:12
If you remember that first decade of the web,
0
12738
1997
Se ricordate il primo decennio del web,
00:14
it was really a static place.
1
14735
2255
era davvero un posto statico.
00:16
You could go online, you could look at pages,
2
16990
2245
Ci si poteva connettere e consultare pagine
00:19
and they were put up either by organizations
3
19235
2513
che erano caricate o da organizzazioni
00:21
who had teams to do it
4
21748
1521
che avevano uno staff dedicato
00:23
or by individuals who were really tech-savvy
5
23269
2229
o da singoli individui esperti di informatica
00:25
for the time.
6
25498
1737
per quei tempi.
00:27
And with the rise of social media
7
27235
1575
Con l'avvento dei social media
00:28
and social networks in the early 2000s,
8
28810
2399
e dei social network nei primi anni Duemila,
00:31
the web was completely changed
9
31209
2149
il web si è completamente trasformato
00:33
to a place where now the vast majority of content
10
33358
3608
in un luogo dove gran parte dei contenuti
00:36
we interact with is put up by average users,
11
36966
3312
con cui interagiamo è offerto da utenti normali
00:40
either in YouTube videos or blog posts
12
40278
2697
con video su YouTube, post sui vari blog,
00:42
or product reviews or social media postings.
13
42975
3315
recensioni di prodotti o post sui social media.
00:46
And it's also become a much more interactive place,
14
46290
2347
È diventato un luogo molto più interattivo,
00:48
where people are interacting with others,
15
48637
2637
dove le persone interagiscono tra loro,
00:51
they're commenting, they're sharing,
16
51274
1696
commentano, condividono
00:52
they're not just reading.
17
52970
1614
non si limitano a leggere.
00:54
So Facebook is not the only place you can do this,
18
54584
1866
Facebook non è l'unico luogo in cui si possono fare queste cose
00:56
but it's the biggest,
19
56450
1098
ma è il più grande,
00:57
and it serves to illustrate the numbers.
20
57548
1784
ed è utile per farsi un'idea in numeri.
00:59
Facebook has 1.2 billion users per month.
21
59332
3477
Facebook ha 1,2 miliardi di utenti al mese.
01:02
So half the Earth's Internet population
22
62809
1930
La metà degli abitanti della Terra connessi a Internet
01:04
is using Facebook.
23
64739
1653
usa Facebook.
01:06
They are a site, along with others,
24
66392
1932
Si tratta di un sito, insieme ad altri,
01:08
that has allowed people to create an online persona
25
68324
3219
che ha permesso alle persone di crearsi un'identità online
01:11
with very little technical skill,
26
71543
1782
con una competenza tecnica minima
01:13
and people responded by putting huge amounts
27
73325
2476
e le persone hanno risposto immettendo quantità enormi
01:15
of personal data online.
28
75801
1983
di dati personali online.
01:17
So the result is that we have behavioral,
29
77784
2543
Quindi abbiamo dati sul comportamento,
01:20
preference, demographic data
30
80327
1986
dati demografici e dati sulle preferenze
01:22
for hundreds of millions of people,
31
82313
2101
di centinaia di milioni di persone.
01:24
which is unprecedented in history.
32
84414
2026
Tutto questo non ha precedenti nella storia.
01:26
And as a computer scientist, what this means is that
33
86440
2560
In quanto esperta di informatica,
01:29
I've been able to build models
34
89000
1664
sono stata in grado di creare modelli
01:30
that can predict all sorts of hidden attributes
35
90664
2322
in grado di dedurre ogni tipo di caratteristica
01:32
for all of you that you don't even know
36
92986
2284
su tutto ciò di cui, senza neanche saperlo,
01:35
you're sharing information about.
37
95270
2202
si condividono informazioni.
01:37
As scientists, we use that to help
38
97472
2382
Noi scienziati usiamo questi dati per semplificare
01:39
the way people interact online,
39
99854
2114
il modo in cui le persone interagiscono online,
01:41
but there's less altruistic applications,
40
101968
2499
ma esistono anche usi meno altruistici
01:44
and there's a problem in that users don't really
41
104467
2381
e il problema è che gli utenti
01:46
understand these techniques and how they work,
42
106848
2470
non comprendono bene queste tecniche né il loro funzionamento,
01:49
and even if they did, they don't have a lot of control over it.
43
109318
3128
e se anche lo capiscono non ne hanno il controllo.
01:52
So what I want to talk to you about today
44
112446
1490
Oggi voglio parlarvi
01:53
is some of these things that we're able to do,
45
113936
2702
di alcune cose che siamo in grado di fare
01:56
and then give us some ideas of how we might go forward
46
116638
2763
e poi voglio proporre qualche idea su come muoverci
01:59
to move some control back into the hands of users.
47
119401
2769
per riportare parte del controllo nelle mani degli utenti.
02:02
So this is Target, the company.
48
122170
1586
Questa è Target, la compagnia.
02:03
I didn't just put that logo
49
123756
1324
Non sono stata io a mettere quel logo
02:05
on this poor, pregnant woman's belly.
50
125080
2170
sulla pancia di quella povera donna incinta.
02:07
You may have seen this anecdote that was printed
51
127250
1840
Forse avrete letto questo aneddoto
02:09
in Forbes magazine where Target
52
129090
2061
sulla rivista Forbes. Target ha inviato
02:11
sent a flyer to this 15-year-old girl
53
131151
2361
un volantino a questa quindicenne
02:13
with advertisements and coupons
54
133512
1710
con della pubblicità e dei coupon
02:15
for baby bottles and diapers and cribs
55
135222
2554
per biberon, pannolini e culle,
02:17
two weeks before she told her parents
56
137776
1684
due settimane prima che lei dicesse ai suoi genitori
02:19
that she was pregnant.
57
139460
1864
di essere incinta.
02:21
Yeah, the dad was really upset.
58
141324
2704
Sì, il padre era davvero sconvolto.
02:24
He said, "How did Target figure out
59
144028
1716
Disse, "Come ha fatto Target a capire
02:25
that this high school girl was pregnant
60
145744
1824
che questa liceale era incinta
02:27
before she told her parents?"
61
147568
1960
prima che lo dicesse ai suoi genitori?"
02:29
It turns out that they have the purchase history
62
149528
2621
È venuto fuori che l'azienda ha la cronologia degli acquisti
02:32
for hundreds of thousands of customers
63
152149
2301
di centinaia di migliaia di clienti
02:34
and they compute what they call a pregnancy score,
64
154450
2730
e calcola quello che chiamano un punteggio di gravidanza,
02:37
which is not just whether or not a woman's pregnant,
65
157180
2332
che non rivela soltanto se una donna è incinta oppure no,
02:39
but what her due date is.
66
159512
1730
ma anche la data prevista della nascita.
02:41
And they compute that
67
161242
1304
E questo lo calcolano
02:42
not by looking at the obvious things,
68
162546
1768
non analizzando le cose ovvie,
02:44
like, she's buying a crib or baby clothes,
69
164314
2512
tipo: "sta comprando una culla o vestiti per bambini",
02:46
but things like, she bought more vitamins
70
166826
2943
ma cose come "ha comprato più vitamine
02:49
than she normally had,
71
169769
1717
di quanto non faccia di solito",
02:51
or she bought a handbag
72
171486
1464
oppure "ha comprato una borsa
02:52
that's big enough to hold diapers.
73
172950
1711
abbastanza grande da contenere dei pannolini".
02:54
And by themselves, those purchases don't seem
74
174661
1910
Presi singolarmente, questi acquisti non sembrano
02:56
like they might reveal a lot,
75
176571
2469
poter rivelare granché,
02:59
but it's a pattern of behavior that,
76
179040
1978
ma è un modello di comportamento che,
03:01
when you take it in the context of thousands of other people,
77
181018
3117
se visto nel contesto di migliaia di altre persone,
03:04
starts to actually reveal some insights.
78
184135
2757
comincia veramente a rivelare alcune informazioni.
03:06
So that's the kind of thing that we do
79
186892
1793
Questo è il tipo di lavoro che svolgiamo
03:08
when we're predicting stuff about you on social media.
80
188685
2567
quando facciamo previsioni su di voi nei social media.
03:11
We're looking for little patterns of behavior that,
81
191252
2796
Cerchiamo piccoli modelli di comportamento che,
03:14
when you detect them among millions of people,
82
194048
2682
rilevati tra milioni di persone,
03:16
lets us find out all kinds of things.
83
196730
2706
ci consentono di scoprire tutta una serie di cose.
03:19
So in my lab and with colleagues,
84
199436
1747
Nel mio laboratorio, insieme ai miei colleghi,
03:21
we've developed mechanisms where we can
85
201183
1777
abbiamo sviluppato dei meccanismi, attraverso i quali possiamo
03:22
quite accurately predict things
86
202960
1560
prevedere con precisione informazioni
03:24
like your political preference,
87
204520
1725
come le vostre preferenze politiche,
03:26
your personality score, gender, sexual orientation,
88
206245
3752
il vostro tipo di personalità, il vostro genere, l'orientamento sessuale,
03:29
religion, age, intelligence,
89
209997
2873
la religione, l'età, l'intelligenza,
03:32
along with things like
90
212870
1394
insieme a cose come
03:34
how much you trust the people you know
91
214264
1937
quanta fiducia avete nelle persone che conoscete
03:36
and how strong those relationships are.
92
216201
1804
e quanto sono forti le relazioni che avete con loro.
03:38
We can do all of this really well.
93
218005
1785
Riusciamo a fare tutto questo molto bene.
03:39
And again, it doesn't come from what you might
94
219790
2197
E ripeto, non deriva da quelle che potreste
03:41
think of as obvious information.
95
221987
2102
considerare delle informazioni ovvie.
03:44
So my favorite example is from this study
96
224089
2281
Il mio esempio preferito viene da questa ricerca
03:46
that was published this year
97
226370
1240
che è stata pubblicata quest'anno
03:47
in the Proceedings of the National Academies.
98
227610
1795
negli Atti dell'Accademia Nazionale.
03:49
If you Google this, you'll find it.
99
229405
1285
Se lo cercate su Google, lo troverete.
03:50
It's four pages, easy to read.
100
230690
1872
È di quattro pagine, di facile lettura.
03:52
And they looked at just people's Facebook likes,
101
232562
3003
Hanno analizzato solo i "Mi Piace" di Facebook,
03:55
so just the things you like on Facebook,
102
235565
1920
quindi solo le cose che vi piacciono su Facebook,
03:57
and used that to predict all these attributes,
103
237485
2138
ed hanno usato quei dati per prevedere tutte queste caratteristiche
03:59
along with some other ones.
104
239623
1645
insieme ad altre.
04:01
And in their paper they listed the five likes
105
241268
2961
Nel loro articolo hanno elencato i cinque "Mi Piace"
04:04
that were most indicative of high intelligence.
106
244229
2787
più indicativi di una grande intelligenza.
04:07
And among those was liking a page
107
247016
2324
Tra questi c'era il "Mi Piace" per una pagina
04:09
for curly fries. (Laughter)
108
249340
1905
sulle patatine fritte a ricciolo. (Risate)
04:11
Curly fries are delicious,
109
251245
2093
Le patatine fritte a ricciolo sono deliziose,
04:13
but liking them does not necessarily mean
110
253338
2530
ma il fatto che vi piacciano non vuol dire necessariamente
04:15
that you're smarter than the average person.
111
255868
2080
che siate più intelligenti della media.
04:17
So how is it that one of the strongest indicators
112
257948
3207
E allora com'è che uno dei più forti indicatori
04:21
of your intelligence
113
261155
1570
della vostra intelligenza
04:22
is liking this page
114
262725
1447
sia legato al fatto che vi piaccia questa pagina,
04:24
when the content is totally irrelevant
115
264172
2252
quando il contenuto è totalmente irrilevante
04:26
to the attribute that's being predicted?
116
266424
2527
rispetto alla caratteristica che ne viene dedotta?
04:28
And it turns out that we have to look at
117
268951
1584
Per rispondere a questo dobbiamo considerare
04:30
a whole bunch of underlying theories
118
270535
1618
tutta una serie di teorie che stanno alla base
04:32
to see why we're able to do this.
119
272153
2569
e che ci illustrano perché si possa fare una cosa del genere.
04:34
One of them is a sociological theory called homophily,
120
274722
2913
Una di queste è una teoria sociologica, si chiama omofilia,
04:37
which basically says people are friends with people like them.
121
277635
3092
che sostanzialmente dice che le persone fanno amicizia con chi è come loro.
04:40
So if you're smart, you tend to be friends with smart people,
122
280727
2014
Quindi se sei intelligente tenderai ad essere amico di gente intelligente
04:42
and if you're young, you tend to be friends with young people,
123
282741
2630
e se sei giovane tenderai ad essere amico di gente giovane.
04:45
and this is well established
124
285371
1627
È un meccanismo consolidato
04:46
for hundreds of years.
125
286998
1745
da centinaia di anni.
04:48
We also know a lot
126
288743
1232
Sappiamo anche molto
04:49
about how information spreads through networks.
127
289975
2550
di come si diffondono le informazioni sui social network.
04:52
It turns out things like viral videos
128
292525
1754
Cose come i video virali,
04:54
or Facebook likes or other information
129
294279
2406
i "Mi Piace" su Facebook o altre informazioni
04:56
spreads in exactly the same way
130
296685
1888
si diffondono nei social network
04:58
that diseases spread through social networks.
131
298573
2454
esattamente come le malattie.
05:01
So this is something we've studied for a long time.
132
301027
1791
È una cosa che abbiamo studiato a lungo
05:02
We have good models of it.
133
302818
1576
e abbiamo dei buoni modelli che lo illustrano.
05:04
And so you can put those things together
134
304394
2157
Se si mettono tutte queste cose insieme,
05:06
and start seeing why things like this happen.
135
306551
3088
si comincerà a capire come possano accadere cose del genere.
05:09
So if I were to give you a hypothesis,
136
309639
1814
Se dovessi fare un'ipotesi,
05:11
it would be that a smart guy started this page,
137
311453
3227
sarebbe che questa pagina è stata creata da un tipo intelligente
05:14
or maybe one of the first people who liked it
138
314680
1939
o magari che uno dei primi che ha messo "Mi Piace" su questa pagina
05:16
would have scored high on that test.
139
316619
1736
ha ottenuto un punteggio alto in quel test di intelligenza.
05:18
And they liked it, and their friends saw it,
140
318355
2288
Ha messo "Mi Piace", i suoi amici l'hanno visto,
05:20
and by homophily, we know that he probably had smart friends,
141
320643
3122
in base all'omofilia sappiamo che probabilmente ha degli amici intelligenti,
05:23
and so it spread to them, and some of them liked it,
142
323765
3056
la pagina si è diffusa tra i suoi amici, alcuni di loro hanno messo "Mi Piace",
05:26
and they had smart friends,
143
326821
1189
gli amici hanno a loro volta altri amici intelligenti
05:28
and so it spread to them,
144
328010
807
05:28
and so it propagated through the network
145
328817
1973
e la pagina si è diffusa anche tra di loro,
propagandosi attraverso la rete
05:30
to a host of smart people,
146
330790
2569
tra una moltitudine di gente intelligente
05:33
so that by the end, the action
147
333359
2056
e quindi, alla fine,
l'azione di mettere "Mi Piace" sulla pagina delle patatine a ricciolo
05:35
of liking the curly fries page
148
335415
2544
05:37
is indicative of high intelligence,
149
337959
1615
è indicatore di un'elevata intelligenza
05:39
not because of the content,
150
339574
1803
non per il contenuto ma perché l'azione fisica di mettere "Mi Piace"
05:41
but because the actual action of liking
151
341377
2522
05:43
reflects back the common attributes
152
343899
1900
riflette una caratteristica comune
05:45
of other people who have done it.
153
345799
2468
alle persone che l'hanno fatto.
È roba abbastanza complicata, vero?
05:48
So this is pretty complicated stuff, right?
154
348267
2897
05:51
It's a hard thing to sit down and explain
155
351164
2199
Non è facile mettersi lì a spiegarlo
05:53
to an average user, and even if you do,
156
353363
2848
a un utente medio. E poi, anche sapendolo,
05:56
what can the average user do about it?
157
356211
2188
l'utente medio cosa ci può fare?
05:58
How do you know that you've liked something
158
358399
2048
Come fai a sapere che qualcosa che ti piace
06:00
that indicates a trait for you
159
360447
1492
denota una tua caratteristica
06:01
that's totally irrelevant to the content of what you've liked?
160
361939
3545
che non c'entra nulla con il contenuto di quella pagina che ti piace?
06:05
There's a lot of power that users don't have
161
365484
2546
Gli utenti non hanno modo
di controllare come venga usata questa informazione.
06:08
to control how this data is used.
162
368030
2230
06:10
And I see that as a real problem going forward.
163
370260
3112
Per come la vedo io, questo è un problema serio.
06:13
So I think there's a couple paths
164
373372
1977
Penso che ci siano due strade
06:15
that we want to look at
165
375349
1001
che possiamo percorrere
06:16
if we want to give users some control
166
376350
1910
se vogliamo ridare agli utenti un po' di controllo
06:18
over how this data is used,
167
378260
1740
su come questi dati potranno poi essere utilizzati,
06:20
because it's not always going to be used
168
380000
1940
perché non sempre questi dati saranno utilizzati a loro vantaggio.
06:21
for their benefit.
169
381940
1381
06:23
An example I often give is that,
170
383321
1422
Faccio spesso l'esempio che,
06:24
if I ever get bored being a professor,
171
384743
1646
se mai mi stufassi di fare il professore,
06:26
I'm going to go start a company
172
386389
1653
fonderei un'azienda
06:28
that predicts all of these attributes
173
388042
1454
per dedurre tutte le informazioni di cui abbiamo parlato
06:29
and things like how well you work in teams
174
389496
1602
e cose del tipo: se lavori bene in gruppo,
06:31
and if you're a drug user, if you're an alcoholic.
175
391098
2671
se sei un tossicodipendente o un alcolista.
06:33
We know how to predict all that.
176
393769
1440
Sappiamo già come dedurre queste informazioni.
06:35
And I'm going to sell reports
177
395209
1761
E poi venderei questi dossier
06:36
to H.R. companies and big businesses
178
396970
2100
ad società di risorse umane e a grandi aziende
06:39
that want to hire you.
179
399070
2273
interessate ad assumerti.
06:41
We totally can do that now.
180
401343
1177
Possiamo già farlo senza nessun problema.
06:42
I could start that business tomorrow,
181
402520
1788
Potrei creare questa azienda domani,
06:44
and you would have absolutely no control
182
404308
2052
e voi non avreste nessun controllo
06:46
over me using your data like that.
183
406360
2138
su come io andrei ad utilizzare i vostri dati.
06:48
That seems to me to be a problem.
184
408498
2292
Questo mi sembra un bel problema.
06:50
So one of the paths we can go down
185
410790
1910
Una delle strade che potremmo seguire
06:52
is the policy and law path.
186
412700
2032
è quella di creare leggi e linee di condotta.
06:54
And in some respects, I think that that would be most effective,
187
414732
3046
Per certi versi penso che sarebbe molto efficace,
06:57
but the problem is we'd actually have to do it.
188
417778
2756
il problema tuttavia è l'iter di formazione di queste leggi.
07:00
Observing our political process in action
189
420534
2780
Osservando il procedimento legislativo al giorno d'oggi
07:03
makes me think it's highly unlikely
190
423314
2379
penso che sia estremamente improbabile
07:05
that we're going to get a bunch of representatives
191
425693
1597
che un gruppo di rappresentanti
07:07
to sit down, learn about this,
192
427290
1986
si metta lì a studiare questo problema
07:09
and then enact sweeping changes
193
429276
2106
e metta in atto velocemente una serie di cambiamenti
07:11
to intellectual property law in the U.S.
194
431382
2157
alle leggi sulla tutela della proprietà intellettuale negli Stati Uniti
07:13
so users control their data.
195
433539
2461
in modo da rendere gli utenti proprietari dei propri dati.
Potremmo seguire la strada delle linee di condotta,
07:16
We could go the policy route,
196
436000
1304
07:17
where social media companies say,
197
437304
1479
in cui i social media si impegnano a dire:
07:18
you know what? You own your data.
198
438783
1402
"I dati sono tuoi
07:20
You have total control over how it's used.
199
440185
2489
e hai il completo controllo di come vengono utilizzati."
07:22
The problem is that the revenue models
200
442674
1848
Il problema sta nel fatto che i modelli di ricavi
07:24
for most social media companies
201
444522
1724
per la maggior parte delle aziende di social media
07:26
rely on sharing or exploiting users' data in some way.
202
446246
4031
sono fondati sulla condivisione e l'utilizzo dei dati degli utenti.
07:30
It's sometimes said of Facebook that the users
203
450277
1833
Parlando di Facebook si dice spesso che gli utenti
07:32
aren't the customer, they're the product.
204
452110
2528
in realtà non sono i clienti, ma il prodotto stesso.
07:34
And so how do you get a company
205
454638
2714
Quindi come è possibile che un'azienda
07:37
to cede control of their main asset
206
457352
2558
ceda il controllo della sua risorsa più preziosa agli utenti?
07:39
back to the users?
207
459910
1249
07:41
It's possible, but I don't think it's something
208
461159
1701
È tecnicamente possibile, ma non credo che sia qualcosa
07:42
that we're going to see change quickly.
209
462860
2320
che possa cambiare nel breve periodo.
07:45
So I think the other path
210
465180
1500
Penso quindi che come strada alternativa
07:46
that we can go down that's going to be more effective
211
466680
2288
un approccio scientifico
07:48
is one of more science.
212
468968
1508
potrebbe essere la soluzione più efficace.
07:50
It's doing science that allowed us to develop
213
470476
2510
La scienza, in primo luogo, ci ha permesso di sviluppare
07:52
all these mechanisms for computing
214
472986
1750
tutti questi meccanismi
07:54
this personal data in the first place.
215
474736
2052
per interpretare i dati personali.
07:56
And it's actually very similar research
216
476788
2106
Dovremmo fare un tipo di ricerca molto simile,
07:58
that we'd have to do
217
478894
1438
08:00
if we want to develop mechanisms
218
480332
2386
per sviluppare dei meccanismi
08:02
that can say to a user,
219
482718
1421
che permettano di dire all'utente,
08:04
"Here's the risk of that action you just took."
220
484139
2229
"Ecco, questo è il rischio collegato all'azione che hai appena compiuto."
08:06
By liking that Facebook page,
221
486368
2080
Mettendo "Mi Piace" su quella pagina Facebook
08:08
or by sharing this piece of personal information,
222
488448
2535
o condividendo queste informazioni personali,
08:10
you've now improved my ability
223
490983
1502
hai migliorato la mia capacità
08:12
to predict whether or not you're using drugs
224
492485
2086
di capire se fai uso di stupefacenti o meno
08:14
or whether or not you get along well in the workplace.
225
494571
2862
o se ti sai relazionare bene sul posto di lavoro
08:17
And that, I think, can affect whether or not
226
497433
1848
Penso che questo possa influenzare
08:19
people want to share something,
227
499281
1510
l'inclinazione personale a condividere un'informazione,
08:20
keep it private, or just keep it offline altogether.
228
500791
3239
inserirla mantenendola privata o addirittura non inserirla affatto.
Potremmo anche pensare a funzionalità del tipo
08:24
We can also look at things like
229
504030
1563
08:25
allowing people to encrypt data that they upload,
230
505593
2728
permettere agli utenti di criptare i dati che inseriscono,
08:28
so it's kind of invisible and worthless
231
508321
1855
in modo che diventino invisibili e senza valore
08:30
to sites like Facebook
232
510176
1431
per siti come Facebook
08:31
or third party services that access it,
233
511607
2629
o servizi di terze parti che lo utilizzano.
08:34
but that select users who the person who posted it
234
514236
3247
Ma che utenti selezionati, a cui l'utente
08:37
want to see it have access to see it.
235
517483
2670
vuole garantire la possibilità di accedere, abbiano accesso.
08:40
This is all super exciting research
236
520153
2166
Il fatto che questa ricerca sia estremamente interessante
08:42
from an intellectual perspective,
237
522319
1620
dal punto di vista intellettuale,
08:43
and so scientists are going to be willing to do it.
238
523939
1859
la renderebbe appetibile agli scienziati che sarebbero motivati a portarla avanti.
08:45
So that gives us an advantage over the law side.
239
525798
3610
È una posizione molto più vantaggiosa rispetto alla percorso legislativo.
08:49
One of the problems that people bring up
240
529408
1725
Uno dei problemi che la gente menziona
08:51
when I talk about this is, they say,
241
531133
1595
quando parlo di queste cose è che
08:52
you know, if people start keeping all this data private,
242
532728
2646
se la gente iniziasse a mantenere privata una grande quantità di dati
08:55
all those methods that you've been developing
243
535374
2113
tutti questi metodi che avete sviluppato
08:57
to predict their traits are going to fail.
244
537487
2653
per dedurre informazioni su di loro non funzionerebbero più.
09:00
And I say, absolutely, and for me, that's success,
245
540140
3520
Al che io rispondo, certamente, e lo vedo come un successo,
09:03
because as a scientist,
246
543660
1786
perché come scienziato,
09:05
my goal is not to infer information about users,
247
545446
3688
il mio obiettivo non è desumere informazioni sugli utenti,
09:09
it's to improve the way people interact online.
248
549134
2767
bensì migliorare il modo in cui le persone interagiscono online.
09:11
And sometimes that involves inferring things about them,
249
551901
3218
A volte questo implica dedurre informazioni su di loro,
09:15
but if users don't want me to use that data,
250
555119
3022
ma se gli utenti non vogliono che io utilizzi alcuni dati,
penso che sia un loro diritto.
09:18
I think they should have the right to do that.
251
558141
2038
09:20
I want users to be informed and consenting
252
560179
2651
Vorrei che gli utenti degli strumenti che noi sviluppiamo
09:22
users of the tools that we develop.
253
562830
2112
fossero utenti informati e consenzienti.
09:24
And so I think encouraging this kind of science
254
564942
2952
Incorraggiare questo tipo di scienza
09:27
and supporting researchers
255
567894
1346
e supportare i ricercatori
09:29
who want to cede some of that control back to users
256
569240
3023
che vogliono restituire parte di quel controllo agli utenti
09:32
and away from the social media companies
257
572263
2311
sottraendolo alle aziende di social media
09:34
means that going forward, as these tools evolve
258
574574
2671
vuol dire che andando avanti, mentre questi strumenti si evolvono
09:37
and advance,
259
577245
1476
e migliorano,
09:38
means that we're going to have an educated
260
578721
1414
avremo una base di utenti informata
09:40
and empowered user base,
261
580135
1694
e responsabilizzata.
09:41
and I think all of us can agree
262
581829
1100
Penso che siamo tutti d'accordo
09:42
that that's a pretty ideal way to go forward.
263
582929
2564
sul fatto che questo sarebbe il modo ideale di procedere.
09:45
Thank you.
264
585493
2184
Grazie.
09:47
(Applause)
265
587677
3080
(Applausi)
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7