How Twitter needs to change | Jack Dorsey

183,606 views ・ 2019-06-07

TED


Fare doppio clic sui sottotitoli in inglese per riprodurre il video.

Traduttore: Anna Cristiana Minoli Revisore: Michele Gianella
00:13
Chris Anderson: What worries you right now?
0
13131
2408
Chris Anderson: Che cosa ti preoccupa ora?
00:15
You've been very open about lots of issues on Twitter.
1
15563
2853
Sei stato molto aperto su molti problemi di Twitter.
00:18
What would be your top worry
2
18440
2299
Qual è la tua principale preoccupazione
00:20
about where things are right now?
3
20763
2049
sullo stato delle cose oggi?
00:23
Jack Dorsey: Right now, the health of the conversation.
4
23447
2929
Jack Dorsey: Oggi, lo stato di salute del dialogo.
00:26
So, our purpose is to serve the public conversation,
5
26400
3660
Il nostro obiettivo è servire il dialogo pubblico,
00:30
and we have seen a number of attacks on it.
6
30084
5056
che è stato attaccato più volte.
00:35
We've seen abuse, we've seen harassment,
7
35164
2425
Ha subito abusi, molestie,
00:37
we've seen manipulation,
8
37613
3222
manipolazioni,
00:40
automation, human coordination, misinformation.
9
40859
4265
automazioni, disinformazione, coordinamento umano.
00:46
So these are all dynamics that we were not expecting
10
46134
4034
Sono tutte dinamiche che non ci aspettavamo
00:50
13 years ago when we were starting the company.
11
50192
3718
quando abbiamo fondato l'azienda, 13 anni fa.
00:53
But we do now see them at scale,
12
53934
2664
Oggi ci sono su larga scala, invece,
00:56
and what worries me most is just our ability to address it
13
56622
5278
e quello che mi preoccupa di più è la nostra capacità di gestirli
01:01
in a systemic way that is scalable,
14
61924
3108
in modo sistematico e scalabile,
01:05
that has a rigorous understanding of how we're taking action,
15
65056
6976
con una comprensione rigorosa di come stiamo intervenendo,
01:12
a transparent understanding of how we're taking action
16
72056
3105
una comprensione trasparente di come stiamo intervenendo
01:15
and a rigorous appeals process for when we're wrong,
17
75185
3101
e un processo di scrutinio rigoroso per quando faremo sbagli.
01:18
because we will be wrong.
18
78310
2169
Perché ne faremo, prima o poi.
01:20
Whitney Pennington Rodgers: I'm really glad to hear
19
80503
2397
Whitney Pennington Rodgers: sono felice di sentire
01:22
that that's something that concerns you,
20
82924
1928
che è una cosa che ti preoccupa,
01:24
because I think there's been a lot written about people
21
84876
2630
perché credo sia stato scritto molto di gente
01:27
who feel they've been abused and harassed on Twitter,
22
87530
2477
che si è sentita aggredita e molestata su Twitter,
01:30
and I think no one more so than women and women of color
23
90031
4102
e credo nessuno più delle donne e delle donne di colore
01:34
and black women.
24
94157
1170
e donne nere.
01:35
And there's been data that's come out --
25
95351
1913
Sono usciti dei dati --
01:37
Amnesty International put out a report a few months ago
26
97288
2909
Amnesty International ha pubblicato un rapporto qualche mese fa
01:40
where they showed that a subset of active black female Twitter users
27
100221
4480
che mostrava come una serie di donne di colore attive su Twitter,
01:44
were receiving, on average, one in 10 of their tweets
28
104725
3456
subisca in media, in risposta a un tweet su dieci,
01:48
were some form of harassment.
29
108205
2099
una qualche forma di aggressione.
01:50
And so when you think about health for the community on Twitter,
30
110328
3907
Quando pensi allo stato di salute della comunità su Twitter,
01:54
I'm interested to hear, "health for everyone,"
31
114259
4024
sono felice di sentire "salute per tutti".
01:58
but specifically: How are you looking to make Twitter a safe space
32
118307
3125
Ma nello specifico, come renderai Twitter un luogo più sicuro
02:01
for that subset, for women, for women of color and black women?
33
121456
4164
per quelle donne di colore e donne nere?
02:05
JD: Yeah.
34
125644
1164
JD: Sì.
02:06
So it's a pretty terrible situation
35
126832
2643
È una situazione piuttosto terribile
02:09
when you're coming to a service
36
129499
1619
quando aderisci a un servizio
02:11
that, ideally, you want to learn something about the world,
37
131142
4321
da cui, idealmente, vuoi imparare qualcosa del mondo,
02:15
and you spend the majority of your time reporting abuse, receiving abuse,
38
135487
5443
e passi più tempo a segnalare e ricevere molestie,
02:20
receiving harassment.
39
140954
1804
subire violenza.
02:23
So what we're looking most deeply at is just the incentives
40
143373
6321
Quello che cerchiamo di approfondire sono gli incentivi
02:29
that the platform naturally provides and the service provides.
41
149718
3823
che la piattaforma e il servizio forniscono naturalmente.
02:34
Right now, the dynamic of the system makes it super-easy to harass
42
154262
4577
Con la dinamica attuale del sistema,
è facilissimo molestare e insultare altri attraverso il servizio.
02:38
and to abuse others through the service,
43
158863
3664
02:42
and unfortunately, the majority of our system in the past
44
162551
3262
E purtroppo, in passato gran parte del sistema
02:45
worked entirely based on people reporting harassment and abuse.
45
165837
5596
era interamente basato sulla segnalazione di molestie e insulti.
02:51
So about midway last year, we decided that we were going to apply
46
171457
5075
A metà dell'anno scorso, abbiamo deciso che avremmo applicato
02:56
a lot more machine learning, a lot more deep learning to the problem,
47
176556
3982
molto più apprendimento automatico, nel trattare la questione,
03:00
and try to be a lot more proactive around where abuse is happening,
48
180562
4538
e avremmo cercato di essere molto più proattivi sulle molestie,
03:05
so that we can take the burden off the victim completely.
49
185124
3960
in modo da farci carico completamente del problema della vittima.
03:09
And we've made some progress recently.
50
189108
2435
Abbiamo fatto progressi recentemente.
03:11
About 38 percent of abusive tweets are now proactively identified
51
191567
6689
Il 38 percento circa dei tweet molesti è ora correttamente identificato
03:18
by machine learning algorithms
52
198280
1715
da algoritmi di apprendimento automatico,
03:20
so that people don't actually have to report them.
53
200019
2334
così la gente non deve nemmeno segnalarli.
03:22
But those that are identified are still reviewed by humans,
54
202377
3305
Ma quelli che vengono identificati vengono comunque controllati da persone,
03:25
so we do not take down content or accounts without a human actually reviewing it.
55
205706
5384
in modo da non rimuovere contenuti o account senza prima controllare.
03:31
But that was from zero percent just a year ago.
56
211114
2759
Siamo partiti da zero solo un anno fa.
03:33
So that meant, at that zero percent,
57
213897
1931
"Da zero" significa
03:35
every single person who received abuse had to actually report it,
58
215852
3650
che ogni singolo utente molestato doveva segnalarlo,
03:39
which was a lot of work for them, a lot of work for us
59
219526
3579
il che significa impegno degli utenti, e molto lavoro per noi,
03:43
and just ultimately unfair.
60
223129
2018
il che è ingiusto.
03:46
The other thing that we're doing is making sure that we, as a company,
61
226528
3780
L'altra cosa che facciamo è assicurarci che in quanto azienda,
03:50
have representation of all the communities that we're trying to serve.
62
230332
3333
siamo rappresentati da tutte le comunità che cerchiamo di servire.
03:53
We can't build a business that is successful
63
233689
2159
Non possiamo costruire un'azienda di successo
03:55
unless we have a diversity of perspective inside of our walls
64
235872
3300
senza una diversità di prospettive nel nostro ufficio,
03:59
that actually feel these issues every single day.
65
239196
3732
che vive questi problemi quotidianamente.
04:02
And that's not just with the team that's doing the work,
66
242952
3738
E non solo nel team che fa il lavoro,
04:06
it's also within our leadership as well.
67
246714
2096
ma anche tra i leader.
04:08
So we need to continue to build empathy for what people are experiencing
68
248834
5757
Dobbiamo continuare a creare empatia in quello che la gente vive
04:14
and give them better tools to act on it
69
254615
3316
e darle più strumenti per agire
04:17
and also give our customers a much better and easier approach
70
257955
4252
e dare anche ai nostri clienti un approccio migliore e più facile
04:22
to handle some of the things that they're seeing.
71
262231
2382
per gestire alcune cose che vedono.
04:24
So a lot of what we're doing is around technology,
72
264637
3266
Molto di quello che facciamo è tecnologico,
04:27
but we're also looking at the incentives on the service:
73
267927
4308
ma analizziamo anche gli incentivi del servizio:
04:32
What does Twitter incentivize you to do when you first open it up?
74
272259
5183
cosa ti spinge a fare, Twitter, la prima volta che lo apri?
04:37
And in the past,
75
277466
1294
In passato,
04:40
it's incented a lot of outrage, it's incented a lot of mob behavior,
76
280670
5544
ha alimentato offese, ha alimentato movimenti di massa,
04:46
it's incented a lot of group harassment.
77
286238
2459
ha alimentato molestie di gruppo.
04:48
And we have to look a lot deeper at some of the fundamentals
78
288721
3648
E dobbiamo approfondire molto le basi
04:52
of what the service is doing to make the bigger shifts.
79
292393
2958
di come il servizio agisce per i grandi cambiamenti.
04:55
We can make a bunch of small shifts around technology, as I just described,
80
295375
4031
Possiamo fare tanti piccoli cambiamenti tecnologici, come ho detto;
04:59
but ultimately, we have to look deeply at the dynamics in the network itself,
81
299430
4386
ma in definitiva dobbiamo approfondire le dinamiche della rete stessa,
05:03
and that's what we're doing.
82
303840
1368
ed è quello che stiamo facendo.
05:05
CA: But what's your sense --
83
305232
2060
CA: Ma qual è il senso --
05:07
what is the kind of thing that you might be able to change
84
307316
3963
che tipo di cose potreste cambiare
05:11
that would actually fundamentally shift behavior?
85
311303
2749
che potrebbe modificare il comportamento?
05:15
JD: Well, one of the things --
86
315386
1480
JD: Una delle cose --
05:16
we started the service with this concept of following an account,
87
316890
5340
abbiamo iniziato il servizio con il concetto di seguire un account,
05:22
as an example,
88
322254
1725
ad esempio,
e non credo sia questo il motivo per cui la gente arriva su Twitter.
05:24
and I don't believe that's why people actually come to Twitter.
89
324003
4349
05:28
I believe Twitter is best as an interest-based network.
90
328376
4857
Credo che Twitter funzioni meglio come rete basata sugli interessi.
05:33
People come with a particular interest.
91
333257
3453
La gente arriva con un particolare interesse.
05:36
They have to do a ton of work to find and follow the related accounts
92
336734
3487
Deve impegnarsi molto per trovare e seguire gli account giusti
05:40
around those interests.
93
340245
1405
che ruotano attorno a quegli interessi.
05:42
What we could do instead is allow you to follow an interest,
94
342217
3397
Potremmo invece consentire di seguire un argomento,
05:45
follow a hashtag, follow a trend,
95
345638
2103
seguire un hashtag, seguire un trend,
05:47
follow a community,
96
347765
1754
seguire una comunità,
05:49
which gives us the opportunity to show all of the accounts,
97
349543
4637
il che ci dà l'opportunità di mostrare tutti gli account,
05:54
all the topics, all the moments, all the hashtags
98
354204
3323
tutti gli argomenti, momenti, hashtag
05:57
that are associated with that particular topic and interest,
99
357551
3992
associati a quell'interesse, o a quell'argomento,
06:01
which really opens up the perspective that you see.
100
361567
4600
il che allarga le prospettive.
06:06
But that is a huge fundamental shift
101
366191
2157
Ma è un cambiamento importante
06:08
to bias the entire network away from just an account bias
102
368372
3792
spostare l'intera rete dal principio di un solo account
06:12
towards a topics and interest bias.
103
372188
2587
al principio di argomento o interesse.
06:15
CA: Because isn't it the case
104
375283
3148
CA: Perché non è vero
06:19
that one reason why you have so much content on there
105
379375
3541
che un motivo per cui avete tanto contenuto
06:22
is a result of putting millions of people around the world
106
382940
3591
è frutto del mettere insieme milioni di persone nel mondo
06:26
in this kind of gladiatorial contest with each other
107
386555
3142
l'uno contro l'altro in questa specie di arena di gladiatori
06:29
for followers, for attention?
108
389721
2090
per i follower, per l'attenzione?
06:31
Like, from the point of view of people who just read Twitter,
109
391835
4117
Dal punto di vista di utenti che leggono solo Twitter,
06:35
that's not an issue,
110
395976
1155
non è un problema,
06:37
but for the people who actually create it, everyone's out there saying,
111
397155
3350
ma per chi lo crea, sono tutti lì a dire,
06:40
"You know, I wish I had a few more 'likes,' followers, retweets."
112
400529
3236
"Sai, vorrei tanto avere più 'like', 'follower', 'retweet'."
06:43
And so they're constantly experimenting,
113
403789
2148
Quindi continuano a sperimentare,
06:45
trying to find the path to do that.
114
405961
1961
in cerca della strada giusta.
06:47
And what we've all discovered is that the number one path to do that
115
407946
4126
Abbiamo scoperto che il modo migliore
06:52
is to be some form of provocative,
116
412096
3406
è essere provocatori, insopportabili, eloquentemente molesti,
06:55
obnoxious, eloquently obnoxious,
117
415526
2980
06:58
like, eloquent insults are a dream on Twitter,
118
418530
3516
gli insulti eloquenti sono un sogno su Twitter,
07:02
where you rapidly pile up --
119
422070
2603
si accumula rapidamente --
07:04
and it becomes this self-fueling process of driving outrage.
120
424697
4608
diventa un processo di rabbia che si auto-alimenta.
07:09
How do you defuse that?
121
429329
2351
Come si può disinnescare?
07:12
JD: Yeah, I mean, I think you're spot on,
122
432624
2947
JD: Hai colto il punto,
07:15
but that goes back to the incentives.
123
435595
1886
ma questo ci riporta agli incentivi.
07:17
Like, one of the choices we made in the early days was
124
437505
2632
Una delle scelte che abbiamo fatto agli inizi
07:20
we had this number that showed how many people follow you.
125
440161
4701
è stata mostrare il numero di follower.
07:24
We decided that number should be big and bold,
126
444886
2959
Abbiamo deciso che quel numero doveva essere bello grande,
07:27
and anything that's on the page that's big and bold has importance,
127
447869
3740
e tutto ciò che è bello grande sulla pagina è importante,
07:31
and those are the things that you want to drive.
128
451633
2278
e quelle sono le cose da spingere.
07:33
Was that the right decision at the time?
129
453935
1907
È stata la decisione giusta all'epoca?
07:35
Probably not.
130
455866
1153
Probabilmente no.
07:37
If I had to start the service again,
131
457043
1805
Se dovessi ricominciare, non enfatizzerei così tanto i follower.
07:38
I would not emphasize the follower count as much.
132
458872
2398
07:41
I would not emphasize the "like" count as much.
133
461294
2295
Non enfatizzerei tanto il conteggio dei 'like'.
07:43
I don't think I would even create "like" in the first place,
134
463613
3120
Non credo nemmeno che creerei i 'like',
07:46
because it doesn't actually push
135
466757
3267
perché in realtà non spinge
07:50
what we believe now to be the most important thing,
136
470048
3179
quello che ora crediamo sia la cosa più importante,
07:53
which is healthy contribution back to the network
137
473251
3039
ossia un valido contributo alla rete
07:56
and conversation to the network,
138
476314
2652
e al dialogo in rete,
07:58
participation within conversation,
139
478990
2072
la partecipazione alla conversazione,
08:01
learning something from the conversation.
140
481086
2493
imparare qualcosa dalla conversazione.
08:03
Those are not things that we thought of 13 years ago,
141
483603
2824
Non sono cose a cui, 13 anni fa, avevamo pensato
08:06
and we believe are extremely important right now.
142
486451
2439
e crediamo siano molto importanti ora.
08:08
So we have to look at how we display the follower count,
143
488914
3023
Dobbiamo analizzare come mostriamo i follower,
08:11
how we display retweet count,
144
491961
2365
come mostriamo il conteggio dei retweet,
08:14
how we display "likes,"
145
494350
1401
come mostriamo i 'like',
08:15
and just ask the deep question:
146
495775
2254
e porci la domanda importante:
08:18
Is this really the number that we want people to drive up?
147
498053
3048
è questo il vero numero che vogliamo far aumentare?
08:21
Is this the thing that, when you open Twitter,
148
501125
2545
Aprendo Twitter, è questo il punto centrale:
08:23
you see, "That's the thing I need to increase?"
149
503694
2516
"Che cosa devo far aumentare?"
08:26
And I don't believe that's the case right now.
150
506234
2144
Non credo sia così, ora.
08:28
(Applause)
151
508402
2103
(Applausi)
08:30
WPR: I think we should look at some of the tweets
152
510529
2352
WPR: Credo che dovremmo analizzare alcuni tweet
08:32
that are coming in from the audience as well.
153
512905
2169
che arrivano dal pubblico.
08:35
CA: Let's see what you guys are asking.
154
515868
2436
CA: Vediamo cosa state chiedendo.
08:38
I mean, this is -- generally, one of the amazing things about Twitter
155
518328
3294
Una delle cose straordinarie di Twitter
08:41
is how you can use it for crowd wisdom,
156
521646
2294
è come si può usare il contributo del pubblico,
08:43
you know, that more knowledge, more questions, more points of view
157
523964
4840
più conoscenza, più domande, più punti di vista
08:48
than you can imagine,
158
528828
1238
di quanto si possa immaginare.
08:50
and sometimes, many of them are really healthy.
159
530090
3689
E alcuni, talvolta, sono molto validi.
08:53
WPR: I think one I saw that passed already quickly down here,
160
533803
2900
WPR: Uno che ho visto passare velocemente,
08:56
"What's Twitter's plan to combat foreign meddling in the 2020 US election?"
161
536717
3524
"Qual è il piano di Twitter per combattere l'ingerenza straniera alle elezioni 2020?"
09:00
I think that's something that's an issue we're seeing
162
540265
2571
Credo sia un problema
09:02
on the internet in general,
163
542860
1901
per Internet in generale,
09:04
that we have a lot of malicious automated activity happening.
164
544785
3667
le attività ostili automatizzate.
09:08
And on Twitter, for example, in fact, we have some work
165
548476
5373
Su Twitter, per esempio, lavoriamo
09:13
that's come from our friends at Zignal Labs,
166
553873
2758
con i nostri amici di Zignal Labs,
09:16
and maybe we can even see that to give us an example
167
556655
2656
magari possiamo anche vedere un esempio di quel che dico.
09:19
of what exactly I'm talking about,
168
559335
1927
09:21
where you have these bots, if you will,
169
561286
3204
Ci sono questi bot, se volete,
09:24
or coordinated automated malicious account activity,
170
564514
4550
o attività ostile automatizzata e coordinata
di account che vengono utilizzati per influenzare cose come le elezioni.
09:29
that is being used to influence things like elections.
171
569088
2764
09:31
And in this example we have from Zignal which they've shared with us
172
571876
3843
In questo esempio che Zignal ha condiviso,
09:35
using the data that they have from Twitter,
173
575743
2198
utilizzando i dati di Twitter,
09:37
you actually see that in this case,
174
577965
2441
vedete che in questo caso,
09:40
white represents the humans -- human accounts, each dot is an account.
175
580430
4370
il bianco rappresenta account di persone, ogni punto è un account.
09:44
The pinker it is,
176
584824
1359
Più è rosa, più l'attività è automatizzata.
09:46
the more automated the activity is.
177
586207
1740
09:47
And you can see how you have a few humans interacting with bots.
178
587971
5970
Vedete che alcune persone interagiscono con i bot.
09:53
In this case, it's related to the election in Israel
179
593965
4419
In questo caso, è legato alle elezioni in Israele
09:58
and spreading misinformation about Benny Gantz,
180
598408
2833
e la disinformazione diffusa su Benny Gantz,
10:01
and as we know, in the end, that was an election
181
601265
2662
e sappiamo che alle elezioni
10:03
that Netanyahu won by a slim margin,
182
603951
3724
Netanyahu ha vinto con pochissimo margine,
10:07
and that may have been in some case influenced by this.
183
607699
2842
e potrebbe esserne stato influenzato.
10:10
And when you think about that happening on Twitter,
184
610565
2615
Se pensate a quello che succede su Twitter,
10:13
what are the things that you're doing, specifically,
185
613204
2456
cosa fate, nello specifico,
10:15
to ensure you don't have misinformation like this spreading in this way,
186
615684
3702
per assicurarvi che non si diffonda disinformazione come questa,
10:19
influencing people in ways that could affect democracy?
187
619410
4181
che influenza la gente compromettendo la democrazia?
10:23
JD: Just to back up a bit,
188
623615
1771
JD: Torniamo indietro un attimo,
10:25
we asked ourselves a question:
189
625410
2975
ci siamo fatti una domanda:
10:28
Can we actually measure the health of a conversation,
190
628409
3816
possiamo misurare lo stato di salute della conversazione politica,
10:32
and what does that mean?
191
632249
1288
e cosa ne ricaviamo?
10:33
And in the same way that you have indicators
192
633561
3382
Così come voi avete indicatori
10:36
and we have indicators as humans in terms of are we healthy or not,
193
636967
3467
e noi umani abbiamo indicatori dello stato di salute,
10:40
such as temperature, the flushness of your face,
194
640458
4658
come la temperatura, il rossore del viso,
10:45
we believe that we could find the indicators of conversational health.
195
645140
4560
crediamo di poter trovare degli indicatori dello stato di salute della conversazione.
10:49
And we worked with a lab called Cortico at MIT
196
649724
3843
Abbiamo lavorato con un laboratorio di nome Cortico all'MIT
10:54
to propose four starter indicators
197
654479
6091
per proporre quattro indicatori
11:00
that we believe we could ultimately measure on the system.
198
660594
3670
che crediamo possano misurare il sistema.
11:05
And the first one is what we're calling shared attention.
199
665249
5604
Il primo è quello che chiamiamo attenzione condivisa.
11:10
It's a measure of how much of the conversation is attentive
200
670877
3581
È un indicatore di quanto è concentrata la conversazione
11:14
on the same topic versus disparate.
201
674482
2630
sullo stesso argomento, piuttosto che dispersa.
11:17
The second one is called shared reality,
202
677739
2783
Il secondo si chiama realtà condivisa,
11:21
and this is what percentage of the conversation
203
681217
2259
ed è la percentuale di conversazione
11:23
shares the same facts --
204
683500
2005
che condivide gli stessi fatti --
11:25
not whether those facts are truthful or not,
205
685529
3113
non se quei fatti sono veri o no,
11:28
but are we sharing the same facts as we converse?
206
688666
3009
ma se condividiamo gli stessi fatti mentre dialoghiamo.
11:32
The third is receptivity:
207
692235
2353
Il terzo è la ricettività:
11:34
How much of the conversation is receptive or civil
208
694612
3959
quanto della conversazione è aperta e civile
11:38
or the inverse, toxic?
209
698595
2944
o viceversa, tossica?
11:42
And then the fourth is variety of perspective.
210
702213
3222
Il quarto è la diversità di prospettive.
11:45
So, are we seeing filter bubbles or echo chambers,
211
705459
3145
Siamo in bolle informative o in echo-chamber,
11:48
or are we actually getting a variety of opinions
212
708628
3057
o siamo davvero esposti a una varietà di opinioni,
11:51
within the conversation?
213
711709
1635
nelle conversazioni?
11:53
And implicit in all four of these is the understanding that,
214
713368
4018
Implicito in tutti e quattro è l'idea
11:57
as they increase, the conversation gets healthier and healthier.
215
717410
3390
che più aumentano, più la conversazione è sana.
12:00
So our first step is to see if we can measure these online,
216
720824
4869
Il primo passo è vedere se possiamo misurarle online,
12:05
which we believe we can.
217
725717
1308
e crediamo di poterlo fare.
12:07
We have the most momentum around receptivity.
218
727049
3167
Abbiamo più slancio nella ricettività.
12:10
We have a toxicity score, a toxicity model, on our system
219
730240
4317
Abbiamo una scala o un modello di tossicità, nel nostro sistema
12:14
that can actually measure whether you are likely to walk away
220
734581
4124
che può misurare se stai per andartene dalla conversazione su Twitter
12:18
from a conversation that you're having on Twitter
221
738729
2313
12:21
because you feel it's toxic,
222
741066
1633
perché hai la sensazione che sia tossica,
12:22
with some pretty high degree.
223
742723
2512
e ha ottime capacità di previsione.
12:26
We're working to measure the rest,
224
746369
2199
Stiamo lavorando alla misurazione del resto.
12:28
and the next step is,
225
748592
1964
E il prossimo passo, mentre cerchiamo nuove soluzioni,
12:30
as we build up solutions,
226
750580
3359
12:33
to watch how these measurements trend over time
227
753963
3491
è osservare come variano queste misure nel tempo
12:37
and continue to experiment.
228
757478
1873
e continuare a sperimentare.
12:39
And our goal is to make sure that these are balanced,
229
759375
4041
Il nostro obiettivo è assicurarci che siano equilibrate,
12:43
because if you increase one, you might decrease another.
230
763440
3066
perché se ne aumenti una, potresti ridurre l'altra.
12:46
If you increase variety of perspective,
231
766530
2147
Se aumenta la diversità di prospettiva,
12:48
you might actually decrease shared reality.
232
768701
3091
potrebbe ridursi la realtà condivisa.
12:51
CA: Just picking up on some of the questions flooding in here.
233
771816
4989
CA: Prendiamo qualcuna delle domande che stanno arrivando.
12:56
JD: Constant questioning.
234
776829
1271
JD: Un continuo di domande.
12:58
CA: A lot of people are puzzled why,
235
778996
3620
CA: Molti si chiedono perché mai sia così difficile
13:02
like, how hard is it to get rid of Nazis from Twitter?
236
782640
4247
liberare Twitter dai nazisti.
13:08
JD: (Laughs)
237
788309
1322
JD: (Risate)
13:09
So we have policies around violent extremist groups,
238
789655
6995
Abbiamo regole per gruppi violenti ed estremisti,
13:16
and the majority of our work and our terms of service
239
796674
4426
e gran parte del nostro lavoro e i termini del servizio
13:21
works on conduct, not content.
240
801124
3729
funzionano sul comportamento, non sul contenuto.
13:24
So we're actually looking for conduct.
241
804877
2551
Sono i comportamenti, che cerchiamo.
13:27
Conduct being using the service
242
807452
3014
"Comportamento" significa usare questo servizio
13:30
to repeatedly or episodically harass someone,
243
810490
3867
per molestare qualcuno ripetutamente o episodicamente,
13:34
using hateful imagery
244
814381
2493
usare immagini cariche di odio
13:36
that might be associated with the KKK
245
816898
2106
che potrebbero essere associate al KKK
13:39
or the American Nazi Party.
246
819028
3281
o al Partito Nazista Americano.
13:42
Those are all things that we act on immediately.
247
822333
4156
Sono tutte cose su cui interveniamo immediatamente.
13:47
We're in a situation right now where that term is used fairly loosely,
248
827002
5452
Siamo in una situazione in cui il termine viene usato liberamente,
13:52
and we just cannot take any one mention of that word
249
832478
5313
e non possiamo intervenire ad ogni uso della parola
13:57
accusing someone else
250
837815
2117
accusando qualcuno
13:59
as a factual indication that they should be removed from the platform.
251
839956
3755
come elemento per rimuoverlo dalla piattaforma.
14:03
So a lot of our models are based around, number one:
252
843735
2627
Molti dei nostri modelli sono basati su:
14:06
Is this account associated with a violent extremist group?
253
846386
3140
Uno, questo account è associato a un gruppo estremista violento?
14:09
And if so, we can take action.
254
849550
1983
Se così fosse, possiamo intervenire.
14:11
And we have done so on the KKK and the American Nazi Party and others.
255
851557
3852
Lo abbiamo fatto sul KKK, sul Partito Nazista Americano e altri.
14:15
And number two: Are they using imagery or conduct
256
855433
4183
Due: usano immagini o comportamenti
14:19
that would associate them as such as well?
257
859640
2372
che li associano a questi gruppi?
14:22
CA: How many people do you have working on content moderation
258
862416
2932
CA: Quante persone lavorano alla moderazione dei contenuti?
14:25
to look at this?
259
865372
1250
14:26
JD: It varies.
260
866646
1496
JD: Dipende.
14:28
We want to be flexible on this,
261
868166
1595
Vogliamo essere flessibili,
14:29
because we want to make sure that we're, number one,
262
869785
2646
perché vogliamo essere certi di costruire algoritmi
14:32
building algorithms instead of just hiring massive amounts of people,
263
872455
4424
invece di assumere persone in modo indiscriminato,
14:36
because we need to make sure that this is scalable,
264
876903
2824
perché dobbiamo assicurarci che sia scalabile,
14:39
and there are no amount of people that can actually scale this.
265
879751
3454
e non c'è quantità di persone che lo possa fare su larga scala.
14:43
So this is why we've done so much work around proactive detection of abuse
266
883229
6629
Ecco perché abbiamo lavorato tanto sulla rilevazione proattiva degli abusi
14:49
that humans can then review.
267
889882
1391
che le persone possono poi controllare.
14:51
We want to have a situation
268
891297
2861
Vogliamo una situazione
14:54
where algorithms are constantly scouring every single tweet
269
894182
3741
in cui gli algoritmi setacciano in continuazione ogni singolo tweet
14:57
and bringing the most interesting ones to the top
270
897947
2342
portando alla luce i più interessanti
15:00
so that humans can bring their judgment to whether we should take action or not,
271
900313
3902
in modo che le persone possano valutare se prendere provvedimenti o no,
15:04
based on our terms of service.
272
904239
1524
secondo i termini del servizio.
15:05
WPR: But there's not an amount of people that are scalable,
273
905787
2803
WPR: Nessuna quantità di persone funziona su larga scala,
15:08
but how many people do you currently have monitoring these accounts,
274
908614
3497
ma quante persone avete oggi sul controllo degli account,
15:12
and how do you figure out what's enough?
275
912135
2546
e come capite quando sono abbastanza?
15:14
JD: They're completely flexible.
276
914705
2272
JD: Sono assolutamente flessibili.
Qualche volta associamo la gente allo spam.
15:17
Sometimes we associate folks with spam.
277
917001
2941
15:19
Sometimes we associate folks with abuse and harassment.
278
919966
3845
Qualche volta l'associamo all'abuso e alla molestia.
15:23
We're going to make sure that we have flexibility in our people
279
923835
3062
Ci assicureremo di avere flessibilità nelle persone
15:26
so that we can direct them at what is most needed.
280
926921
2350
in modo da indirizzarle dove sono necessarie.
15:29
Sometimes, the elections.
281
929295
1204
Talvolta le elezioni.
15:30
We've had a string of elections in Mexico, one coming up in India,
282
930523
4927
Ci sono state le elezioni in Messico, tra poco ci saranno in India,
15:35
obviously, the election last year, the midterm election,
283
935474
4447
ovviamente le elezioni l'anno scorso, quelle di metà mandato;
15:39
so we just want to be flexible with our resources.
284
939945
2472
vogliamo essere flessibili con le risorse.
15:42
So when people --
285
942441
2129
Quando la gente --
15:44
just as an example, if you go to our current terms of service
286
944594
6389
ad esempio, se controllate i termini del servizio
e guardate sulla pagina in alto,
15:51
and you bring the page up,
287
951007
1641
15:52
and you're wondering about abuse and harassment that you just received
288
952672
3682
e per abusi e molestie che avete ricevuto
15:56
and whether it was against our terms of service to report it,
289
956378
3634
vi chiedete se sono contrari ai termini del servizio per segnalarli,
16:00
the first thing you see when you open that page
290
960036
2559
la prima cosa che vedete aprendo quella pagina
16:02
is around intellectual property protection.
291
962619
3088
è la protezione della proprietà intellettuale.
16:06
You scroll down and you get to abuse, harassment
292
966504
5323
Scendete e arrivate ad abusi e molestie
16:11
and everything else that you might be experiencing.
293
971851
2382
e qualunque cosa viviate.
16:14
So I don't know how that happened over the company's history,
294
974257
3195
Non so come sia successo nella storia dell'azienda,
16:17
but we put that above the thing that people want
295
977476
4797
ma l'abbiamo messo prima delle cose su cui la gente vuole più informazioni
16:24
the most information on and to actually act on.
296
984146
3222
e su cui vuole agire.
16:27
And just our ordering shows the world what we believed was important.
297
987392
5241
Il semplice ordine delle due cose mostra le nostre priorità di allora.
16:32
So we're changing all that.
298
992657
2881
Cambieremo tutto questo.
16:35
We're ordering it the right way,
299
995562
1563
Lo metteremo nell'ordine giusto,
16:37
but we're also simplifying the rules so that they're human-readable
300
997149
3451
ma semplificheremo anche le regole in modo che siano comprensibili
16:40
so that people can actually understand themselves
301
1000624
4067
in modo che la gente possa capire
16:44
when something is against our terms and when something is not.
302
1004715
3448
quando qualcosa è contrario ai termini di servizio e quando non lo è.
16:48
And then we're making --
303
1008187
2161
E poi facciamo --
16:50
again, our big focus is on removing the burden of work from the victims.
304
1010372
5200
il nostro focus è sulla rimozione del carico di lavoro dalle vittime.
16:55
So that means push more towards technology,
305
1015596
3734
Significa spingere più verso la tecnologia,
16:59
rather than humans doing the work --
306
1019354
1873
invece di far fare il lavoro
17:01
that means the humans receiving the abuse
307
1021251
2413
a chi subisce molestie
17:03
and also the humans having to review that work.
308
1023688
3026
e a chi deve controllarle.
17:06
So we want to make sure
309
1026738
1673
Vogliamo assicurarci
17:08
that we're not just encouraging more work
310
1028435
2841
non solo di incoraggiare più impegno
17:11
around something that's super, super negative,
311
1031300
2629
su una cosa molto indesiderabile,
17:13
and we want to have a good balance between the technology
312
1033953
2674
ma vogliamo avere un giusto equilibrio
tra la tecnologia e la creatività delle persone,
17:16
and where humans can actually be creative,
313
1036651
2852
17:19
which is the judgment of the rules,
314
1039527
3090
ossia nell'interpretazione delle regole,
17:22
and not just all the mechanical stuff of finding and reporting them.
315
1042641
3267
e non solo la parte meccanica del trovare e segnalare.
17:25
So that's how we think about it.
316
1045932
1530
Noi la vediamo così.
17:27
CA: I'm curious to dig in more about what you said.
317
1047486
2406
CA: Vorrei approfondire quel che hai detto.
17:29
I mean, I love that you said you are looking for ways
318
1049916
2605
Mi piace quando dici di voler cercare modi
17:32
to re-tweak the fundamental design of the system
319
1052545
3462
per riprogettare il sistema
17:36
to discourage some of the reactive behavior, and perhaps --
320
1056031
4875
scoraggiare comportamenti reazionari, e forse --
17:40
to use Tristan Harris-type language --
321
1060930
2705
usando il linguaggio di Tristan Harris --
17:43
engage people's more reflective thinking.
322
1063659
4288
spingere verso un pensiero più riflessivo.
17:47
How far advanced is that?
323
1067971
1854
A che punto siamo?
17:49
What would alternatives to that "like" button be?
324
1069849
4305
Quali alternative potrebbero esserci a quel tasto 'like'?
17:55
JD: Well, first and foremost,
325
1075518
3575
JD: Prima di tutto,
17:59
my personal goal with the service is that I believe fundamentally
326
1079117
5753
il mio obiettivo personale con il servizio è che credo sostanzialmente
18:04
that public conversation is critical.
327
1084894
2702
che il dialogo pubblico sia fondamentale.
18:07
There are existential problems facing the world
328
1087620
2647
Il mondo affronta problemi esistenziali,
18:10
that are facing the entire world, not any one particular nation-state,
329
1090291
4163
non sono problemi di singole nazioni,
18:14
that global public conversation benefits.
330
1094478
2649
e ne beneficia il dialogo globale.
18:17
And that is one of the unique dynamics of Twitter,
331
1097151
2372
E questa è una delle dinamiche uniche di Twitter:
18:19
that it is completely open,
332
1099547
1814
è completamente aperta,
18:21
it is completely public,
333
1101385
1596
è completamente pubblica,
è completamente fluida,
18:23
it is completely fluid,
334
1103005
1399
18:24
and anyone can see any other conversation and participate in it.
335
1104428
4038
e tutti possono vedere e partecipare a qualunque altra conversazione.
18:28
So there are conversations like climate change.
336
1108490
2206
Ci sono dialoghi sul cambiamento climatico.
18:30
There are conversations like the displacement in the work
337
1110720
2682
Ci sono dialoghi come la distruzione del lavoro
18:33
through artificial intelligence.
338
1113426
2000
ad opera dell'intelligenza artificiale.
18:35
There are conversations like economic disparity.
339
1115450
3006
Ci sono dialoghi come la diseguaglianza economica.
18:38
No matter what any one nation-state does,
340
1118480
2765
Qualunque cosa faccia una nazione,
18:41
they will not be able to solve the problem alone.
341
1121269
2421
non sarà in grado di risolvere il problema da sola.
18:43
It takes coordination around the world,
342
1123714
2643
Ci vuole coordinamento mondiale, ed è qui che entra in gioco Twitter.
18:46
and that's where I think Twitter can play a part.
343
1126381
3047
18:49
The second thing is that Twitter, right now, when you go to it,
344
1129452
5642
La seconda cosa è che Twitter, oggi, quando entrate,
18:55
you don't necessarily walk away feeling like you learned something.
345
1135118
3746
non ne uscite necessariamente avendo imparato qualcosa.
18:58
Some people do.
346
1138888
1276
Alcune persone sì.
19:00
Some people have a very, very rich network,
347
1140188
3107
Alcuni hanno una rete molto ricca,
19:03
a very rich community that they learn from every single day.
348
1143319
3117
una comunità molto ricca da cui imparano ogni giorno.
19:06
But it takes a lot of work and a lot of time to build up to that.
349
1146460
3691
Ma ci vogliono molto impegno e tempo per costruirle.
19:10
So we want to get people to those topics and those interests
350
1150175
3448
Vogliamo che la gente arrivi a questi argomenti e interessi
19:13
much, much faster
351
1153647
1579
molto più rapidamente
19:15
and make sure that they're finding something that,
352
1155250
2566
e assicurarci che trovino qualcosa,
19:18
no matter how much time they spend on Twitter --
353
1158728
2360
indipendentemente da quanto tempo passano su Twitter --
19:21
and I don't want to maximize the time on Twitter,
354
1161112
2358
e non voglio massimizzare il tempo su Twitter,
19:23
I want to maximize what they actually take away from it
355
1163494
2910
voglio massimizzare ciò che si ottiene
19:26
and what they learn from it, and --
356
1166428
2030
ciò che si impara, e --
19:29
CA: Well, do you, though?
357
1169598
1328
CA: Davvero?
19:30
Because that's the core question that a lot of people want to know.
358
1170950
3244
Perché è la domanda fondamentale che si pongono tutti.
19:34
Surely, Jack, you're constrained, to a huge extent,
359
1174218
3638
Jack, sei largamente limitato
19:37
by the fact that you're a public company,
360
1177880
2007
dal fatto di essere un'azienda quotata,
19:39
you've got investors pressing on you,
361
1179911
1774
hai investitori che fanno pressione,
19:41
the number one way you make your money is from advertising --
362
1181709
3559
i soldi si fanno in primo luogo con la pubblicità --
19:45
that depends on user engagement.
363
1185292
2772
e questa dipende dal coinvolgimento degli utenti.
19:48
Are you willing to sacrifice user time, if need be,
364
1188088
4700
Sei disposto a sacrificare il tempo che trascorrono gli utenti,
19:52
to go for a more reflective conversation?
365
1192812
3729
in favore di un dialogo più riflessivo?
19:56
JD: Yeah; more relevance means less time on the service,
366
1196565
3111
JD: Sì, maggiore pertinenza significa meno tempo sul Twitter.
19:59
and that's perfectly fine,
367
1199700
1937
E va benissimo,
20:01
because we want to make sure that, like, you're coming to Twitter,
368
1201661
3099
perché vogliamo assicurarci che quando arrivate su Twitter,
20:04
and you see something immediately that you learn from and that you push.
369
1204784
4520
e vedete qualcosa da cui imparare immediatamente,
20:09
We can still serve an ad against that.
370
1209328
3420
possiamo comunque abbinarvi una pubblicità.
20:12
That doesn't mean you need to spend any more time to see more.
371
1212772
2921
Non significa che dovete passare più tempo e vedere di più.
20:15
The second thing we're looking at --
372
1215717
1733
La seconda cosa che cerchiamo --
20:17
CA: But just -- on that goal, daily active usage,
373
1217474
2698
CA: Ma su quell'obiettivo, il tempo giornaliero trascorso,
20:20
if you're measuring that, that doesn't necessarily mean things
374
1220196
3245
anche se lo misurate, non significa necessariamente
20:23
that people value every day.
375
1223465
1738
che la gente valorizzi ogni giorno.
20:25
It may well mean
376
1225227
1161
Potrebbe solo indicare da cosa la gente è attirata ogni giorno.
20:26
things that people are drawn to like a moth to the flame, every day.
377
1226412
3306
20:29
We are addicted, because we see something that pisses us off,
378
1229742
3022
Siamo dipendenti, perché vediamo cose che ci fanno arrabbiare,
20:32
so we go in and add fuel to the fire,
379
1232788
3178
quindi entriamo e gettiamo benzina su fuoco,
20:35
and the daily active usage goes up,
380
1235990
1927
e aumenta l'uso giornaliero,
20:37
and there's more ad revenue there,
381
1237941
1715
e aumentano i ricavi pubblicitari,
20:39
but we all get angrier with each other.
382
1239680
2752
ma siamo sempre più arrabbiati.
20:42
How do you define ...
383
1242456
2509
Come definire...
20:44
"Daily active usage" seems like a really dangerous term to be optimizing.
384
1244989
4126
"Utenti attivi al mese" sembra un termine pericoloso da ottimizzare.
20:49
(Applause)
385
1249139
5057
(Applausi)
20:54
JD: Taken alone, it is,
386
1254220
1268
JD: Da solo lo è,
20:55
but you didn't let me finish the other metric,
387
1255512
2346
ma non mi hai fatto finire l'altro indicatore,
20:57
which is, we're watching for conversations
388
1257882
3727
ossia osservare le conversazioni
21:01
and conversation chains.
389
1261633
2129
e le catene di conversazione.
21:03
So we want to incentivize healthy contribution back to the network,
390
1263786
5076
Se vogliamo incentivare i contributi sani alla rete,
21:08
and what we believe that is is actually participating in conversation
391
1268886
4181
e crediamo che questo significhi partecipare a un dialogo "sano",
21:13
that is healthy,
392
1273091
1197
21:14
as defined by those four indicators I articulated earlier.
393
1274312
5037
secondo i quattro indicatori che ho citato prima,
21:19
So you can't just optimize around one metric.
394
1279373
2657
non si può ottimizzare un solo indicatore.
21:22
You have to balance and look constantly
395
1282054
2752
Bisogna bilanciare e osservare in continuazione
21:24
at what is actually going to create a healthy contribution to the network
396
1284830
4083
ciò che contribuisce a creare un dialogo sano della rete
21:28
and a healthy experience for people.
397
1288937
2341
e un'esperienza sana per la gente.
21:31
Ultimately, we want to get to a metric
398
1291302
1866
Infine, vogliamo un indicatore per cui la gente possa dire,
21:33
where people can tell us, "Hey, I learned something from Twitter,
399
1293192
3757
"Ho imparato qualcosa da Twitter, e mi porto via preziose conoscenze."
21:36
and I'm walking away with something valuable."
400
1296973
2167
Questo è il nostro obiettivo finale, ma ci vorrà del tempo.
21:39
That is our goal ultimately over time,
401
1299164
2043
21:41
but that's going to take some time.
402
1301231
1809
21:43
CA: You come over to many, I think to me, as this enigma.
403
1303064
5282
CA: Per molti, almeno per me, sembri un enigma.
21:48
This is possibly unfair, but I woke up the other night
404
1308370
4396
Probabilmente è ingiusto, ma mi sono svegliato la scorsa notte
21:52
with this picture of how I found I was thinking about you and the situation,
405
1312790
3879
con questa immagine di come vedo la situazione,
21:56
that we're on this great voyage with you on this ship called the "Twittanic" --
406
1316693
6903
siamo con te in questo grande viaggio su questa nave chiamata "Twittanic" --
(Risate)
22:03
(Laughter)
407
1323620
1281
22:04
and there are people on board in steerage
408
1324925
4357
Ci sono persone a bordo in terza classe
22:09
who are expressing discomfort,
409
1329306
2203
che segnalano un malessere,
22:11
and you, unlike many other captains,
410
1331533
2543
e tu, contrariamente ad altri capitani,
22:14
are saying, "Well, tell me, talk to me, listen to me, I want to hear."
411
1334100
3431
dici, "Ditemi, parlate con me, ascoltatemi, voglio ascoltare."
22:17
And they talk to you, and they say, "We're worried about the iceberg ahead."
412
1337555
3619
Ti parlano, e dicono, " Siamo preoccupati per l'iceberg che abbiamo di fronte."
22:21
And you go, "You know, that is a powerful point,
413
1341198
2242
E tu, "Lo so, è un punto importante,
22:23
and our ship, frankly, hasn't been built properly
414
1343464
2430
e la nostra nave, onestamente, non è stata progettata
22:25
for steering as well as it might."
415
1345918
1669
per virare così bene."
22:27
And we say, "Please do something."
416
1347611
1658
E noi, "Per favore, fai qualcosa."
22:29
And you go to the bridge,
417
1349293
1411
Tu vai sul ponte,
22:30
and we're waiting,
418
1350728
2295
e noi aspettiamo, guardiamo,
22:33
and we look, and then you're showing this extraordinary calm,
419
1353047
4548
e mostri questa calma straordinaria,
22:37
but we're all standing outside, saying, "Jack, turn the fucking wheel!"
420
1357619
3883
ma noi siamo tutti lì a dire, "Jack, gira quel fottuto timone!"
22:41
You know?
421
1361526
1151
Capisci che intendo dire?
22:42
(Laughter)
422
1362701
1335
(Risate)
22:44
(Applause)
423
1364060
2381
(Applausi)
22:46
I mean --
424
1366465
1166
Voglio dire --
22:47
(Applause)
425
1367655
1734
(Applausi)
22:49
It's democracy at stake.
426
1369413
4594
C'è la democrazia, in gioco.
22:54
It's our culture at stake. It's our world at stake.
427
1374031
2821
La nostra cultura, è in gioco. Il mondo, è in gioco.
22:56
And Twitter is amazing and shapes so much.
428
1376876
4706
E Twitter è meraviglioso, ci definisce.
23:01
It's not as big as some of the other platforms,
429
1381606
2233
Non è grande come altre piattaforme,
23:03
but the people of influence use it to set the agenda,
430
1383863
2804
ma le persone influenti lo usano per stabilire le priorità,
23:06
and it's just hard to imagine a more important role in the world than to ...
431
1386691
6787
è difficile immaginare un ruolo più importante al mondo -
23:13
I mean, you're doing a brilliant job of listening, Jack, and hearing people,
432
1393502
3784
Jack, stai facendo un ottimo lavoro ascoltando la gente,
23:17
but to actually dial up the urgency and move on this stuff --
433
1397310
4445
ma per affrontare l'urgenza e andare avanti --
23:21
will you do that?
434
1401779
2201
lo farai?
23:24
JD: Yes, and we have been moving substantially.
435
1404750
3815
JD: Sì, abbiamo fatto passi avanti.
23:28
I mean, there's been a few dynamics in Twitter's history.
436
1408589
3225
Sono state tante le dinamiche, nella storia di Twitter.
23:31
One, when I came back to the company,
437
1411838
2083
Uno, quando sono tornato in azienda,
23:35
we were in a pretty dire state in terms of our future,
438
1415477
6256
nuotavamo in cattive acque,
23:41
and not just from how people were using the platform,
439
1421757
4634
non solo per come la gente usava la piattaforma,
23:46
but from a corporate narrative as well.
440
1426415
2047
ma anche in termini di narrativa aziendale.
23:48
So we had to fix a bunch of the foundation,
441
1428486
3204
Abbiamo dovuto sistemare le fondamenta,
23:51
turn the company around,
442
1431714
1969
mettere l'azienda sottosopra,
23:53
go through two crazy layoffs,
443
1433707
3111
passare per due ondate di licenziamenti,
23:56
because we just got too big for what we were doing,
444
1436842
3793
perché eravamo troppo grandi per quel che facevamo.
24:00
and we focused all of our energy
445
1440659
2060
E le nostre energie andavano
24:02
on this concept of serving the public conversation.
446
1442743
3508
su questo concetto di aiutare il dialogo.
24:06
And that took some work.
447
1446275
1451
È stato un enorme lavoro.
24:07
And as we dived into that,
448
1447750
2608
Ci siamo buttati,
24:10
we realized some of the issues with the fundamentals.
449
1450382
2992
abbiamo identificato alcuni problemi alla base.
24:14
We could do a bunch of superficial things to address what you're talking about,
450
1454120
4656
Abbiamo fatto un po' di cose superficiali per sistemare ciò di cui parli,
24:18
but we need the changes to last,
451
1458800
1790
ma i cambiamenti dovevano essere duraturi,
24:20
and that means going really, really deep
452
1460614
2459
e questo significa approfondire
24:23
and paying attention to what we started 13 years ago
453
1463097
4350
e prestare attenzione a quel che abbiamo creato 13 anni fa
24:27
and really questioning
454
1467471
2261
e mettere in discussione
24:29
how the system works and how the framework works
455
1469756
2566
il funzionamento del sistema
24:32
and what is needed for the world today,
456
1472346
3833
e quello che serve al mondo oggi,
24:36
given how quickly everything is moving and how people are using it.
457
1476203
4024
considerando come tutto cambia velocemente
e come la gente lo usa.
24:40
So we are working as quickly as we can, but quickness will not get the job done.
458
1480251
6544
Lavoriamo più velocemente possibile, ma la velocità non è sufficiente.
24:46
It's focus, it's prioritization,
459
1486819
2611
Ci vuole concentrazione, priorità,
24:49
it's understanding the fundamentals of the network
460
1489454
2946
capire le basi della rete
24:52
and building a framework that scales
461
1492424
2842
e costruire una struttura modulare
24:55
and that is resilient to change,
462
1495290
2351
che si adatta ai cambiamenti,
24:57
and being open about where we are and being transparent about where are
463
1497665
5429
essere aperti e trasparenti su dove siamo
25:03
so that we can continue to earn trust.
464
1503118
2179
per continuare a essere degni di fiducia.
25:06
So I'm proud of all the frameworks that we've put in place.
465
1506141
3331
Sono fiero della struttura che abbiamo messo in piedi.
25:09
I'm proud of our direction.
466
1509496
2888
Sono fiero della direzione.
25:12
We obviously can move faster,
467
1512915
2718
Ovviamente potremmo essere più veloci,
25:15
but that required just stopping a bunch of stupid stuff we were doing in the past.
468
1515657
4719
ma questo significa smettere di fare
una serie di cose stupide che facevamo in passato.
25:21
CA: All right.
469
1521067
1164
CA: Bene.
25:22
Well, I suspect there are many people here who, if given the chance,
470
1522255
4067
Credo che molti qui, avendone la possibilità,
25:26
would love to help you on this change-making agenda you're on,
471
1526346
3989
vorrebbero aiutare il cambiamento,
25:30
and I don't know if Whitney --
472
1530359
1542
e non so se Whitney --
25:31
Jack, thank you for coming here and speaking so openly.
473
1531925
2761
Jack, grazie per essere venuto a parlare apertamente.
25:34
It took courage.
474
1534710
1527
Ci è voluto coraggio.
25:36
I really appreciate what you said, and good luck with your mission.
475
1536261
3384
Apprezzo davvero quello che hai detto, e buona fortuna nella tua missione.
25:39
JD: Thank you so much. Thanks for having me.
476
1539669
2095
JD: Grazie infinite. Grazie per avermi invitato.
25:41
(Applause)
477
1541788
3322
(Applausi)
25:45
Thank you.
478
1545134
1159
Grazie.
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7