How a Deepfake Almost Ruined My Political Career | Cara Hunter | TED

40,512 views ・ 2024-12-18

TED


Fare doppio clic sui sottotitoli in inglese per riprodurre il video.

Traduttore: Silvia Monti Revisore: Agnese Giacomelli
00:03
This talk contains mature language
0
3620
3720
Questo discorso contiene linguaggio per adulti
00:08
“You’re a little whore,
1
8700
1840
“Sei una puttanella
00:10
and we've all seen your little video."
2
10540
2560
e abbiamo visto tutti il tuo video”.
00:14
That was the text message that was sent to me in April of 2022.
3
14300
5280
Questo è il messaggio che ho ricevuto nell’aprile del 2022.
00:20
I'm sitting in my grandmother's living room
4
20300
2480
Sono seduta nel salotto di mia nonna
00:22
in what is her 90th birthday,
5
22820
2640
nel giorno del suo novantesimo compleanno,
00:25
surrounded by family and friends
6
25460
2360
circondata da famigliari e amici
00:27
as my phone blows up with messages from strangers
7
27820
4480
mentre il mio telefono viene inondato di messaggi di sconosciuti
00:32
right across the country
8
32300
1840
in tutto il Paese
00:34
who say they have seen a video of me
9
34140
3160
che sostengono di aver visto un video
00:37
engaging in hardcore pornographic activity with a man.
10
37340
4720
in cui mi diletto in attività pornografiche con un uomo.
00:42
I knew this was impossible.
11
42740
1600
Sapevo che era impossibile.
00:44
With just three weeks out from my election,
12
44900
2000
A sole tre settimane dalla mia elezione
00:46
I felt as though my career was crumbling before my very eyes.
13
46940
4080
mi sentivo come se la mia carriera stesse crollando davanti ai miei occhi.
00:51
My heart pounded,
14
51420
1440
Il cuore mi batteva all'impazzata,
00:52
my mind raced, sweat beaded on my skin.
15
52860
3160
la mia mente correva, il sudore mi imperlava la pelle.
00:56
And then I watched the video, and my worst fear was realized.
16
56380
4880
Poi ho guardato il video e la mia paura peggiore si è avverata.
01:01
Although this woman in the video was not me,
17
61980
3560
Anche se la donna nel video non ero io,
01:05
she looked exactly like me.
18
65540
2720
era esattamente simile a me.
Incredibilmente simile a me.
01:09
Impossibly like me.
19
69020
2360
01:11
Eerily like me.
20
71380
1200
Inquietantemente simile a me.
01:13
I had so many questions running through my mind.
21
73140
3040
Avevo così tante domande che mi passavano per la testa.
01:16
Was this AI?
22
76500
1360
Era stato fatto con l’IA?
01:17
Was it not?
23
77900
1280
Oppure no?
01:19
Who made this?
24
79220
1160
Chi lo aveva fatto?
01:20
How did they make it?
25
80420
1360
Come lo avevano fatto?
01:21
Why did they make it?
26
81820
1320
Perché l’avevano fatto?
01:23
So I did what anyone would do,
27
83140
2360
Quindi ho fatto quello che avrebbe fatto chiunque
01:25
and I approached my local police service to ask for advice, for guidance.
28
85500
4680
e ho contattato il servizio di polizia locale per chiedere assistenza
01:30
And really, where did I go from there?
29
90220
2280
e per capire come muovermi.
01:32
But they informed me that they wouldn't have the cybercrime technology to assist,
30
92540
4280
Ma mi hanno informato che non disponevano della tecnologia informatica necessaria
01:36
to find out where this video came from.
31
96860
2240
per scoprire da dove provenisse il video.
01:39
And it was from that moment I knew that I was on my own.
32
99140
3520
È stato da quel momento che ho capito di essere sola.
01:43
Now to set the stage, as you can probably tell,
33
103380
2440
Per darvi un’idea del contesto, come avrete capito vengo dall’Irlanda.
01:45
I’m from Ireland,
34
105820
1240
01:47
and to be exact, I'm from Northern Ireland,
35
107100
2480
Dall’Irlanda del Nord per la precisione,
01:49
which is an even smaller place.
36
109580
2000
che è una dimensione ancora più piccola.
01:51
We have just 1.8 million people,
37
111620
2680
Ci vivono solo 1,8 milioni di persone.
01:54
very similar to the size of Vienna.
38
114340
2840
Siamo all’incirca quanti gli abitanti di Vienna.
01:57
So you can imagine a rumor of this sinister nature,
39
117180
3440
Quindi potete immaginare come un pettegolezzo del genere,
02:00
particularly in the world of politics, can go very far, very fast.
40
120620
5920
particolarmente nel mondo della politica, possa diffondersi molto velocemente.
02:06
And that old saying, “seeing is believing” began to haunt me.
41
126540
4480
E il vecchio detto “vedere per credere” ha iniziato a perseguitarmi.
Le settimane prima della mia elezione
02:11
And in the weeks leading up to my election,
42
131060
2520
02:13
this video, this false video,
43
133620
1920
questo video, questo video fake,
02:15
was shared thousands and thousands of times across WhatsApp.
44
135540
4240
è stato condiviso migliaia e migliaia di volte su WhatsApp
02:20
And attached to this video was photos of me at work,
45
140260
3720
insieme a fotografie di me al lavoro,
mentre sorridevo, facevo campagna elettorale
02:24
smiling, campaigning,
46
144020
2760
02:26
building a sense of trust with my constituents.
47
146820
2680
e creavo un senso di fiducia nei miei elettori.
02:29
And as the weeks went on,
48
149540
1480
Con il passare delle settimane,
i messaggi arrivavano sempre più velocemente
02:31
messages flooded in faster and faster,
49
151020
3920
02:34
and they were of a very vile and sexual nature.
50
154980
3040
ed erano di natura molto vile e sessuale.
02:38
Ding!
51
158340
1200
Ding!
02:39
"We've all seen your little video."
52
159540
2000
“Abbiamo visto tutti il tuo video”.
02:41
Ding!
53
161940
1120
Ding!
“Dovresti vergognarti di te stessa”.
02:43
"You should be ashamed of yourself."
54
163100
2480
02:45
Ding!
55
165620
1200
Ding!
02:46
"Ah, now I see how you got your position in politics."
56
166820
4280
“Ah, ora capisco come hai ottenuto la tua posizione in politica”.
02:53
It was very difficult.
57
173100
1960
È stata molto dura.
02:55
And having been in politics since the age of 23,
58
175540
3160
Faccio politica da quando avevo 23 anni
02:58
and at this point I've been in it for about four to five years,
59
178740
3560
quindi all’epoca avevo circa quattro o cinque anni di esperienza.
03:02
and I'm from Northern Ireland, which is a post-conflict society,
60
182300
3280
Vengo dall’Irlanda del Nord, che è una società post-bellica
03:05
still very deeply divided.
61
185620
1920
ancora profondamente divisa.
03:07
So I anticipated challenges,
62
187580
2600
Quindi avevo messo in conto le sfide,
03:10
I anticipated disagreements,
63
190220
2600
avevo messo in conto i disaccordi,
03:12
I even anticipated attacks, is politics after all.
64
192860
2800
avevo persino messo in conto gli attacchi perché dopotutto è politica.
03:16
But what I did not anticipate was this moment.
65
196100
3520
Ma ciò che non avevo messo in conto era questo momento.
03:19
This was different.
66
199660
1400
Questo era diverso.
In quel momento,
03:21
This was the moment where misogyny meets the misuse of technology,
67
201060
5800
la misoginia aveva incontrato l’uso improprio della tecnologia
03:26
and even had the potential to impact the outcome of a democratic election.
68
206900
5560
e poteva persino influire sull’esito di un’elezione democratica.
03:32
And the sad thing for me was this lie became so far spread,
69
212820
5080
La cosa triste è che questa menzogna si è diffusa così tanto,
03:37
so far, so fast,
70
217940
1840
così velocemente,
03:39
that even my own family started to believe it.
71
219820
2880
che persino la mia famiglia ha iniziato a crederci.
03:42
Some would say that they'd heard it at a golf club,
72
222700
2760
Alcuni hanno detto di averlo sentito in un circolo di golf,
03:45
others would say they heard it at the bar,
73
225500
2520
altri di averlo sentito al bar
e naturalmente alcuni hanno persino detto di averlo sentito in uno spogliatoio.
03:48
and of course, some even said they heard it in a locker room.
74
228060
4320
03:52
A really good example of how far this went
75
232420
2480
Per farvi capire quanto si fosse diffuso,
03:54
was people that I knew my entire life
76
234900
2520
persone che conoscevo da una vita
03:57
would pass me in the street without whispering a word.
77
237460
3000
mi incrociavano per strada senza salutarmi.
04:00
People like school teachers,
78
240460
1360
Persone come insegnanti,
04:01
people I had a sense of trust with
79
241860
1720
persone con cui condividevo un senso di fiducia e di affinità.
04:03
and, you know, an affinity with.
80
243620
2360
04:05
And that was really hard.
81
245980
1320
È stato davvero difficile.
04:07
It felt like overnight I was wearing a scarlet letter.
82
247300
3920
Era come se tutto d’un tratto fossi stata marchiata con una lettera scarlatta.
04:11
And as things moved on
83
251660
1320
E col passare del tempo,
04:12
and were about two, three weeks out from the election,
84
252980
2880
a circa due o tre settimane dalle elezioni,
04:15
I kept receiving messages, and it got wider and wider.
85
255900
3120
continuavo a ricevere messaggi da persone da tutto il mondo.
04:19
It was global.
86
259060
1160
04:20
Not only was I receiving messages from Dublin and from London,
87
260220
3680
Non solo ricevevo messaggi da Dublino e da Londra,
04:23
but I was also receiving messages from Massachusetts, Manhattan,
88
263900
4040
ma ricevevo anche messaggi dal Massachusetts e da Manhattan.
04:27
and I was getting so many follows on my political social media,
89
267940
3920
Avevo moltissimi nuovi follower sui miei profili social professionali,
04:31
predominantly from men hungry for more of this scandal.
90
271900
3920
principalmente da uomini che volevano saperne di più su questo scandalo.
04:35
And this intersection of online harms impacting my real life
91
275860
5120
L’impatto che ha avuto quanto accadeva online sulla mia vita reale
04:40
was something I found utterly strange and surreal.
92
280980
4000
è stato qualcosa che ho trovato assolutamente strano e surreale.
04:45
But it got to the point where I was recognized on the street
93
285500
3800
Siamo arrivati a un punto in cui sono stata riconosciuta per strada
04:49
and approached by a stranger who asked me for a sexual favor.
94
289340
6040
e avvicinata da uno sconosciuto che mi ha chiesto un favore sessuale.
04:55
And it was just, for me, it was like in the blink of an eye,
95
295420
3080
In un batter d’occhio,
04:58
everything had just changed,
96
298500
2640
tutto era cambiato.
05:01
and it was utterly humiliating.
97
301140
1600
È stato umiliante.
05:02
I didn't want to leave the house,
98
302780
1680
Non volevo uscire di casa
05:04
and I had turned notifications off in my phone
99
304460
2880
e avevo disattivato le notifiche sul mio telefono
05:07
just so I could kind of catch my breath,
100
307380
1920
solo per riprendere fiato,
05:09
but this wasn't ideal in the lead up, of course, to an election.
101
309340
4280
ma non era l’ideale in vista delle elezioni.
05:13
And for me, I think that was the purpose of this false video, was to do just that.
102
313620
4960
Penso che fosse proprio questo lo scopo di questo video fake.
05:19
But what hurt the most for me
103
319660
2440
Ma la cosa che mi ha fatto più male
05:22
was sitting down my father
104
322140
2720
è stata vedere mio padre
05:24
and having to explain to him this strange, surreal situation.
105
324860
5760
e dovergli spiegare questa situazione strana e surreale.
05:30
My father is an Irishman,
106
330620
1760
Mio padre è un irlandese
05:32
completely disconnected from tech,
107
332420
2160
completamente disconnesso dalla tecnologia
05:34
and so having to explain
108
334620
1920
quindi dover spiegare
05:36
this horrific situation was an entire fabrication
109
336580
4320
che questa situazione orribile altro non era che un montaggio
05:40
was very hard to do.
110
340940
1600
è stato molto difficile.
05:42
This was this strange moment
111
342860
2120
Questo è stato lo strano momento
in cui il mondo online ha incontrato la mia vita, la mia realtà.
05:45
where the online world met my life, my reality.
112
345020
4880
05:50
Not only having the impact to ruin my reputation,
113
350460
4520
Non aveva solo il potenziale di rovinare la mia reputazione,
05:54
but have the capacity to change the outcome
114
354980
2800
ma anche quello di cambiare l’esito
05:57
of a democratic election.
115
357820
2200
di un'elezione democratica.
06:00
And, you know,
116
360500
1160
Sapete,
06:01
for years I spent so much time building trust with my constituents.
117
361700
4040
per anni ho passato così tanto tempo a creare fiducia nei miei elettori.
06:05
I mean, we all know how much people like politicians.
118
365780
3360
Voglio dire, sappiamo tutti quanto alla gente piacciano i politici.
06:09
You know, we’re as likeable as the tax man.
119
369180
2000
Siamo simpatici quanto il fisco.
Quindi per me è stato difficile.
06:11
So for me, it was hard.
120
371220
2880
06:14
It was really hard
121
374100
1200
È stato davvero difficile, perché sono stati anni di duro lavoro.
06:15
because it was years of hard work.
122
375300
2280
06:18
You know, I’m so passionate about my job,
123
378100
2160
Mi appassiona il mio lavoro
06:20
and this video, this complete falsehood,
124
380260
2920
e questo video, una totale falsità,
06:23
had the ability to just undermine years of hard work in mere seconds.
125
383180
4600
aveva la capacità di minare anni di duro lavoro in pochi secondi.
06:28
But instead of succumbing entirely to victimhood,
126
388220
3200
Ma invece di soccombere completamente al vittimismo,
06:31
I ask myself today,
127
391420
1360
oggi mi domando:
06:32
you know, where do we go from here?
128
392820
2280
“Che cosa ci aspetta ora?”
06:35
And how can AI evolve to prevent something like this happening again?
129
395140
5560
E come può evolversi l’IA
per evitare che qualcosa del genere accada di nuovo?
06:40
Not only has it happened to me,
130
400740
1480
Non solo è successo a me,
06:42
but we want to future-proof and ensure that this doesn't happen
131
402220
3000
ma vogliamo assicurarci che ciò non accada più in futuro
06:45
to the women of tomorrow.
132
405260
1760
alle donne di domani.
Come possiamo noi, voi e io, persone che hanno a cuore le persone,
06:47
How can we, you and I, people who care about people,
133
407060
4280
06:51
ensure that this is a tech for good?
134
411380
2400
assicurarci che questa tecnologia faccia del bene?
06:54
How can we, the policymakers, the creators, the consumers,
135
414300
4680
Come possiamo noi, responsabili politici, creatori e consumatori,
06:58
ensure we regulate AI and things like social media,
136
418980
3480
assicurarci di regolamentare l’IA e i social media,
07:02
putting humans and humanity at the center of artificial intelligence?
137
422500
5320
mettendo gli umani e l'umanità al centro dell'intelligenza artificiale?
07:08
AI can change the world.
138
428740
2280
L'IA può cambiare il mondo.
In effetti, come sappiamo, è già successo.
07:11
In fact, as we've heard today, it already has.
139
431060
2880
07:13
In a matter of seconds,
140
433940
1520
In pochi secondi,
07:15
people who speak completely different languages
141
435460
2240
persone che parlano lingue completamente diverse
07:17
can connect and understand one another.
142
437700
2160
possono entrare in contatto e comprendersi.
07:19
And we've even seen the Pope as a style icon in a puffer jacket.
143
439860
3960
E abbiamo persino visto il Papa come un’icona di stile con un piumino.
07:24
So some really important uses right there.
144
444180
2240
Ecco alcuni usi davvero importanti.
07:27
But then in my case as well,
145
447220
1600
Ma anche nel mio caso,
07:28
we can also see how it is weaponized against the truth.
146
448860
3440
possiamo anche vedere come viene usata come arma contro la verità.
07:32
And good examples of this would be art that appears like reality,
147
452620
4120
Esempi di ciò potrebbero essere l’arte che appare come realtà,
07:36
AI-generated reviews unfairly boosting certain products
148
456740
3840
recensioni generate dall’IA per promuovere slealmente prodotti
07:40
and things like chatbot propaganda.
149
460580
2760
e la propaganda dei chatbot.
07:43
And then, politically speaking,
150
463340
1760
E poi, politicamente parlando,
07:45
we've seen over the years deepfakes of Nancy Pelosi slurring,
151
465140
4320
abbiamo visto negli anni dei deepfake di Nancy Pelosi che farnetica,
07:49
Joe Biden cursing
152
469500
1480
Joe Biden che impreca
e persino il Presidente Zelensky
07:51
and even President Zelensky
153
471020
1760
07:52
asking his soldiers to surrender their weapons.
154
472820
3160
che chiede ai suoi soldati di consegnare le armi.
07:57
So when AI is used like this, to manipulate,
155
477220
3560
Quindi, quando l’IA viene usata in questo modo, per manipolare,
08:00
it can be a threat to our democracy.
156
480780
2960
può essere una minaccia per la nostra democrazia.
08:03
And the tech is becoming so advanced
157
483740
2680
E la tecnologia sta diventando così avanzata
08:06
that it's hard to differentiate fact from fiction.
158
486460
3400
che è difficile distinguere la realtà dalla finzione.
08:10
So how does AI interfere with politics?
159
490660
4000
Quindi, in che modo l’IA interferisce con la politica?
08:14
And for us as politicians, what should we be worried about?
160
494660
3840
E noi politici, di cosa dovremmo preoccuparci?
08:18
Could truth and democracy become shattered by AI?
161
498820
3760
La verità e la democrazia potrebbero essere distrutte dall'IA?
08:22
Has it already?
162
502580
1320
È già successo?
08:24
Well, to dive a little deeper here,
163
504300
2160
Per approfondire un po’
08:26
I think firstly we need to talk about the concept of truth.
164
506500
3440
penso che prima dobbiamo parlare del concetto di verità.
08:30
Without truth, democracy collapses.
165
510300
2920
Senza verità, la democrazia crolla.
08:33
Truth allows us to make informed decisions,
166
513700
3520
La verità ci consente di prendere decisioni informate,
08:37
it enables us to hold leaders accountable, which is very important.
167
517220
4040
ci consente di ritenere i leader responsabili,
il che è molto importante.
08:41
And it also allows us, as political representatives,
168
521300
3400
Inoltre ci consente, in qualità di rappresentanti politici,
08:44
to create a sense of trust with our citizens and our constituents.
169
524700
3840
di creare un senso di fiducia nei cittadini e negli elettori.
Ma senza questa verità
08:49
But without that truth,
170
529020
1680
08:50
democracy is vulnerable to misinformation,
171
530740
3280
la democrazia è vulnerabile alla disinformazione,
alla manipolazione e, ovviamente, alla corruzione.
08:54
manipulation, and, of course, corruption.
172
534020
3400
08:57
When AI erodes truth,
173
537940
2920
Quando l’intelligenza artificiale erode la verità,
09:00
it erodes trust,
174
540860
2000
erode la fiducia
09:02
and it undermines our democracy.
175
542860
2240
e mina la nostra democrazia.
09:05
And for me, in my experience with a deepfake,
176
545500
3760
Nella mia esperienza con un deepfake,
09:09
I've seen what a fantastic distortion tool that deepfakes really are.
177
549260
4960
ho visto quale fantastico strumento di distorsione siano realmente i deepfake.
09:14
So how can we safeguard democracy from this ever-advancing technology?
178
554220
5080
Quindi come possiamo salvaguardare la democrazia
da questa tecnologia in continua evoluzione?
09:19
It's becoming ever harder to distinguish between real and synthetic content.
179
559620
4960
Sta diventando sempre più difficile
distinguere tra contenuti reali e artificiali.
09:24
And politically, what role does AI play in the future?
180
564620
4160
E politicamente, che ruolo avrà l’IA in futuro?
09:28
And I can't talk about politics without talking about media as well.
181
568820
4080
Non posso parlare di politica senza parlare anche dei media.
09:32
They're undeniably linked, they're intertwined.
182
572900
2360
Sono innegabilmente connessi, sono legati tra loro.
09:35
And I think journalism has its own battle here as well.
183
575300
3600
Penso che anche qui il giornalismo abbia la sua battaglia.
09:39
From AI algorithms boosting articles unfairly
184
579220
3600
Dagli algoritmi di IA che promuovono ingiustamente gli articoli
09:42
to clickbait headlines,
185
582860
1520
ai titoli clickbait
09:44
and then also moments where they can manipulate the public as well.
186
584420
4800
a momenti in cui possono manipolare anche il pubblico.
09:49
But politically speaking,
187
589220
1240
Ma dal punto di vista politico
09:50
we've seen AI-tailored political messaging
188
590500
3000
abbiamo visto messaggi politici personalizzati creati dall’IA
09:53
influencing voters,
189
593540
1160
influenzare gli elettori
09:54
we’ve seen it adding to existing bias.
190
594740
3240
e aumentare i pregiudizi esistenti.
Abbiamo tutti quella zia che crede a qualsiasi cosa legga su Facebook.
09:58
And definitely I think we all have that aunt that’s on Facebook
191
598020
2960
10:00
and kind of believes anything.
192
600980
1840
10:02
So for me, as a politician,
193
602860
1440
Quindi, come politica,
10:04
I think it's really important we dive a little deeper
194
604340
2480
penso che sia davvero importante approfondire
10:06
into the relationship of AI, journalism and media.
195
606820
3880
il legame tra l’IA, il giornalismo e i media.
10:11
But it also puts us at risk
196
611220
1840
Ma questo ci sottopone anche al rischio
10:13
of creating a more divided and reactionary society,
197
613100
4000
di creare una società più divisa e reazionaria,
10:17
because falsehoods can create a lot of reaction.
198
617140
3000
perché le menzogne possono scatenare molte reazioni.
10:20
And for myself, coming from Northern Ireland,
199
620140
2320
Venendo dall’Irlanda del Nord,
10:22
which is that post-conflict society,
200
622500
2320
che è una società postbellica,
10:24
I do have concerns about how it could shape our political landscape
201
624860
3960
mi preoccupa come questo potrebbe plasmare il nostro panorama politico
10:28
and other places across the globe.
202
628820
2320
e altri luoghi in tutto il mondo.
10:32
Sadly, this deepfake video
203
632060
2320
Purtroppo questo deepfake
10:34
is not the only instance of me having experienced abuse with AI.
204
634380
5400
non è l’unico caso in cui ho subito abusi con l’intelligenza artificiale.
10:39
Just six months ago,
205
639780
1280
Solo sei mesi fa
ho ricevuto 15 immagini deepfake di me stessa in lingerie
10:41
I received 15 deepfake images of myself in lingerie
206
641100
5400
10:46
posing provocatively.
207
646540
1640
in pose provocatorie.
10:48
And I thought to myself, here we go again.
208
648620
3240
E ho pensato tra me e me: “Ci risiamo”.
10:52
And you know, I spoke with some other female politicians.
209
652460
3720
Ho parlato con altre politiche.
10:56
Thankfully, where I represent, we have more women getting into politics.
210
656980
4280
Per fortuna, dove rappresento abbiamo più donne che entrano in politica.
11:01
But I had a really good conversation with them,
211
661300
2200
Ho avuto un’ottima conversazione con loro
11:03
and it’s around, if this is happening to you now,
212
663500
2320
e ci siamo chieste: “Se sta succedendo a te adesso,
11:05
what happens to me tomorrow?
213
665860
1760
cosa succederà a me domani?”
11:07
And I think this really strikes at the heart of the climate of fear
214
667660
3960
E penso che questo colpisca davvero il cuore del clima di paura
11:11
that AI can create for those in public life.
215
671660
3840
che l'IA può creare per chi è coinvolto nella vita pubblica.
11:15
And I don't blame women.
216
675500
1160
E non do la colpa alle donne.
11:16
It's very sad.
217
676700
1160
È molto triste ma non biasimo le donne che non vogliono entrare in politica
11:17
I don't blame women for not wanting to get into politics
218
677860
2640
11:20
when they see this kind of technology come forward,
219
680540
2400
quando vedono questo tipo di tecnologia,
11:22
so that's so important that we safeguard it.
220
682940
2480
quindi è importante che la salvaguardiamo.
11:25
What also concerned me was the position of elderly voters
221
685420
4680
Ciò che mi preoccupava era anche la posizione degli elettori anziani
11:30
and perhaps their media literacy,
222
690100
1880
e la loro alfabetizzazione mediatica,
la loro comprensione di questa tecnologia.
11:32
their comprehension of this technology.
223
692020
2200
11:34
People who don't use the internet,
224
694260
2120
Persone che non usano Internet,
11:36
who perhaps are not aware of AI and its many, many uses.
225
696420
3920
che forse non sono a conoscenza dell'IA e dei suoi moltissimi usi.
11:40
So that was really concerning as well.
226
700340
2400
Quindi anche questo era davvero preoccupante.
Ma non deve essere per forza così.
11:43
But it doesn't have to be this way.
227
703060
1800
11:44
We can be part of the change.
228
704900
1760
Possiamo essere parte del cambiamento.
11:47
For me and my video,
229
707260
1920
Ancora oggi non so chi sia l’autore del mio video.
11:49
I still don't know, to this day, who did this.
230
709220
3520
11:52
I can imagine why they did it, but I don't know who did it.
231
712780
3400
Posso immaginare perché l’abbia fatto, ma non so chi l’abbia fatto.
11:56
And sadly for me and for across the globe,
232
716180
3200
E purtroppo per me e per tutto il mondo,
11:59
it still wouldn't be considered a crime.
233
719420
2920
non è ancora considerato un crimine.
12:03
So from being the enemy of fair, transparent,
234
723260
2840
Quindi, dall’essere nemica di una politica equa, trasparente e affidabile,
12:06
good-natured politics,
235
726100
1600
12:07
to warfare, to international interference,
236
727740
3240
alla guerra, all’interferenza internazionale,
nonostante la sua bellezza e il suo potenziale,
12:11
despite its beauty and its potential,
237
731020
2880
12:13
AI is still a cause for concern.
238
733940
2880
l’IA è ancora motivo di preoccupazione.
12:16
But it doesn't have to be this way.
239
736820
2080
Ma non deve essere per forza così.
12:19
I feel passionately that AI can be a humanistic technology
240
739260
3720
Sento fermamente che l’IA possa essere una tecnologia umanistica
con valori umani
12:23
with human values
241
743020
1560
12:24
that complements the lives that we live
242
744620
2640
che integra le vite che viviamo
12:27
to make us the very best versions of ourselves.
243
747300
3440
per renderci la versione migliore di noi stessi.
12:31
But to do that,
244
751100
1560
Ma per farlo,
12:32
I think we need to embed ethics into this technology,
245
752700
3920
penso che dobbiamo incorporare l’etica in questa tecnologia,
12:36
to eliminate bias, to install empathy
246
756620
4160
eliminare i pregiudizi, instillare empatia
12:40
and make sure it is aligned with human values and human principles.
247
760820
4760
e assicurarci che sia in linea con i valori e i principi umani.
12:45
Who knows, our democracy could depend on it.
248
765900
3400
Chissà... la nostra democrazia potrebbe dipendere da questo.
12:49
And today I know we have some of the brightest minds in this room.
249
769300
3840
E so che ci sono alcune delle menti più brillanti qui oggi.
12:53
I heard some of the talks earlier, and I'm certain of that.
250
773180
4120
Ho sentito alcuni interventi prima e ne sono certa.
12:57
And I know each and every one of you have weight on your shoulders
251
777340
3120
So che ognuno di voi ha un peso sulle spalle
13:00
when looking to the future.
252
780500
1680
quando guarda al futuro.
13:02
But I also know each and every one of you want to see this tech for good.
253
782220
5400
Ma so anche che ognuno di voi vuole vedere questa tecnologia fare del bene.
13:07
And what gives me hope
254
787980
1800
E ciò che mi dà speranza
13:09
is witnessing the movement right across the globe
255
789780
3320
è assistere al movimento in tutto il mondo
13:13
to see this hard journey begin,
256
793140
2800
per vedere l’inizio di questo difficile viaggio,
13:15
to regulate this ever-advancing technology,
257
795940
2840
per regolamentare questa tecnologia in continua evoluzione,
13:18
which can be used for bad or for good.
258
798780
3000
che può essere usata per fare del male o per fare del bene.
13:22
But perhaps we, each and every one of us in this room,
259
802140
3720
Magari ognuno di noi in questa stanza
13:25
can be part of finding the solution.
260
805860
2360
può contribuire alla ricerca della soluzione.
13:28
(Applause)
261
808860
2200
(Applausi)
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7