How a Deepfake Almost Ruined My Political Career | Cara Hunter | TED

40,352 views ・ 2024-12-18

TED


A videó lejátszásához kattintson duplán az alábbi angol feliratokra.

Fordító: Peter Pallos Lektor: Reka Lorinczy
00:03
This talk contains mature language
0
3620
3720
Az előadás durva nyelvezetű.
00:08
“You’re a little whore,
1
8700
1840
„Te egy kis kurva vagy,
00:10
and we've all seen your little video."
2
10540
2560
és mindenki látta a rólad szóló videót.”
00:14
That was the text message that was sent to me in April of 2022.
3
14300
5280
Ezt a szöveges üzenetet kaptam 2022 áprilisában.
00:20
I'm sitting in my grandmother's living room
4
20300
2480
Nagymamám 90. születésnapján a nappalijában ültem,
00:22
in what is her 90th birthday,
5
22820
2640
körülöttem a család és barátaink,
00:25
surrounded by family and friends
6
25460
2360
miközben telefonomat idegenektől érkező üzenetek árasztották el
00:27
as my phone blows up with messages from strangers
7
27820
4480
az egész országból.
00:32
right across the country
8
32300
1840
Közölték, hogy videót láttak,
00:34
who say they have seen a video of me
9
34140
3160
amelyen egy férfival kemény pornójelenetet adok elő.
00:37
engaging in hardcore pornographic activity with a man.
10
37340
4720
00:42
I knew this was impossible.
11
42740
1600
Tudtam, hogy ez lehetetlen.
00:44
With just three weeks out from my election,
12
44900
2000
Megválasztásomig mindössze három hét volt hátra,
00:46
I felt as though my career was crumbling before my very eyes.
13
46940
4080
és úgy éreztem, mintha páyafutásom a szemem láttára omlana össze.
00:51
My heart pounded,
14
51420
1440
Szívem hevesen kalapált, agyam pörgött,
00:52
my mind raced, sweat beaded on my skin.
15
52860
3160
bőrömön verejték gyöngyözött.
00:56
And then I watched the video, and my worst fear was realized.
16
56380
4880
A videót megnézve legszörnyűbb félelmem igazolódott be.
01:01
Although this woman in the video was not me,
17
61980
3560
Bár a nő a videóban nem én voltam,
01:05
she looked exactly like me.
18
65540
2720
pont úgy nézett ki, mint én.
01:09
Impossibly like me.
19
69020
2360
A megszólalásig rám hasonlított.
01:11
Eerily like me.
20
71380
1200
Kísértetiesen hasonlított rám.
01:13
I had so many questions running through my mind.
21
73140
3040
Annyi kérdés járt az agyamban!
01:16
Was this AI?
22
76500
1360
MI-vel készült?
01:17
Was it not?
23
77900
1280
Vagy nem azzal?
01:19
Who made this?
24
79220
1160
Ki készítette?
01:20
How did they make it?
25
80420
1360
Hogy sikerült?
01:21
Why did they make it?
26
81820
1320
Miért csinálták?
01:23
So I did what anyone would do,
27
83140
2360
Azt tettem, amit bárki tenne:
01:25
and I approached my local police service to ask for advice, for guidance.
28
85500
4680
tanácsért, útmutatásért a helyi rendőrséghez fordultam.
01:30
And really, where did I go from there?
29
90220
2280
Hová mehettem volna?
01:32
But they informed me that they wouldn't have the cybercrime technology to assist,
30
92540
4280
De közölték, hogy nem áll rendelkezésükre a kiberbűnözés elleni technológia,
01:36
to find out where this video came from.
31
96860
2240
amellyel kideríthetnék, honnan származik a videó.
01:39
And it was from that moment I knew that I was on my own.
32
99140
3520
Ettől kezdve tudtam, hogy csak magamra számíthatok.
01:43
Now to set the stage, as you can probably tell,
33
103380
2440
Már valószínűleg rájöttek,
01:45
I’m from Ireland,
34
105820
1240
hogy Írországból származom,
01:47
and to be exact, I'm from Northern Ireland,
35
107100
2480
pontosabban még kisebb helyről,
01:49
which is an even smaller place.
36
109580
2000
Észak-Írországból.
01:51
We have just 1.8 million people,
37
111620
2680
Mindössze 1,8 millió lakosunk van,
01:54
very similar to the size of Vienna.
38
114340
2840
kb. annyi, mint Bécsnek.
01:57
So you can imagine a rumor of this sinister nature,
39
117180
3440
Tehát el lehet képzelni, hogy ilyen aljas pletyka,
02:00
particularly in the world of politics, can go very far, very fast.
40
120620
5920
kiváltképp a politika világában, hamar és messzire eljuthat.
02:06
And that old saying, “seeing is believing” began to haunt me.
41
126540
4480
A régi mondás, hogy „látni annyi, mint elhinni”, kísérteni kezdett.
02:11
And in the weeks leading up to my election,
42
131060
2520
A választásom előtti hetekben a hamis videót
02:13
this video, this false video,
43
133620
1920
02:15
was shared thousands and thousands of times across WhatsApp.
44
135540
4240
a WhatsApp-on sok ezerszer osztották meg.
02:20
And attached to this video was photos of me at work,
45
140260
3720
A videóhoz képeket csatoltak, amelyeken dolgozom, mosolygok,
02:24
smiling, campaigning,
46
144020
2760
kampányolok,
02:26
building a sense of trust with my constituents.
47
146820
2680
és bizalmat keltek a választóimban.
02:29
And as the weeks went on,
48
149540
1480
Ahogy teltek-múltak a hetek,
02:31
messages flooded in faster and faster,
49
151020
3920
az aljas és szexuális jellegű üzenetek
02:34
and they were of a very vile and sexual nature.
50
154980
3040
egyre gyorsabban áradtak.
02:38
Ding!
51
158340
1200
Puff!
02:39
"We've all seen your little video."
52
159540
2000
„Mindenki látta a kis videódat.”
02:41
Ding!
53
161940
1120
Puff!
02:43
"You should be ashamed of yourself."
54
163100
2480
„Szégyelld magad!”
02:45
Ding!
55
165620
1200
Puff!
02:46
"Ah, now I see how you got your position in politics."
56
166820
4280
„Most már látom, hogyan tettél szert politikai pozíciódra.”
02:53
It was very difficult.
57
173100
1960
Letaglózó volt.
02:55
And having been in politics since the age of 23,
58
175540
3160
Mivel 23 éves korom óta dolgozom a politikában,
02:58
and at this point I've been in it for about four to five years,
59
178740
3560
négy-öt éve voltam mostani szerepemben,
03:02
and I'm from Northern Ireland, which is a post-conflict society,
60
182300
3280
és észak-írországi vagyok, amely konfliktus utáni társadalom,
03:05
still very deeply divided.
61
185620
1920
és még mindig mélyen megosztott,
03:07
So I anticipated challenges,
62
187580
2600
ezért megpróbáltatásokra,
03:10
I anticipated disagreements,
63
190220
2600
nézeteltérésekre,
sőt még támadásokra is számítottam.
03:12
I even anticipated attacks, is politics after all.
64
192860
2800
Ilyen a politika.
03:16
But what I did not anticipate was this moment.
65
196100
3520
De erre nem számítottam!
03:19
This was different.
66
199660
1400
Ez másmilyen.
03:21
This was the moment where misogyny meets the misuse of technology,
67
201060
5800
A nőgyűlölet ekkor találkozott a technológiával való visszaéléssel,
03:26
and even had the potential to impact the outcome of a democratic election.
68
206900
5560
és még a demokratikus választások eredményét is befolyásolhatta.
03:32
And the sad thing for me was this lie became so far spread,
69
212820
5080
Elkeserített, hogy a hazugság
olyan messzire és gyorsan terjedt,
03:37
so far, so fast,
70
217940
1840
03:39
that even my own family started to believe it.
71
219820
2880
hogy még családom is kezdte elhinni.
03:42
Some would say that they'd heard it at a golf club,
72
222700
2760
Egyesek szerint a golfklubban hallották,
03:45
others would say they heard it at the bar,
73
225500
2520
mások szerint a kocsmában,
03:48
and of course, some even said they heard it in a locker room.
74
228060
4320
volt, aki szerint az öltözőben.
03:52
A really good example of how far this went
75
232420
2480
Remek példa rá,
03:54
was people that I knew my entire life
76
234900
2520
hogy némely régi ismerősöm milyen mélyre jutott:
03:57
would pass me in the street without whispering a word.
77
237460
3000
szótlanul elosontak mellettem az utcán.
04:00
People like school teachers,
78
240460
1360
Tanárok,
04:01
people I had a sense of trust with
79
241860
1720
akikben bíztam,
04:03
and, you know, an affinity with.
80
243620
2360
és rokonszenvesnek találtam.
04:05
And that was really hard.
81
245980
1320
Nehéz volt elviselni.
04:07
It felt like overnight I was wearing a scarlet letter.
82
247300
3920
Olyan volt, mintha hirtelen megbélyegeztek volna.
04:11
And as things moved on
83
251660
1320
Ahogy a dolgok haladtak,
04:12
and were about two, three weeks out from the election,
84
252980
2880
és két-három hét volt hátra a választásig, egyre csak jöttek az üzenetek,
04:15
I kept receiving messages, and it got wider and wider.
85
255900
3120
és a számuk egyre csak nőtt.
04:19
It was global.
86
259060
1160
Az egész világból.
04:20
Not only was I receiving messages from Dublin and from London,
87
260220
3680
Nem csak Dublinból és Londonból,
04:23
but I was also receiving messages from Massachusetts, Manhattan,
88
263900
4040
hanem Massachusettsből, Manhattanből is,
04:27
and I was getting so many follows on my political social media,
89
267940
3920
és rengeteg követést kaptam politikai közösségi médiámban,
04:31
predominantly from men hungry for more of this scandal.
90
271900
3920
főleg még több botrányra éhes férfiaktól.
04:35
And this intersection of online harms impacting my real life
91
275860
5120
Az életemre ható online ártalmakat
04:40
was something I found utterly strange and surreal.
92
280980
4000
teljesen furcsának és szürreálisnak találtam.
04:45
But it got to the point where I was recognized on the street
93
285500
3800
De odáig fajult a dolog, hogy felismertek az utcán,
04:49
and approached by a stranger who asked me for a sexual favor.
94
289340
6040
és egy vadidegen szexuális szívességet kért tőlem.
04:55
And it was just, for me, it was like in the blink of an eye,
95
295420
3080
Egy szempillantás alatt
04:58
everything had just changed,
96
298500
2640
mintha minden megváltozott volna.
05:01
and it was utterly humiliating.
97
301140
1600
Teljességgel megalázó volt.
05:02
I didn't want to leave the house,
98
302780
1680
Nem akartam kilépni a házból,
05:04
and I had turned notifications off in my phone
99
304460
2880
és telefonomban kikapcsoltam az értesítéseket,
05:07
just so I could kind of catch my breath,
100
307380
1920
csak hogy lélegzethez jussak,
05:09
but this wasn't ideal in the lead up, of course, to an election.
101
309340
4280
bár ez persze nem volt ideális a választások előtt.
05:13
And for me, I think that was the purpose of this false video, was to do just that.
102
313620
4960
Azt hiszem, a hamis videónak épp ez volt a célja.
05:19
But what hurt the most for me
103
319660
2440
De az fájt a legjobban,
05:22
was sitting down my father
104
322140
2720
hogy apámnak meg kellett magyaráznom
05:24
and having to explain to him this strange, surreal situation.
105
324860
5760
ezt a furcsa, szürreális helyzetet.
05:30
My father is an Irishman,
106
330620
1760
Apám ír,
05:32
completely disconnected from tech,
107
332420
2160
teljesen el van szakadva a technológiától,
05:34
and so having to explain
108
334620
1920
így igen nehéz volt megértetnem vele
05:36
this horrific situation was an entire fabrication
109
336580
4320
ezt a szörnyű koholmányt.
05:40
was very hard to do.
110
340940
1600
05:42
This was this strange moment
111
342860
2120
Ebben a furcsa pillanatban
05:45
where the online world met my life, my reality.
112
345020
4880
az online világ találkozott az életemmel, a valóságommal.
05:50
Not only having the impact to ruin my reputation,
113
350460
4520
Nemcsak hírnevemet teszi tönkre,
05:54
but have the capacity to change the outcome
114
354980
2800
hanem a demokratikus választások kimenetelét is
05:57
of a democratic election.
115
357820
2200
képes megváltoztatni.
06:00
And, you know,
116
360500
1160
Annyi évet töltöttem
06:01
for years I spent so much time building trust with my constituents.
117
361700
4040
választóim bizalmának kivívásával!
06:05
I mean, we all know how much people like politicians.
118
365780
3360
Tudjuk, hogy a politikusokat pont annyira szeretik,
06:09
You know, we’re as likeable as the tax man.
119
369180
2000
mint az adóellenőröket.
06:11
So for me, it was hard.
120
371220
2880
Gyötrelmesen nehéz volt,
06:14
It was really hard
121
374100
1200
borzasztóan nehéz,
06:15
because it was years of hard work.
122
375300
2280
mert évekig tartó kemény munka állt mögöttem.
06:18
You know, I’m so passionate about my job,
123
378100
2160
Szenvedélyem a munkám,
06:20
and this video, this complete falsehood,
124
380260
2920
és a hamis videó képes volt
06:23
had the ability to just undermine years of hard work in mere seconds.
125
383180
4600
pillanatok alatt aláásni évekig tartó kemény munkámat.
06:28
But instead of succumbing entirely to victimhood,
126
388220
3200
De ahelyett, hogy teljesen áldozattá váltam volna,
06:31
I ask myself today,
127
391420
1360
azt kérdezem magamtól:
06:32
you know, where do we go from here?
128
392820
2280
hogyan tovább?
06:35
And how can AI evolve to prevent something like this happening again?
129
395140
5560
Hogyan akadályozhatja meg az MI, hogy ilyesmi megismétlődjön?
06:40
Not only has it happened to me,
130
400740
1480
Ilyen nem csak velem történt meg.
06:42
but we want to future-proof and ensure that this doesn't happen
131
402220
3000
El akarjuk érni, hogy a jövőben más nőkkel
ilyen ne fordulhasson elő.
06:45
to the women of tomorrow.
132
405260
1760
06:47
How can we, you and I, people who care about people,
133
407060
4280
Hogyan biztosíthatjuk mi, akik másokkal törődünk,
06:51
ensure that this is a tech for good?
134
411380
2400
hogy ez jó technológia legyen?
06:54
How can we, the policymakers, the creators, the consumers,
135
414300
4680
Hogyan tudjuk mi: döntéshozók, alkotók, fogyasztók
06:58
ensure we regulate AI and things like social media,
136
418980
3480
szabályozni az MI-t és a közösségi médiát,
07:02
putting humans and humanity at the center of artificial intelligence?
137
422500
5320
és az embereket és az emberiséget helyezni az MI középpontjába?
07:08
AI can change the world.
138
428740
2280
Az MI megváltoztatja a világot.
07:11
In fact, as we've heard today, it already has.
139
431060
2880
Amint azt ma hallottuk, már megtette.
07:13
In a matter of seconds,
140
433940
1520
Néhány pillanat alatt
07:15
people who speak completely different languages
141
435460
2240
a teljesen más nyelveket beszélők
07:17
can connect and understand one another.
142
437700
2160
kapcsolatba léphetnek és megérthetik egymást.
07:19
And we've even seen the Pope as a style icon in a puffer jacket.
143
439860
3960
Még a pápát is láttuk mint divatikont tolldzsekiben.
07:24
So some really important uses right there.
144
444180
2240
Tehát van pár igazán fontos felhasználás.
07:27
But then in my case as well,
145
447220
1600
De az én esetemben is láthatjuk,
07:28
we can also see how it is weaponized against the truth.
146
448860
3440
hogyan fenekednek az igazság ellen.
07:32
And good examples of this would be art that appears like reality,
147
452620
4120
Jó példa erre a valóságnak tűnő művészet,
07:36
AI-generated reviews unfairly boosting certain products
148
456740
3840
az egyes termékeket tisztességtelenül reklámozó, MI kreálta értékelések,
07:40
and things like chatbot propaganda.
149
460580
2760
és a chatbot propaganda.
07:43
And then, politically speaking,
150
463340
1760
A politikában láttunk az évek során mély hamisítványokat:
07:45
we've seen over the years deepfakes of Nancy Pelosi slurring,
151
465140
4320
Nancy Pelosit szitkozódni,
07:49
Joe Biden cursing
152
469500
1480
Joe Bident káromkodni,
07:51
and even President Zelensky
153
471020
1760
sőt Zelenszkijt arra kérni katonáit,
07:52
asking his soldiers to surrender their weapons.
154
472820
3160
hogy tegyék le a fegyvert.
07:57
So when AI is used like this, to manipulate,
155
477220
3560
Mikor az MI-vel így manipulálnak,
08:00
it can be a threat to our democracy.
156
480780
2960
az demokráciánkat veszélyezteti.
08:03
And the tech is becoming so advanced
157
483740
2680
A technológia már annyira fejlett,
08:06
that it's hard to differentiate fact from fiction.
158
486460
3400
hogy nehéz a tényeket a koholmányoktól megkülönböztetni.
08:10
So how does AI interfere with politics?
159
490660
4000
Hogyan avatkozik bele az MI a politikába?
08:14
And for us as politicians, what should we be worried about?
160
494660
3840
Nekünk, politikusoknak, mi miatt kell nyugtalankodnunk?
08:18
Could truth and democracy become shattered by AI?
161
498820
3760
Tönkreteheti-e az igazságot és a demokráciát az MI?
08:22
Has it already?
162
502580
1320
Vagy már tönkre is tette?
08:24
Well, to dive a little deeper here,
163
504300
2160
Egy kissé mélyebbre kell merüljek.
08:26
I think firstly we need to talk about the concept of truth.
164
506500
3440
Először az igazság fogalmát kell megvizsgálnunk.
08:30
Without truth, democracy collapses.
165
510300
2920
Igazság nélkül a demokrácia összeomlik.
08:33
Truth allows us to make informed decisions,
166
513700
3520
Az igazságból kiindulva hozhatunk csak megalapozott döntéseket,
08:37
it enables us to hold leaders accountable, which is very important.
167
517220
4040
általa vonhatjuk felelősségre vezetőinket, ami rettentően fontos.
08:41
And it also allows us, as political representatives,
168
521300
3400
Ez teszi lehetővé nekünk mint politikai képviselőknek,
08:44
to create a sense of trust with our citizens and our constituents.
169
524700
3840
hogy elnyerjük polgáraink és választóink bizalmát.
08:49
But without that truth,
170
529020
1680
De igazság nélkül
08:50
democracy is vulnerable to misinformation,
171
530740
3280
a demokrácia ki van szolgáltatva a félrevezetésnek,
08:54
manipulation, and, of course, corruption.
172
534020
3400
a manipulációnak és persze a korrupciónak.
08:57
When AI erodes truth,
173
537940
2920
Amikor az MI lerombolja az igazságot,
09:00
it erodes trust,
174
540860
2000
tönkreteszi a bizalmat,
09:02
and it undermines our democracy.
175
542860
2240
és aláássa demokráciánkat is,
09:05
And for me, in my experience with a deepfake,
176
545500
3760
tapasztaltam, hogy az aljas hamisítás
09:09
I've seen what a fantastic distortion tool that deepfakes really are.
177
549260
4960
milyen alávaló torzító eszköz.
09:14
So how can we safeguard democracy from this ever-advancing technology?
178
554220
5080
Hogyan védhetjük meg a demokráciát ettől a folyton fejlődő technológiától?
09:19
It's becoming ever harder to distinguish between real and synthetic content.
179
559620
4960
Egyre nehezebb megkülönböztetni a valódi és a koholt tartalmat.
09:24
And politically, what role does AI play in the future?
180
564620
4160
Politikailag milyen szerepet játszik az MI a jövőben?
09:28
And I can't talk about politics without talking about media as well.
181
568820
4080
A politikáról szólva a médiáról is beszélnünk kell.
09:32
They're undeniably linked, they're intertwined.
182
572900
2360
Tagadhatatlanul összefonódnak egymással.
09:35
And I think journalism has its own battle here as well.
183
575300
3600
Az újságírásnak itt is megvan a maga harca.
09:39
From AI algorithms boosting articles unfairly
184
579220
3600
Az MI algoritmusoktól kezdve cikkek tisztességtelen reklámozásán át
09:42
to clickbait headlines,
185
582860
1520
kattintásvadász főcímekig
09:44
and then also moments where they can manipulate the public as well.
186
584420
4800
s a nyilvánosság manipulálásáig bezárólag.
09:49
But politically speaking,
187
589220
1240
De politikai szempontból látható,
09:50
we've seen AI-tailored political messaging
188
590500
3000
hogy az MI-vel készült politikai üzenetek
09:53
influencing voters,
189
593540
1160
befolyásolják a szavazókat,
09:54
we’ve seen it adding to existing bias.
190
594740
3240
ami még inkább növeli az elfogultságot.
09:58
And definitely I think we all have that aunt that’s on Facebook
191
598020
2960
Bizonyosan mindannyiunknak van
10:00
and kind of believes anything.
192
600980
1840
nénikénk a Facebookon, aki mindent elhisz.
10:02
So for me, as a politician,
193
602860
1440
Politikusként nekem fontos,
10:04
I think it's really important we dive a little deeper
194
604340
2480
hogy egy kissé jobban elmélyüljünk
10:06
into the relationship of AI, journalism and media.
195
606820
3880
az MI, az újságírás és a média kapcsolatában.
10:11
But it also puts us at risk
196
611220
1840
De ezzel azt is kockáztatjuk,
10:13
of creating a more divided and reactionary society,
197
613100
4000
hogy még megosztottabb és reakciósabb társadalmat hozunk létre,
10:17
because falsehoods can create a lot of reaction.
198
617140
3000
mert a hazugságok sok reakciót válthatnak ki.
10:20
And for myself, coming from Northern Ireland,
199
620140
2320
Nekem mint észak-írországinak
10:22
which is that post-conflict society,
200
622500
2320
vagyis konfliktus utáni társadalomból származónak,
10:24
I do have concerns about how it could shape our political landscape
201
624860
3960
aggodalmaim vannak, hogy ez miként alakítja politikai helyzetünket
10:28
and other places across the globe.
202
628820
2320
és más helyeket világszerte.
10:32
Sadly, this deepfake video
203
632060
2320
Nem ez a hamisított videó az egyetlen példa rá,
10:34
is not the only instance of me having experienced abuse with AI.
204
634380
5400
hogy visszaélést tapasztaltam az MI-vel.
10:39
Just six months ago,
205
639780
1280
Alig hat hónapja
10:41
I received 15 deepfake images of myself in lingerie
206
641100
5400
15 hamisított képet kaptam magamról fehérneműben.
10:46
posing provocatively.
207
646540
1640
Kihívóan pózolok rajtuk.
10:48
And I thought to myself, here we go again.
208
648620
3240
Már megint itt tartunk!
10:52
And you know, I spoke with some other female politicians.
209
652460
3720
Beszéltem pár politikusnővel.
10:56
Thankfully, where I represent, we have more women getting into politics.
210
656980
4280
Körzetemben szerencsére sok nő vállal politikai szerepet.
11:01
But I had a really good conversation with them,
211
661300
2200
Jót beszélgettem velük:
11:03
and it’s around, if this is happening to you now,
212
663500
2320
ha most ez történik velünk,
11:05
what happens to me tomorrow?
213
665860
1760
mi lesz velünk holnap?
11:07
And I think this really strikes at the heart of the climate of fear
214
667660
3960
A félelem légkörét teremti meg,
11:11
that AI can create for those in public life.
215
671660
3840
hogy a közéletben dolgozókról az MI ilyeneket képes létrehozni.
11:15
And I don't blame women.
216
675500
1160
Nem a nőket hibáztatom.
11:16
It's very sad.
217
676700
1160
Nagyon szomorú.
11:17
I don't blame women for not wanting to get into politics
218
677860
2640
Nem hibáztatom őket azért, hogy nem akarnak politizálni,
11:20
when they see this kind of technology come forward,
219
680540
2400
amikor effajta technológiát látnak,
11:22
so that's so important that we safeguard it.
220
682940
2480
amely annyira fontos, hogy megóvjuk.
11:25
What also concerned me was the position of elderly voters
221
685420
4680
Engem is aggaszt az idős szavazók álláspontja
11:30
and perhaps their media literacy,
222
690100
1880
és talán médiaműveltségük,
11:32
their comprehension of this technology.
223
692020
2200
a technológia-ismerete.
11:34
People who don't use the internet,
224
694260
2120
Akik nem használják az internetet,
11:36
who perhaps are not aware of AI and its many, many uses.
225
696420
3920
akik talán az MI-vel és sok-sok felhasználásával nincsenek tisztában.
11:40
So that was really concerning as well.
226
700340
2400
Ez is ijesztő volt.
11:43
But it doesn't have to be this way.
227
703060
1800
De ennek nem kell így lennie.
11:44
We can be part of the change.
228
704900
1760
Változtathatunk.
11:47
For me and my video,
229
707260
1920
Mind a mai napig fogalmam sincs,
11:49
I still don't know, to this day, who did this.
230
709220
3520
ki hamisította rólam azt a videót.
11:52
I can imagine why they did it, but I don't know who did it.
231
712780
3400
Sejtem, miért tette, de nem tudom, hogy ki.
11:56
And sadly for me and for across the globe,
232
716180
3200
Sajnos számomra és az egész világ számára
11:59
it still wouldn't be considered a crime.
233
719420
2920
ez nem tekinthető bűncselekménynek.
12:03
So from being the enemy of fair, transparent,
234
723260
2840
A tisztességes, átlátható, jóindulatú politika ellenségétől a háborúig,
12:06
good-natured politics,
235
726100
1600
a nemzetközi beavatkozásig,
12:07
to warfare, to international interference,
236
727740
3240
szépsége és lehetőségei ellenére
12:11
despite its beauty and its potential,
237
731020
2880
az MI továbbra is aggodalomra ad okot.
12:13
AI is still a cause for concern.
238
733940
2880
12:16
But it doesn't have to be this way.
239
736820
2080
De ennek nem kell így lennie.
12:19
I feel passionately that AI can be a humanistic technology
240
739260
3720
Szenvedélyesen hiszem,
hogy az MI emberi értékű humanista technológia lehet,
12:23
with human values
241
743020
1560
12:24
that complements the lives that we live
242
744620
2640
amely teljessé teszi életünket,
12:27
to make us the very best versions of ourselves.
243
747300
3440
hogy önmagunk legjobb változatává váljunk.
12:31
But to do that,
244
751100
1560
De ehhez az etikát be kell illesztenünk a technológiába,
12:32
I think we need to embed ethics into this technology,
245
752700
3920
meg kell szüntetnünk az elfogultságot,
12:36
to eliminate bias, to install empathy
246
756620
4160
szükség van az empátiára, és gondoskodnunk kell arról,
12:40
and make sure it is aligned with human values and human principles.
247
760820
4760
hogy összhangban legyen az emberi értékekkel és elvekkel.
12:45
Who knows, our democracy could depend on it.
248
765900
3400
Talán demokráciánk függhet tőle.
12:49
And today I know we have some of the brightest minds in this room.
249
769300
3840
Tudom, hogy a legfényesebb elmék vannak a teremben.
12:53
I heard some of the talks earlier, and I'm certain of that.
250
773180
4120
Korábbi beszélgetések alapján ebben biztos vagyok.
12:57
And I know each and every one of you have weight on your shoulders
251
777340
3120
Tudom, hogy mindannyiójuk vállán nagy a teher,
13:00
when looking to the future.
252
780500
1680
amikor a jövőbe tekintenek.
13:02
But I also know each and every one of you want to see this tech for good.
253
782220
5400
De azt is, hogy mindenki szeretné, ha az MI-technológiát jóra használnák.
13:07
And what gives me hope
254
787980
1800
Reménnyel tölt el
13:09
is witnessing the movement right across the globe
255
789780
3320
a mozgalom szemtanújának lenni világszerte,
13:13
to see this hard journey begin,
256
793140
2800
hogy megkezdődjön a folyamat,
13:15
to regulate this ever-advancing technology,
257
795940
2840
amely szabályozza ezt az állandóan fejlődő technológiát,
13:18
which can be used for bad or for good.
258
798780
3000
amely rosszra vagy jóra is használható.
13:22
But perhaps we, each and every one of us in this room,
259
802140
3720
De talán mi mindannyian ebben a teremben
13:25
can be part of finding the solution.
260
805860
2360
részesei lehetünk a megoldás megtalálásának.
13:28
(Applause)
261
808860
2200
(Taps)
Erről a weboldalról

Ez az oldal olyan YouTube-videókat mutat be, amelyek hasznosak az angol nyelvtanuláshoz. A világ minden tájáról származó, kiváló tanárok által tartott angol leckéket láthatsz. Az egyes videók oldalán megjelenő angol feliratokra duplán kattintva onnan játszhatja le a videót. A feliratok a videó lejátszásával szinkronban gördülnek. Ha bármilyen észrevétele vagy kérése van, kérjük, lépjen kapcsolatba velünk ezen a kapcsolatfelvételi űrlapon.

https://forms.gle/WvT1wiN1qDtmnspy7