How a Deepfake Almost Ruined My Political Career | Cara Hunter | TED

40,352 views ・ 2024-12-18

TED


אנא לחץ פעמיים על הכתוביות באנגלית למטה כדי להפעיל את הסרטון.

תרגום: zeeva livshitz
00:03
This talk contains mature language
0
3620
3720
השיחה הזו מכילה שפה בוגרת
00:08
“You’re a little whore,
1
8700
1840
"את זונה קטנה,
00:10
and we've all seen your little video."
2
10540
2560
וכולנו ראינו את הסרטון הקטן שלך."
00:14
That was the text message that was sent to me in April of 2022.
3
14300
5280
זו הייתה הודעת הטקסט שנשלחה אלי באפריל 2022.
00:20
I'm sitting in my grandmother's living room
4
20300
2480
אני יושבת בסלון של סבתי
00:22
in what is her 90th birthday,
5
22820
2640
ביום הולדתה ה -90,
00:25
surrounded by family and friends
6
25460
2360
מוקפת במשפחה וחברים
00:27
as my phone blows up with messages from strangers
7
27820
4480
כשהטלפון שלי מתפוצץ בהודעות של זרים
00:32
right across the country
8
32300
1840
ברחבי הארץ
00:34
who say they have seen a video of me
9
34140
3160
שאומרים שהם ראו סרטון שבו אני
00:37
engaging in hardcore pornographic activity with a man.
10
37340
4720
עוסקת בפעילות פורנוגרפית קשה עם גבר.
00:42
I knew this was impossible.
11
42740
1600
ידעתי שזה בלתי אפשרי.
00:44
With just three weeks out from my election,
12
44900
2000
לאחר שלושה שבועות בלבד מהבחירות שלי,
00:46
I felt as though my career was crumbling before my very eyes.
13
46940
4080
הרגשתי כאילו הקריירה שלי מתפוררת לנגד עיניי.
00:51
My heart pounded,
14
51420
1440
לבי דפק,
00:52
my mind raced, sweat beaded on my skin.
15
52860
3160
מוחי התרוצץ, זיעה התפשטה על עורי.
00:56
And then I watched the video, and my worst fear was realized.
16
56380
4880
ואז צפיתי בסרטון, והפחד הגרוע ביותר שלי התממש.
01:01
Although this woman in the video was not me,
17
61980
3560
למרות שהאישה הזו בסרטון לא הייתה אני,
01:05
she looked exactly like me.
18
65540
2720
היא נראתה בדיוק כמוני.
01:09
Impossibly like me.
19
69020
2360
באופן בלתי אפשרי כמוני.
01:11
Eerily like me.
20
71380
1200
באופן מפחיד כמוני.
01:13
I had so many questions running through my mind.
21
73140
3040
היו לי כל כך הרבה שאלות שעברו במוחי.
01:16
Was this AI?
22
76500
1360
האם זה היה AI?
01:17
Was it not?
23
77900
1280
זה לא היה?
01:19
Who made this?
24
79220
1160
מי עשה את זה?
01:20
How did they make it?
25
80420
1360
איך הם הצליחו לעשות את זה?
01:21
Why did they make it?
26
81820
1320
למה הם עשו את זה?
01:23
So I did what anyone would do,
27
83140
2360
אז עשיתי מה שכל אחד היה עושה,
01:25
and I approached my local police service to ask for advice, for guidance.
28
85500
4680
ופניתי לשירות המשטרה המקומי שלי כדי לבקש עצה, להדרכה.
01:30
And really, where did I go from there?
29
90220
2280
ובאמת, לאן הלכתי משם?
01:32
But they informed me that they wouldn't have the cybercrime technology to assist,
30
92540
4280
אבל הם הודיעו לי שלא תהיה להם טכנולוגיית פשעי הסייבר שתסייע,
01:36
to find out where this video came from.
31
96860
2240
כדי לגלות מאיפה הסרטון הזה הגיע.
01:39
And it was from that moment I knew that I was on my own.
32
99140
3520
ומאותו הרגע ידעתי שאני לבד.
עכשיו כדי להכין את הבמה, כפי שאתם בוודאי יכולים לדעת,
01:43
Now to set the stage, as you can probably tell,
33
103380
2440
01:45
I’m from Ireland,
34
105820
1240
אני מאירלנד,
01:47
and to be exact, I'm from Northern Ireland,
35
107100
2480
וליתר דיוק, אני מצפון אירלנד,
01:49
which is an even smaller place.
36
109580
2000
שהיא מקום קטן עוד יותר.
01:51
We have just 1.8 million people,
37
111620
2680
יש לנו רק 1.8 מיליון אנשים,
01:54
very similar to the size of Vienna.
38
114340
2840
דומה מאוד לגודל וינה.
01:57
So you can imagine a rumor of this sinister nature,
39
117180
3440
אז אתם יכולים לדמיין ששמועה בעלת אופי מרושע זה,
02:00
particularly in the world of politics, can go very far, very fast.
40
120620
5920
במיוחד בעולם הפוליטיקה, יכולה להגיע רחוק מאוד, מהר מאוד.
02:06
And that old saying, “seeing is believing” began to haunt me.
41
126540
4480
והאמרה הישנה ההיא, "לראות זה להאמין" החלה לרדוף אותי.
02:11
And in the weeks leading up to my election,
42
131060
2520
ובשבועות שקדמו לבחירתי,
02:13
this video, this false video,
43
133620
1920
הסרטון הזה, סרטון השקר הזה,
02:15
was shared thousands and thousands of times across WhatsApp.
44
135540
4240
שותף אלפי ואלפי פעמים בוואטסאפ.
02:20
And attached to this video was photos of me at work,
45
140260
3720
ולסרטון הזה היו מצורפות תמונות שלי בעבודה,
02:24
smiling, campaigning,
46
144020
2760
מחייכת, עושה קמפיין,
02:26
building a sense of trust with my constituents.
47
146820
2680
בונה תחושת אמון עם הבוחרים שלי.
02:29
And as the weeks went on,
48
149540
1480
וככל שחלפו השבועות,
02:31
messages flooded in faster and faster,
49
151020
3920
המסרים הציפו מהר יותר ויותר,
02:34
and they were of a very vile and sexual nature.
50
154980
3040
והם היו בעלי אופי מאוד מרושע ומיני.
02:38
Ding!
51
158340
1200
דינג!
02:39
"We've all seen your little video."
52
159540
2000
"כולנו ראינו את הסרטון הקטן שלך."
02:41
Ding!
53
161940
1120
דינג!
02:43
"You should be ashamed of yourself."
54
163100
2480
“את צריכה להתבייש בעצמך.”
02:45
Ding!
55
165620
1200
דינג!
02:46
"Ah, now I see how you got your position in politics."
56
166820
4280
"אה, עכשיו אני רואה איך קיבלת את עמדתך בפוליטיקה."
02:53
It was very difficult.
57
173100
1960
זה היה קשה מאוד.
02:55
And having been in politics since the age of 23,
58
175540
3160
ואחרי שהייתי בפוליטיקה מגיל 23,
02:58
and at this point I've been in it for about four to five years,
59
178740
3560
ובשלב הזה אני עוסקת בה כארבע עד חמש שנים,
03:02
and I'm from Northern Ireland, which is a post-conflict society,
60
182300
3280
ואני מצפון אירלנד, שהיא חברה שלאחר-סכסוך,
03:05
still very deeply divided.
61
185620
1920
עדיין מפוצלת מאוד.
03:07
So I anticipated challenges,
62
187580
2600
אז ציפיתי לאתגרים,
03:10
I anticipated disagreements,
63
190220
2600
ציפיתי לחילוקי דעות,
03:12
I even anticipated attacks, is politics after all.
64
192860
2800
אפילו ציפיתי להתקפות, זו פוליטיקה אחרי הכל.
03:16
But what I did not anticipate was this moment.
65
196100
3520
אבל מה שלא ציפיתי היה הרגע הזה.
03:19
This was different.
66
199660
1400
זה היה שונה.
03:21
This was the moment where misogyny meets the misuse of technology,
67
201060
5800
זה היה הרגע בו שנאת נשים פוגשת שימוש לרעה בטכנולוגיה,
03:26
and even had the potential to impact the outcome of a democratic election.
68
206900
5560
ואף היה לה פוטנציאל להשפיע על תוצאות הבחירות הדמוקרטיות.
03:32
And the sad thing for me was this lie became so far spread,
69
212820
5080
והדבר העצוב עבורי היה שהשקר הזה התפשט
03:37
so far, so fast,
70
217940
1840
כל כך רחוק, כל כך מהר,
03:39
that even my own family started to believe it.
71
219820
2880
שאפילו המשפחה שלי התחילה להאמין בזה.
03:42
Some would say that they'd heard it at a golf club,
72
222700
2760
יש שיגידו ששמעו את זה במועדון גולף,
03:45
others would say they heard it at the bar,
73
225500
2520
אחרים היו אומרים שהם שמעו את זה בבר,
03:48
and of course, some even said they heard it in a locker room.
74
228060
4320
וכמובן, חלקם אפילו אמרו שהם שמעו את זה בחדר ההלבשה.
03:52
A really good example of how far this went
75
232420
2480
דוגמה טובה מאוד לכמה רחוק זה הלך
03:54
was people that I knew my entire life
76
234900
2520
היו אנשים שהיכרתי שכל חיי
03:57
would pass me in the street without whispering a word.
77
237460
3000
יעברו אותי ברחוב בלי ללחוש מילה.
04:00
People like school teachers,
78
240460
1360
אנשים כמו מורים בבית ספר,
04:01
people I had a sense of trust with
79
241860
1720
אנשים שהייתה לי תחושת אמון איתם,
04:03
and, you know, an affinity with.
80
243620
2360
ואתם יודעים, זיקה איתם.
04:05
And that was really hard.
81
245980
1320
וזה היה ממש קשה.
04:07
It felt like overnight I was wearing a scarlet letter.
82
247300
3920
זה הרגיש כאילו בן לילה אני לובשת מכתב ארגמן.
04:11
And as things moved on
83
251660
1320
וככל שהדברים התקדמו
04:12
and were about two, three weeks out from the election,
84
252980
2880
והיו בערך שבועיים, שלושה שבועות מהבחירות,
04:15
I kept receiving messages, and it got wider and wider.
85
255900
3120
המשכתי לקבל הודעות, וזה נהיה רחב יותר ויותר.
04:19
It was global.
86
259060
1160
זה היה גלובלי.
04:20
Not only was I receiving messages from Dublin and from London,
87
260220
3680
לא רק שקיבלתי הודעות מדבלין ומלונדון,
04:23
but I was also receiving messages from Massachusetts, Manhattan,
88
263900
4040
אלא גם קיבלתי הודעות ממסצ’וסטס, מנהטן,
04:27
and I was getting so many follows on my political social media,
89
267940
3920
וקיבלתי כל כך הרבה עוקבים ברשתות החברתיות הפוליטיות שלי,
04:31
predominantly from men hungry for more of this scandal.
90
271900
3920
בעיקר מגברים רעבים ליותר מהשערורייה הזו.
04:35
And this intersection of online harms impacting my real life
91
275860
5120
והצומת הזה של נזקים מקוונים שהשפיעו על חיי האמיתיים
04:40
was something I found utterly strange and surreal.
92
280980
4000
היה משהו שמצאתי מוזר וסוריאליסטי לחלוטין.
04:45
But it got to the point where I was recognized on the street
93
285500
3800
אבל זה הגיע לנקודה שבה זיהו אותי ברחוב
04:49
and approached by a stranger who asked me for a sexual favor.
94
289340
6040
ופנה אליו זר שביקש ממני טובה מינית.
04:55
And it was just, for me, it was like in the blink of an eye,
95
295420
3080
וזה היה פשוט, בשבילי, זה היה כאילו כהרף עין,
04:58
everything had just changed,
96
298500
2640
הכל פשוט השתנה,
05:01
and it was utterly humiliating.
97
301140
1600
וזה היה משפיל לחלוטין.
05:02
I didn't want to leave the house,
98
302780
1680
לא רציתי לעזוב את הבית,
05:04
and I had turned notifications off in my phone
99
304460
2880
וכיביתי את ההתראות בטלפון שלי
05:07
just so I could kind of catch my breath,
100
307380
1920
רק כדי שאוכל להחזיר את נשימתי,
05:09
but this wasn't ideal in the lead up, of course, to an election.
101
309340
4280
אבל זה לא היה אידיאלי לקראת הבחירות, כמובן.
05:13
And for me, I think that was the purpose of this false video, was to do just that.
102
313620
4960
ובשבילי, אני חושבת שזו הייתה המטרה של הסרטון השקרי הזה, לעשות בדיוק את זה.
05:19
But what hurt the most for me
103
319660
2440
אבל מה שהכי כאב לי
05:22
was sitting down my father
104
322140
2720
היה להושיב את אבי
05:24
and having to explain to him this strange, surreal situation.
105
324860
5760
והייתי צריכה להסביר לו את המצב המוזר והסוריאליסטי הזה.
05:30
My father is an Irishman,
106
330620
1760
אבי הוא אירי,
05:32
completely disconnected from tech,
107
332420
2160
מנותק לחלוטין מהטכנולוגיה,
05:34
and so having to explain
108
334620
1920
ולכן הצורך להסביר
05:36
this horrific situation was an entire fabrication
109
336580
4320
את המצב הנורא הזה היה פבריקציה שלמה
05:40
was very hard to do.
110
340940
1600
היה קשה מאוד לעשות.
05:42
This was this strange moment
111
342860
2120
זה היה הרגע המוזר הזה
05:45
where the online world met my life, my reality.
112
345020
4880
שבו העולם המקוון פגש את חיי, את המציאות שלי.
05:50
Not only having the impact to ruin my reputation,
113
350460
4520
לא רק שיש לו את ההשפעה להרוס את המוניטין שלי,
05:54
but have the capacity to change the outcome
114
354980
2800
אלא שיש לו את היכולת לשנות את תוצאות
05:57
of a democratic election.
115
357820
2200
הבחירות הדמוקרטיות.
06:00
And, you know,
116
360500
1160
ואתם יודעים,
06:01
for years I spent so much time building trust with my constituents.
117
361700
4040
במשך שנים ביליתי כל כך הרבה זמן בבניית אמון עם הבוחרים שלי.
06:05
I mean, we all know how much people like politicians.
118
365780
3360
כולנו יודעים כמה אנשים אוהבים פוליטיקאים.
06:09
You know, we’re as likeable as the tax man.
119
369180
2000
אתם יודעים, אנחנו חביבים כמו איש המס.
06:11
So for me, it was hard.
120
371220
2880
אז בשבילי, זה היה קשה.
06:14
It was really hard
121
374100
1200
זה היה ממש קשה
06:15
because it was years of hard work.
122
375300
2280
כי היו שנים של עבודה קשה.
06:18
You know, I’m so passionate about my job,
123
378100
2160
אתם יודעים, אני כל כך נלהבת מהעבודה שלי,
06:20
and this video, this complete falsehood,
124
380260
2920
ולסרטון הזה, השקר המוחלט הזה,
06:23
had the ability to just undermine years of hard work in mere seconds.
125
383180
4600
היתה יכולת פשוט לערער שנים של עבודה קשה תוך שניות ספורות.
06:28
But instead of succumbing entirely to victimhood,
126
388220
3200
אבל במקום להיכנע לחלוטין לקורבנות,
06:31
I ask myself today,
127
391420
1360
אני שואלת את עצמי היום,
06:32
you know, where do we go from here?
128
392820
2280
אתם יודעים, לאן אנחנו הולכים מכאן?
06:35
And how can AI evolve to prevent something like this happening again?
129
395140
5560
ואיך AI יכול להתפתח כדי למנוע מדבר כזה לקרות שוב?
06:40
Not only has it happened to me,
130
400740
1480
לא רק שזה קרה לי,
06:42
but we want to future-proof and ensure that this doesn't happen
131
402220
3000
אלא שאנחנו רוצים להבטיח את העתיד ולהבטיח שזה לא יקרה
06:45
to the women of tomorrow.
132
405260
1760
לנשים של מחר.
06:47
How can we, you and I, people who care about people,
133
407060
4280
איך אנחנו, אתם ואני, אנשים שאכפת להם מאנשים,
06:51
ensure that this is a tech for good?
134
411380
2400
יכולים להבטיח שזו טכנולוגיה לתמיד?
06:54
How can we, the policymakers, the creators, the consumers,
135
414300
4680
איך אנחנו, קובעי המדיניות, היוצרים, הצרכנים,
06:58
ensure we regulate AI and things like social media,
136
418980
3480
יכולים להבטיח שאנחנו מסדירים את הבינה המלאכותית ודברים כמו מדיה חברתית,
07:02
putting humans and humanity at the center of artificial intelligence?
137
422500
5320
לשים את בני האדם והאנושות במרכז הבינה המלאכותית?
07:08
AI can change the world.
138
428740
2280
AI יכולה לשנות את העולם.
07:11
In fact, as we've heard today, it already has.
139
431060
2880
למעשה, כפי ששמענו היום, זה כבר קרה.
07:13
In a matter of seconds,
140
433940
1520
תוך שניות,
07:15
people who speak completely different languages
141
435460
2240
אנשים שמדברים שפות שונות לחלוטין
07:17
can connect and understand one another.
142
437700
2160
יכולים להתחבר ולהבין זה את זה.
07:19
And we've even seen the Pope as a style icon in a puffer jacket.
143
439860
3960
ואפילו ראינו את האפיפיור כסמל סגנון במעיל מתנפח.
07:24
So some really important uses right there.
144
444180
2240
אז כמה שימושים חשובים באמת שם.
07:27
But then in my case as well,
145
447220
1600
אבל אז גם במקרה שלי,
07:28
we can also see how it is weaponized against the truth.
146
448860
3440
אנחנו יכולים גם לראות איך זה נשק כנגד האמת.
07:32
And good examples of this would be art that appears like reality,
147
452620
4120
ודוגמאות טובות לכך הן אמנות שנראית כמו מציאות,
07:36
AI-generated reviews unfairly boosting certain products
148
456740
3840
ביקורות שנוצרו בבינה מלאכותית המגבירות בצורה לא הוגנת מוצרים מסוימים
07:40
and things like chatbot propaganda.
149
460580
2760
ודברים כמו תעמולת צ'אטבוט.
07:43
And then, politically speaking,
150
463340
1760
ואז, מבחינה פוליטית,
07:45
we've seen over the years deepfakes of Nancy Pelosi slurring,
151
465140
4320
ראינו במהלך השנים זיופים עמוקים של ננסי פלוסי,
07:49
Joe Biden cursing
152
469500
1480
ג’ו ביידן מקלל
07:51
and even President Zelensky
153
471020
1760
ואפילו הנשיא זלנסקי
07:52
asking his soldiers to surrender their weapons.
154
472820
3160
מבקש מחייליו למסור את נשקיהם.
07:57
So when AI is used like this, to manipulate,
155
477220
3560
אז כשמשתמשים בבינה מלאכותית כך, כדי לתמרן,
08:00
it can be a threat to our democracy.
156
480780
2960
זה יכול להוות איום על הדמוקרטיה שלנו.
08:03
And the tech is becoming so advanced
157
483740
2680
והטכנולוגיה נעשית כל כך מתקדמת
08:06
that it's hard to differentiate fact from fiction.
158
486460
3400
שקשה להבדיל בין עובדה לבדיון.
08:10
So how does AI interfere with politics?
159
490660
4000
אז איך AI מפריעה לפוליטיקה?
08:14
And for us as politicians, what should we be worried about?
160
494660
3840
ובשבילנו כפוליטיקאים, ממה עלינו לדאוג?
08:18
Could truth and democracy become shattered by AI?
161
498820
3760
האם אמת ודמוקרטיה יכולות להתנפץ על ידי AI?
08:22
Has it already?
162
502580
1320
האם זה כבר?
08:24
Well, to dive a little deeper here,
163
504300
2160
ובכן, כדי לצלול קצת יותר עמוק כאן,
08:26
I think firstly we need to talk about the concept of truth.
164
506500
3440
אני חושבת שקודם כל עלינו לדבר על מושג האמת.
08:30
Without truth, democracy collapses.
165
510300
2920
ללא אמת, הדמוקרטיה מתמוטטת.
08:33
Truth allows us to make informed decisions,
166
513700
3520
האמת מאפשרת לנו לקבל החלטות מושכלות,
08:37
it enables us to hold leaders accountable, which is very important.
167
517220
4040
היא מאפשרת לנו לתת דין וחשבון למנהיגים, וזה מאוד חשוב.
08:41
And it also allows us, as political representatives,
168
521300
3400
וזה גם מאפשר לנו, כנציגים פוליטיים,
08:44
to create a sense of trust with our citizens and our constituents.
169
524700
3840
ליצור תחושת אמון עם אזרחינו ובוחריינו.
08:49
But without that truth,
170
529020
1680
אך ללא אמת זו,
08:50
democracy is vulnerable to misinformation,
171
530740
3280
הדמוקרטיה חשופה למידע מוטעה,
08:54
manipulation, and, of course, corruption.
172
534020
3400
מניפולציות וכמובן שחיתות.
08:57
When AI erodes truth,
173
537940
2920
כאשר בינה מלאכותית שוחקת את האמת,
09:00
it erodes trust,
174
540860
2000
היא שוחקת את האמון
09:02
and it undermines our democracy.
175
542860
2240
והיא מערערת את הדמוקרטיה שלנו.
09:05
And for me, in my experience with a deepfake,
176
545500
3760
ובשבילי, מניסיוני עם דיפ-פייק,
09:09
I've seen what a fantastic distortion tool that deepfakes really are.
177
549260
4960
ראיתי איזה כלי עיוות פנטסטי שדיפ-פייקים הם באמת.
09:14
So how can we safeguard democracy from this ever-advancing technology?
178
554220
5080
אז איך נוכל להגן על הדמוקרטיה מהטכנולוגיה המתקדמת כל הזמן הזה?
09:19
It's becoming ever harder to distinguish between real and synthetic content.
179
559620
4960
זה נהיה קשה יותר להבחין בין תוכן אמיתי לסינתטי.
09:24
And politically, what role does AI play in the future?
180
564620
4160
ופוליטית, איזה תפקיד ממלאת AI בעתיד?
09:28
And I can't talk about politics without talking about media as well.
181
568820
4080
אני לא יכולה לדבר על פוליטיקה בלי לדבר גם על התקשורת.
09:32
They're undeniably linked, they're intertwined.
182
572900
2360
הם קשורים ללא ספק, הם שזורים זה בזה.
09:35
And I think journalism has its own battle here as well.
183
575300
3600
ואני חושבת שלעיתונות יש כאן גם קרב משלה.
09:39
From AI algorithms boosting articles unfairly
184
579220
3600
מאלגוריתמי AI המגבירים מאמרים בצורה לא הוגנת
09:42
to clickbait headlines,
185
582860
1520
לכותרות קְלִיקְבֵּיְט,
09:44
and then also moments where they can manipulate the public as well.
186
584420
4800
ואז גם רגעים שבהם הם יכולים לתמרן גם את הציבור.
09:49
But politically speaking,
187
589220
1240
אבל מבחינה פוליטית,
09:50
we've seen AI-tailored political messaging
188
590500
3000
ראינו הודעות פוליטיות מותאמות לבינה מלאכותית
09:53
influencing voters,
189
593540
1160
משפיעות על הבוחרים,
09:54
we’ve seen it adding to existing bias.
190
594740
3240
ראינו את זה מוסיף להטיה הקיימת.
09:58
And definitely I think we all have that aunt that’s on Facebook
191
598020
2960
ובהחלט אני חושבת שלכולנו יש את הדודה הזו שנמצאת בפייסבוק
10:00
and kind of believes anything.
192
600980
1840
ומאמינה בכל דבר.
10:02
So for me, as a politician,
193
602860
1440
אז בשבילי, כפוליטיקאית,
10:04
I think it's really important we dive a little deeper
194
604340
2480
אני חושבת שזה באמת חשוב שנצלול קצת יותר עמוק
10:06
into the relationship of AI, journalism and media.
195
606820
3880
לתוך מערכת היחסים של בינה מלאכותית, עיתונאות ומדיה.
10:11
But it also puts us at risk
196
611220
1840
אבל זה גם מעמיד אותנו בסיכון
10:13
of creating a more divided and reactionary society,
197
613100
4000
של יצירת חברה מפוצלת וריאקציונית יותר,
10:17
because falsehoods can create a lot of reaction.
198
617140
3000
מכיוון ששקר יכול ליצור הרבה תגובות.
10:20
And for myself, coming from Northern Ireland,
199
620140
2320
ולעצמי, באתי מצפון אירלנד,
10:22
which is that post-conflict society,
200
622500
2320
שהיא אותה חברה שלאחר הסכסוך,
10:24
I do have concerns about how it could shape our political landscape
201
624860
3960
יש לי חששות לגבי איך היא יכולה לעצב את הנוף הפוליטי שלנו
10:28
and other places across the globe.
202
628820
2320
ומקומות אחרים ברחבי העולם.
10:32
Sadly, this deepfake video
203
632060
2320
למרבה הצער,סרטון הדיפ-פייק הזה
10:34
is not the only instance of me having experienced abuse with AI.
204
634380
5400
הוא לא המקרה היחיד שבו חוויתי התעללות עם AI.
10:39
Just six months ago,
205
639780
1280
רק לפני חצי שנה,
10:41
I received 15 deepfake images of myself in lingerie
206
641100
5400
קיבלתי 15 תמונות דיפ-פייקיות של עצמי בהלבשה תחתונה
10:46
posing provocatively.
207
646540
1640
שמתייצבת באופן פרובוקטיבי.
10:48
And I thought to myself, here we go again.
208
648620
3240
וחשבתי לעצמי, הנה אנחנו מתחילים שוב.
10:52
And you know, I spoke with some other female politicians.
209
652460
3720
ואתם יודעים, דיברתי עם כמה פוליטיקאיות אחרות.
10:56
Thankfully, where I represent, we have more women getting into politics.
210
656980
4280
למרבה המזל, במקום שאני מייצגת, יש לנו יותר נשים שנכנסות לפוליטיקה.
11:01
But I had a really good conversation with them,
211
661300
2200
אבל הייתה לי שיחה ממש טובה איתם,
11:03
and it’s around, if this is happening to you now,
212
663500
2320
וזה מסביב, אם זה קורה לך עכשיו,
11:05
what happens to me tomorrow?
213
665860
1760
מה יקרה לי מחר?
11:07
And I think this really strikes at the heart of the climate of fear
214
667660
3960
ואני חושבת שזה באמת פוגע בלב אקלים הפחד
11:11
that AI can create for those in public life.
215
671660
3840
שהבינה המלאכותית יכולה ליצור עבור אלה בחיים הציבוריים.
11:15
And I don't blame women.
216
675500
1160
ואני לא מאשימה נשים.
11:16
It's very sad.
217
676700
1160
זה מאוד עצוב.
11:17
I don't blame women for not wanting to get into politics
218
677860
2640
אני לא מאשימה נשים שלא רוצות להיכנס לפוליטיקה
11:20
when they see this kind of technology come forward,
219
680540
2400
כשהן רואות טכנולוגיה מסוג זה מתפתחת,
11:22
so that's so important that we safeguard it.
220
682940
2480
אז זה כל כך חשוב שנגן עליה.
11:25
What also concerned me was the position of elderly voters
221
685420
4680
מה שהדאיג אותי היה גם עמדתם של הבוחרים המבוגרים
11:30
and perhaps their media literacy,
222
690100
1880
ואולי אוריינות המדיה שלהם,
11:32
their comprehension of this technology.
223
692020
2200
הבנתם את הטכנולוגיה הזו.
11:34
People who don't use the internet,
224
694260
2120
אנשים שאינם משתמשים באינטרנט,
11:36
who perhaps are not aware of AI and its many, many uses.
225
696420
3920
שאולי אינם מודעים ל- AI ולשימושים הרבים מאוד שלה.
11:40
So that was really concerning as well.
226
700340
2400
אז זה היה ממש מדאיג גם כן.
11:43
But it doesn't have to be this way.
227
703060
1800
אבל זה לא חייב להיות ככה.
11:44
We can be part of the change.
228
704900
1760
אנחנו יכולים להיות חלק מהשינוי.
11:47
For me and my video,
229
707260
1920
מבחינתי והסרטון שלי,
11:49
I still don't know, to this day, who did this.
230
709220
3520
אני עדיין לא יודעת, עד היום, מי עשה את זה.
11:52
I can imagine why they did it, but I don't know who did it.
231
712780
3400
אני יכולה לדמיין למה הם עשו את זה, אבל אני לא יודעת מי עשה את זה.
11:56
And sadly for me and for across the globe,
232
716180
3200
ולמרבה הצער עבורי ועבור כל העולם,
11:59
it still wouldn't be considered a crime.
233
719420
2920
זה עדיין לא ייחשב לפשע.
12:03
So from being the enemy of fair, transparent,
234
723260
2840
אז מהיותה האויב של פוליטיקה הוגנת, שקופה
12:06
good-natured politics,
235
726100
1600
וטובה,
12:07
to warfare, to international interference,
236
727740
3240
ועד לוחמה, להתערבות בינלאומית,
12:11
despite its beauty and its potential,
237
731020
2880
למרות היופי והפוטנציאל שלה,
12:13
AI is still a cause for concern.
238
733940
2880
בינה מלאכותית עדיין מהווה סיבה לדאגה.
12:16
But it doesn't have to be this way.
239
736820
2080
אבל זה לא חייב להיות ככה.
12:19
I feel passionately that AI can be a humanistic technology
240
739260
3720
אני מרגישה בלהט ש- AI יכולה להיות טכנולוגיה הומניסטית
12:23
with human values
241
743020
1560
עם ערכים אנושיים
12:24
that complements the lives that we live
242
744620
2640
שמשלימה את החיים שאנו חיים
12:27
to make us the very best versions of ourselves.
243
747300
3440
כדי להפוך אותנו לגרסאות הטובות ביותר של עצמנו.
12:31
But to do that,
244
751100
1560
אבל כדי לעשות זאת,
12:32
I think we need to embed ethics into this technology,
245
752700
3920
אני חושבת שאנחנו צריכים להטמיע אתיקה בטכנולוגיה הזו,
12:36
to eliminate bias, to install empathy
246
756620
4160
לחסל הטיה, להתקין אמפתיה
12:40
and make sure it is aligned with human values and human principles.
247
760820
4760
ולוודא שהיא תואמת לערכים אנושיים ועקרונות אנושיים.
12:45
Who knows, our democracy could depend on it.
248
765900
3400
מי יודע, הדמוקרטיה שלנו יכולה להיות תלויה בזה.
12:49
And today I know we have some of the brightest minds in this room.
249
769300
3840
והיום אני יודעת שיש לנו כמה מהמוחות המבריקים בחדר הזה.
12:53
I heard some of the talks earlier, and I'm certain of that.
250
773180
4120
שמעתי כמה מהשיחות מוקדם יותר, ואני בטוחה בזה.
12:57
And I know each and every one of you have weight on your shoulders
251
777340
3120
ואני יודעת שלכל אחד ואחד מכם יש משקל על הכתפיים
13:00
when looking to the future.
252
780500
1680
כשמסתכלים על העתיד.
13:02
But I also know each and every one of you want to see this tech for good.
253
782220
5400
אבל אני גם יודעת שכל אחד ואחד מכם רוצה לראות את הטכנולוגיה הזו לתמיד.
13:07
And what gives me hope
254
787980
1800
ומה שנותן לי תקווה
13:09
is witnessing the movement right across the globe
255
789780
3320
הוא לראות את התנועה ברחבי העולם
13:13
to see this hard journey begin,
256
793140
2800
כדי לראות את המסע הקשה הזה מתחיל,
13:15
to regulate this ever-advancing technology,
257
795940
2840
כדי להסדיר את הטכנולוגיה המתקדמת הזו,
13:18
which can be used for bad or for good.
258
798780
3000
שיכולה לשמש לרע או לטוב.
13:22
But perhaps we, each and every one of us in this room,
259
802140
3720
אבל אולי אנחנו, כל אחד ואחד מאיתנו בחדר הזה,
13:25
can be part of finding the solution.
260
805860
2360
יכולים להיות חלק ממציאת הפתרון.
13:28
(Applause)
261
808860
2200
(מחיאות כפיים)
על אתר זה

אתר זה יציג בפניכם סרטוני YouTube המועילים ללימוד אנגלית. תוכלו לראות שיעורי אנגלית המועברים על ידי מורים מהשורה הראשונה מרחבי העולם. לחץ פעמיים על הכתוביות באנגלית המוצגות בכל דף וידאו כדי להפעיל את הסרטון משם. הכתוביות גוללות בסנכרון עם הפעלת הווידאו. אם יש לך הערות או בקשות, אנא צור איתנו קשר באמצעות טופס יצירת קשר זה.

https://forms.gle/WvT1wiN1qDtmnspy7