When AI Can Fake Reality, Who Can You Trust? | Sam Gregory | TED

131,836 views ・ 2023-12-26

TED


אנא לחץ פעמיים על הכתוביות באנגלית למטה כדי להפעיל את הסרטון.

תרגום: zeeva livshitz עריכה: aknv tso
00:03
It's getting harder, isn't it, to spot real from fake,
0
3583
3879
נכון שנעשה קשה יותר להבחין בין אמיתי למזויף?
00:07
AI-generated from human-generated.
1
7504
2252
בין מעשה בינה מלאכותית לבין מעשה אדם?
בעזרת בינה מלאכותית יוצרת,
00:10
With generative AI,
2
10340
1126
00:11
along with other advances in deep fakery,
3
11508
2419
לצד פיתוחים אחרים במלאכת הזיוף העמוק,
00:13
it doesn't take many seconds of your voice,
4
13969
2252
די בדגימה קצרה של הקול שלכם,
00:16
many images of your face,
5
16263
1459
ובמספר תמונות של פניכם,
00:17
to fake you,
6
17764
1251
כדי לזייף אתכם,
ובמידה הולכת וגדולה של ריאליזם.
00:19
and the realism keeps increasing.
7
19015
2628
00:21
I first started working on deepfakes in 2017,
8
21685
3086
התחלתי לעבוד לראשונה על דיפ-פייק בשנת 2017,
00:24
when the threat to our trust in information was overhyped,
9
24813
3962
כשהאיום על האמון שלנו במידע תואר בהגזמה,
00:28
and the big harm, in reality, was falsified sexual images.
10
28775
3670
בעוד שהנזק הגדול, במציאות, היו צילומים מיניים מזויפים.
00:32
Now that problem keeps growing, harming women and girls worldwide.
11
32904
4171
כיום, הבעיה הזו ממשיכה לגדול, ופוגעת בנשים ונערות בעולם כולו.
00:38
But also, with advances in generative AI, we're now also approaching a world
12
38159
4713
אבל עם ההתקדמות בבינה מלאכותית היוצרת, אנו מתקרבים כעת גם לעולם
00:42
where it's broadly easier to make fake reality,
13
42872
3462
שבו קל בהרבה ליצור מציאות מזויפת,
00:46
but also to dismiss reality as possibly faked.
14
46376
3879
אך גם לפטור את המציאות עצמה כמזויפת.
00:50
Now, deceptive and malicious audiovisual AI
15
50755
3420
בינה מלאכותית אורקולית מטעה וזדונית
00:54
is not the root of our societal problems,
16
54217
2669
אינה שורש בעיותינו החברתיות,
00:56
but it's likely to contribute to them.
17
56928
2252
אך סביר להניח שהיא תחמיר אותן.
00:59
Audio clones are proliferating in a range of electoral contexts.
18
59180
4213
שיבוטי השמע הולכים ומתרבים במגוון הקשרי בחירות.
01:03
"Is it, isn't it" claims cloud human-rights evidence from war zones,
19
63435
5130
טענות של “זה נכון, לא?” מעמיד בצל הוכחות להפרת זכויות אדם מאזורי מלחמה,
01:08
sexual deepfakes target women in public and in private,
20
68565
4129
זיופים מיניים מטרגטים נשים בפומבי ובאופן פרטי,
01:12
and synthetic avatars impersonate news anchors.
21
72736
3336
ואווטרים מלאכותיים מתחזים למגישי חדשות .
01:16
I lead WITNESS.
22
76656
1460
אני ראש “וויטנס“.
אנו קבוצה להגנת זכויות אדם
01:18
We're a human-rights group
23
78116
1376
01:19
that helps people use video and technology to protect and defend their rights.
24
79492
3671
שעוזרת לאנשים להשתמש בווידאו ובטכנולוגיה כדי לשמור ולהגן על זכויותיהם.
ובחמש השנים האחרונות תיאמנו מאמץ עולמי,
01:23
And for the last five years, we've coordinated a global effort,
25
83163
3003
“להתכונן ולא להיבהל“,
01:26
"Prepare, Don't Panic,"
26
86333
1167
01:27
around these new ways to manipulate and synthesize reality,
27
87500
3045
סביב הדרכים החדשות הללו לתמרן ולסנתז את המציאות,
01:30
and on how to fortify the truth
28
90587
2377
ולבצר את האמת
01:32
of critical frontline journalists and human-rights defenders.
29
92964
3420
של עיתונאים ביקורתיים ומגיני זכויות-אדם שבחזית.
01:37
Now, one element in that is a deepfakes rapid-response task force,
30
97218
5423
מרכיב אחד הוא כוח משימה לתגובה מהירה נגד זיוף עמוק,
01:42
made up of media-forensics experts
31
102641
2127
המורכב ממומחים וחברות לזיהוי פלילי במדיה
01:44
and companies who donate their time and skills
32
104768
2168
שתורמים את זמנם וכישוריהם
01:46
to debunk deepfakes and claims of deepfakes.
33
106978
3087
כדי להפריך זיופים עמוקים וטענות לזיופים עמוקים.
01:50
The task force recently received three audio clips,
34
110899
3211
צוות המשימה קיבל לאחרונה שלושה קטעי שמע,
01:54
from Sudan, West Africa and India.
35
114110
2670
מסודן, מערב אפריקה והודו.
01:57
People were claiming that the clips were deepfaked, not real.
36
117155
3879
הטענה היתה שקטעים הם זיופים עמוקים ולא-אמיתיים.
02:01
In the Sudan case,
37
121451
1210
במקרה של סודן,
02:02
experts used a machine-learning algorithm
38
122702
2002
מומחים השתמשו באלגוריתם למידת מכונה
02:04
trained on over a million examples of synthetic speech
39
124746
2628
שאומן עם למעלה ממיליון דוגמאות של דיבור מלאכותי
02:07
to prove, almost without a shadow of a doubt,
40
127374
2294
כדי להוכיח, כמעט ללא צל של ספק,
02:09
that it was authentic.
41
129709
1335
שהקטע אותנטי.
02:11
In the West Africa case,
42
131586
1835
במקרה של מערב אפריקה,
02:13
they couldn't reach a definitive conclusion
43
133463
2002
הם לא הצליחו להגיע למסקנה חד-משמעית
02:15
because of the challenges of analyzing audio from Twitter,
44
135507
2794
בגלל הקשיים של ניתוח שמע מ“טוויטר”
02:18
and with background noise.
45
138301
1752
כולל רעשי הרקע.
02:20
The third clip was leaked audio of a politician from India.
46
140095
3712
הקטע השלישי הודלף כהקלטה של פוליטיקאי מהודו.
02:23
Nilesh Christopher of “Rest of World” brought the case to the task force.
47
143848
3796
נילש כריסטופר מהאתר “שאר העולם” הביא את המקרה לכוח המשימה.
02:27
The experts used almost an hour of samples
48
147644
2961
המומחים השתמשו כמעט בשעה של דגימות
02:30
to develop a personalized model of the politician's authentic voice.
49
150605
3879
לפיתוח מודל מותאם אישית של קולו המקורי של הפוליטיקאי.
02:35
Despite his loud and fast claims that it was all falsified with AI,
50
155151
4380
למרות טענותיו הקולניות והמהירות שהכל זוייף בבינה מלאכותית,
02:39
experts concluded that it at least was partially real, not AI.
51
159572
4255
המומחים הסיקו שזה אמיתי לפחות חלקית, ולא בינה מלאכותית.
02:44
As you can see,
52
164369
1335
כפי שאתם רואים,
02:45
even experts cannot rapidly and conclusively separate true from false,
53
165745
5089
אפילו מומחים אינם יכולים להבדיל במהירות ובפסקנות בין אמת לשקר,
02:50
and the ease of calling "that's deepfaked" on something real
54
170875
4421
והקלות לתייג משהו אמיתי כ“דיפ-פייק”
02:55
is increasing.
55
175296
1168
הולכת וגוברת.
02:57
The future is full of profound challenges,
56
177132
2002
העתיד מלא באתגרים קשים,
02:59
both in protecting the real and detecting the fake.
57
179175
3420
הן בהגנה על האמיתי והן בגילוי הזיוף.
03:03
We're already seeing the warning signs
58
183888
1919
אנו כבר רואים את סימני האזהרה לאתגר זה
03:05
of this challenge of discerning fact from fiction.
59
185807
2711
של הבחנה בין עובדה לבדיון.
03:08
Audio and video deepfakes have targeted politicians,
60
188560
3128
זיופי שמע ווידאו התמקדו בפוליטיקאים,
03:11
major political leaders in the EU, Turkey and Mexico,
61
191688
3587
מנהיגים פוליטיים חשובים באיחוד האירופי, בטורקיה ובמקסיקו,
03:15
and US mayoral candidates.
62
195316
1710
ובמועמדים לראשות ערים בארה“ב.
03:17
Political ads are incorporating footage of events that never happened,
63
197444
3503
בפרסומים פוליטיים מופיעים צילומים של אירועים שלא התרחשו,
03:20
and people are sharing AI-generated imagery from crisis zones,
64
200947
4546
ואנשים משתפים תמונות תוצרת בינה מלאכותית מאזורי משבר,
03:25
claiming it to be real.
65
205535
1418
בטענה שהן אמיתיות.
03:27
Now, again, this problem is not entirely new.
66
207454
3211
שוב, בעיה זו אינה חדשה לגמרי.
03:31
The human-rights defenders and journalists I work with
67
211207
2628
מגיני זכויות האדם והעיתונאים איתם אני עובד
03:33
are used to having their stories dismissed,
68
213835
2794
רגילים לכך שפוטרים את סיפוריהם,
03:36
and they're used to widespread, deceptive, shallow fakes,
69
216671
3462
והם רגילים לזיופים נרחבים, מטעים, רדודים,
03:40
videos and images taken from one context or time or place
70
220175
3670
לסרטונים ותמונות שצולמו בהקשר או בזמן מסוימים
03:43
and claimed as if they're in another,
71
223887
2460
ושמוצגים בהקשר וזמן אחרים,
03:46
used to share confusion and spread disinformation.
72
226347
3129
שמטרתם לפזר בלבול ולהפיץ מידע מסולף.
03:49
And of course, we live in a world that is full of partisanship
73
229934
3170
וכמובן, אנו חיים בעולם מלא במפלגתיות
03:53
and plentiful confirmation bias.
74
233146
2127
ובשפע של הטיית אישור.
03:57
Given all that,
75
237317
1209
בהינתן כל זה,
03:58
the last thing we need is a diminishing baseline
76
238526
3045
הדבר האחרון שנחוץ לנו הוא התמעטות הבסיס המשותף
04:01
of the shared, trustworthy information upon which democracies thrive,
77
241613
3962
של המידע המופץ והאמין שעליו משגשגות דמוקרטיות,
04:05
where the specter of AI
78
245617
1418
שבו תעתוע הבינה המלאכותית
04:07
is used to plausibly believe things you want to believe,
79
247076
3462
מנוצל כדי שנאמין במידה סבירה בדברים שנרצה להאמין בהם,
04:10
and plausibly deny things you want to ignore.
80
250538
2336
ולהתכחש במידה סבירה לדברים שנרצה להתעלם מהם.
04:15
But I think there's a way we can prevent that future,
81
255084
2628
אבל אני חושב שיש דרך למנוע את העתיד הזה,
04:17
if we act now;
82
257754
1501
אם נפעל עכשיו;
04:19
that if we "Prepare, Don't Panic,"
83
259255
2211
וזה אם “נתכונן ולא ניבהל“,
04:21
we'll kind of make our way through this somehow.
84
261508
3253
נצליח איכשהו לפלס את דרכנו.
04:25
Panic won't serve us well.
85
265929
2627
הבהלה לא תועיל לנו.
04:28
[It] plays into the hands of governments and corporations
86
268681
2711
זה מועיל לממשלות ותאגידים
04:31
who will abuse our fears,
87
271392
1669
שינצלו לרעה את פחדינו,
04:33
and into the hands of people who want a fog of confusion
88
273102
3045
ולאנשים שערפל של בלבול רצוי להם
04:36
and will use AI as an excuse.
89
276147
2461
ושישתמשו בבינה המלאכותית כתירוץ.
04:40
How many people were taken in, just for a minute,
90
280610
2419
כמה אנשים האמינו לרגע,
04:43
by the Pope in his dripped-out puffer jacket?
91
283029
2336
לתמונת האפיפיור במעיל הנפוח שלו? (צחוק)
04:45
You can admit it.
92
285406
1168
אתם יכולים להודות בזה.
04:46
(Laughter)
93
286574
1210
04:47
More seriously,
94
287784
1209
וחמור יותר,
04:49
how many of you know someone who's been scammed
95
289035
2503
כמה מכם מכירים מישהו שנפל קורבן להונאה
04:51
by an audio that sounds like their kid?
96
291579
2044
של קטע שמע שמזכיר את הילד שלו?
04:54
And for those of you who are thinking "I wasn't taken in,
97
294624
2920
ולאלה מכם שחושבים “לא הצליחו לעבוד עלי,
04:57
I know how to spot a deepfake,"
98
297544
1584
“אני יודע לזהות דיפ-פייק“,
04:59
any tip you know now is already outdated.
99
299170
3003
כל טיפ שאתם מכירים כיום כבר מיושן.
05:02
Deepfakes didn't blink, they do now.
100
302757
2544
בזיופים העמוקים לא היו מצמוצים. עכשיו יש בהם.
ידיים עם שש אצבעות היו נפוצות יותר בארץ דיפ-פייק מאשר בחיים האמיתיים --
05:06
Six-fingered hands were more common in deepfake land than real life --
101
306177
3587
05:09
not so much.
102
309806
1126
זה כבר לא כך.
05:11
Technical advances erase those visible and audible clues
103
311307
3754
ההתקדמות הטכנית מוחקת את הרמזים הגלויים והשמיעים
05:15
that we so desperately want to hang on to
104
315061
2002
שאנו כל-כך רוצים להיאחז בהם
כהוכחות לכך שביכולתנו להבחין בין האמיתי למזויף.
05:17
as proof we can discern real from fake.
105
317105
2252
05:20
But it also really shouldn’t be on us to make that guess without any help.
106
320191
4713
אבל אנו גם באמת לא אמורים לעסוק בניחושים בלי שום עזרה.
05:24
Between real deepfakes and claimed deepfakes,
107
324946
2127
בין זיופים עמוקים אמיתיים לבין זיופים עמוקים לכאורה,
אנו זקוקים לפתרונות מבניים שמתחשבים בתמונה המלאה.
05:27
we need big-picture, structural solutions.
108
327073
2961
05:30
We need robust foundations
109
330034
1502
אנו זקוקים ליסודות מוצקים
05:31
that enable us to discern authentic from simulated,
110
331578
3128
שיאפשרו לנו להבחין בין אותנטי לבין מדומה,
05:34
tools to fortify the credibility of critical voices and images,
111
334747
3921
לכלים שיחזקו את אמינותם של קולות ותמונות ביקורתיים,
05:38
and powerful detection technology
112
338668
2336
ולטכנולוגיית זיהוי רבת-עוצמה
05:41
that doesn't raise more doubts than it fixes.
113
341045
2670
שלא מעוררת יותר ספקות מאשר מתקנת.
05:45
There are three steps we need to take to get to that future.
114
345091
3045
יש שלושה שלבים שעלינו לנקוט כדי להגיע לעתיד הזה.
05:48
Step one is to ensure that the detection skills and tools
115
348887
3712
השלב הראשון הוא להבטיח שכישורי ואמצעי הגילוי
05:52
are in the hands of the people who need them.
116
352599
2168
מגיעים לידי מי שזקוקים להם.
05:54
I've talked to hundreds of journalists,
117
354767
2253
שוחחתי עם מאות עיתונאים, מנהיגי קהילה ומגיני זכויות אדם,
05:57
community leaders and human-rights defenders,
118
357020
2252
05:59
and they're in the same boat as you and me and us.
119
359272
2919
והם באותה סירה איתכם ואיתי ואיתנו.
הם מאזינים בקפידה לקטעי שמע ומנסים לחשוב, “האם זה פספוס?”
06:02
They're listening to the audio, trying to think, "Can I spot a glitch?"
120
362191
3421
06:05
Looking at the image, saying, "Oh, does that look right or not?"
121
365612
3295
מסתכלים על התמונה ותוהים, “זה נראה נכון או לא?”
06:08
Or maybe they're going online to find a detector.
122
368907
3336
או שהם נכנסים לאינטרנט כדי למצוא תוכנת זיהוי.
06:12
And the detector they find,
123
372285
1335
ותוכנת הזיהוי שהם מוצאים --
06:13
they don't know whether they're getting a false positive, a false negative,
124
373661
3545
הם לא יודעים אם הם מקבלים תוצאה חיובית שגויה, שלילית שגויה
או תוצאה אמינה.
06:17
or a reliable result.
125
377248
1251
06:18
Here's an example.
126
378541
1168
הנה דוגמה.
06:19
I used a detector, which got the Pope in the puffer jacket right.
127
379751
3712
השתמשתי בתוכנת זיהוי שידעה להלביש נכון את האפיפיור במעיל.
06:23
But then, when I put in the Easter bunny image that I made for my kids,
128
383796
4255
אבל כשהכנסתי את תמונת ארנב הפסחא שהכנתי לילדים שלי,
06:28
it said that it was human-generated.
129
388092
1961
נכתב שהיא נוצרה על ידי אדם.
06:30
This is because of some big challenges in deepfake detection.
130
390637
3253
הסיבה לכך היא כמה קשיים גדולים בזיהוי דיפ-פייק.
06:34
Detection tools often only work on one single way to make a deepfake,
131
394474
3295
כלי זיהוי עובדים לרוב רק על דרך אחת ליצירת דיפ-פייק,
06:37
so you need multiple tools,
132
397769
1543
כך שדרושים מספר כלים,
06:39
and they don't work well on low-quality social media content.
133
399354
4337
והם לא עובדים טוב על תוכן מדיה חברתית באיכות נמוכה.
06:43
Confidence score, 0.76-0.87,
134
403691
3337
דירוג סיווג, 0.76-0.87,
איך יודעים אם זה אמין,
06:47
how do you know whether that's reliable,
135
407028
1919
06:48
if you don't know if the underlying technology is reliable,
136
408988
2795
אם לא יודעים אם הטכנולוגיה הבסיסית אמינה,
06:51
or whether it works on the manipulation that is being used?
137
411824
2795
או אם היא עובדת על המניפולציה שבה נעשה שימוש?
06:54
And tools to spot an AI manipulation don't spot a manual edit.
138
414661
5046
וכלים לאיתור מניפולציות בינה מלאכותית אינם מזהים עריכה ידנית.
07:00
These tools also won't be available to everyone.
139
420583
3587
כלים אלה גם לא יהיו זמינים לכולם.
07:04
There's a trade-off between security and access,
140
424212
3128
יש פשרה בין אבטחה לגישה,
07:07
which means if we make them available to anyone,
141
427382
2544
מה שאומר שאם נהפוך אותם לזמינים לכולם,
07:09
they become useless to everybody,
142
429926
2586
הם ייעשו חסרי-תועלת לכולם,
07:12
because the people designing the new deception techniques
143
432512
2711
כי האנשים שמתכננים את טכניקות ההונאה החדשות
יבדקו אותם בתוכנות הזיהוי הזמינות לציבור ויעקפו אותן.
07:15
will test them on the publicly available detectors
144
435264
3087
07:18
and evade them.
145
438393
1209
אבל עלינו בהחלט לוודא שהן תהיינה זמינות
07:20
But we do need to make sure these are available
146
440061
2920
07:22
to the journalists, the community leaders,
147
442981
2085
לעיתונאים, למנהיגי הקהילה,
07:25
the election officials, globally, who are our first line of defense,
148
445108
3628
לפקידי הבחירות בעולם כולו, שהם קו ההגנה הראשון שלנו,
07:28
thought through with attention to real-world accessibility and use.
149
448736
3254
תוכנות שנבנו תוך תשומת לב לנגישות ולשימוש בעולם האמיתי.
07:32
Though at the best circumstances,
150
452991
2544
למרות שבנסיבות הטובות ביותר,
07:35
detection tools will be 85 to 95 percent effective,
151
455576
3003
כלי הגילוי יהיו יעילים ב-85 עד 95 אחוזים,
07:38
they have to be in the hands of that first line of defense,
152
458579
2795
עליהם להימצא בידי קו ההגנה הראשון,
07:41
and they're not, right now.
153
461374
1543
וכרגע, הם לא.
07:43
So for step one, I've been talking about detection after the fact.
154
463710
3128
אז בשלב הראשון דיברתי על גילוי לאחר מעשה.
07:46
Step two -- AI is going to be everywhere in our communication,
155
466838
4462
השלב השני -- הבינה המלאכותית תגיע לכל מקום בתקשורת שלנו,
07:51
creating, changing, editing.
156
471300
2169
היא תיצור, תשנה, תערוך.
07:53
It's not going to be a simple binary of "yes, it's AI" or "phew, it's not."
157
473469
4755
לא יהיה זיהוי בינארי פשוט של “כן, זה בינה מלאכותית” או “מזל שזה לא.”
07:58
AI is part of all of our communication,
158
478224
3086
הבינה המלאכותית היא חלק מכל התקשורת שלנו,
08:01
so we need to better understand the recipe of what we're consuming.
159
481352
4046
ולכן עלינו להבין טוב יותר את המתכון של מה שאנו צורכים.
08:06
Some people call this content provenance and disclosure.
160
486232
3754
יש אנשים שקוראים לזה “זיהוי מקור של תוכן וחשיפתו“.
08:10
Technologists have been building ways to add invisible watermarking
161
490028
3503
טכנולוגים כבר בונים דרכים להוסיף סימני-מים סמויים
08:13
to AI-generated media.
162
493573
1877
למדיה שנוצרה ע"י בינה מלאכותית.
08:15
They've also been designing ways --
163
495491
1752
הם גם תכננו דרכים -- ואני השתתפתי במאמצים אלה--
08:17
and I've been part of these efforts --
164
497243
1877
במסגרת תקן בשם C2PA,
08:19
within a standard called the C2PA,
165
499162
1710
08:20
to add cryptographically signed metadata to files.
166
500872
2669
להוסיף לקבצים נתוני-על חתומים בהצפנה.
08:24
This means data that provides details about the content,
167
504125
4379
כלומר, נתונים שמספקים פרטים על התוכן,
08:28
cryptographically signed in a way that reinforces our trust
168
508546
3712
חתומים בצורה מוצפנת
באופן שמחזק את האמון שלנו במידע זה.
08:32
in that information.
169
512300
1501
08:33
It's an updating record of how AI was used to create or edit it,
170
513801
5297
זהו תיעוד מתעדכן של אופן השימוש בבינה מלאכותית ביצירתו או בעריכתו,
08:39
where humans and other technologies were involved,
171
519098
2670
איפה היו מעורבים בני אדם וטכנולוגיות אחרות
08:41
and how it was distributed.
172
521809
1919
וכיצד הוא הופץ.
08:43
It's basically a recipe and serving instructions
173
523770
3003
זהו בעצם מתכון והוראות הגשה
08:46
for the mix of AI and human
174
526814
1961
לתערובת של בינה מלאכותית ואדם שנמצאת במה שאתם רואים ושומעים.
08:48
that's in what you're seeing and hearing.
175
528816
2336
08:51
And it's a critical part of a new AI-infused media literacy.
176
531903
4462
וזהו חלק קריטי באוריינות של מדיה חדשה ששולבה בה בינה מלאכותית.
08:57
And this actually shouldn't sound that crazy.
177
537116
2461
וזה בעצם לא אמור להישמע כל-כך מטורף.
08:59
Our communication is moving in this direction already.
178
539577
3212
התקשורת שלנו כבר מתקדמת לשם.
09:02
If you're like me -- you can admit it --
179
542789
2002
אם אתם כמוני -- אתם יכולים להודות בזה --
09:04
you browse your TikTok “For You” page,
180
544832
2419
אתם גולשים ב“טיקטוק” בעמוד “בשבילכם”
09:07
and you're used to seeing videos that have an audio source,
181
547251
4213
ואתם רגילים לראות סרטונים שיש להם מקור שמע,
09:11
an AI filter, a green screen, a background,
182
551464
2419
מסנן בינה מלאכותית, מסך ירוק, רקע,
09:13
a stitch with another edit.
183
553883
1752
תפר עם עריכה אחרת.
09:15
This, in some sense, is the alpha version of this transparency
184
555676
3337
זוהי, במובן מסוים, גרסת האלפא של שקיפות זו
09:19
in some of the major platforms we use today.
185
559055
2377
בכמה מהפלטפורמות העיקריות בהן אנו משתמשים כיום.
09:21
It's just that it does not yet travel across the internet,
186
561474
2753
זה רק לא מסתובב עדיין ברחבי האינטרנט,
09:24
it’s not reliable, updatable, and it’s not secure.
187
564268
3128
זה לא אמין, זה לא בר-עדכון וזה לא מאובטח.
09:27
Now, there are also big challenges
188
567980
2628
ישנם גם אתגרים גדולים
09:30
in this type of infrastructure for authenticity.
189
570650
2544
בסוג זה של תשתית לאותנטיות.
09:34
As we create these durable signs of how AI and human were mixed,
190
574278
4088
כשאנו יוצרים את הסימנים העמידים האלה לתערובת הבינה המלאכותית ואדם,
09:38
that carry across the trajectory of how media is made,
191
578366
3086
שמשולבים בכל מסלול יצירת המדיה החדשה,
09:41
we need to ensure they don't compromise privacy or backfire globally.
192
581494
4129
עלינו להבטיח שהם לא יפגעו בפרטיות או יפעלו כבומרנג ברחבי העולם.
09:46
We have to get this right.
193
586249
1710
עלינו לעשות את זה נכון.
09:48
We can't oblige a citizen journalist filming in a repressive context
194
588584
4255
איננו יכולים לחייב עיתונאי אזרחי שמצלם אירועי דיכוי,
09:52
or a satirical maker using novel gen-AI tools
195
592839
3169
או יוצר סאטירי שמשתמש בכלים חדשניים של בינה מלאכותית יוצרת
09:56
to parody the powerful ...
196
596008
1252
כדי ללגלג על החזקים,
09:58
to have to disclose their identity or personally identifiable information
197
598845
4879
לחשוף את זהותם או את המידע המזהה האישי שלהם
10:03
in order to use their camera or ChatGPT.
198
603766
2961
כדי שיוכלו להשתמש במצלמה או בצ‘ט ג’י-פי-טי.
10:08
Because it's important they be able to retain their ability to have anonymity,
199
608312
3712
כי חשוב שהם יוכלו לשמור על אלמוניות,
10:12
at the same time as the tool to create is transparent.
200
612066
3378
במקביל לשקיפות הכלי בו הם יוצרים.
10:16
This needs to be about the how of AI-human media making,
201
616112
4171
העיקר צריך להיות ה“איך” ביצירת המדיה של בינה מלאכותית-אדם,
10:20
not the who.
202
620283
1167
ולא ה“מי“.
10:22
This brings me to the final step.
203
622952
2211
זה מביא אותי לשלב האחרון.
10:25
None of this works without a pipeline of responsibility
204
625163
4462
כל זה לא עובד ללא מדרג אחריות
10:29
that runs from the foundation models and the open-source projects
205
629667
4254
החל מהמודלים הבסיסיים ומיזמי הקוד הפתוח
10:33
through to the way that is deployed into systems, APIs and apps,
206
633963
4213
דרך אופן היישום במערכות, בממשקי התכנות ובאפליקציות,
10:38
to the platforms where we consume media and communicate.
207
638217
3379
ועד לפלטפורמות שבהן אנו צורכים מדיה ומתקשרים.
10:43
I've spent much of the last 15 years fighting, essentially, a rearguard action,
208
643139
4171
את רוב 15 השנים האחרונות הקדשתי בעצם למאבק כחלק ממשמר אחורי,
10:47
like so many of my colleagues in the human rights world,
209
647310
2919
כמו רבים כל-כך מעמיתי בעולם זכויות האדם,
10:50
against the failures of social media.
210
650229
2169
נגד הכישלונות של המדיה החברתית.
10:52
We can't make those mistakes again in this next generation of technology.
211
652899
5380
איננו יכולים לחזור על הטעויות האלה בדור הבא של הטכנולוגיה.
10:59
What this means is that governments
212
659572
1835
המשמעות היא שהממשלות צריכות להבטיח
11:01
need to ensure that within this pipeline of responsibility for AI,
213
661449
4254
שכחלק ממדרג האחריות הזה לבינה המלאכותית,
11:05
there is transparency, accountability and liability.
214
665703
3253
יהיו שקיפות, דין וחשבון ואחריות.
11:10
Without these three steps --
215
670666
2086
ללא שלושת השלבים האלה --
11:12
detection for the people who need it most,
216
672793
3129
זיהוי, עבור מי שהכי זקוקים לכך,
11:15
provenance that is rights-respecting
217
675922
2502
מקורות, שמכבדים זכויות
11:18
and that pipeline of responsibility,
218
678466
2169
ומדרג אחריות זה,
11:20
we're going to get stuck looking in vain for the six-fingered hand,
219
680635
3545
ניתקע בחיפוש סתמי אחר ידיים עם שש אצבעות,
או עיניים שלא ממצמצות.
11:24
or the eyes that don't blink.
220
684222
1543
11:26
We need to take these steps.
221
686390
1836
עלינו לנקוט צעדים האלה.
11:28
Otherwise, we risk a world where it gets easier and easier
222
688226
3294
אחרת, אנו מסתכנים בעולם שבו נהיה קל יותר ויותר
11:31
to both fake reality
223
691520
1502
לזייף את המציאות
11:33
and dismiss reality as potentially faked.
224
693064
2669
וגם לפטור את המציאות כמזויפת בפוטנציאל.
11:36
And that is a world that the political philosopher Hannah Arendt
225
696234
3086
וזהו עולם שהפילוסופית הפוליטית חנה ארנדט תיארה במונחים אלה:
11:39
described in these terms:
226
699320
1460
11:40
"A people that no longer can believe anything
227
700821
2628
“עם שכבר לא יכול להאמין לדבר
11:43
cannot make up its own mind.
228
703491
2294
“לא יכול לקבל החלטות בעצמו.
11:45
It is deprived not only of its capacity to act
229
705785
3211
“נשללת ממנו לא רק היכולת לפעול
11:48
but also of its capacity to think and to judge.
230
708996
3504
“אלא גם יכולתו לחשוב ולשפוט.
11:52
And with such a people you can then do what you please."
231
712959
3211
“ועם כזה הוא כחומר ביד היוצר“.
11:56
That's a world I know none of us want,
232
716712
2044
זהו עולם שאני יודע שאיש מאיתנו לא רוצה בו,
11:58
that I think we can prevent.
233
718798
2002
ואני חושב שנוכל למנוע אותו.
12:00
Thanks.
234
720800
1168
תודה.
12:02
(Cheers and applause)
235
722009
2544
(תרועות ומחיאות כפיים)
על אתר זה

אתר זה יציג בפניכם סרטוני YouTube המועילים ללימוד אנגלית. תוכלו לראות שיעורי אנגלית המועברים על ידי מורים מהשורה הראשונה מרחבי העולם. לחץ פעמיים על הכתוביות באנגלית המוצגות בכל דף וידאו כדי להפעיל את הסרטון משם. הכתוביות גוללות בסנכרון עם הפעלת הווידאו. אם יש לך הערות או בקשות, אנא צור איתנו קשר באמצעות טופס יצירת קשר זה.

https://forms.gle/WvT1wiN1qDtmnspy7