AI Is Dangerous, but Not for the Reasons You Think | Sasha Luccioni | TED

1,167,750 views ・ 2023-11-06

TED


אנא לחץ פעמיים על הכתוביות באנגלית למטה כדי להפעיל את הסרטון.

תרגום: zeeva livshitz עריכה: aknv tso
00:04
So I've been an AI researcher for over a decade.
0
4292
3504
‫אני חוקרת של בינה מלאכותית (ב“מ) ‫כבר למעלה מעשור.‬
00:07
And a couple of months ago, I got the weirdest email of my career.
1
7796
3503
‫ולפני כמה חודשים, קיבלתי את ‬ ‫הדוא"ל המוזר ביותר בקריירה שלי.‬
00:11
A random stranger wrote to me
2
11925
1668
אדם ‫זר כתב לי‬,
00:13
saying that my work in AI is going to end humanity.
3
13635
3420
‫ואמר שעבודתי בב"מ תשים קץ לאנושות.‬
00:18
Now I get it, AI, it's so hot right now.
4
18598
3754
אני מבינה מזה שה‫ב"מ היא כזה להיט עכשיו.‬
00:22
(Laughter)
5
22352
1627
‫(צחוק)‬
00:24
It's in the headlines pretty much every day,
6
24020
2086
‫היא מופיעה בכותרות כמעט כל יום,‬
00:26
sometimes because of really cool things
7
26106
1918
‫לפעמים בגלל דברים ממש מגניבים‬,
00:28
like discovering new molecules for medicine
8
28066
2169
‫כמו גילוי מולקולות חדשות ברפואה‬,
00:30
or that dope Pope in the white puffer coat.
9
30235
2252
‫או האפיפיור המטופש הזה במעיל הדובון הלבן.‬
00:33
But other times the headlines have been really dark,
10
33446
2461
‫אבל בפעמים אחרות הכותרות היו ממש אפלות,‬
00:35
like that chatbot telling that guy that he should divorce his wife
11
35907
3671
‫כמו הצ’אטבוט שאמר לבחור ההוא‬ ‫שהוא צריך להתגרש מאשתו‬,
00:39
or that AI meal planner app proposing a crowd pleasing recipe
12
39619
4088
‫או יישומון ב“מ לתכנון ארוחות ‬ ‫שמציע מתכון שישמח את כולם,
00:43
featuring chlorine gas.
13
43707
2002
ושכולל גז כלור.‬
00:46
And in the background,
14
46376
1418
‫וברקע ‫שמענו הרבה דיבורים על תרחישי יום הדין,‬
00:47
we've heard a lot of talk about doomsday scenarios,
15
47836
2419
00:50
existential risk and the singularity,
16
50255
1918
‫על סיכונים קיומיים ועל הסינגולריות,‬
00:52
with letters being written and events being organized
17
52215
2503
ונשלחים מכתבים ומתארגנים אירועים
00:54
to make sure that doesn't happen.
18
54718
2002
‫כדי לוודא שזה לא יקרה.‬
00:57
Now I'm a researcher who studies AI's impacts on society,
19
57637
4630
‫אני חוקרת את ההשפעות‬ ‫של הב"מ על החברה,‬
01:02
and I don't know what's going to happen in 10 or 20 years,
20
62267
2836
‫ואני לא יודעת מה יקרה‬ ‫בעוד 10 או 20 שנה,‬
01:05
and nobody really does.
21
65145
2461
‫ואף אחד לא באמת יודע.‬
01:07
But what I do know is that there's some pretty nasty things going on right now,
22
67981
4546
‫אבל אני כן יודעת שקורים עכשיו‬ ‫כמה דברים די מגעילים,‬
01:12
because AI doesn't exist in a vacuum.
23
72527
2878
‫כי הב“מ לא קיימת בחלל ריק.‬
01:15
It is part of society, and it has impacts on people and the planet.
24
75447
3920
‫היא חלק מהחברה, ויש לה השפעות ‬ ‫על אנשים ועל כדור הארץ.‬
01:20
AI models can contribute to climate change.
25
80160
2502
‫מודלים של ב"מ עלולים להחריף את שינויי האקלים.‬
01:22
Their training data uses art and books created by artists
26
82704
3462
לצורך האימון שלה משתמשים באמנות‬ ‫ובספרים שנוצרו על ידי אמנים‬ וסופרים
01:26
and authors without their consent.
27
86207
1710
‫ללא הסכמתם.‬
01:27
And its deployment can discriminate against entire communities.
28
87959
3837
‫והפעלת הב“מ עלולה לעורר אפליה נגד קהילות שלמות.‬
01:32
But we need to start tracking its impacts.
29
92797
2127
עלינו להתחיל לעקוב אחר השפעותיה.‬
01:34
We need to start being transparent and disclosing them and creating tools
30
94966
3587
עלינו להתחיל להיות שקופים, לחשוף אותן וליצור כלים‬
01:38
so that people understand AI better,
31
98595
2419
‫כדי שאנשים יבינו טוב יותר את הב"מ,‬
01:41
so that hopefully future generations of AI models
32
101056
2335
‫בתקווה שהדורות הבאים של מודלים של ב"מ‬
01:43
are going to be more trustworthy, sustainable,
33
103433
2836
‫יהיו יותר אמינים וברי-קיימא,‬
01:46
maybe less likely to kill us, if that's what you're into.
34
106269
2836
ו‫אולי גם פחות צפויים להרוג אותנו,‬ ‫אם זה מה שמעניין אתכם.‬
01:50
But let's start with sustainability,
35
110148
1752
‫אבל בואו נתחיל עם קיימות,‬
01:51
because that cloud that AI models live on is actually made out of metal, plastic,
36
111900
5756
‫כי הענן שעליו חיים המודלים של ה‫ב"מ עשוי ממתכת ופלסטיק,‬
01:57
and powered by vast amounts of energy.
37
117656
2460
‫והוא מופעל בכמויות אדירות של אנרגיה.‬
02:00
And each time you query an AI model, it comes with a cost to the planet.
38
120116
4463
‫ותמיד כשאתם מפנים שאילתה למודל ב“מ, כדור הארץ משלם.‬
02:05
Last year, I was part of the BigScience initiative,
39
125789
3044
‫בשנה שעברה הייתי חלק מיוזמת "ביג סאיינס",‬
02:08
which brought together a thousand researchers
40
128833
2127
‫שהפגישה אלף חוקרים‬ ‫מכל רחבי העולם ליצירת “בלום“,‬
02:10
from all over the world to create Bloom,
41
130960
2503
02:13
the first open large language model, like ChatGPT,
42
133505
4337
‫מודל השפה הגדול הפתוח ‫הראשון, כמו צ‘אט ג’י-פי-טי,‬
02:17
but with an emphasis on ethics, transparency and consent.
43
137842
3546
בדגש על אתיקה, שקיפות והסכמה.‬
02:21
And the study I led that looked at Bloom's environmental impacts
44
141721
3253
‫והמחקר שהובלתי, שבדק את ההשפעות‬ ‫הסביבתיות של “בלום“,‬
02:25
found that just training it used as much energy
45
145016
3253
‫מצא שרק האימון שלו ניצל אנרגיה‬ ‫כמו של 30 בתים בשנה שלמה‬,
02:28
as 30 homes in a whole year
46
148311
2211
02:30
and emitted 25 tons of carbon dioxide,
47
150563
2419
‫ופלט 25 טונות של פחמן דו-חמצני,‬
02:33
which is like driving your car five times around the planet
48
153024
3253
‫שזה כמו להסיע מכונית ‫חמש פעמים סביב כדור הארץ‬
02:36
just so somebody can use this model to tell a knock-knock joke.
49
156319
3170
‫רק כדי שמישהו יוכל להשתמש במודל ‫הזה בשביל בדיחת קרש‬
02:39
And this might not seem like a lot,
50
159489
2169
‫וזה אולי לא נראה הרבה,‬
02:41
but other similar large language models,
51
161700
2460
‫אבל מודלים גדולים דומים אחרים של שפה,‬
02:44
like GPT-3,
52
164202
1126
‫כמו ג'י-פי-טי 3,‬
02:45
emit 20 times more carbon.
53
165370
2544
‫פולטים פי 20 יותר פחמן.‬
02:47
But the thing is, tech companies aren't measuring this stuff.
54
167956
2878
‫העניין הוא שחברות טכנולוגיה ‬ ‫לא מודדות את הדברים האלה.‬
02:50
They're not disclosing it.
55
170875
1252
‫הן לא חושפות את זה.‬
02:52
And so this is probably only the tip of the iceberg,
56
172168
2461
‫וזה כנראה רק קצה הקרחון,‬
02:54
even if it is a melting one.
57
174629
1418
‫גם אם הוא נמס.‬
02:56
And in recent years we've seen AI models balloon in size
58
176798
3629
‫ובשנים האחרונות ראינו ‬‫מודלים של ב“מ ‬שמתנפחים בגודלם
03:00
because the current trend in AI is "bigger is better."
59
180468
3462
כי המגמה הנוכחית בב“מ היא‬ ‫“גדול יותר הוא יותר טוב“.‬
03:04
But please don't get me started on why that's the case.
60
184305
2795
‫אבל אני לא רוצה להתחיל ‬ ‫להסביר למה זה ככה.‬
03:07
In any case, we've seen large language models in particular
61
187100
3003
‫בכל מקרה, ראינו שמודלי שפה גדולים, במיוחד‬,
03:10
grow 2,000 times in size over the last five years.
62
190103
3211
‫גדלו פי 2,000 בחמש השנים האחרונות.‬
03:13
And of course, their environmental costs are rising as well.
63
193314
3045
‫וכמובן, גם העלויות הסביבתיות שלהם עולות.‬
03:16
The most recent work I led, found that switching out a smaller,
64
196401
3795
‫העבודה האחרונה שהובלתי, ‬ ‫מצאה כי המעבר
ממודל קטן‬ ‫ויעיל יותר למודל שפה גדול יותר‬,
03:20
more efficient model for a larger language model
65
200238
3337
03:23
emits 14 times more carbon for the same task.
66
203616
3754
‫פולטת פי 14 יותר פחמן באותה המטלה.‬
03:27
Like telling that knock-knock joke.
67
207412
1877
‫כמו לספר את בדיחת הקרש הזאת.‬
03:29
And as we're putting in these models into cell phones and search engines
68
209289
3462
‫וכשאנחנו מכניסים את הדגמים האלה‬ ‫לטלפונים סלולריים, למנועי חיפוש‬
03:32
and smart fridges and speakers,
69
212792
2836
ולמקררים ולרמקולים חכמים,‬
03:35
the environmental costs are really piling up quickly.
70
215628
2628
‫העלויות הסביבתיות מצטברות ממש במהירות.‬
03:38
So instead of focusing on some future existential risks,
71
218840
3754
‫אז במקום להתמקד בכמה ‬ ‫סיכונים קיומיים עתידיים,‬
03:42
let's talk about current tangible impacts
72
222635
2753
‫בואו נדבר על ההשפעות הממשיות הנוכחיות‬
03:45
and tools we can create to measure and mitigate these impacts.
73
225388
3629
‫ועל הכלים שנוכל ליצור כדי למדוד ‬ ‫ולהקטין את ההשפעות הללו.‬
03:49
I helped create CodeCarbon,
74
229893
1668
‫עזרתי ליצור את “קוד קרבון“,‬
03:51
a tool that runs in parallel to AI training code
75
231603
2961
‫כלי שפועל במקביל לקוד אימון ב“מ‬,
03:54
that estimates the amount of energy it consumes
76
234564
2211
ו‫שמעריך את כמות האנרגיה שהוא צורך‬
03:56
and the amount of carbon it emits.
77
236775
1668
‫ואת כמות הפחמן שהוא פולט.‬
03:58
And using a tool like this can help us make informed choices,
78
238485
2877
‫ושימוש בכלי כזה יכול לעזור‬ ‫לנו לעשות בחירות מושכלות,‬
04:01
like choosing one model over the other because it's more sustainable,
79
241404
3253
‫כמו לבחור דגם אחד במקום אחר כי הוא יותר בר-קיימא,‬
04:04
or deploying AI models on renewable energy,
80
244657
2920
‫או הפעלת דגמי ב“מ בעזרת אנרגיה מתחדשת,‬
04:07
which can drastically reduce their emissions.
81
247619
2544
‫שיכולה להפחית באופן ‬‫דרסטי את הפליטות שלהם.‬
04:10
But let's talk about other things
82
250163
2085
‫אבל בואו נדבר על דברים אחרים‬
04:12
because there's other impacts of AI apart from sustainability.
83
252290
2961
‫כי יש לב“מ השפעות נוספות מלבד קיימות.‬
04:15
For example, it's been really hard for artists and authors
84
255627
3128
‫לדוגמה, לאמנים ולסופרים היה ממש קשה‬
04:18
to prove that their life's work has been used for training AI models
85
258797
4212
‫להוכיח שעבודת חייהם שימשה‬ ‫לאימון מודלים של ב“מ‬
04:23
without their consent.
86
263051
1209
‫ללא הסכמתם.‬
04:24
And if you want to sue someone, you tend to need proof, right?
87
264302
3170
‫וכשרוצים לתבוע מישהו,‬ דרושה הוכחה, נכון?‬
04:27
So Spawning.ai, an organization that was founded by artists,
88
267806
3920
‫אז “ספונינג אי-איי“, ארגון שהוקם על ידי אמנים,‬
04:31
created this really cool tool called “Have I Been Trained?”
89
271726
3337
‫יצר את הכלי המגניב הזה ‬ ‫שנקרא “האם אומנתי?”‬
04:35
And it lets you search these massive data sets
90
275104
2461
שמאפשר לכם לחפש ‬ ‫במערכי הנתונים המסיביים האלה‬
04:37
to see what they have on you.
91
277607
2085
‫כדי לראות מה הם יודעים עליכם.‬
04:39
Now, I admit it, I was curious.
92
279734
1668
אני מודה שהייתי סקרנית.‬
04:41
I searched LAION-5B,
93
281444
1627
‫חיפשתי ב“לאיון 5-בי“,
04:43
which is this huge data set of images and text,
94
283112
2461
‫שהוא מערך הנתונים העצום‬ של תמונות וטקסט,‬
04:45
to see if any images of me were in there.
95
285615
2711
‫כדי לראות אם יש בו תמונות שלי.‬
04:49
Now those two first images,
96
289285
1585
ב‫שתי התמונות הראשונות האלה,‬
04:50
that's me from events I've spoken at.
97
290870
2169
אני מצולמת באירועים שבהם הרציתי.
04:53
But the rest of the images, none of those are me.
98
293081
2753
‫אבל בשאר התמונות - זו לא אני.‬
04:55
They're probably of other women named Sasha
99
295875
2002
אלה כנראה נשים אחרות בשם סשה‬
04:57
who put photographs of themselves up on the internet.
100
297919
2628
‫שהעלו תמונות שלהן באינטרנט.‬
05:01
And this can probably explain why,
101
301047
1627
‫וזה כנראה יכול להסביר מדוע,‬
05:02
when I query an image generation model
102
302715
1836
‫כשאני מבקשת ממודל ליצירת תמונות‬ ‫ליצור תצלום של אישה בשם סשה,‬
05:04
to generate a photograph of a woman named Sasha,
103
304551
2294
05:06
more often than not I get images of bikini models.
104
306886
2753
אני מקבלת‬ בדרך-כלל ‫תמונות של דוגמניות ביקיני.‬
05:09
Sometimes they have two arms,
105
309681
1626
‫לפעמים יש להן שתי זרועות,‬
05:11
sometimes they have three arms,
106
311349
2294
‫לפעמים יש להן שלוש זרועות,‬
05:13
but they rarely have any clothes on.
107
313685
2043
‫אבל לעתים רחוקות יש להן בכלל בגדים.‬
05:16
And while it can be interesting for people like you and me
108
316563
2794
‫ולמרות שאנשים כמוכם וכמוני‬ עשויים למצוא עניין
05:19
to search these data sets,
109
319357
2127
בחיפוש במערכי הנתונים האלה,‬
05:21
for artists like Karla Ortiz,
110
321526
2044
הרי שלאמנים כמו קרלה אורטיז,‬
05:23
this provides crucial evidence that her life's work, her artwork,
111
323570
3753
‫זה מספק ראיות מכריעות לכך‬ ‫שעבודת חייה, יצירות האמנות שלה,‬
05:27
was used for training AI models without her consent,
112
327365
2961
‫שימשו לאימון מודלים של ב“מ ללא הסכמתה,‬
05:30
and she and two artists used this as evidence
113
330326
2336
‫והיא ועוד שני אמנים השתמשו בזה כראיה‬
05:32
to file a class action lawsuit against AI companies
114
332704
2794
בתביעה ייצוגית ‬‫נגד חברות ב“מ‬
05:35
for copyright infringement.
115
335540
1960
‫בגין הפרת זכויות יוצרים.‬
05:37
And most recently --
116
337542
1168
‫וממש לאחרונה --‬
05:38
(Applause)
117
338710
3378
‫(מחיאות כפיים)‬
05:42
And most recently Spawning.ai partnered up with Hugging Face,
118
342130
3044
‫ולאחרונה “ספונינג אי-איי” שיתפה פעולה עם‬ “הגינג פייס“,‬
05:45
the company where I work at,
119
345216
1585
‫החברה שבה אני עובדת‬
05:46
to create opt-in and opt-out mechanisms for creating these data sets.
120
346801
4922
‫כדי ליצור מנגנוני בחירה והימנעות‬ ביצירת מערכי נתונים אלה.‬
05:52
Because artwork created by humans shouldn’t be an all-you-can-eat buffet
121
352098
3587
כי יצירות אמנות שנוצרו ע“י בני אדם‬ ‫לא צריכות להיות מזנון חופשי
05:55
for training AI language models.
122
355727
1793
‫לאימון מודלים של שפות ב"מ.‬
05:58
(Applause)
123
358313
4254
‫(מחיאות כפיים)‬
06:02
The very last thing I want to talk about is bias.
124
362567
2336
‫ולבסוף אני רוצה לדבר על הטיה.‬
06:04
You probably hear about this a lot.
125
364944
1919
‫אתם בטח שומעים על זה הרבה.‬
06:07
Formally speaking, it's when AI models encode patterns and beliefs
126
367196
3713
רשמית, זה כאשר מודלים ‫של ב“מ מקודדים דפוסים ואמונות‬
06:10
that can represent stereotypes or racism and sexism.
127
370950
3128
‫שיכולים לייצג סטריאוטיפים ‫או גזענות וסקסיזם.‬
06:14
One of my heroes, Dr. Joy Buolamwini, experienced this firsthand
128
374412
3212
‫אחת הגיבורות שלי, ד“ר ג’וי‬ ‫בולמוויני, חוותה זאת בעצמה
06:17
when she realized that AI systems wouldn't even detect her face
129
377665
3045
‫כשהבינה שמערכות ב“מ‬ ‫אפילו לא מזהות את פניה‬
06:20
unless she was wearing a white-colored mask.
130
380752
2169
‫אלא אם היא עוטה מסכה בצבע לבן.‬
06:22
Digging deeper, she found that common facial recognition systems
131
382962
3754
‫כשהיא המשיכה לבדוק, היא גילתה ‬ ‫שמערכות זיהוי פנים נפוצות‬
06:26
were vastly worse for women of color compared to white men.
132
386758
3253
‫היו גרועות בהרבה כשמדובר ב‫נשים צבעוניות בהשוואה לגברים לבנים.‬
06:30
And when biased models like this are deployed in law enforcement settings,
133
390428
5297
‫וכאשר מודלים מוטים כאלה ‬ ‫מופעלים במסגרות אכיפת החוק,‬
06:35
this can result in false accusations, even wrongful imprisonment,
134
395767
4296
‫זה יכול לגרום לאישומי שווא ואפילו למאסר לא-צודק,‬
מה שראינו שקרה לכמה אנשים בחודשים האחרונים.‬
06:40
which we've seen happen to multiple people in recent months.
135
400063
3920
06:44
For example, Porcha Woodruff was wrongfully accused of carjacking
136
404025
3086
‫לדוגמה, פורשה וודרוף ‬ ‫הואשמה שלא בצדק בגניבת רכב‬
בהיותה ‫בחודש השמיני להריונה‬,
06:47
at eight months pregnant
137
407111
1252
06:48
because an AI system wrongfully identified her.
138
408363
2961
כשמערכת ב“מ זיהתה אותה בשוגג.‬
‫אך למרבה הצער, המערכות האלה‬ ‫הן קופסאות שחורות,‬
06:52
But sadly, these systems are black boxes,
139
412325
2002
06:54
and even their creators can't say exactly why they work the way they do.
140
414369
5964
‫ואפילו יוצריהן לא יכולים לומר‬ ‫בדיוק מדוע הן פועלות כפי שהן פועלות.‬
07:00
And for example, for image generation systems,
141
420917
3462
‫לדוגמה, במערכות יצירת תמונות,‬
07:04
if they're used in contexts like generating a forensic sketch
142
424379
4129
‫אם משתמשים בהן בהקשרים‬ ‫כמו יצירת קלסתרון
07:08
based on a description of a perpetrator,
143
428549
2711
על סמך תיאור של העבריין,‬
07:11
they take all those biases and they spit them back out
144
431260
3587
‫הן לוקחות את כל ההטיות‬ ‫האלה ופולטות אותן בחזרה‬
07:14
for terms like dangerous criminal, terrorists or gang member,
145
434889
3462
מול מונחים כמו “פושע מסוכן“, ‬ ‫“טרוריסטים” או “חבר כנופיה,‬”
07:18
which of course is super dangerous
146
438393
2168
‫שזה כמובן מסוכן במיוחד‬
07:20
when these tools are deployed in society.
147
440603
4421
‫כשהכלים האלה מופעלים בחברה.‬
07:25
And so in order to understand these tools better,
148
445566
2294
אז כדי להבין טוב יותר את הכלים האלה,‬
07:27
I created this tool called the Stable Bias Explorer,
149
447902
3212
‫יצרתי את הכלי הזה ‬ ‫שנקרא Stable Bias Explorer (סייר הטיות),‬
07:31
which lets you explore the bias of image generation models
150
451155
3379
‫שמאפשר לכם לבדוק הטיות של מודלים ליצירת תמונות‬
07:34
through the lens of professions.
151
454575
1669
‫דרך עדשת המקצוע.‬
07:37
So try to picture a scientist in your mind.
152
457370
3045
נסו לדמיין מדען.‬
07:40
Don't look at me.
153
460456
1168
‫אל תסתכלו עלי.‬
07:41
What do you see?
154
461666
1335
‫מה אתם רואים?‬
07:43
A lot of the same thing, right?
155
463835
1501
כולם אותו הדבר, נכון?‬
07:45
Men in glasses and lab coats.
156
465378
2377
‫גברים במשקפיים וחלוקי מעבדה.‬
07:47
And none of them look like me.
157
467797
1710
‫ואף אחד מהם לא נראה כמוני.‬
07:50
And the thing is,
158
470174
1460
‫והעניין הוא‬,
07:51
is that we looked at all these different image generation models
159
471676
3253
‫שבדקנו את כל המודלים השונים ‬ ‫של יצירת תמונות‬
07:54
and found a lot of the same thing:
160
474929
1627
‫ומצאנו הרבה מאותו הדבר:‬
07:56
significant representation of whiteness and masculinity
161
476597
2586
‫ייצוג משמעותי של לובן וגבריות‬
‫בכל 150 המקצועות שבדקנו,‬
07:59
across all 150 professions that we looked at,
162
479225
2127
08:01
even if compared to the real world,
163
481352
1794
‫גם בהשוואה לעולם האמיתי,‬
08:03
the US Labor Bureau of Statistics.
164
483187
1836
הסטטיסטיקה של ‫לשכת התעסוקה האמריקנית.‬
08:05
These models show lawyers as men,
165
485023
3044
‫מודלים אלה מציגים עורכי דין כגברים,‬
08:08
and CEOs as men, almost 100 percent of the time,
166
488109
3462
‫ומנכ“לים כגברים, כמעט 100% מהזמן,‬
08:11
even though we all know not all of them are white and male.
167
491571
3170
‫למרות שכולנו יודעים שלא כולם לבנים וגברים.‬
08:14
And sadly, my tool hasn't been used to write legislation yet.
168
494782
4380
‫ולמרבה הצער, הכלי שלי טרם שימש לחקיקה.‬
08:19
But I recently presented it at a UN event about gender bias
169
499203
3963
‫אבל לאחרונה הצגתי אותו באירוע ‬ ‫של האו“ם בנושא הטיה מגדרית‬
08:23
as an example of how we can make tools for people from all walks of life,
170
503166
3879
‫כדוגמה לכך שאנו יכולים‬ ‫ליצור כלים לאנשים מכל תחומי החיים,‬
08:27
even those who don't know how to code,
171
507086
2252
‫אפילו אלה שלא יודעים לתכנת,‬
08:29
to engage with and better understand AI because we use professions,
172
509380
3253
‫להתמודד עם הב“מ ולהבינה טוב יותר‬ כי אנחנו משתמשים במקצועות,‬
08:32
but you can use any terms that are of interest to you.
173
512633
3087
‫אבל אפשר להשתמש ‬ ‫בכל מונח שמעניין אתכם.‬
08:36
And as these models are being deployed,
174
516596
2752
‫וככל שהמודלים האלה מופעלים,‬
08:39
are being woven into the very fabric of our societies,
175
519390
3128
‫נארגים לתוך עצם המרקם של החברות שלנו,‬
08:42
our cell phones, our social media feeds,
176
522518
2044
בטלפונים הסלולריים ‬ ו‫בעדכוני המדיה החברתית שלנו,‬
08:44
even our justice systems and our economies have AI in them.
177
524604
3211
‫אפילו בתוך מערכות המשפט ‫והכלכלות שלנו יש ב“מ.‬
08:47
And it's really important that AI stays accessible
178
527815
3879
‫וחשוב מאוד שהב“מ תישאר נגישה‬
08:51
so that we know both how it works and when it doesn't work.
179
531736
4713
‫כדי שנדע גם איך זה עובד ‬ ‫וגם מתי זה לא עובד.‬
08:56
And there's no single solution for really complex things like bias
180
536908
4296
‫ואין פתרון יחיד לדברים ‬ ‫מורכבים באמת כמו הטיה‬
09:01
or copyright or climate change.
181
541245
2419
‫או זכויות יוצרים או שינויי אקלים.‬
09:03
But by creating tools to measure AI's impact,
182
543664
2711
‫אבל בעזרת יצירת כלים למדידת השפעותיה של הב“מ,‬
09:06
we can start getting an idea of how bad they are
183
546375
3337
נוכל להתחיל לקבל ‬‫מושג עד כמה הן חמורות
09:09
and start addressing them as we go.
184
549754
2502
‫ולהתחיל לטפל בהן במקביל לשימוש בה,
09:12
Start creating guardrails to protect society and the planet.
185
552256
3337
להתחיל ליצור גדרות בטיחות להגנת‬ החברה וכדור הארץ.‬
09:16
And once we have this information,
186
556177
2336
‫ומיד כשיהיה לנו המידע הזה,‬
09:18
companies can use it in order to say,
187
558513
1835
ארגונים יוכלו להשתמש בו כדי לומר,‬
09:20
OK, we're going to choose this model because it's more sustainable,
188
560389
3170
‫בסדר, נבחר במודל הזה‬ ‫כי הוא בר-קיימא יותר,‬
ו‫במודל הזה כי הוא מכבד זכויות יוצרים.‬
09:23
this model because it respects copyright.
189
563601
2044
09:25
Legislators who really need information to write laws,
190
565686
3087
‫מחוקקים שבאמת זקוקים למידע‬ ‫כדי לכתוב חוקים,‬
09:28
can use these tools to develop new regulation mechanisms
191
568773
3462
‫יכולים להשתמש בכלים אלה‬ ‫כדי לפתח מנגנוני רגולציה חדשים‬
09:32
or governance for AI as it gets deployed into society.
192
572276
3796
‫או לפקח על הב“מ כאשר היא מופעלת בחברה.‬
‫ומשתמשים כמוכם וכמוני יכולים‬ ‫להשתמש במידע הזה‬
09:36
And users like you and me can use this information
193
576114
2377
09:38
to choose AI models that we can trust,
194
578491
3337
‫כדי לבחור מודלים של ב“מ ‬ ‫שאפשר לסמוך עליהם,‬
09:41
not to misrepresent us and not to misuse our data.
195
581869
2920
ש‫לא ייצגו אותנו במסולף ‫ולא יעשו שימוש לרעה בנתונים שלנו.‬
09:45
But what did I reply to that email
196
585790
1918
‫אבל מה עניתי לאותו דוא“ל
09:47
that said that my work is going to destroy humanity?
197
587750
2961
‫שאמר שעבודתי עתידה להרוס את האנושות?‬
09:50
I said that focusing on AI's future existential risks
198
590711
4046
‫אמרתי שהתמקדות בסיכונים ‬ ‫הקיומיים העתידיים של הב“מ‬
09:54
is a distraction from its current,
199
594799
2044
‫היא הסחת דעת‬
‫מההשפעות הנוכחיות והמוחשיות שלה‬
09:56
very tangible impacts
200
596843
1835
09:58
and the work we should be doing right now, or even yesterday,
201
598719
4004
‫ומהעבודה שאנחנו צריכים‬ ‫לעשות כרגע, או אפילו אתמול,‬
10:02
for reducing these impacts.
202
602723
1919
‫להפחתת ההשפעות הללו.‬
10:04
Because yes, AI is moving quickly, but it's not a done deal.
203
604684
4045
‫כי כן, הב“מ מתקדמת במהירות, ‬ ‫אבל זו לא עניין סגור.‬
10:08
We're building the road as we walk it,
204
608771
2503
‫אנחנו סוללים את הדרך ‬ ‫תוך כדי כך שאנו הולכים בה,‬
10:11
and we can collectively decide what direction we want to go in together.
205
611274
3795
‫ואנחנו יכולים להחליט באופן קולקטיבי‬ ‫לאיזה כיוון ברצוננו ללכת יחד.‬
10:15
Thank you.
206
615069
1210
‫תודה לכם.‬
10:16
(Applause)
207
616279
2002
‫(מחיאות כפיים)‬
על אתר זה

אתר זה יציג בפניכם סרטוני YouTube המועילים ללימוד אנגלית. תוכלו לראות שיעורי אנגלית המועברים על ידי מורים מהשורה הראשונה מרחבי העולם. לחץ פעמיים על הכתוביות באנגלית המוצגות בכל דף וידאו כדי להפעיל את הסרטון משם. הכתוביות גוללות בסנכרון עם הפעלת הווידאו. אם יש לך הערות או בקשות, אנא צור איתנו קשר באמצעות טופס יצירת קשר זה.

https://forms.gle/WvT1wiN1qDtmnspy7