How to keep human bias out of AI | Kriti Sharma

99,340 views ・ 2019-04-12

TED


אנא לחץ פעמיים על הכתוביות באנגלית למטה כדי להפעיל את הסרטון.

00:00
Translator: Ivana Korom Reviewer: Joanna Pietrulewicz
0
0
7000
תרגום: Ruth Veksler עריכה: Nurit Noy
00:12
How many decisions have been made about you today,
1
12875
3768
כמה מההחלטות שנעשו לגביכם היום,
00:16
or this week or this year,
2
16667
2601
השבוע או השנה,
00:19
by artificial intelligence?
3
19292
1958
נעשו על-ידי בינה מלאכותית?
00:22
I build AI for a living
4
22958
1685
אני עוסקת בבינה מלאכותית למחייתי
00:24
so, full disclosure, I'm kind of a nerd.
5
24667
3017
אז למען האמת, אני די חנונית.
00:27
And because I'm kind of a nerd,
6
27708
2393
ומשום שאני די חנונית,
00:30
wherever some new news story comes out
7
30125
2351
בכל פעם שמתפרסמת כתבה חדשה
00:32
about artificial intelligence stealing all our jobs,
8
32500
3434
על בינה מלאכותית שגוזלת לנו את מקומות העבודה,
00:35
or robots getting citizenship of an actual country,
9
35958
4185
או רובוטים שמקבלים אזרחות של מדינה ממשית,
00:40
I'm the person my friends and followers message
10
40167
3142
אני זו שכל החברים והעוקבים פונים אליה,
00:43
freaking out about the future.
11
43333
1542
מבוהלים לגבי העתיד.
00:45
We see this everywhere.
12
45833
2101
אנחנו רואים את זה בכל מקום.
00:47
This media panic that our robot overlords are taking over.
13
47958
4893
הבהלה התקשורתית מכך שהרובוטים, אדונינו, משתלטים.
00:52
We could blame Hollywood for that.
14
52875
1917
אנחנו יכולים להאשים בכך את הוליווד.
00:56
But in reality, that's not the problem we should be focusing on.
15
56125
4125
אך במציאות, זו לא הבעיה בה עלינו להתמקד.
01:01
There is a more pressing danger, a bigger risk with AI,
16
61250
3643
יש סכנה דוחקת יותר, סיכון גדול יותר בהקשר לבינה המלאכותית,
01:04
that we need to fix first.
17
64917
1583
שעלינו לתקן קודם.
01:07
So we are back to this question:
18
67417
2309
ושוב חזרנו לשאלה:
01:09
How many decisions have been made about you today by AI?
19
69750
4708
כמה מההחלטות שנעשו לגביכם היום, נעשו על-ידי בינה מלאכותית?
01:15
And how many of these
20
75792
1976
וכמה מתוכן
01:17
were based on your gender, your race or your background?
21
77792
4500
התבססו על המגדר שלכם, הגזע או הרקע שלכם?
01:24
Algorithms are being used all the time
22
84500
2768
אלגוריתמים משמשים בכל זמן
01:27
to make decisions about who we are and what we want.
23
87292
3833
לקבלת החלטות בהקשר למי שאנחנו ומה שאנו רוצים.
01:32
Some of the women in this room will know what I'm talking about
24
92208
3643
חלק מהנשים בחדר הזה יבינו על מה אני מדברת,
01:35
if you've been made to sit through those pregnancy test adverts on YouTube
25
95875
3768
אם נאלצתן לראות פרסומות לבדיקות הריון ביוטיוב
01:39
like 1,000 times.
26
99667
2059
איזה אלף פעמים.
01:41
Or you've scrolled past adverts of fertility clinics
27
101750
2851
או שגללתן דרך מודעות למרפאות פוריות
01:44
on your Facebook feed.
28
104625
2042
בעדכוני הפייסבוק שלכם.
01:47
Or in my case, Indian marriage bureaus.
29
107625
2393
או במקרה שלי, למשרדי שידוכים הודיים.
01:50
(Laughter)
30
110042
1267
(צחוק)
01:51
But AI isn't just being used to make decisions
31
111333
2976
אבל בינה מלאכותית אינה משמשת רק לקבלת החלטות
01:54
about what products we want to buy
32
114333
2601
עבור המוצרים אותם נקנה
01:56
or which show we want to binge watch next.
33
116958
2500
או התוכנית הבאה לצפיית-רצף (בינג').
02:01
I wonder how you'd feel about someone who thought things like this:
34
121042
5184
אני תוהה איך תרגישו לגבי מישהו שיחשוב דברים כמו:
02:06
"A black or Latino person
35
126250
1934
"לאדם שחור או ממוצא לטיני
02:08
is less likely than a white person to pay off their loan on time."
36
128208
4125
יש סיכוי נמוך מאדם לבן להחזיר את ההלוואה בזמן."
02:13
"A person called John makes a better programmer
37
133542
2809
"אדם ששמו ג'ון הוא מתכנת טוב יותר
02:16
than a person called Mary."
38
136375
1667
מאדם ששמו מרי."
02:19
"A black man is more likely to be a repeat offender than a white man."
39
139250
5083
"לגבר שחור סיכוי גבוה יותר להיות עבריין בהשוואה לגבר לבן."
02:26
You're probably thinking,
40
146958
1268
אתם בטח חושבים לעצמכם:
02:28
"Wow, that sounds like a pretty sexist, racist person," right?
41
148250
3750
"וואו, זה נשמע כמו מישהו סקסיסטי וגזעני למדי" נכון?
02:33
These are some real decisions that AI has made very recently,
42
153000
4851
אלה כמה מההחלטות האמיתיות שבינה מלאכותית קיבלה לאחרונה,
02:37
based on the biases it has learned from us,
43
157875
2934
בהתבסס על ההטיות שהיא למדה מאיתנו,
02:40
from the humans.
44
160833
1250
מבני האדם.
02:43
AI is being used to help decide whether or not you get that job interview;
45
163750
4809
בינה מלאכותית משמשת לסייע בהחלטה האם תתקבלו לעבודה או לא,
02:48
how much you pay for your car insurance;
46
168583
2393
כמה תשלמו עבור ביטוח הרכב,
02:51
how good your credit score is;
47
171000
1893
כמה טוב דירוג האשראי שלכם,
02:52
and even what rating you get in your annual performance review.
48
172917
3125
ואפילו מה הציון שתקבלו בהערכת העובד השנתית שלכם.
02:57
But these decisions are all being filtered through
49
177083
3143
אך החלטות אלה עוברות סינון
03:00
its assumptions about our identity, our race, our gender, our age.
50
180250
5875
מבעד להנחות לגבי זהותנו, הגזע, המגדר והגיל שלנו.
03:08
How is that happening?
51
188250
2268
כיצד זה קורה?
03:10
Now, imagine an AI is helping a hiring manager
52
190542
3517
ובכן, דמיינו בינה מלאכותית שמסייעת למנהל מגייס
03:14
find the next tech leader in the company.
53
194083
2851
במציאת ראש הצוות הטכנולוגי הבא של החברה.
03:16
So far, the manager has been hiring mostly men.
54
196958
3101
עד כה המנהל גייס בעיקר גברים.
03:20
So the AI learns men are more likely to be programmers than women.
55
200083
4750
כך הבינה המלאכותית למדה שלגברים סיכוי גבוה יותר להיות מתכנתים מנשים.
03:25
And it's a very short leap from there to:
56
205542
2892
וזו קפיצה קצרה אף יותר ל:
03:28
men make better programmers than women.
57
208458
2042
גברים הם מתכנתים טובים יותר מנשים.
03:31
We have reinforced our own bias into the AI.
58
211417
3726
הטמענו את ההטיות של עצמנו בתוך הבינה המלאכותית.
03:35
And now, it's screening out female candidates.
59
215167
3625
וכעת היא מסננת מועמדות נשים.
03:40
Hang on, if a human hiring manager did that,
60
220917
3017
חכו רגע, אם מנהל אנושי היה עושה את זה
03:43
we'd be outraged, we wouldn't allow it.
61
223958
2351
היינו מתקוממים, לא היינו מאפשרים זאת.
03:46
This kind of gender discrimination is not OK.
62
226333
3476
אפלייה כזו על רקע מגדר היא לא בסדר.
03:49
And yet somehow, AI has become above the law,
63
229833
4518
ובכל זאת, איכשהו הבינה המלאכותית הפכה להיות מעל לחוק,
03:54
because a machine made the decision.
64
234375
2083
כי זו מכונה שקיבלה את ההחלטה.
03:57
That's not it.
65
237833
1518
וזה לא הכל.
03:59
We are also reinforcing our bias in how we interact with AI.
66
239375
4875
אנחנו גם מטמיעים את הדעות הקדומות שלנו בתקשורת עם הבינה המלאכותית.
04:04
How often do you use a voice assistant like Siri, Alexa or even Cortana?
67
244917
5976
כמה אתם משתמשים בעוזרת קולית כמו סירי, אלכסה או אפילו קורטנה?
04:10
They all have two things in common:
68
250917
2559
לכולן שני דברים במשותף:
04:13
one, they can never get my name right,
69
253500
3101
הראשון, הן לעולם לא יצליחו לקלוט את השם שלי נכון,
04:16
and second, they are all female.
70
256625
2667
והשני, הן כולן נשים.
04:20
They are designed to be our obedient servants,
71
260417
2767
הן מתוכננות להיות המשרתות הצייתניות שלנו,
04:23
turning your lights on and off, ordering your shopping.
72
263208
3250
מכבות ומדליקות עבורכם את האור, מזמינות את הקניות שלכם,
04:27
You get male AIs too, but they tend to be more high-powered,
73
267125
3309
אתם מקבלים גם קולות גבריים, אך הם נוטים להיות משפיעים יותר,
04:30
like IBM Watson, making business decisions,
74
270458
3059
כמו ווטסון של איי.בי.אם, מקבל החלטות עסקיות,
04:33
Salesforce Einstein or ROSS, the robot lawyer.
75
273541
3792
איינשטיין של סיילספורס או רוס, עורך הדין הרובוט.
04:38
So poor robots, even they suffer from sexism in the workplace.
76
278208
4060
מסכנים הרובוטים, אפילו הם סובלים מסקסיזם במקום העבודה.
04:42
(Laughter)
77
282292
1125
(צחוק)
04:44
Think about how these two things combine
78
284542
2851
חישבו איך שני הדברים האלה מתחברים
04:47
and affect a kid growing up in today's world around AI.
79
287417
5309
ומשפיעים על ילד הגדל בעולם של היום בסביבת בינות מלאכותיות.
04:52
So they're doing some research for a school project
80
292750
2934
הם חוקרים קצת במסגרת שיעורי בית
04:55
and they Google images of CEO.
81
295708
3018
ומחפשים בגוגל תמונות של מנכ"ל.
04:58
The algorithm shows them results of mostly men.
82
298750
2893
האלגוריתם יראה להם בעיקר תוצאות של גברים.
05:01
And now, they Google personal assistant.
83
301667
2559
ועכשיו, הם מחפשים בגוגל מזכירות.
05:04
As you can guess, it shows them mostly females.
84
304250
3434
כפי שתוכלו לנחש, הוא יראה להם בעיקר נשים.
05:07
And then they want to put on some music, and maybe order some food,
85
307708
3601
ואז הם ירצו להדליק מוזיקה, ואולי להזמין משהו לאכול,
05:11
and now, they are barking orders at an obedient female voice assistant.
86
311333
6584
ועכשיו הם נובחים פקודות על עוזרת קולית צייתנית.
05:19
Some of our brightest minds are creating this technology today.
87
319542
5309
כמה מהמוחות המבריקים ביותר שלנו הם מיוצרי הטכנולוגיה הזו כיום.
05:24
Technology that they could have created in any way they wanted.
88
324875
4184
טכנולוגיה שהם יכלו ליצור באיזו צורה שיבחרו.
05:29
And yet, they have chosen to create it in the style of 1950s "Mad Man" secretary.
89
329083
5685
ובכל זאת, הם בחרו ליצור אותה בסגנון מזכירה, משנות החמישים.
05:34
Yay!
90
334792
1500
הידד!
05:36
But OK, don't worry,
91
336958
1310
אבל בסדר, אל דאגה.
05:38
this is not going to end with me telling you
92
338292
2059
זה לא הולך להגמר בכך שאומר לכם
05:40
that we are all heading towards sexist, racist machines running the world.
93
340375
3477
שכולנו עומדים בפני מכונות סקסיסטיות וגזעניות שישלטו בעולם.
05:44
The good news about AI is that it is entirely within our control.
94
344792
5791
החדשות הטובות לגבי בינה מלאכותית הן שהיא לגמרי בשליטתנו.
05:51
We get to teach the right values, the right ethics to AI.
95
351333
4000
אנחנו זוכים ללמד אותה את הערכים ואת האתיקה הנכונה.
05:56
So there are three things we can do.
96
356167
2184
יש שלושה דברים שביכולתנו לעשות.
05:58
One, we can be aware of our own biases
97
358375
3351
הראשון, אנו יכולים להיות מודעים לדיעות הקדומות שלנו
06:01
and the bias in machines around us.
98
361750
2726
והדיעות הקדומות של המכונות שבסביבה.
06:04
Two, we can make sure that diverse teams are building this technology.
99
364500
4518
השני, אנו יכולים לוודא כי צוותים מגוונים בונים את הטכנולוגיה הזו.
06:09
And three, we have to give it diverse experiences to learn from.
100
369042
4916
והשלישי, אנו צריכים לספק לה חוויות מגוונות ללמוד מתוכן.
06:14
I can talk about the first two from personal experience.
101
374875
3309
אני יכולה לספר על השניים הראשונים מנסיוני האישי.
06:18
When you work in technology
102
378208
1435
כשאתם עובדים בתחום הטכנולוגי
06:19
and you don't look like a Mark Zuckerberg or Elon Musk,
103
379667
3392
ואתם לא נראים כמו מארק צוקרברג או אילון מאסק,
06:23
your life is a little bit difficult, your ability gets questioned.
104
383083
3750
החיים שלכם קצת יותר קשים, היכולת שלכם מוטלת בספק.
06:27
Here's just one example.
105
387875
1393
הנה רק דוגמה אחת.
06:29
Like most developers, I often join online tech forums
106
389292
3726
כמו רוב המפתחים, לעיתים קרובות אני מתחברת לפורומים טכניים ברשת
06:33
and share my knowledge to help others.
107
393042
3226
וחולקת מהידע שלי כדי לעזור לאחרים.
06:36
And I've found,
108
396292
1309
וגיליתי,
06:37
when I log on as myself, with my own photo, my own name,
109
397625
3976
שכשאני מתחברת בתור עצמי, עם התמונה והשם שלי,
06:41
I tend to get questions or comments like this:
110
401625
4601
אני נוטה לקבל שאלות או תגובות כמו למשל:
06:46
"What makes you think you're qualified to talk about AI?"
111
406250
3000
"מה גורם לך לחשוב שאת מוסמכת לדבר על בינה מלאכותית?"
06:50
"What makes you think you know about machine learning?"
112
410458
3476
"מה גורם לך לחשוב שאת מבינה בלמידת מכונה?"
06:53
So, as you do, I made a new profile,
113
413958
3435
אז כנהוג, יצרתי פרופיל חדש,
06:57
and this time, instead of my own picture, I chose a cat with a jet pack on it.
114
417417
4851
והפעם במקום התמונה שלי, בחרתי בתמונת חתול עם תרמיל ריחוף.
07:02
And I chose a name that did not reveal my gender.
115
422292
2458
ובחרתי בשם שלא חושף את המגדר שלי.
07:05
You can probably guess where this is going, right?
116
425917
2726
אתם בטח יכולים לנחש לאן זה מתקדם, נכון?
07:08
So, this time, I didn't get any of those patronizing comments about my ability
117
428667
6392
ובכן, הפעם לא קיבלתי אף אחת מאותן תגובות פטרוניות לגבי היכולת שלי
07:15
and I was able to actually get some work done.
118
435083
3334
ולמעשה הצלחתי לעבוד קצת.
07:19
And it sucks, guys.
119
439500
1851
וזה גרוע, חברים.
07:21
I've been building robots since I was 15,
120
441375
2476
אני בונה רובוטים מאז גיל 15,
07:23
I have a few degrees in computer science,
121
443875
2268
יש לי כמה תארים במדעי המחשב,
07:26
and yet, I had to hide my gender
122
446167
2434
ובכל זאת, נאלצתי להסתיר את המגדר שלי,
07:28
in order for my work to be taken seriously.
123
448625
2250
על מנת שיקחו ברצינות את העבודה שלי.
07:31
So, what's going on here?
124
451875
1893
אז מה קורה כאן?
07:33
Are men just better at technology than women?
125
453792
3208
האם גברים פשוט טובים יותר בטכנולוגיה מנשים?
07:37
Another study found
126
457917
1559
מחקר נוסף מצא
07:39
that when women coders on one platform hid their gender, like myself,
127
459500
4934
שכאשר מתכנתות בפלטפורמה מסויימת הסתירו את המגדר שלהן, כמוני,
07:44
their code was accepted four percent more than men.
128
464458
3250
הקוד שלהן התקבל ב-4 אחוזים יותר מקוד של הגברים.
07:48
So this is not about the talent.
129
468542
2916
אז הבעיה היא לא בכישרון.
07:51
This is about an elitism in AI
130
471958
2893
היא באליטיזם בתחום הבינה המלאכותית
07:54
that says a programmer needs to look like a certain person.
131
474875
2792
שקובע איך מתכנת אמור להיראות.
07:59
What we really need to do to make AI better
132
479375
3101
מה שאנחנו באמת צריכים לעשות כדי לשפר את הבינה המלאכותית
08:02
is bring people from all kinds of backgrounds.
133
482500
3042
זה להביא אנשים בעלי רקע שונה.
08:06
We need people who can write and tell stories
134
486542
2559
אנו זקוקים לאנשים שיודעים לכתוב ולספר סיפורים
08:09
to help us create personalities of AI.
135
489125
2167
כדי לעזור לנו ליצור את אישיות הבינה המלאכותית.
08:12
We need people who can solve problems.
136
492208
2042
אנו זקוקים לאנשים שיודעים לפתור בעיות.
08:15
We need people who face different challenges
137
495125
3768
אנו זקוקים לאנשים שמתמודדים עם אתגרים שונים
08:18
and we need people who can tell us what are the real issues that need fixing
138
498917
5351
ואנו זקוקים לאנשים שיכולים לומר לנו מה הבעיות האמיתיות שיש לפתור,
08:24
and help us find ways that technology can actually fix it.
139
504292
3041
ושיעזרו לנו למצוא דרכים בהן הטכנולוגיה תוכל לפתור אותן.
08:29
Because, when people from diverse backgrounds come together,
140
509833
3726
משום שכשאנשים ממגוון רקעים נפגשים,
08:33
when we build things in the right way,
141
513583
2143
כשאנו בונים דברים בדרך הנכונה,
08:35
the possibilities are limitless.
142
515750
2042
האפשרויות הן בלתי-מוגבלות.
08:38
And that's what I want to end by talking to you about.
143
518750
3309
וכך אני רוצה לסיים את השיחה שלנו.
08:42
Less racist robots, less machines that are going to take our jobs --
144
522083
4225
פחות רובוטים גזענים, פחות מכונות שגוזלות את המשרות שלנו --
08:46
and more about what technology can actually achieve.
145
526332
3125
ויותר על מה שהטכנולוגיה יכולה באמת להשיג.
08:50
So, yes, some of the energy in the world of AI,
146
530292
3434
אז נכון, חלק מהמשאבים בעולם הבינה המלאכותית,
08:53
in the world of technology
147
533750
1393
בעולם הטכנולוגיה,
08:55
is going to be about what ads you see on your stream.
148
535167
4267
יוקדשו לאילו מודעות תראו ברשת.
08:59
But a lot of it is going towards making the world so much better.
149
539458
5209
אבל חלק גדול יוקדש להפיכת העולם להרבה יותר טוב.
09:05
Think about a pregnant woman in the Democratic Republic of Congo,
150
545500
3768
חישבו על אשה בהריון ברפובליקה הדמוקרטית של קונגו,
09:09
who has to walk 17 hours to her nearest rural prenatal clinic
151
549292
4184
שצריכה ללכת 17 שעות למרפאת הנשים הכפרית הקרובה
09:13
to get a checkup.
152
553500
1851
כדי להבדק.
09:15
What if she could get diagnosis on her phone, instead?
153
555375
2917
מה אם היא תוכל לעבור אבחון בטלפון שלה במקום?
09:19
Or think about what AI could do
154
559750
1809
או חישבו על מה שניתן לעשות
09:21
for those one in three women in South Africa
155
561583
2726
עבור אחת משלוש נשים בדרום אפריקה
09:24
who face domestic violence.
156
564333
2125
שמתמודדות עם אלימות במשפחה.
09:27
If it wasn't safe to talk out loud,
157
567083
2726
אם לא בטוח עבורן לדבר בקול,
09:29
they could get an AI service to raise alarm,
158
569833
2476
הן תוכלנה להיעזר בבינה מלאכותית כדי להתריע,
09:32
get financial and legal advice.
159
572333
2459
לקבל יעוץ כספי וחוקי.
09:35
These are all real examples of projects that people, including myself,
160
575958
5018
אלה דוגמאות אמיתיות של פרוייקטים שאנשים, כולל אני,
09:41
are working on right now, using AI.
161
581000
2500
עובדים עליהם כיום, תוך שימוש בבינה מלאכותית.
09:45
So, I'm sure in the next couple of days there will be yet another news story
162
585542
3601
אני בטוחה שבקרוב יצוץ סיפור חדשותי נוסף
09:49
about the existential risk,
163
589167
2684
על הסיכון הקיומי,
09:51
robots taking over and coming for your jobs.
164
591875
2434
רובוטים שמשתלטים וחומדים את המשרות שלכם.
09:54
(Laughter)
165
594333
1018
(צחוק)
09:55
And when something like that happens,
166
595375
2309
וכשמשהו כזה קורה,
09:57
I know I'll get the same messages worrying about the future.
167
597708
3601
אני יודעת שאקבל את אותן ההודעות בדאגה לגבי העתיד.
10:01
But I feel incredibly positive about this technology.
168
601333
3667
אך אני מרגישה חיובית להפליא בנוגע לטכנולוגיה הזו.
10:07
This is our chance to remake the world into a much more equal place.
169
607458
5959
זו ההזדמנות שלנו להפוך את העולם למקום הרבה יותר שוויוני.
10:14
But to do that, we need to build it the right way from the get go.
170
614458
4000
אך כדי לעשות זאת, עלינו לבנות אותו בדרך הנכונה מהבסיס.
10:19
We need people of different genders, races, sexualities and backgrounds.
171
619667
5083
אנו זקוקים לאנשים ממגוון מגדרים, גזעים, העדפות מיניות ורקעים.
10:26
We need women to be the makers
172
626458
2476
אנו זקוקים לנשים שתהיינה היוצרות
10:28
and not just the machines who do the makers' bidding.
173
628958
3000
ולא רק המכונות עושות דברו של היוצר.
10:33
We need to think very carefully what we teach machines,
174
633875
3768
אנו צריכים לבחון בקפידה מה אנו מלמדים את המכונות,
10:37
what data we give them,
175
637667
1642
אילו נתונים אנו נותנים להן,
10:39
so they don't just repeat our own past mistakes.
176
639333
3125
כדי שהן לא רק תחזורנה על טעויות העבר שלנו.
10:44
So I hope I leave you thinking about two things.
177
644125
3542
אני מקווה שאני מותירה אתכם במחשבה על שני דברים.
10:48
First, I hope you leave thinking about bias today.
178
648542
4559
ראשית, אני מקווה שאשאיר אתכם חושבים על דעות קדומות היום.
10:53
And that the next time you scroll past an advert
179
653125
3184
ושבפעם הבאה שתתקלו במודעה ברשת
10:56
that assumes you are interested in fertility clinics
180
656333
2810
שמניחה שאתם מתעניינים במרפאות פוריות,
10:59
or online betting websites,
181
659167
2851
או אתרי הימורים,
11:02
that you think and remember
182
662042
2017
שתחשבו על כך ותזכרו
11:04
that the same technology is assuming that a black man will reoffend.
183
664083
4625
שזו אותה הטכנולוגיה שמניחה שגבר שחור יהיה עבריין חוזר.
11:09
Or that a woman is more likely to be a personal assistant than a CEO.
184
669833
4167
או שלאשה סיכוי גדול יותר להיות עוזרת אישית מאשר מנכ"לית.
11:14
And I hope that reminds you that we need to do something about it.
185
674958
3709
ואני מקווה שזה יזכיר לכם שעלינו לפעול בעניין.
11:20
And second,
186
680917
1851
ושנית,
11:22
I hope you think about the fact
187
682792
1892
אני מקווה שתחשבו על העובדה
11:24
that you don't need to look a certain way
188
684708
1976
שאתם לא צריכים להיות בעלי מראה מסוים
11:26
or have a certain background in engineering or technology
189
686708
3851
או שיהיה לכם רקע מסוים בהנדסה או טכנולוגיה
11:30
to create AI,
190
690583
1268
כדי ליצור בינה מלאכותית,
11:31
which is going to be a phenomenal force for our future.
191
691875
2875
שתהיה בעלת השפעה מכרעת על עתידנו.
11:36
You don't need to look like a Mark Zuckerberg,
192
696166
2143
אתם לא צריכים להיראות כמו מארק צוקרברג,
11:38
you can look like me.
193
698333
1250
אתם יכולים להיראות כמוני.
11:41
And it is up to all of us in this room
194
701250
2893
ובאחריות כל מי שנמצא בחדר הזה
11:44
to convince the governments and the corporations
195
704167
2726
לשכנע את הממשלות והתאגידים
11:46
to build AI technology for everyone,
196
706917
2892
לבנות טכנולוגיות בינה מלאכותית המיועדות לכולם,
11:49
including the edge cases.
197
709833
2393
כולל מקרי קצה.
11:52
And for us all to get education
198
712250
2059
ולאפשר לכולנו השכלה
11:54
about this phenomenal technology in the future.
199
714333
2375
בתחום הטכנולוגיה הייחודית הזו בעתיד.
11:58
Because if we do that,
200
718167
2017
כי אם נעשה זאת,
12:00
then we've only just scratched the surface of what we can achieve with AI.
201
720208
4893
זה יהיה רק מעט ממה שנוכל להשיג בעזרת בינה מלאכותית.
12:05
Thank you.
202
725125
1268
תודה.
12:06
(Applause)
203
726417
2708
(מחיאות כפיים)
על אתר זה

אתר זה יציג בפניכם סרטוני YouTube המועילים ללימוד אנגלית. תוכלו לראות שיעורי אנגלית המועברים על ידי מורים מהשורה הראשונה מרחבי העולם. לחץ פעמיים על הכתוביות באנגלית המוצגות בכל דף וידאו כדי להפעיל את הסרטון משם. הכתוביות גוללות בסנכרון עם הפעלת הווידאו. אם יש לך הערות או בקשות, אנא צור איתנו קשר באמצעות טופס יצירת קשר זה.

https://forms.gle/WvT1wiN1qDtmnspy7