How will AI change the world?

1,995,079 views ・ 2022-12-06

TED-Ed


אנא לחץ פעמיים על הכתוביות באנגלית למטה כדי להפעיל את הסרטון.

תרגום: zeeva livshitz עריכה: Ido Dekkers
בשנים הקרובות, בינה מלאכותית
00:07
In the coming years, artificial intelligence
0
7336
2169
תשנה כנראה את חייכם, וכנראה את העולם כולו.
00:09
is probably going to change your life, and likely the entire world.
1
9505
3629
אבל לאנשים קשה להסכים על איך בדיוק.
00:13
But people have a hard time agreeing on exactly how.
2
13301
3295
להלן קטעים מתוך ראיון של הפורום הכלכלי העולמי
00:16
The following are excerpts from an interview
3
16804
2127
00:18
where renowned computer science professor and AI expert Stuart Russell
4
18931
3504
שבו פרופסור ידוע למדעי המחשב ומומחה הבינה המלאכותית סטיוארט ראסל
00:22
helps separate the sense from the nonsense.
5
22435
2586
עוזר להפריד את ההגיוני מהשטותי.
00:25
There’s a big difference between asking a human to do something
6
25313
3754
יש הבדל גדול בין לבקש בן אדם לעשות משהו
00:29
and giving that as the objective to an AI system.
7
29067
3461
ולתת את זה כמטרה למערכת AI.
00:32
When you ask a human to get you a cup of coffee,
8
32528
2628
כשאתה מבקש מאדם לתת לך כוס קפה,
00:35
you don’t mean this should be their life’s mission,
9
35156
2586
אתה לא מתכוון שזה צריך להיות משימת חייו,
00:37
and nothing else in the universe matters.
10
37742
1960
ושום דבר אחר ביקום לא משנה.
00:39
Even if they have to kill everybody else in Starbucks
11
39702
2586
גם אם הם יצטרכו להרוג את כל האחרים בסטארבקס
00:42
to get you the coffee before it closes— they should do that.
12
42288
2836
להביא לך את הקפה לפני שהוא נסגר- הם צריכים לעשות את זה.
00:45
No, that’s not what you mean.
13
45124
1627
לא, לא לזה אתה מתכוון.
00:46
All the other things that we mutually care about,
14
46751
2294
כל שאר הדברים שאכפת לנו מהם באופן הדדי,
00:49
they should factor into your behavior as well.
15
49045
2169
הם צריכים לקחת בחשבון גם את ההתנהגות שלך.
00:51
And the problem with the way we build AI systems now
16
51214
3169
והבעיה עם הדרך שאנחנו בונים מערכות בינה מלאכותית עכשיו
00:54
is we give them a fixed objective.
17
54383
1627
היא שאנו נותנים להם מטרה קבועה.
00:56
The algorithms require us to specify everything in the objective.
18
56010
3545
האלגוריתמים דורשים מאיתנו לציין הכל במטרה.
00:59
And if you say, can we fix the acidification of the oceans?
19
59555
3420
ואם אתם שואלים, האם נוכל לתקן את החמצת האוקיינוסים?
01:02
Yeah, you could have a catalytic reaction that does that extremely efficiently,
20
62975
4046
כן, יכולה להיות לכם תגובה קטליטית שעושה את זה ביעילות רבה,
01:07
but it consumes a quarter of the oxygen in the atmosphere,
21
67021
3253
אבל זה צורך רבע של החמצן באטמוספירה,
01:10
which would apparently cause us to die fairly slowly and unpleasantly
22
70274
3712
מה שכנראה יגרום לנו למות די לאט ובאופן לא נעים
01:13
over the course of several hours.
23
73986
1752
במהלך מספר שעות.
01:15
So, how do we avoid this problem?
24
75780
3211
אז איך נמנעים מבעיה זו?
01:18
You might say, okay, well, just be more careful about specifying the objective—
25
78991
4088
אתם יכולים להגיד, בסדר, טוב, פשוט תהיו יותר זהירים בהקפדה לציין את המטרה--
01:23
don’t forget the atmospheric oxygen.
26
83079
2544
אל תשכחו את החמצן האטמוספרי.
01:25
And then, of course, some side effect of the reaction in the ocean
27
85873
3545
ואז, כמובן, תופעות לוואי אחדות של התגובה באוקיינוס
01:29
poisons all the fish.
28
89418
1377
מרעילה את כל הדגים.
01:30
Okay, well I meant don’t kill the fish either.
29
90795
2669
אוקיי, טוב התכוונתי שלא תהרגו את הדגים גם כן.
01:33
And then, well, what about the seaweed?
30
93464
1919
ואז, נו, מה לגבי האצות?
01:35
Don’t do anything that’s going to cause all the seaweed to die.
31
95383
2961
אל תעשו שום דבר שהולך לגרום לכל האצות למות.
01:38
And on and on and on.
32
98344
1210
ועוד ועוד ועוד ועוד.
01:39
And the reason that we don’t have to do that with humans is that
33
99679
3920
והסיבה שאנחנו לא צריכים לעשות את זה עם בני אדם היא
01:43
humans often know that they don’t know all the things that we care about.
34
103599
4505
שבני אדם יודעים לעתים קרובות שהם לא יודעים
את כל הדברים שאכפת לנו מהם. אם תבקשו מאדם להשיג לכם כוס קפה,
01:48
If you ask a human to get you a cup of coffee,
35
108354
2961
01:51
and you happen to be in the Hotel George Sand in Paris,
36
111315
2878
ואתם במקרה במלון ג‘ורג’ סנד בפריז,
01:54
where the coffee is 13 euros a cup,
37
114193
2628
שבו מחיר הקפה הוא 13 יורו לספל,
01:56
it’s entirely reasonable to come back and say, well, it’s 13 euros,
38
116821
4171
זה לגמרי הגיוני לחזור ולומר, ובכן, זה 13 יורו,
02:00
are you sure you want it, or I could go next door and get one?
39
120992
2961
אתם בטוחים שאתם רוצים את זה, או שאוכל ללכת ולקבל אחד ליד הבית ?
02:03
And it’s a perfectly normal thing for a person to do.
40
123953
2878
וזה דבר נורמלי לחלוטין לאדם לעשות.
02:07
To ask, I’m going to repaint your house—
41
127039
3003
לשאול, אני הולך לצבוע מחדש את הבית שלכם-
02:10
is it okay if I take off the drainpipes and then put them back?
42
130042
3337
זה בסדר אם אני אוריד את צינורות הניקוז ואז אחזיר אותם?
02:13
We don't think of this as a terribly sophisticated capability,
43
133504
3128
אנחנו לא חושבים על זה כעל יכולת מתוחכמת נורא,
02:16
but AI systems don’t have it because the way we build them now,
44
136632
3087
אבל למערכות AI אין את זה כי איך שאנחנו בונים אותן עכשיו,
02:19
they have to know the full objective.
45
139719
1793
הן צריכות לדעת את המטרה המלאה.
02:21
If we build systems that know that they don’t know what the objective is,
46
141721
3753
אם נבנה מערכות שיודעות שהן לא יודעות מה המטרה,
02:25
then they start to exhibit these behaviors,
47
145474
2586
אז הן מתחילות להציג התנהגויות אלו,
02:28
like asking permission before getting rid of all the oxygen in the atmosphere.
48
148060
4046
כמו לבקש רשות לפני שנפטרים מכל החמצן באטמוספרה.
02:32
In all these senses, control over the AI system
49
152565
3378
בכל המובנים האלה, שליטה על מערכת הבינה המלאכותית
02:35
comes from the machine’s uncertainty about what the true objective is.
50
155943
4463
נובעת מאי הוודאות של המכונה מה המטרה האמיתית.
02:41
And it’s when you build machines that believe with certainty
51
161282
3086
וכשאתם בונים מכונות שמאמינות בוודאות
02:44
that they have the objective,
52
164368
1418
שיש להן את המטרה,
02:45
that’s when you get this sort of psychopathic behavior.
53
165786
2753
אז אתם מקבלים סוג זה של התנהגות פסיכופתית.
02:48
And I think we see the same thing in humans.
54
168539
2127
ואני חושב שאנחנו רואים אותו דבר בבני אדם.
02:50
What happens when general purpose AI hits the real economy?
55
170750
4254
מה קורה כאשר AI למטרה כללית פוגע בכלכלה האמיתית?
02:55
How do things change? Can we adapt?
56
175379
3587
איך דברים משתנים? האם נוכל להסתגל?
02:59
This is a very old point.
57
179175
1835
זו נקודה ישנה מאוד.
03:01
Amazingly, Aristotle actually has a passage where he says,
58
181010
3587
למרבה הפלא, לאריסטו למעשה יש קטע שבו הוא אומר,
03:04
look, if we had fully automated weaving machines
59
184597
3045
תראו, אם היו לנו מכונות אריגה אוטומטיות לחלוטין
03:07
and plectrums that could pluck the lyre and produce music without any humans,
60
187642
3837
ומפרטים שיכולים לפרוט על הלירה ולהפיק מוזיקה ללא בני אדם,
03:11
then we wouldn’t need any workers.
61
191604
2002
אז לא נצטרך שום עובדים.
03:13
That idea, which I think it was Keynes
62
193814
2878
הרעיון הזה, שלדעתי זה היה קיינס
03:16
who called it technological unemployment in 1930,
63
196692
2836
שקרא לזה אבטלה טכנולוגית בשנת 1930,
03:19
is very obvious to people.
64
199528
1919
ברור מאוד לאנשים.
03:21
They think, yeah, of course, if the machine does the work,
65
201447
3086
הם חושבים, כן, כמובן, אם המכונה עושה את העבודה,
03:24
then I'm going to be unemployed.
66
204533
1669
אז אני הולך להיות מובטל.
03:26
You can think about the warehouses that companies are currently operating
67
206369
3503
אפשר לחשוב על המחסנים שחברות מפעילות כיום
03:29
for e-commerce, they are half automated.
68
209872
2711
עבור מסחר אלקטרוני, הם חצי אוטומטיים.
03:32
The way it works is that an old warehouse— where you’ve got tons of stuff piled up
69
212583
4046
הדרך שבה זה עובד היא שמחסן ישן- שבו יש לכם טונות של דברים שנערמו
03:36
all over the place and humans go and rummage around
70
216629
2461
סביב כל המקום ובני אדם הולכים ומפשפשים
03:39
and then bring it back and send it off—
71
219090
1877
ואז מחזירים אותם ושולחים אותם -
03:40
there’s a robot who goes and gets the shelving unit
72
220967
3586
יש רובוט שהולך ומקבל את יחידת המדפים
03:44
that contains the thing that you need,
73
224553
1919
שמכילים את הדבר שאתה צריך,
03:46
but the human has to pick the object out of the bin or off the shelf,
74
226472
3629
אבל האדם צריך לבחור את החפץ החוצה מהתא או המדף
03:50
because that’s still too difficult.
75
230101
1877
כי זה עדיין קשה מדי.
03:52
But, at the same time,
76
232019
2002
אבל באותו זמן,
03:54
would you make a robot that is accurate enough to be able to pick
77
234021
3921
האם הייתם מייצרים רובוט מדויק מספיק כדי להיות מסוגל לבחור
03:57
pretty much any object within a very wide variety of objects that you can buy?
78
237942
4338
כמעט כל אובייקט בתוך מגוון חפצים רחב מאוד שאתם יכולים לקנות?
04:02
That would, at a stroke, eliminate 3 or 4 million jobs?
79
242280
4004
שיחסל בבת אחת, 3 או 4 מיליון מקומות עבודה?
04:06
There's an interesting story that E.M. Forster wrote,
80
246409
3336
יש סיפור מעניין שכתב א.מ. פורסטר,
04:09
where everyone is entirely machine dependent.
81
249745
3504
שבו כולם תלויים לגמרי במכונה.
04:13
The story is really about the fact that if you hand over
82
253499
3754
הסיפור הוא באמת על המצב שאם אתם מוסרים
04:17
the management of your civilization to machines,
83
257253
2961
את ניהול הציוויליזציה שלכם למכונות,
04:20
you then lose the incentive to understand it yourself
84
260214
3504
אתם מאבדים את התמריץ להבין את זה בעצמכם
04:23
or to teach the next generation how to understand it.
85
263718
2544
או ללמד את הדור הבא איך להבין את זה.
04:26
You can see “WALL-E” actually as a modern version,
86
266262
3003
אתם יכולים לראות את “וול-E” למעשה כגרסה מודרנית,
04:29
where everyone is enfeebled and infantilized by the machine,
87
269265
3628
שבה כולם מוחלשים ונעשים תלותיים על ידי המכונה,
04:32
and that hasn’t been possible up to now.
88
272893
1961
וזה לא היה אפשרי עד עכשיו.
04:34
We put a lot of our civilization into books,
89
274854
2419
אנחנו מכניסים הרבה מהציוויליזציה שלנו לתוך ספרים,
04:37
but the books can’t run it for us.
90
277273
1626
אבל הם לא יכולים להפעיל את זה עבורנו.
04:38
And so we always have to teach the next generation.
91
278899
2795
ולכן עלינו תמיד ללמד את הדור הבא.
04:41
If you work it out, it’s about a trillion person years of teaching and learning
92
281736
4212
אם תחשבו את זה, זה בערך טריליון שנות אדם של הוראה ולמידה
04:45
and an unbroken chain that goes back tens of thousands of generations.
93
285948
3962
ושרשרת שלא נשברת שחוזרת לאחור עשרות אלפי דורות.
04:50
What happens if that chain breaks?
94
290119
1919
מה יקרה אם השרשרת הזו נשברת?
04:52
I think that’s something we have to understand as AI moves forward.
95
292038
3461
אני חושב שזה משהו שעלינו להבין כשה-AI מתקדמת.
04:55
The actual date of arrival of general purpose AI—
96
295624
3587
את תאריך ההגעה בפועל של AI למטרות כלליות—
04:59
you’re not going to be able to pinpoint, it isn’t a single day.
97
299211
3087
לא תצליחו לזהות, זה לא יום אחד.
05:02
It’s also not the case that it’s all or nothing.
98
302298
2294
זה גם לא המקרה שזה הכל או כלום.
05:04
The impact is going to be increasing.
99
304592
2461
ההשפעה הולכת לגדול.
05:07
So with every advance in AI,
100
307053
2043
אז עם כל התקדמות ב-AI,
05:09
it significantly expands the range of tasks.
101
309096
2962
זה מרחיב בצורה משמעותית את מגוון המשימות.
05:12
So in that sense, I think most experts say by the end of the century,
102
312058
5338
אז במובן הזה, אני חושב שרוב המומחים אומרים שעד סוף המאה,
05:17
we’re very, very likely to have general purpose AI.
103
317396
3337
סביר מאוד מאוד שתהיה לנו AI למטרות כלליות.
05:20
The median is something around 2045.
104
320733
3754
החציון הוא משהו בסביבות 2045.
05:24
I'm a little more on the conservative side.
105
324487
2002
אני קצת יותר על הצד השמרני.
05:26
I think the problem is harder than we think.
106
326489
2085
אני חושב שהבעיה קשה יותר ממה שאנחנו חושבים.
05:28
I like what John McAfee, he was one of the founders of AI,
107
328574
3253
אני אוהב את מה שג’ון מקאפי, שהיה אחד ממייסדי הבינה המלאכותית,
05:31
when he was asked this question, he said, somewhere between five and 500 years.
108
331911
3837
כששאלו אותו את השאלה הזו הוא אמר איפוא שהוא בין חמש ל-500 שנים.
05:35
And we're going to need, I think, several Einsteins to make it happen.
109
335748
3337
ונצטרך, אני חושב, כמה איינשטיינים כדי לגרום לזה לקרות.

Original video on YouTube.com
על אתר זה

אתר זה יציג בפניכם סרטוני YouTube המועילים ללימוד אנגלית. תוכלו לראות שיעורי אנגלית המועברים על ידי מורים מהשורה הראשונה מרחבי העולם. לחץ פעמיים על הכתוביות באנגלית המוצגות בכל דף וידאו כדי להפעיל את הסרטון משם. הכתוביות גוללות בסנכרון עם הפעלת הווידאו. אם יש לך הערות או בקשות, אנא צור איתנו קשר באמצעות טופס יצירת קשר זה.

https://forms.gle/WvT1wiN1qDtmnspy7