Damon Horowitz calls for a "moral operating system"

94,639 views ・ 2011-06-06

TED


אנא לחץ פעמיים על הכתוביות באנגלית למטה כדי להפעיל את הסרטון.

מתרגם: Yubal Masalker מבקר: Ido Dekkers
00:15
Power.
0
15260
2000
כח.
00:17
That is the word that comes to mind.
1
17260
2000
זו המילה שעולה בדעתנו.
00:19
We're the new technologists.
2
19260
2000
אנחנו הטכנולוגים החדשים.
00:21
We have a lot of data, so we have a lot of power.
3
21260
3000
יש לנו המון נתונים, לכן יש לנו המון כח.
00:24
How much power do we have?
4
24260
2000
כמה כח יש לנו?
00:26
Scene from a movie: "Apocalypse Now" -- great movie.
5
26260
3000
קטע מסרט: "אפוקליפסה עכשיו" -- סרט נהדר.
00:29
We've got to get our hero, Captain Willard, to the mouth of the Nung River
6
29260
3000
אנו חייבים להעביר את גיבורנו, קפטן וילארד, אל מוצא נהר ה"נונג"
00:32
so he can go pursue Colonel Kurtz.
7
32260
2000
כדי שיוכל לרדוף אחר קולונל קורץ.
00:34
The way we're going to do this is fly him in and drop him off.
8
34260
2000
אנו נעשה זאת בדרך של הטסתו לשם והשלכתו.
00:36
So the scene:
9
36260
2000
זה הקטע:
00:38
the sky is filled with this fleet of helicopters carrying him in.
10
38260
3000
השמיים מלאים בצי של מסוקים הנושא אותו.
00:41
And there's this loud, thrilling music in the background,
11
41260
2000
ויש את המוסיקה הרועשת והמפחידה ברקע,
00:43
this wild music.
12
43260
2000
מוזיקה פראית זו.
00:45
♫ Dum da ta da dum ♫
13
45260
2000
♫ דאם דא טא דא דאם ♫
00:47
♫ Dum da ta da dum ♫
14
47260
2000
♫ דאם דא טא דא דאם ♫
00:49
♫ Da ta da da ♫
15
49260
3000
♫ דאם טא דא דא ♫
00:52
That's a lot of power.
16
52260
2000
זו המון עוצמה.
00:54
That's the kind of power I feel in this room.
17
54260
2000
זו העוצמה שאני מרגיש באולם זה.
00:56
That's the kind of power we have
18
56260
2000
זה סוג העוצמה שיש לנו
00:58
because of all of the data that we have.
19
58260
2000
בגלל כל הנתונים שיש לנו.
01:00
Let's take an example.
20
60260
2000
הבה ניקח דוגמא אחת.
01:02
What can we do
21
62260
2000
מה אנו יכולים לעשות
01:04
with just one person's data?
22
64260
3000
רק עם נתונים של אדם אחד?
01:07
What can we do
23
67260
2000
מה אנו יכולים לעשות
01:09
with that guy's data?
24
69260
2000
עם נתונים של אותו אדם?
01:11
I can look at your financial records.
25
71260
2000
אני יכול להסתכל בנתונים הכספיים שלך.
01:13
I can tell if you pay your bills on time.
26
73260
2000
אני יכול לומר אם אתה משלם חשבונות בזמן.
01:15
I know if you're good to give a loan to.
27
75260
2000
אני יודע אם אתה טוב בשביל לתת לך הלוואה.
01:17
I can look at your medical records; I can see if your pump is still pumping --
28
77260
3000
אני יכול להסתכל בתיק הרפואי שלך, אני יכול לראות אם המשאבה שלך עדיין פועמת --
01:20
see if you're good to offer insurance to.
29
80260
3000
ולראות אם כדאי להציע לך ביטוח.
01:23
I can look at your clicking patterns.
30
83260
2000
אני יכול להסתכל לתוך דפוסי ההקשות שלך.
01:25
When you come to my website, I actually know what you're going to do already
31
85260
3000
כאשר אתה מגיע לאתר שלי, אני כבר יודע מה אתה הולך לעשות,
01:28
because I've seen you visit millions of websites before.
32
88260
2000
כי ראיתי אותך כבר מבקר מיליוני אתרים.
01:30
And I'm sorry to tell you,
33
90260
2000
ואני מצטער לומר לך,
01:32
you're like a poker player, you have a tell.
34
92260
2000
שאתה כמו שחקן פוקר, מופיעים עליך סימנים.
01:34
I can tell with data analysis what you're going to do
35
94260
2000
מניתוח הנתונים אני יכול לומר מה אתה הולך לעשות
01:36
before you even do it.
36
96260
2000
לפני שאתה עצמך אפילו עושה.
01:38
I know what you like. I know who you are,
37
98260
3000
אני יודע מה אתה אוהב. אני יודע מי אתה.
01:41
and that's even before I look at your mail
38
101260
2000
וזה אפילו לפני שראיתי את הדואר שלך
01:43
or your phone.
39
103260
2000
או את הטלפון שלך.
01:45
Those are the kinds of things we can do
40
105260
2000
אלה מסוג הדברים שאנו יכולים לעשות
01:47
with the data that we have.
41
107260
3000
בעזרת הנתונים שיש לנו.
01:50
But I'm not actually here to talk about what we can do.
42
110260
3000
אבל בעצם אני לא נמצא כאן כדי לדבר מה אנו יכולים לעשות.
01:56
I'm here to talk about what we should do.
43
116260
3000
אני כאן כדי לדבר מה אנו צריכים לעשות.
02:00
What's the right thing to do?
44
120260
3000
מהו הדבר הנכון לעשותו?
02:04
Now I see some puzzled looks
45
124260
2000
אני מבחין בכמה מבטים משתאים
02:06
like, "Why are you asking us what's the right thing to do?
46
126260
3000
כאילו, "מדוע אתה שואל אותנו מהו הדבר הנכון לעשות?
02:09
We're just building this stuff. Somebody else is using it."
47
129260
3000
אנו רק בונים את הדברים. מישהו אחר משתמש בזה."
02:12
Fair enough.
48
132260
3000
זה די נכון.
02:15
But it brings me back.
49
135260
2000
אבל זה מחזיר אותי אחורה.
02:17
I think about World War II --
50
137260
2000
אני חושב על מלחמת העולם השניה --
02:19
some of our great technologists then,
51
139260
2000
כמה מאנשי הטכנולוגיה הגדולים שלנו אז,
02:21
some of our great physicists,
52
141260
2000
כמה מהפיזיקאים הגדולים שלנו,
02:23
studying nuclear fission and fusion --
53
143260
2000
שחקרו ביקוע והיתוך גרעיניים --
02:25
just nuclear stuff.
54
145260
2000
פשוט דברים גרעיניים.
02:27
We gather together these physicists in Los Alamos
55
147260
3000
אספנו ביחד פיזיקאים אלו בלוס אלמוס
02:30
to see what they'll build.
56
150260
3000
כדי לראות מה הם יוכלו לבנות.
02:33
We want the people building the technology
57
153260
3000
אנו רוצים שאנשים ייצרו טכנולוגיה
02:36
thinking about what we should be doing with the technology.
58
156260
3000
בחושבנו על מה שאנו צריכים לעשות עם הטכנולוגיה.
02:41
So what should we be doing with that guy's data?
59
161260
3000
אז מה עלינו לעשות עם הנתונים של אותו אדם?
02:44
Should we be collecting it, gathering it,
60
164260
3000
האם עלינו להמשיך לאסוף אותם,
02:47
so we can make his online experience better?
61
167260
2000
כדי שנוכל לשפר את חוויית האינטרנט שלו?
02:49
So we can make money?
62
169260
2000
כדי שנוכל לעשות כסף?
02:51
So we can protect ourselves
63
171260
2000
כדי להגן על עצמנו
02:53
if he was up to no good?
64
173260
2000
אם הוא עושה בעיות?
02:55
Or should we respect his privacy,
65
175260
3000
או שעלינו לכבד את פרטיותו,
02:58
protect his dignity and leave him alone?
66
178260
3000
לשמור על כבודו ולעזוב אותו לנפשו?
03:02
Which one is it?
67
182260
3000
מהו הדבר הנכון?
03:05
How should we figure it out?
68
185260
2000
כיצד נוכל לדעת זאת?
03:07
I know: crowdsource. Let's crowdsource this.
69
187260
3000
אני יודע: הבה נעשה לזה מיקור-קהל.
03:11
So to get people warmed up,
70
191260
3000
לכן בתור תרגיל-חימום לקהל,
03:14
let's start with an easy question --
71
194260
2000
נתחיל עם שאלה קלה --
03:16
something I'm sure everybody here has an opinion about:
72
196260
3000
משהו שאני בטוח שלכל אחד כאן יש דעה עליו:
03:19
iPhone versus Android.
73
199260
2000
אייפון כנגד אנדרואיד.
03:21
Let's do a show of hands -- iPhone.
74
201260
3000
בואו נעשה הצבעה -- אייפון.
03:24
Uh huh.
75
204260
2000
אה הה.
03:26
Android.
76
206260
3000
אנדרואיד.
03:29
You'd think with a bunch of smart people
77
209260
2000
אפשר היה לחשוב שעם חבורת אנשים פיקחים
03:31
we wouldn't be such suckers just for the pretty phones.
78
211260
2000
לא נהיה כאלה פראיירים הנמשכים רק לטלפונים יפים.
03:33
(Laughter)
79
213260
2000
(צחוק)
03:35
Next question,
80
215260
2000
שאלה הבאה,
03:37
a little bit harder.
81
217260
2000
קצת יותר קשה.
03:39
Should we be collecting all of that guy's data
82
219260
2000
האם עלינו לאסוף את כל הנתונים של אותו אדם
03:41
to make his experiences better
83
221260
2000
כדי לשפר את החווייה שלו
03:43
and to protect ourselves in case he's up to no good?
84
223260
3000
וכדי להגן עלינו אם במקרה הוא עושה צרות?
03:46
Or should we leave him alone?
85
226260
2000
או שעלינו לעזבו לנפשו?
03:48
Collect his data.
86
228260
3000
לאסוף את נתוניו.
03:53
Leave him alone.
87
233260
3000
לעזבו לנפשו.
03:56
You're safe. It's fine.
88
236260
2000
אתם מוגנים. זה בסדר גמור.
03:58
(Laughter)
89
238260
2000
(צחוק)
04:00
Okay, last question --
90
240260
2000
טוב, שאלה אחרונה --
04:02
harder question --
91
242260
2000
יותר קשה --
04:04
when trying to evaluate
92
244260
3000
כאשר מנסים להעריך
04:07
what we should do in this case,
93
247260
3000
מה עלינו לעשות במקרה כזה,
04:10
should we use a Kantian deontological moral framework,
94
250260
4000
האם עלינו להשתמש בעקרונות מוסר דיאונטולוגיים של קאנט,
04:14
or should we use a Millian consequentialist one?
95
254260
3000
או שעלינו לעשות שימוש בעקרונות מוסר תוצאתיים של מיל?
04:19
Kant.
96
259260
3000
קאנט.
04:22
Mill.
97
262260
3000
מיל.
04:25
Not as many votes.
98
265260
2000
אין הרבה דעות כמו קודם.
04:27
(Laughter)
99
267260
3000
(צחוק)
04:30
Yeah, that's a terrifying result.
100
270260
3000
זו תוצאה מפחידה.
04:34
Terrifying, because we have stronger opinions
101
274260
4000
מפחידה כי יש לנו דעות יותר מוצקות
04:38
about our hand-held devices
102
278260
2000
על המכשירים הנישאים שלנו
04:40
than about the moral framework
103
280260
2000
מאשר על עקרונות מוסר
04:42
we should use to guide our decisions.
104
282260
2000
שעלינו להשתמש בהם כקוים מנחים להחלטותינו.
04:44
How do we know what to do with all the power we have
105
284260
3000
כיצד נדע מה לעשות עם כל הכח שבידינו
04:47
if we don't have a moral framework?
106
287260
3000
אם אין לנו עקרונות מוסר?
04:50
We know more about mobile operating systems,
107
290260
3000
אנו יודעים יותר על מערכות הפעלה לטלפונים ניידים,
04:53
but what we really need is a moral operating system.
108
293260
3000
אבל מה שאנו באמת זקוקים לו זה מערכת הפעלה למוסר.
04:58
What's a moral operating system?
109
298260
2000
מהי מערכת הפעלה למוסר?
05:00
We all know right and wrong, right?
110
300260
2000
כולנו יודעים מה טוב ומה רע.
05:02
You feel good when you do something right,
111
302260
2000
אנו מרגישים טוב כאשר עושים משהו נכון,
05:04
you feel bad when you do something wrong.
112
304260
2000
אנו מרגישים רע כאשר עושים משהו שגוי.
05:06
Our parents teach us that: praise with the good, scold with the bad.
113
306260
3000
הורינו חינכו אותנו לזה: דברי שבח על משהו טוב, נזיפה על משהו רע.
05:09
But how do we figure out what's right and wrong?
114
309260
3000
אבל כיצד יודעים מה נכון ומה לא?
05:12
And from day to day, we have the techniques that we use.
115
312260
3000
ומיום ליום, יש לנו טכניקות שאנו משתמשים.
05:15
Maybe we just follow our gut.
116
315260
3000
אולי אנו רק פועלים על-פי תחושות בטן.
05:18
Maybe we take a vote -- we crowdsource.
117
318260
3000
אולי אנו עושים הצבעה -- מיקור-קהל.
05:21
Or maybe we punt --
118
321260
2000
או אולי מהמרים --
05:23
ask the legal department, see what they say.
119
323260
3000
שואלים את המחלקה למשפטים ומחכים לחוות דעתה.
05:26
In other words, it's kind of random,
120
326260
2000
במילים אחרות, זה הכל אקראי,
05:28
kind of ad hoc,
121
328260
2000
מין אילתור,
05:30
how we figure out what we should do.
122
330260
3000
איך שאנו מגלים מה עלינו לעשות.
05:33
And maybe, if we want to be on surer footing,
123
333260
3000
ואולי, אם ברצוננו להיות יותר בטוחים,
05:36
what we really want is a moral framework that will help guide us there,
124
336260
3000
מה שאנו באמת צריכים זה עקרונות מוסר שיסייעו לנו להגיע לזה,
05:39
that will tell us what kinds of things are right and wrong in the first place,
125
339260
3000
שיגידו לנו מלכתחילה מהם הדברים הנכונים ומהם הלא נכונים,
05:42
and how would we know in a given situation what to do.
126
342260
4000
וכיצד נדע במצב נתון מה לעשות.
05:46
So let's get a moral framework.
127
346260
2000
אז הבה נבנה עקרונות מוסר.
05:48
We're numbers people, living by numbers.
128
348260
3000
אנו אנשי המספרים, חיים על-פי מספרים.
05:51
How can we use numbers
129
351260
2000
כיצד נוכל להשתמש במספרים
05:53
as the basis for a moral framework?
130
353260
3000
כבסיס לעקרונות מוסר?
05:56
I know a guy who did exactly that.
131
356260
3000
אני מכיר מישהו שעשה בדיוק זאת,
05:59
A brilliant guy --
132
359260
3000
אדם מבריק --
06:02
he's been dead 2,500 years.
133
362260
3000
הוא מת לפני 2,500 שנה.
06:05
Plato, that's right.
134
365260
2000
אפלטון, הוא בדיוק.
06:07
Remember him -- old philosopher?
135
367260
2000
זוכרים אותו -- פילוסוף זקן?
06:09
You were sleeping during that class.
136
369260
3000
בטח ישנתם באותו שיעור.
06:12
And Plato, he had a lot of the same concerns that we did.
137
372260
2000
ואפלטון, היו לו אותן הדאגות שיש לנו.
06:14
He was worried about right and wrong.
138
374260
2000
הוא היה מודאג בקשר לטוב ורע.
06:16
He wanted to know what is just.
139
376260
2000
הוא רצה לדעת מה צודק.
06:18
But he was worried that all we seem to be doing
140
378260
2000
אבל הוא היה מודאג שכל מה שאנו עושים
06:20
is trading opinions about this.
141
380260
2000
זה החלפת דעות על כך.
06:22
He says something's just. She says something else is just.
142
382260
3000
הוא אומר שמשהו צודק. היא אומרת שמשהו אחר צודק.
06:25
It's kind of convincing when he talks and when she talks too.
143
385260
2000
זה די משכנע כאשר הוא מדבר וגם כאשר היא מדברת.
06:27
I'm just going back and forth; I'm not getting anywhere.
144
387260
2000
אבל אנו הולכים רק קדימה ואחורה; אנו לא מגיעים לשום מקום.
06:29
I don't want opinions; I want knowledge.
145
389260
3000
אני לא רוצה דעות, אני רוצה ידע.
06:32
I want to know the truth about justice --
146
392260
3000
ברצוני לדעת את האמת על צדק --
06:35
like we have truths in math.
147
395260
3000
כמו שיש לנו אמיתות במתמטיקה.
06:38
In math, we know the objective facts.
148
398260
3000
במתמטיקה אנו יודעים עובדות אובייקטיביות.
06:41
Take a number, any number -- two.
149
401260
2000
קחו מספר, כל מספר -- 2.
06:43
Favorite number. I love that number.
150
403260
2000
מספר אהוב עליי. אני מת עליו.
06:45
There are truths about two.
151
405260
2000
ישנן אמיתות על 2.
06:47
If you've got two of something,
152
407260
2000
אם יש לנו 2 דברים,
06:49
you add two more, you get four.
153
409260
2000
ומוסיפים להם 2 נוספים, מקבלים 4.
06:51
That's true no matter what thing you're talking about.
154
411260
2000
זה תמיד נכון, לא משנה על איזה דברים מדובר.
06:53
It's an objective truth about the form of two,
155
413260
2000
זוהי אמת אובייקטיבית על אופיו של 2,
06:55
the abstract form.
156
415260
2000
האופי המופשט.
06:57
When you have two of anything -- two eyes, two ears, two noses,
157
417260
2000
יש לנו 2 מכל דבר -- 2 עיניים, 2 אוזניים, 2 אפים,
06:59
just two protrusions --
158
419260
2000
פשוט 2 בליטות --
07:01
those all partake of the form of two.
159
421260
3000
כולם מאופיינים ב-2.
07:04
They all participate in the truths that two has.
160
424260
4000
כולם משתתפים באמיתות שיש ב-2.
07:08
They all have two-ness in them.
161
428260
2000
לכולם מהם יש 2-יות בתוכם.
07:10
And therefore, it's not a matter of opinion.
162
430260
3000
ולכן, זה לא עניין של דעה.
07:13
What if, Plato thought,
163
433260
2000
ומה אם, אפלטון היה חושב
07:15
ethics was like math?
164
435260
2000
שאתיקה זה כמו מתמטיקה?
07:17
What if there were a pure form of justice?
165
437260
3000
מה אם ישנן צורות טהורות של צדק?
07:20
What if there are truths about justice,
166
440260
2000
מה אם יש אמיתות על צדק,
07:22
and you could just look around in this world
167
442260
2000
ופשוט יכולנו להסתכל מסביב בעולם
07:24
and see which things participated,
168
444260
2000
ולראות איזה דברים משתתפים בזה,
07:26
partook of that form of justice?
169
446260
3000
מאופיינים באותה צורת צדק?
07:29
Then you would know what was really just and what wasn't.
170
449260
3000
אז היינו יודעים מה באמת צודק ומה לא.
07:32
It wouldn't be a matter
171
452260
2000
זה לא היה רק
07:34
of just opinion or just appearances.
172
454260
3000
עניין של דעה או מראה.
07:37
That's a stunning vision.
173
457260
2000
זהו חזון נפלא.
07:39
I mean, think about that. How grand. How ambitious.
174
459260
3000
כלומר, חישבו על כך. כמה אדיר, כמה שאפתני.
07:42
That's as ambitious as we are.
175
462260
2000
זה כמה שאנו שאפתניים.
07:44
He wants to solve ethics.
176
464260
2000
הוא רוצה לפתור אתיקה.
07:46
He wants objective truths.
177
466260
2000
הוא רוצה אמיתות אובייקטיביות.
07:48
If you think that way,
178
468260
3000
אם אתם חושבים בדרך זו,
07:51
you have a Platonist moral framework.
179
471260
3000
יש לכם עקרונות מוסר אפלטוניים.
07:54
If you don't think that way,
180
474260
2000
אם אינכם חושבים בדרך זו,
07:56
well, you have a lot of company in the history of Western philosophy,
181
476260
2000
אתם בחברה מאוד גדולה בהיסטוריה של הפילוסופיה המערבית,
07:58
because the tidy idea, you know, people criticized it.
182
478260
3000
בגלל שהרעיון של הסדר -- נמתחה עליו ביקורת.
08:01
Aristotle, in particular, he was not amused.
183
481260
3000
אריסטו, במיוחד, הוא לא שבע נחת.
08:04
He thought it was impractical.
184
484260
3000
הוא סבר שזה לא מעשי.
08:07
Aristotle said, "We should seek only so much precision in each subject
185
487260
4000
אריסטו אמר, "עלינו לחפש רק את אותו דיוק בכל נושא
08:11
as that subject allows."
186
491260
2000
כפי שאותו נושא מאפשר."
08:13
Aristotle thought ethics wasn't a lot like math.
187
493260
3000
אריסטו סבר שאין האתיקה דומה כל-כך למתמטיקה.
08:16
He thought ethics was a matter of making decisions in the here-and-now
188
496260
3000
הוא סבר שאתיקה זה עניין של לקבל החלטות כאן ועכשיו
08:19
using our best judgment
189
499260
2000
בעזרת מיטב שיקול דעתנו
08:21
to find the right path.
190
501260
2000
כדי למצוא את השביל הנכון.
08:23
If you think that, Plato's not your guy.
191
503260
2000
אם אתם חושבים כך, אפלטון הוא לא האיש שלכם.
08:25
But don't give up.
192
505260
2000
אבל לא להתייאש.
08:27
Maybe there's another way
193
507260
2000
אולי יש דרך נוספת
08:29
that we can use numbers as the basis of our moral framework.
194
509260
3000
שבה נוכל להשתמש במספרים כבסיס לעקרונות מוסר.
08:33
How about this:
195
513260
2000
מה דעתכם על זה:
08:35
What if in any situation you could just calculate,
196
515260
3000
מה אם היינו יכולים פשוט לחשב כל מצב,
08:38
look at the choices,
197
518260
2000
לראות את האפשרויות,
08:40
measure out which one's better and know what to do?
198
520260
3000
לאמוד איזו יותר טובה וכך לדעת מה לעשות?
08:43
That sound familiar?
199
523260
2000
נשמע מוכר?
08:45
That's a utilitarian moral framework.
200
525260
3000
אלה הם עקרונות מוסר תועלתניים.
08:48
John Stuart Mill was a great advocate of this --
201
528260
2000
ג'ון סטיוארט מיל היה חסיד גדול שלהן --
08:50
nice guy besides --
202
530260
2000
חוץ מזה אדם נחמד --
08:52
and only been dead 200 years.
203
532260
2000
רק מת כבר 200 שנה.
08:54
So basis of utilitarianism --
204
534260
2000
כך שבסיס של תועלתנות --
08:56
I'm sure you're familiar at least.
205
536260
2000
אני בטוח שלפחות שמעתם על זה.
08:58
The three people who voted for Mill before are familiar with this.
206
538260
2000
שלושת האנשים שהצביעו קודם בעד מיל בטח מכירים זאת.
09:00
But here's the way it works.
207
540260
2000
וכך זה עובד.
09:02
What if morals, what if what makes something moral
208
542260
3000
מה אם התשובה לשאלה אם משהו מוסרי,
09:05
is just a matter of if it maximizes pleasure
209
545260
2000
היא רק עניין של אם זה ממקסם הנאה
09:07
and minimizes pain?
210
547260
2000
ומצמצם כאב?
09:09
It does something intrinsic to the act.
211
549260
3000
זה עושה משהו מהותי ופנימי לפעולה.
09:12
It's not like its relation to some abstract form.
212
552260
2000
זה לא כמו הקשר שלו לאיזו צורה מופשטת.
09:14
It's just a matter of the consequences.
213
554260
2000
זה פשוט עניין של תוצאות.
09:16
You just look at the consequences
214
556260
2000
פשוט מסתכלים על התוצאות
09:18
and see if, overall, it's for the good or for the worse.
215
558260
2000
ורואים, אם זה לטובה או לרעה.
09:20
That would be simple. Then we know what to do.
216
560260
2000
זה יהיה פשוט. ואז נדע מה לעשות.
09:22
Let's take an example.
217
562260
2000
ניקח מקרה לדוגמא.
09:24
Suppose I go up
218
564260
2000
נניח שאני בא ואומר,
09:26
and I say, "I'm going to take your phone."
219
566260
2000
"אני הולך לקחת את הנייד שלך."
09:28
Not just because it rang earlier,
220
568260
2000
לא רק בגלל שהוא צילצל קודם,
09:30
but I'm going to take it because I made a little calculation.
221
570260
3000
אלא כי עשיתי חישוב קטן.
09:33
I thought, that guy looks suspicious.
222
573260
3000
חשבתי שהאדם שם נראה חשוד.
09:36
And what if he's been sending little messages to Bin Laden's hideout --
223
576260
3000
ומה אם הוא שולח הודעות קצרות אל מחבוא של בין-לאדן --
09:39
or whoever took over after Bin Laden --
224
579260
2000
או מי שבא אחרי בין-לאדן --
09:41
and he's actually like a terrorist, a sleeper cell.
225
581260
3000
הוא בעצם כמו מחבל, תא רדום.
09:44
I'm going to find that out, and when I find that out,
226
584260
3000
אני הולך לגלות זאת, וכאשר אגלה,
09:47
I'm going to prevent a huge amount of damage that he could cause.
227
587260
3000
אמנע נזק גדול מאוד שהוא יכל לגרום.
09:50
That has a very high utility to prevent that damage.
228
590260
3000
לפעולה זו יש תועלת גדולה מאוד של מניעת נזק.
09:53
And compared to the little pain that it's going to cause --
229
593260
2000
ובהשוואה לכאב הקטן שהיא יכולה לגרום --
09:55
because it's going to be embarrassing when I'm looking on his phone
230
595260
2000
מכיוון שהולך להיות מביך כאשר אסתכל על הנייד שלו
09:57
and seeing that he has a Farmville problem and that whole bit --
231
597260
3000
ואמצא שיש לו בעיה במשחק רשת וכל זה --
10:00
that's overwhelmed
232
600260
3000
אבל כל זה מתגמד
10:03
by the value of looking at the phone.
233
603260
2000
מול הערך של להסתכל בנייד שלו.
10:05
If you feel that way,
234
605260
2000
אם גם אתם מרגישים כך,
10:07
that's a utilitarian choice.
235
607260
3000
זוהי בחירה תועלתנית.
10:10
But maybe you don't feel that way either.
236
610260
3000
ואולי אתם לא מרגישים כך.
10:13
Maybe you think, it's his phone.
237
613260
2000
אולי אתם חושבים, זה הנייד שלו.
10:15
It's wrong to take his phone
238
615260
2000
זה לא בסדר לקחת את הנייד שלו,
10:17
because he's a person
239
617260
2000
מכיוון שהוא אדם
10:19
and he has rights and he has dignity,
240
619260
2000
ויש לו זכויות ויש לו כבוד-עצמי,
10:21
and we can't just interfere with that.
241
621260
2000
ואל לנו סתם כך לתחוב את אפינו.
10:23
He has autonomy.
242
623260
2000
יש לו אוטונומיה.
10:25
It doesn't matter what the calculations are.
243
625260
2000
זה לא משנה מה השיקולים.
10:27
There are things that are intrinsically wrong --
244
627260
3000
יש דברים שהם באופן מהותי ופנימי עוול --
10:30
like lying is wrong,
245
630260
2000
כמו שלשקר זה רע,
10:32
like torturing innocent children is wrong.
246
632260
3000
כמו שלענות ילדים תמימים זה רע.
10:35
Kant was very good on this point,
247
635260
3000
קאנט מאוד צדק בעניין זה,
10:38
and he said it a little better than I'll say it.
248
638260
2000
והוא ביטא את זה יותר טוב ממני.
10:40
He said we should use our reason
249
640260
2000
הוא אמר שעלינו להשתמש בשכל שלנו
10:42
to figure out the rules by which we should guide our conduct,
250
642260
3000
כדי לגלות את הכללים שעלינו להתנהג לפיהם.
10:45
and then it is our duty to follow those rules.
251
645260
3000
ואז זו חובתנו לציית לכללים אלה.
10:48
It's not a matter of calculation.
252
648260
3000
אין זה עניין של חישובים.
10:51
So let's stop.
253
651260
2000
אז הבה נעצור.
10:53
We're right in the thick of it, this philosophical thicket.
254
653260
3000
אנחנו ממש בסבך העניינים, בסבך הפילוסופי הזה.
10:56
And this goes on for thousands of years,
255
656260
3000
וזה נמשך כבר אלפי שנים,
10:59
because these are hard questions,
256
659260
2000
מכיוון שאלו הן שאלות קשות,
11:01
and I've only got 15 minutes.
257
661260
2000
ולי יש רק 15 דקות.
11:03
So let's cut to the chase.
258
663260
2000
לכן נגיע לעיקר.
11:05
How should we be making our decisions?
259
665260
4000
כיצד עלינו לקבל החלטות?
11:09
Is it Plato, is it Aristotle, is it Kant, is it Mill?
260
669260
3000
האם זה אפלטון, האם זה אריסטו, האם זה קאנט, או אולי מיל?
11:12
What should we be doing? What's the answer?
261
672260
2000
מה עלינו לעשות? מה התשובה?
11:14
What's the formula that we can use in any situation
262
674260
3000
מהי הנוסחה שעלינו להשתמש בה בכל מצב
11:17
to determine what we should do,
263
677260
2000
כדי לקבוע מה עלינו לעשות,
11:19
whether we should use that guy's data or not?
264
679260
2000
באם עלינו להשתמש בנתוני אותו אדם או לא?
11:21
What's the formula?
265
681260
3000
מהי הנוסחה?
11:25
There's not a formula.
266
685260
2000
אין נוסחה.
11:29
There's not a simple answer.
267
689260
2000
אין תשובה פשוטה.
11:31
Ethics is hard.
268
691260
3000
אתיקה זה דבר מסובך.
11:34
Ethics requires thinking.
269
694260
3000
אתיקה דורשת חשיבה.
11:38
And that's uncomfortable.
270
698260
2000
וזה לא נוח.
11:40
I know; I spent a lot of my career
271
700260
2000
ביליתי חלק גדול מהקריירה שלי
11:42
in artificial intelligence,
272
702260
2000
בבינה מלאכותית,
11:44
trying to build machines that could do some of this thinking for us,
273
704260
3000
בניסיון לבנות מכונות שתוכלנה לחשוב במקומנו,
11:47
that could give us answers.
274
707260
2000
שתוכלנה לתת לנו תשובות.
11:49
But they can't.
275
709260
2000
אבל הן לא יכולות.
11:51
You can't just take human thinking
276
711260
2000
אי-אפשר פשוט לקחת חשיבה אנושית
11:53
and put it into a machine.
277
713260
2000
ולשים אותה במכונה.
11:55
We're the ones who have to do it.
278
715260
3000
אנחנו אלה שנצטרך לעשות זאת.
11:58
Happily, we're not machines, and we can do it.
279
718260
3000
לשמחתנו, אנו לא מכונות ואנו יכולים לעשות זאת.
12:01
Not only can we think,
280
721260
2000
לא רק שאנו יכולים לחשוב,
12:03
we must.
281
723260
2000
אלא אנו חייבים.
12:05
Hannah Arendt said,
282
725260
2000
חנה ארדנט אמרה,
12:07
"The sad truth
283
727260
2000
"האמת העצובה היא
12:09
is that most evil done in this world
284
729260
2000
שרוב הרע שנעשה בעולם זה,
12:11
is not done by people
285
731260
2000
אינו נעשה על-ידי אנשים
12:13
who choose to be evil.
286
733260
2000
אשר בוחרים לעשות רע.
12:15
It arises from not thinking."
287
735260
3000
אלא הוא נובע מחוסר חשיבה."
12:18
That's what she called the "banality of evil."
288
738260
4000
לזה היא קראה "הבנליות של רוע".
12:22
And the response to that
289
742260
2000
וכמענה לזה,
12:24
is that we demand the exercise of thinking
290
744260
2000
אנו דורשים את תירגול החשיבה
12:26
from every sane person.
291
746260
3000
מכל אדם שפוי.
12:29
So let's do that. Let's think.
292
749260
2000
אז הבה נעשה זאת, הבה נחשוב.
12:31
In fact, let's start right now.
293
751260
3000
בעצם, בואו נתחיל כבר עכשיו.
12:34
Every person in this room do this:
294
754260
3000
שכל אחד באולם יעשה את זה:
12:37
think of the last time you had a decision to make
295
757260
3000
שיחשוב על הפעם האחרונה שהיה עליו לקבל החלטה
12:40
where you were worried to do the right thing,
296
760260
2000
כאשר דאגת בקשר לעשיית הדבר הנכון,
12:42
where you wondered, "What should I be doing?"
297
762260
2000
כאשר תהית, "מה אני אמור לעשות?"
12:44
Bring that to mind,
298
764260
2000
תיזכרו בזה.
12:46
and now reflect on that
299
766260
2000
וכעת תהרהרו בזה
12:48
and say, "How did I come up that decision?
300
768260
3000
ותאמרו, "כיצד הגעתי להחלטה זו?
12:51
What did I do? Did I follow my gut?
301
771260
3000
מה עשיתי? האם פעלתי לפי תחושותיי?
12:54
Did I have somebody vote on it? Or did I punt to legal?"
302
774260
2000
האם היה לי מישהו שיביע את דעתו? או שפניתי לחוק?"
12:56
Or now we have a few more choices.
303
776260
3000
או כעת שיש לנו יותר אפשרויות:
12:59
"Did I evaluate what would be the highest pleasure
304
779260
2000
"האם בדקתי מתי תהיה ההנאה הגדולה ביותר
13:01
like Mill would?
305
781260
2000
כמו שמיל היה עושה?
13:03
Or like Kant, did I use reason to figure out what was intrinsically right?"
306
783260
3000
או כמו קאנט, האם השתמשתי בשכל כדי למצוא מה היה נכון מהותית ופנימית?"
13:06
Think about it. Really bring it to mind. This is important.
307
786260
3000
תחשבו על זה. באמת תביאו את עצמכם לחשוב. זה חשוב.
13:09
It is so important
308
789260
2000
זה כל-כך חשוב
13:11
we are going to spend 30 seconds of valuable TEDTalk time
309
791260
2000
שאנו עומדם להעביר 30 שניות מהזמן היקר של הרצאת TED
13:13
doing nothing but thinking about this.
310
793260
2000
כדי לא לעשות כלום אלא לחשוב על זה.
13:15
Are you ready? Go.
311
795260
2000
האם אתם מוכנים? תתחילו.
13:33
Stop. Good work.
312
813260
3000
עיצרו. עבודה טובה.
13:36
What you just did,
313
816260
2000
מה שעשיתם כרגע,
13:38
that's the first step towards taking responsibility
314
818260
2000
היה הצעד הראשון אל עבר לקיחת אחריות
13:40
for what we should do with all of our power.
315
820260
3000
על מה שאנו צריכים לעשות עם כל הכח שבידינו.
13:45
Now the next step -- try this.
316
825260
3000
כעת לצעד הבא -- נסו את זה.
13:49
Go find a friend and explain to them
317
829260
2000
תמצאו חבר והסבירו לו
13:51
how you made that decision.
318
831260
2000
כיצד הגעתם להחלטה.
13:53
Not right now. Wait till I finish talking.
319
833260
2000
לא מייד. חכו עד שאסיים לדבר.
13:55
Do it over lunch.
320
835260
2000
תעשו זאת בזמן ארוחה.
13:57
And don't just find another technologist friend;
321
837260
3000
ואל תמצאו רק עוד חבר טכנולוגי;
14:00
find somebody different than you.
322
840260
2000
תמצאו מישהו שונה מכם.
14:02
Find an artist or a writer --
323
842260
2000
תמצאו אמן או סופר --
14:04
or, heaven forbid, find a philosopher and talk to them.
324
844260
3000
או, חס וחלילה, תמצאו פילוסוף ותשוחחו עימם.
14:07
In fact, find somebody from the humanities.
325
847260
2000
בעצם, תמצאו מישהו ממדעי הרוח.
14:09
Why? Because they think about problems
326
849260
2000
למה? מכיוון שהם חושבים על בעיות
14:11
differently than we do as technologists.
327
851260
2000
באופן שונה מאיתנו הטכנולוגים.
14:13
Just a few days ago, right across the street from here,
328
853260
3000
רק לפני מספר ימים, ממש מעבר לכביש כאן,
14:16
there was hundreds of people gathered together.
329
856260
2000
היו מאות אנשים שנאספו.
14:18
It was technologists and humanists
330
858260
2000
היו אלה טכנולוגים ואנשי מדעי הרוח
14:20
at that big BiblioTech Conference.
331
860260
2000
בכנס BiblioTech הגדול.
14:22
And they gathered together
332
862260
2000
הם נאספו ביחד
14:24
because the technologists wanted to learn
333
864260
2000
כי הטכנולוגים רצו ללמוד
14:26
what it would be like to think from a humanities perspective.
334
866260
3000
איך זה יהיה לחשוב מנקודת מבט של מדעי הרוח.
14:29
You have someone from Google
335
869260
2000
היה שם מישהו מגוגל
14:31
talking to someone who does comparative literature.
336
871260
2000
ששוחח עם מישהו שעוסק בספרות השוואתית.
14:33
You're thinking about the relevance of 17th century French theater --
337
873260
3000
אתם שואלים את עצמכם על ההשפעה של תאטרון צרפתי מן המאה ה-17 --
14:36
how does that bear upon venture capital?
338
876260
2000
כיצד הוא קשור להון-סיכון?
14:38
Well that's interesting. That's a different way of thinking.
339
878260
3000
כל זה מעניין. זוהי דרך חשיבה אחרת.
14:41
And when you think in that way,
340
881260
2000
וכאשר חושבים בדרך זו,
14:43
you become more sensitive to the human considerations,
341
883260
3000
אנו הופכים ליותר רגישים לשיקולים אנושיים,
14:46
which are crucial to making ethical decisions.
342
886260
3000
שהם המפתח לקבלת החלטות אתיות.
14:49
So imagine that right now
343
889260
2000
אז דמיינו שממש עכשיו
14:51
you went and you found your musician friend.
344
891260
2000
נתקלתם בחברכם המוזיקאי.
14:53
And you're telling him what we're talking about,
345
893260
3000
ואתם מספרים לו על מה שאנו מדברים עכשיו,
14:56
about our whole data revolution and all this --
346
896260
2000
על מהפכת הנתונים וכל זה --
14:58
maybe even hum a few bars of our theme music.
347
898260
2000
אולי אפילו תזמזמו כמה תווים ממוזיקת הנושא שלנו.
15:00
♫ Dum ta da da dum dum ta da da dum ♫
348
900260
3000
♫ דאם טא דא דא דאם דאם טא דא דא דאם ♫
15:03
Well, your musician friend will stop you and say,
349
903260
2000
החבר המוזיקאי שלכם יקטע אתכם ויאמר,
15:05
"You know, the theme music
350
905260
2000
"אתה יודע, מוזיקה זו
15:07
for your data revolution,
351
907260
2000
שקשורה למהפכת הנתונים שלך,
15:09
that's an opera, that's Wagner.
352
909260
2000
היא אופרה, זהו ואגנר.
15:11
It's based on Norse legend.
353
911260
2000
היא מבוססת על אגדה נורבגית.
15:13
It's Gods and mythical creatures
354
913260
2000
אלה הם אלים ויצורים מיתולוגיים
15:15
fighting over magical jewelry."
355
915260
3000
הנלחמים על אבני חן קסומות."
15:19
That's interesting.
356
919260
3000
זה מעניין.
15:22
Now it's also a beautiful opera,
357
922260
3000
אז עכשיו זו גם אופרה יפה.
15:25
and we're moved by that opera.
358
925260
3000
וזה נוגע לליבנו, אותה אופרה.
15:28
We're moved because it's about the battle
359
928260
2000
היא נוגעת לליבנו כי היא על הקרב
15:30
between good and evil,
360
930260
2000
בין טוב לרע,
15:32
about right and wrong.
361
932260
2000
על מה נכון ומה לא נכון.
15:34
And we care about right and wrong.
362
934260
2000
ולנו אכפת מה נכון ומה לא.
15:36
We care what happens in that opera.
363
936260
3000
אכפת לנו מה קורה באותה אופרה.
15:39
We care what happens in "Apocalypse Now."
364
939260
3000
אכפת לנו מה קורה ב"אפוקליפסה עכשיו".
15:42
And we certainly care
365
942260
2000
ובטוח אכפת לנו
15:44
what happens with our technologies.
366
944260
2000
מה קורה עם הטכנולוגיות שלנו.
15:46
We have so much power today,
367
946260
2000
יש לנו המון כח היום,
15:48
it is up to us to figure out what to do,
368
948260
3000
ומוטל עלינו לגלות מה עלינו לעשות.
15:51
and that's the good news.
369
951260
2000
ואלה חדשות טובות.
15:53
We're the ones writing this opera.
370
953260
3000
אנחנו הם אלה שכותבים את האופרה.
15:56
This is our movie.
371
956260
2000
זה הסרט שלנו.
15:58
We figure out what will happen with this technology.
372
958260
3000
אנחנו מגלים מה יקרה עם הטכנולוגיה הזו.
16:01
We determine how this will all end.
373
961260
3000
אנחנו קובעים כיצד כל זה יסתיים.
16:04
Thank you.
374
964260
2000
תודה לכם.
16:06
(Applause)
375
966260
5000
(מחיאות כפיים)
על אתר זה

אתר זה יציג בפניכם סרטוני YouTube המועילים ללימוד אנגלית. תוכלו לראות שיעורי אנגלית המועברים על ידי מורים מהשורה הראשונה מרחבי העולם. לחץ פעמיים על הכתוביות באנגלית המוצגות בכל דף וידאו כדי להפעיל את הסרטון משם. הכתוביות גוללות בסנכרון עם הפעלת הווידאו. אם יש לך הערות או בקשות, אנא צור איתנו קשר באמצעות טופס יצירת קשר זה.

https://forms.gle/WvT1wiN1qDtmnspy7