Damon Horowitz calls for a "moral operating system"

دیمن هورویتز به دنبال «سیستم عامل اخلاق-مدار» است.

92,160 views

2011-06-06 ・ TED


New videos

Damon Horowitz calls for a "moral operating system"

دیمن هورویتز به دنبال «سیستم عامل اخلاق-مدار» است.

92,160 views ・ 2011-06-06

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: Safoora Yousefi Reviewer: soheila Jafari
00:15
Power.
0
15260
2000
قدرت.
00:17
That is the word that comes to mind.
1
17260
2000
این کلمهء است به ذهن خطور می‌کنه.
00:19
We're the new technologists.
2
19260
2000
ما فن‌آورانِ مدرن هستیم.
00:21
We have a lot of data, so we have a lot of power.
3
21260
3000
داده‌های زیادی داریم، پس قدرت زیادی داریم.
00:24
How much power do we have?
4
24260
2000
ما چه قدر قدرت داریم؟
00:26
Scene from a movie: "Apocalypse Now" -- great movie.
5
26260
3000
صحنه‌ای از یک فیلم: «اینک آخرالزمان»-- فیلم فوق‌العاده‌ایه.
00:29
We've got to get our hero, Captain Willard, to the mouth of the Nung River
6
29260
3000
باید قهرمان‌مون، کاپیتان هیلارد رو به دهانه‌ی رود نانگ برسونیم
00:32
so he can go pursue Colonel Kurtz.
7
32260
2000
تا بتونه کلنل کرتز رو تعقیب کنه.
00:34
The way we're going to do this is fly him in and drop him off.
8
34260
2000
قراره کاپیتان رو از راه هوایی به اون‌جا برسونیم و پایین بندازیمش.
00:36
So the scene:
9
36260
2000
صحنه این طوریه:
00:38
the sky is filled with this fleet of helicopters carrying him in.
10
38260
3000
آسمان مملوء از هلیکوپترهایی که او رو حمل می‌کنن.
00:41
And there's this loud, thrilling music in the background,
11
41260
2000
و موسیقی بلند و شورانگیزی در پس‌زمینه وجود داره.
00:43
this wild music.
12
43260
2000
یک موسیقی طوفانی:
00:45
♫ Dum da ta da dum ♫
13
45260
2000
♫دام دا تا دا دام♫
00:47
♫ Dum da ta da dum ♫
14
47260
2000
♫دام دا تا دا دام♫
00:49
♫ Da ta da da ♫
15
49260
3000
♫دا تا دا دا♫
00:52
That's a lot of power.
16
52260
2000
یک عالم قدرت.
00:54
That's the kind of power I feel in this room.
17
54260
2000
این همون قدرتیه که من در این سالن احساس می‌کنم.
00:56
That's the kind of power we have
18
56260
2000
این قدرتیه که ما داریم
00:58
because of all of the data that we have.
19
58260
2000
به خاطر همه‌ی داده‌هایی که داریم.
01:00
Let's take an example.
20
60260
2000
بذارید یک مثال بزنم.
01:02
What can we do
21
62260
2000
با اطلاعاتِ تنها یک فرد
01:04
with just one person's data?
22
64260
3000
چه کارهایی می‌تونیم بکنیم؟
01:07
What can we do
23
67260
2000
با اطلاعات اون آقا
01:09
with that guy's data?
24
69260
2000
چه کار می‌تونیم بکنیم؟
01:11
I can look at your financial records.
25
71260
2000
می‌تونم به سوابق مالی‌ت نگاه کنم.
01:13
I can tell if you pay your bills on time.
26
73260
2000
اون‌وقت می‌فهمم که قبض‌هاتو به موقع پرداخت می‌کنی یا نه.
01:15
I know if you're good to give a loan to.
27
75260
2000
می‌فهمم شخص مناسبی برای وام دادن هستی یا نه.
01:17
I can look at your medical records; I can see if your pump is still pumping --
28
77260
3000
می‌تونم به سوابق پزشکی‌ت نگاه کنم، اون‌وقت می‌فهمم قلبِ‌ت هنوز می‌تپه یا نه--
01:20
see if you're good to offer insurance to.
29
80260
3000
می‌فهمم پیش‌نهاد بیمه به تو دادن کار مناسبیه یا نه.
01:23
I can look at your clicking patterns.
30
83260
2000
می‌تونم به الگوی کلیک کردنِ‌ت نگاه کنم.
01:25
When you come to my website, I actually know what you're going to do already
31
85260
3000
وقتی به وب‌سایتَ‌م میای، می‌دونم که قصدِ چه کاری رو داری،
01:28
because I've seen you visit millions of websites before.
32
88260
2000
چون می‌دونم میلیون‌ها وب سایتی که قبلا" سرزدی چه سایت‌هایی بودن.
01:30
And I'm sorry to tell you,
33
90260
2000
و متأسفم که اینو می‌گم،
01:32
you're like a poker player, you have a tell.
34
92260
2000
تو مثل یه بازی‌کنِ پوکری.
01:34
I can tell with data analysis what you're going to do
35
94260
2000
من با تحلیل داده‌ها می‌تونم قبل از این که کاری رو انجام بدی،
01:36
before you even do it.
36
96260
2000
پیش‌بینی کنم که می‌خوای انجامش بدی.
01:38
I know what you like. I know who you are,
37
98260
3000
می‌دونم چی دوست داری. می‌دونم کی هستی.
01:41
and that's even before I look at your mail
38
101260
2000
و تازه اینا قبل از دیدن ایمیل‌ها
01:43
or your phone.
39
103260
2000
یا تلفنِته.
01:45
Those are the kinds of things we can do
40
105260
2000
این‌ها کارایی هستن که ما می‌تونیم با
01:47
with the data that we have.
41
107260
3000
داده‌هایی که داریم انجام بدیم.
01:50
But I'm not actually here to talk about what we can do.
42
110260
3000
ولی من این‌جا نیومدم که درباره‌ی کارهایی که می‌تونیم انجام بدیم صحبت کنم.
01:56
I'm here to talk about what we should do.
43
116260
3000
اومدم تا درباره‌ی کاری که باید بکنیم صحبت کنیم.
02:00
What's the right thing to do?
44
120260
3000
کارِ درست چیه؟
02:04
Now I see some puzzled looks
45
124260
2000
می‌بینم که نگاه‌هاتون متحیره، انگار دارید می‌گید:
02:06
like, "Why are you asking us what's the right thing to do?
46
126260
3000
«چرا از ما می‌پرسی کار درست چیه؟
02:09
We're just building this stuff. Somebody else is using it."
47
129260
3000
ما صرفا" سیستم رو می‌سازیم، یه نفر دیگه داره ازش استفاده می‌کنه.»
02:12
Fair enough.
48
132260
3000
منطقیه.
02:15
But it brings me back.
49
135260
2000
ولی این منو برمی‌گردونه به گذشته.
02:17
I think about World War II --
50
137260
2000
به جنگ جهانی دوم فکر می‌کنم.
02:19
some of our great technologists then,
51
139260
2000
بعضی از فن‌آوران ما در اون زمان،
02:21
some of our great physicists,
52
141260
2000
بعضی از فیزیکدان‌هامون،
02:23
studying nuclear fission and fusion --
53
143260
2000
که درباره‌ء شکافت و همجوشی هسته‌ای مطالعه می‌کردند --
02:25
just nuclear stuff.
54
145260
2000
همون مسائل هسته‌ای.
02:27
We gather together these physicists in Los Alamos
55
147260
3000
ما این فیزیکدان‌ها رو در لوس آلاموس دور هم جمع می‌کنیم
02:30
to see what they'll build.
56
150260
3000
تا ببینیم چه چیزی خواهند ساخت.
02:33
We want the people building the technology
57
153260
3000
ما از سازنده‌گان تکنولوژی انتظار داریم
02:36
thinking about what we should be doing with the technology.
58
156260
3000
به این که با این تکنولوژی چه کار باید کرد فکر کنند.
02:41
So what should we be doing with that guy's data?
59
161260
3000
خوب حالا ما با اطلاعات اون شخص چه کار باید بکنیم؟
02:44
Should we be collecting it, gathering it,
60
164260
3000
باید جمعشون کنیم تا بتونیم
02:47
so we can make his online experience better?
61
167260
2000
تجربه‌ء آنلاینِ او رو بهبود ببخشیم؟
02:49
So we can make money?
62
169260
2000
تا پول بیش‌تری به دست بیاریم؟
02:51
So we can protect ourselves
63
171260
2000
تا اگه او خیالاتِ بدی داشت
02:53
if he was up to no good?
64
173260
2000
بهتر بتونیم از خودمون محافظت کنیم؟
02:55
Or should we respect his privacy,
65
175260
3000
یا این که به حریم خصوصی‌ش احترام بذاریم،
02:58
protect his dignity and leave him alone?
66
178260
3000
شأنِ‌ش رو حفظ کنیم و راحتش بذاریم؟
03:02
Which one is it?
67
182260
3000
کدومش درسته؟
03:05
How should we figure it out?
68
185260
2000
از کجا بفهمیم؟
03:07
I know: crowdsource. Let's crowdsource this.
69
187260
3000
من می‌گم رأی‌گیری کنیم.
03:11
So to get people warmed up,
70
191260
3000
اول بذارید برای دستگرمی،
03:14
let's start with an easy question --
71
194260
2000
با یه سوال آسون شروع کنیم--
03:16
something I'm sure everybody here has an opinion about:
72
196260
3000
یه چیزی که مطمئنم همه یه نظری درباره‌ش دارن:
03:19
iPhone versus Android.
73
199260
2000
آی-فون در مقابل اندروید.
03:21
Let's do a show of hands -- iPhone.
74
201260
3000
دست‌هاتونو بالا ببرید. آی-فون.
03:24
Uh huh.
75
204260
2000
آ-اوه.
03:26
Android.
76
206260
3000
اندروید.
03:29
You'd think with a bunch of smart people
77
209260
2000
آدم از افراد باذکاوتی مثل شما انتظار داره
03:31
we wouldn't be such suckers just for the pretty phones.
78
211260
2000
ولعِ گوشی‌های صرفا" خوشگل رو نداشته‌باشن!
03:33
(Laughter)
79
213260
2000
(خنده‌ی حضار)
03:35
Next question,
80
215260
2000
سوال بعدی،
03:37
a little bit harder.
81
217260
2000
یه کم سخت تره.
03:39
Should we be collecting all of that guy's data
82
219260
2000
آیا ما باید همه‌ی داده‌های مربوط به اون شخص رو جمع کنیم
03:41
to make his experiences better
83
221260
2000
تا تجربه‌ش رو بهبود ببخشیم
03:43
and to protect ourselves in case he's up to no good?
84
223260
3000
و در صورتی که او خیالاتِ بدی داره از خودمون محافظت کنیم؟
03:46
Or should we leave him alone?
85
226260
2000
یا باید راحتش بذاریم؟
03:48
Collect his data.
86
228260
3000
اطلاعاتِ‌ش رو جمع کنیم.
03:53
Leave him alone.
87
233260
3000
راحتش بذاریم.
03:56
You're safe. It's fine.
88
236260
2000
کاری‌تون ندارم! نتایج خوب بود.
03:58
(Laughter)
89
238260
2000
(خنده)
04:00
Okay, last question --
90
240260
2000
خوب، سوال آخر--
04:02
harder question --
91
242260
2000
سوال سخت‌ تریه.
04:04
when trying to evaluate
92
244260
3000
وقتی می‌خوایم گزینه‌هامونو درباره‌ی سوال قبلی
04:07
what we should do in this case,
93
247260
3000
ارزیابی کنیم،
04:10
should we use a Kantian deontological moral framework,
94
250260
4000
آیا باید از چهارچوب اخلاقیِ وظیفه‌گرایانه‌ی کانت استفاده کنیم،
04:14
or should we use a Millian consequentialist one?
95
254260
3000
یا از چهارچوب نتیجه‌گرایانه‌ی میل؟
04:19
Kant.
96
259260
3000
کانت.
04:22
Mill.
97
262260
3000
میل.
04:25
Not as many votes.
98
265260
2000
چندان نظری ندارید.
04:27
(Laughter)
99
267260
3000
(خنده‌ی حضار)
04:30
Yeah, that's a terrifying result.
100
270260
3000
بله، این نتیجه وحشت‌ناکه.
04:34
Terrifying, because we have stronger opinions
101
274260
4000
وحشت‌ناکه، چون دیدگاه‌هامون درباره‌ی
04:38
about our hand-held devices
102
278260
2000
دست‌گاه‌هامون بیش‌تر شکل گرفته
04:40
than about the moral framework
103
280260
2000
تا درباره‌ی چهارچوب اخلاقی‌‌ای که
04:42
we should use to guide our decisions.
104
282260
2000
تصمی‌گیری‌هامونو هدایت می‌کنه.
04:44
How do we know what to do with all the power we have
105
284260
3000
اگه چهارچوب اخلاقی مشخصی نداشته‌باشیم
04:47
if we don't have a moral framework?
106
287260
3000
از کجا بفهمیم که از قدرتِ‌مون چه طور استفاده کنیم؟
04:50
We know more about mobile operating systems,
107
290260
3000
ما درباره‌ی سیستم عامل‌های موبایل بیش‌تر می‌دونیم،
04:53
but what we really need is a moral operating system.
108
293260
3000
ولی چیزی که واقعن به‌ش نیاز داریم یک سیستم عامل اخلاق-مداره.
04:58
What's a moral operating system?
109
298260
2000
سیستم عامل اخلاق-مدار چیه؟
05:00
We all know right and wrong, right?
110
300260
2000
ما همه خوب و بد رو می‌شناسیم. درست.
05:02
You feel good when you do something right,
111
302260
2000
وقتی کار خوبی می‌کنیم حس خوبی داریم،
05:04
you feel bad when you do something wrong.
112
304260
2000
و وقتی کار بدی می‌کنیم حس بدی داریم.
05:06
Our parents teach us that: praise with the good, scold with the bad.
113
306260
3000
پدر و مادرهامون این رو به‌مون یاد می‌دن: تحسین به خاطر کار خوب و سرزنش به خاطر کار بد.
05:09
But how do we figure out what's right and wrong?
114
309260
3000
ولی از کجا بفهمیم چی خوبه و چی بد؟
05:12
And from day to day, we have the techniques that we use.
115
312260
3000
در زنده‌گی روزمره این تکنیک‌ها رو استفاده می‌کنیم:
05:15
Maybe we just follow our gut.
116
315260
3000
گاهی به حسّ‌مون تکیه می‌کنیم.
05:18
Maybe we take a vote -- we crowdsource.
117
318260
3000
گاهی رأی‌گیری می‌کنیم.
05:21
Or maybe we punt --
118
321260
2000
یا شاید به مراجع قانونی
05:23
ask the legal department, see what they say.
119
323260
3000
مراجعه کنیم و ببینیم چی می‌گن.
05:26
In other words, it's kind of random,
120
326260
2000
به عبارت دیگه، روش ما برای پیدا کردنِ
05:28
kind of ad hoc,
121
328260
2000
کاری که باید بکنیم، به نوعی تصادفی
05:30
how we figure out what we should do.
122
330260
3000
یا وابسته به شرایطه.
05:33
And maybe, if we want to be on surer footing,
123
333260
3000
یا شاید، اگه بخوایم خیالِ‌مون راحت‌تر باشه،
05:36
what we really want is a moral framework that will help guide us there,
124
336260
3000
واقعا" به یک چهارچوب اخلاقی نیاز داریم که راهنمایی‌مون کنه،
05:39
that will tell us what kinds of things are right and wrong in the first place,
125
339260
3000
و بهمون بگه که در درجه‌ء اول چه چیزهای درست و غلط هستند،
05:42
and how would we know in a given situation what to do.
126
342260
4000
و از کجا بفهمیم که در یک وضعیت خاص چی کار کنیم.
05:46
So let's get a moral framework.
127
346260
2000
پس بیاید یک چهارچوب اخلاقی پیدا کنیم.
05:48
We're numbers people, living by numbers.
128
348260
3000
ما آدم‌های عددی هستیم، با اعداد زندگی می‌کنیم.
05:51
How can we use numbers
129
351260
2000
حالا چه طور به عنوان اساس چهارچوب اخلاقی‌مون
05:53
as the basis for a moral framework?
130
353260
3000
از اعداد استفاده‌ کنیم؟
05:56
I know a guy who did exactly that.
131
356260
3000
من کسی رو می‌شناسم که دقیقا" این کار رو کرد،
05:59
A brilliant guy --
132
359260
3000
واقعا" مرد باهوشی بود.
06:02
he's been dead 2,500 years.
133
362260
3000
او 2500 ساله که مرده.
06:05
Plato, that's right.
134
365260
2000
پلاتو، درسته.
06:07
Remember him -- old philosopher?
135
367260
2000
اونو به یاد میارید؟ فیلسوفِ پیر؟
06:09
You were sleeping during that class.
136
369260
3000
سر اون کلاس خوابیده‌بودید.
06:12
And Plato, he had a lot of the same concerns that we did.
137
372260
2000
و پلاتو، دغدغه‌هایی داشت که دغدغه‌های ما هم بودند.
06:14
He was worried about right and wrong.
138
374260
2000
او دغدغه‌ی درست و غلط رو داشت.
06:16
He wanted to know what is just.
139
376260
2000
می‌خواست بدونه عدالت چیه.
06:18
But he was worried that all we seem to be doing
140
378260
2000
اما نگرانی او این بود که به نظر می‌رسه
06:20
is trading opinions about this.
141
380260
2000
ما داریم نظراتِ مون رو در این زمینه معامله می‌کنیم.
06:22
He says something's just. She says something else is just.
142
382260
3000
یه نفر می‌گه این کار عادلانه‌ست، دیگری می‌گه یه کار دیگه عادلانه‌ست.
06:25
It's kind of convincing when he talks and when she talks too.
143
385260
2000
و هر دوشون به شکل قانع‌کننده‌ای از خودشون دفاع می‌کنن.
06:27
I'm just going back and forth; I'm not getting anywhere.
144
387260
2000
من فقط عقب و جلو می‌رم و درجا می‌زنم. به جایی نمی‌رسم.
06:29
I don't want opinions; I want knowledge.
145
389260
3000
من نظرات رو نمی‌خوام، من دانش می‌خوام.
06:32
I want to know the truth about justice --
146
392260
3000
من می‌خوام حقیقتِ عدالت رو بدونم--
06:35
like we have truths in math.
147
395260
3000
همون طور که حقایقی در ریاضیات داریم.
06:38
In math, we know the objective facts.
148
398260
3000
در ریاضیات، ما واقعیت‌ها رو می‌دونیم.
06:41
Take a number, any number -- two.
149
401260
2000
یه عدد در نظر بگیرید، هر عددی-- دو.
06:43
Favorite number. I love that number.
150
403260
2000
عدد موردعلاقه‌ی من. عاشقِ این عددم.
06:45
There are truths about two.
151
405260
2000
حقایقی درباره‌ی دو وجود داره.
06:47
If you've got two of something,
152
407260
2000
اگه دو تا از یک چیز داشته‎‌ باشین،
06:49
you add two more, you get four.
153
409260
2000
اگه دو تا دیگه بهش اضافه کنید، چهارتا می‌شه.
06:51
That's true no matter what thing you're talking about.
154
411260
2000
این حقیقته و ربطی به چیزی که داری درباره اس می گویی ندارد.
06:53
It's an objective truth about the form of two,
155
413260
2000
این یک حقیقت درباره‌ی دو است.
06:55
the abstract form.
156
415260
2000
شکل کلیِ دو.
06:57
When you have two of anything -- two eyes, two ears, two noses,
157
417260
2000
وقتی شما دوتا از هرچیزی دارید-- دو چشم، دو گوش، دو بینی،
06:59
just two protrusions --
158
419260
2000
دو تا برآمده‌گی--
07:01
those all partake of the form of two.
159
421260
3000
این‌ها همه در شکل دهی به دو شرکت دارند.
07:04
They all participate in the truths that two has.
160
424260
4000
همه در حقیقتِ دو شرکت دارند.
07:08
They all have two-ness in them.
161
428260
2000
همه‌ی این‌ها، «دو بودن» رو در خودشون دارند.
07:10
And therefore, it's not a matter of opinion.
162
430260
3000
بنابراین، این ربطی به نظرات نداره.
07:13
What if, Plato thought,
163
433260
2000
پلاتو فکر کرد، چی‌ می‌شه اگه
07:15
ethics was like math?
164
435260
2000
اخلاق هم همین طور باشه؟
07:17
What if there were a pure form of justice?
165
437260
3000
چی می‌شه اگه یک شکل مطلق از عدالت وجود داشته‌باشه؟
07:20
What if there are truths about justice,
166
440260
2000
شاید حقایقی درباره‌ی عدالت وجود دارند،
07:22
and you could just look around in this world
167
442260
2000
و ما می‌تونیم به اطرافِ‎ مون نگاه کنیم و
07:24
and see which things participated,
168
444260
2000
بفهمیم چه چیزهایی در این حقایق شرکت دارند،
07:26
partook of that form of justice?
169
446260
3000
و به اون‌ها شکل می‌دهند؟
07:29
Then you would know what was really just and what wasn't.
170
449260
3000
این طوری می‌فهمیدیم که واقعا" چی عادلانه‌ ست و چی نیست.
07:32
It wouldn't be a matter
171
452260
2000
اون وقت دیگه ربطی به نظرات یا
07:34
of just opinion or just appearances.
172
454260
3000
ظواهر امور نداشت.
07:37
That's a stunning vision.
173
457260
2000
دیدگاه شگفت‌انگیزیه.
07:39
I mean, think about that. How grand. How ambitious.
174
459260
3000
منظورم اینه که، بهش فکر کنید. چه قدر بزرگ. چه قدر بلندپروازانه.
07:42
That's as ambitious as we are.
175
462260
2000
بلندپرواز، مثل ما.
07:44
He wants to solve ethics.
176
464260
2000
او می‌خواد راه حلی برای اخلاق پیدا کنه.
07:46
He wants objective truths.
177
466260
2000
به دنبال حقائق مطلقه.
07:48
If you think that way,
178
468260
3000
اگر این طوری فکر کنیم،
07:51
you have a Platonist moral framework.
179
471260
3000
یک چهارچوبِ اخلاقیِ پلاتویی داریم.
07:54
If you don't think that way,
180
474260
2000
اگر این طوری فکر نکنیم،
07:56
well, you have a lot of company in the history of Western philosophy,
181
476260
2000
خوب، در این صورت در فلسفه‌ی غرب خیلی ها با ما موافق هستند.
07:58
because the tidy idea, you know, people criticized it.
182
478260
3000
چون این ایده خیلی تروتمیزه-- دیگران ازش انتقاد کردند.
08:01
Aristotle, in particular, he was not amused.
183
481260
3000
مخصوصا" ارسطو اصلا" از این ایده خوشش نیومد.
08:04
He thought it was impractical.
184
484260
3000
چون فکر می‌کرد عملی نیست.
08:07
Aristotle said, "We should seek only so much precision in each subject
185
487260
4000
ارسطو می‎گفت «در هر موضوع، ما تنها به اندازه‌ای دقت دست می‌یابیم
08:11
as that subject allows."
186
491260
2000
که خودِ موضوع بهمون اجازه می‌ده».
08:13
Aristotle thought ethics wasn't a lot like math.
187
493260
3000
ارسطو فکر نمی‌کرد شباهت زیادی بین اخلاق و ریاضیات وجود داره.
08:16
He thought ethics was a matter of making decisions in the here-and-now
188
496260
3000
او فکر می‌کرد موضوعِ اخلاق، تصمیم‌گیری در شرایط فعلی
08:19
using our best judgment
189
499260
2000
با استفاده از بهترین داوری
08:21
to find the right path.
190
501260
2000
برای پیدا کردنِ راه درسته.
08:23
If you think that, Plato's not your guy.
191
503260
2000
اگر شما این طور فکر می‌کنید، پلاتو طرفِ شما نیست.
08:25
But don't give up.
192
505260
2000
اما هنوز تموم نشده.
08:27
Maybe there's another way
193
507260
2000
شاید راه دیگه‌ای وجود داره
08:29
that we can use numbers as the basis of our moral framework.
194
509260
3000
که بتونیم اعداد رو مبنای چهارچوب اخلاقی‌مون قرار بدیم.
08:33
How about this:
195
513260
2000
این یکی چه طوره:
08:35
What if in any situation you could just calculate,
196
515260
3000
شاید بتونیم توی هر وضعیتی حساب و کتاب کنیم،
08:38
look at the choices,
197
518260
2000
به گزینه‌هامون نگاه کنیم،
08:40
measure out which one's better and know what to do?
198
520260
3000
بسنجیم که کدوم بهتره و بفهمیم که چی کار بکنیم.
08:43
That sound familiar?
199
523260
2000
آشنا به نظرتون میاد؟
08:45
That's a utilitarian moral framework.
200
525260
3000
این یک چهارچوب سودگرایانه‌ست.
08:48
John Stuart Mill was a great advocate of this --
201
528260
2000
جان استوارت میل طرفدار بزرگِ این چهارچوب بود--
08:50
nice guy besides --
202
530260
2000
مرد خوبی هم بود--
08:52
and only been dead 200 years.
203
532260
2000
و فقط 200 ساله که مُرده.
08:54
So basis of utilitarianism --
204
534260
2000
پس اساسِ سودگرایی--
08:56
I'm sure you're familiar at least.
205
536260
2000
مطمئنم که یه چیزهایی درباره‌ش شنیدید.
08:58
The three people who voted for Mill before are familiar with this.
206
538260
2000
اون سه نفری که به میل رأی دادند حتما" می‌دونند که
09:00
But here's the way it works.
207
540260
2000
این چهارچوب این طوریه:
09:02
What if morals, what if what makes something moral
208
542260
3000
یک کار اخلاقیه اگر
09:05
is just a matter of if it maximizes pleasure
209
545260
2000
لذت رو به حداکثر برسونه،
09:07
and minimizes pain?
210
547260
2000
و رنج رو به حداقل.
09:09
It does something intrinsic to the act.
211
549260
3000
به ذات اون کار بستگی داره.
09:12
It's not like its relation to some abstract form.
212
552260
2000
نه به ارتباطش با یک مطلقِ خارجی.
09:14
It's just a matter of the consequences.
213
554260
2000
فقط به عواقب اون کار بستگی داره.
09:16
You just look at the consequences
214
556260
2000
فقط به عواقب توجه می‌کنی
09:18
and see if, overall, it's for the good or for the worse.
215
558260
2000
و تصمیم می‌گیری که جمعا" به نفعه یا به ضرر.
09:20
That would be simple. Then we know what to do.
216
560260
2000
ساده‌ست. این طوری می‌فهمیم که چی کار کنیم.
09:22
Let's take an example.
217
562260
2000
بیاید به یه مثال بپردازیم.
09:24
Suppose I go up
218
564260
2000
فرض کنید که من بگم
09:26
and I say, "I'm going to take your phone."
219
566260
2000
«می‌خوام تلفن شما رو بگیرم».
09:28
Not just because it rang earlier,
220
568260
2000
نه به خاطر این که زنگ زد،
09:30
but I'm going to take it because I made a little calculation.
221
570260
3000
بلکه چون من کمی حساب و کتاب کردم.
09:33
I thought, that guy looks suspicious.
222
573260
3000
فکر کردم که این آقا مشکوک به نظر می‌رسه.
09:36
And what if he's been sending little messages to Bin Laden's hideout --
223
576260
3000
شاید داشته به بن لادن پیغام می‌داده--
09:39
or whoever took over after Bin Laden --
224
579260
2000
یا به هر کسی که بعد از بن لادن کارها رو دست گرفته--
09:41
and he's actually like a terrorist, a sleeper cell.
225
581260
3000
و در واقع این آقا تروریست به نظر میاد.
09:44
I'm going to find that out, and when I find that out,
226
584260
3000
من باید مطمئن بشم. و اگر حدس من درست باشه،
09:47
I'm going to prevent a huge amount of damage that he could cause.
227
587260
3000
جلوی خسارت بزرگی که اون آقا می‌تونست ایجاد کنه گرفته شده.
09:50
That has a very high utility to prevent that damage.
228
590260
3000
جلوگیری از اون خسارت سود خیلی بزرگیه.
09:53
And compared to the little pain that it's going to cause --
229
593260
2000
و در مقایسه با رنج کوچیکی که این کار ایجاد می‌کنه--
09:55
because it's going to be embarrassing when I'm looking on his phone
230
595260
2000
چون به هر حال خجالت‌آوره که من تلفن اونو نگاه کنم
09:57
and seeing that he has a Farmville problem and that whole bit --
231
597260
3000
و بفهمم که با فارم ویل درگیره--
10:00
that's overwhelmed
232
600260
3000
این رنج کوچک، در مقابل سودِ نگاه کردن
10:03
by the value of looking at the phone.
233
603260
2000
به تلفن، اصلن به چشم نمیاد.
10:05
If you feel that way,
234
605260
2000
اگر شما چنین حسی دارید،
10:07
that's a utilitarian choice.
235
607260
3000
انتخابِ شما سودگرایانه‌ست.
10:10
But maybe you don't feel that way either.
236
610260
3000
اما شاید چنین حسی نداشته‌باشید.
10:13
Maybe you think, it's his phone.
237
613260
2000
شاید فکر کنید اون صاحب تلفنه.
10:15
It's wrong to take his phone
238
615260
2000
گرفتن تلفنش کار نادرستیه،
10:17
because he's a person
239
617260
2000
چون اون یک انسانه
10:19
and he has rights and he has dignity,
240
619260
2000
و حقوق و حریمی داره،
10:21
and we can't just interfere with that.
241
621260
2000
و ما نمی‌تونیم این قدر ساده به حریمِ‌ش تجاوز کنیم.
10:23
He has autonomy.
242
623260
2000
اون اختیار خودشو داره.
10:25
It doesn't matter what the calculations are.
243
625260
2000
مهم نیست محاسباتِ ما چی می‌گن.
10:27
There are things that are intrinsically wrong --
244
627260
3000
بعضی چیزها ذاتن نادرست هستند--
10:30
like lying is wrong,
245
630260
2000
مثلن دروغ نادرسته،
10:32
like torturing innocent children is wrong.
246
632260
3000
مثلن شکنجه‌ی کودکان معصوم نادرسته.
10:35
Kant was very good on this point,
247
635260
3000
کانت اینجا حرف خوبی می‌زنه.
10:38
and he said it a little better than I'll say it.
248
638260
2000
التبه خودش کمی بهتر از من بیانش کرده.
10:40
He said we should use our reason
249
640260
2000
او می‌گه ما باید با استفاده از استدلال
10:42
to figure out the rules by which we should guide our conduct,
250
642260
3000
قوانینی رو بفهمیم که باهاشون رفتارمون رو هدایت کنیم.
10:45
and then it is our duty to follow those rules.
251
645260
3000
بعد از اون، وظیفه‌ی ماست که از اون قوانین پیروی کنیم.
10:48
It's not a matter of calculation.
252
648260
3000
به محاسبات ربطی نداره.
10:51
So let's stop.
253
651260
2000
خوب دیگه کافیه.
10:53
We're right in the thick of it, this philosophical thicket.
254
653260
3000
حالا ما در قلب جنگلِ فلسفه هستیم.
10:56
And this goes on for thousands of years,
255
656260
3000
و این تا هزاران سال ادامه داره،
10:59
because these are hard questions,
256
659260
2000
چون این‌ها سوال‌های سختی هستند،
11:01
and I've only got 15 minutes.
257
661260
2000
و من فقط پانزده دقیقه وقت دارم.
11:03
So let's cut to the chase.
258
663260
2000
بریم سر اصل مطلب.
11:05
How should we be making our decisions?
259
665260
4000
چه طور تصمیم‌گیری کنیم؟
11:09
Is it Plato, is it Aristotle, is it Kant, is it Mill?
260
669260
3000
پلاتو خوبه، یا ارسطو، یا کانت، یا میل؟
11:12
What should we be doing? What's the answer?
261
672260
2000
چه کار کنیم؟ پاسخ چیه؟
11:14
What's the formula that we can use in any situation
262
674260
3000
کدوم فرمول می‌تونه در هر موقعیتی،
11:17
to determine what we should do,
263
677260
2000
کار درست رو مشخص کنه،
11:19
whether we should use that guy's data or not?
264
679260
2000
و بگه که آیا ما باید از اطلاعات اون شخص استفاده کنیم یا نه؟
11:21
What's the formula?
265
681260
3000
اون فرمول چیه؟
11:25
There's not a formula.
266
685260
2000
هیچ فرمولی وجود نداره.
11:29
There's not a simple answer.
267
689260
2000
پاسخ ساده‌ای به این سوال وجود نداره.
11:31
Ethics is hard.
268
691260
3000
اخلاق سخته.
11:34
Ethics requires thinking.
269
694260
3000
اخلاق مستلزم فکر کردنه.
11:38
And that's uncomfortable.
270
698260
2000
و ای کار سخته.
11:40
I know; I spent a lot of my career
271
700260
2000
می‌دونم، بخش عمده‌ی شغل من
11:42
in artificial intelligence,
272
702260
2000
مربوط به هوش مصنوعیه،
11:44
trying to build machines that could do some of this thinking for us,
273
704260
3000
در تلاش برای ساختن ماشین‌هایی که بتونن کمی به جای ما فکر کنند،
11:47
that could give us answers.
274
707260
2000
و بتونن جواب‌هایی به ما بدن.
11:49
But they can't.
275
709260
2000
ولی نمی‌تونن.
11:51
You can't just take human thinking
276
711260
2000
نمی‌شه همین طوری تفکر انسان رو برداشت
11:53
and put it into a machine.
277
713260
2000
و در یک ماشین قرار داد.
11:55
We're the ones who have to do it.
278
715260
3000
ما خودمون باید این کار رو بکنیم.
11:58
Happily, we're not machines, and we can do it.
279
718260
3000
خوشبختانه ما ماشین نیستیم و می‌تونیم این کار رو بکنیم.
12:01
Not only can we think,
280
721260
2000
ما نه تنها می‌تونیم فکر کنیم،
12:03
we must.
281
723260
2000
ما باید( فکر کنیم ).
12:05
Hannah Arendt said,
282
725260
2000
هانا آرنت می‌گه:
12:07
"The sad truth
283
727260
2000
«حقیقتِ تلخ اینه که
12:09
is that most evil done in this world
284
729260
2000
بیش‌تر کارهایی بدی که در دنیا انجام می‌شه
12:11
is not done by people
285
731260
2000
به دست آدم‌هایی اتفاق میفته که
12:13
who choose to be evil.
286
733260
2000
قصدِ بدی ندارند.
12:15
It arises from not thinking."
287
735260
3000
و این نتیجه‌ی فکر نکردنه.»
12:18
That's what she called the "banality of evil."
288
738260
4000
اون اسم این رو «پیش‌پاافتاده‌گیِ بدی» می‌ذاره.
12:22
And the response to that
289
742260
2000
و پاسخش اینه که
12:24
is that we demand the exercise of thinking
290
744260
2000
از هر انسانِ باشعوری انتظار فکر کردن
12:26
from every sane person.
291
746260
3000
داشته‌باشیم.
12:29
So let's do that. Let's think.
292
749260
2000
خوب بیاید این کارو بکنیم. بیاید فکر کنیم.
12:31
In fact, let's start right now.
293
751260
3000
بیاید همین الان شروع کنیم.
12:34
Every person in this room do this:
294
754260
3000
همه‌ی حضار این کار رو بکنند:
12:37
think of the last time you had a decision to make
295
757260
3000
به آخرین باری که می‌خواستید تصمیم‌گیری کنید فکر کنید
12:40
where you were worried to do the right thing,
296
760260
2000
آخرین باری که دغدغه‌ی انجام کار درست رو داشتید،
12:42
where you wondered, "What should I be doing?"
297
762260
2000
و از خودتون پرسیدید که «چی کار باید بکنم؟»
12:44
Bring that to mind,
298
764260
2000
اون موقعیت رو به یاد بیارید.
12:46
and now reflect on that
299
766260
2000
و حالا بهش فکر کنید.
12:48
and say, "How did I come up that decision?
300
768260
3000
از خودتون بپرسید: «چه طور اون تصمیم رو گرفتم؟
12:51
What did I do? Did I follow my gut?
301
771260
3000
چی کار کردم؟ از حسَّ‌م پیروی کردم؟
12:54
Did I have somebody vote on it? Or did I punt to legal?"
302
774260
2000
رأی‌گیری کردم؟ یا به قانون مراجعه کردم؟»
12:56
Or now we have a few more choices.
303
776260
3000
البته حالا چندتا گزینه‌ی دیگه هم داریم.
12:59
"Did I evaluate what would be the highest pleasure
304
779260
2000
«آیا محاسبه کردم تا ببینم کدوم کار بیشترین لذت رو داره
13:01
like Mill would?
305
781260
2000
مثل کاری که میل کرد؟
13:03
Or like Kant, did I use reason to figure out what was intrinsically right?"
306
783260
3000
یا مثل کانت، استدلال کردم تا بفهمم چه کاری ذاتن درسته؟»
13:06
Think about it. Really bring it to mind. This is important.
307
786260
3000
بهش فکر کنید. سعی کنید به یادش بیارید. مهمه.
13:09
It is so important
308
789260
2000
اون قدر مهمه که
13:11
we are going to spend 30 seconds of valuable TEDTalk time
309
791260
2000
می‌خوایم 30 ثانیه از وقت ارزشمند تد تاک رو
13:13
doing nothing but thinking about this.
310
793260
2000
فقط به این فکر کنیم.
13:15
Are you ready? Go.
311
795260
2000
آماده‌اید؟ شروع کنید.
13:33
Stop. Good work.
312
813260
3000
کافیه. خسته نباشید.
13:36
What you just did,
313
816260
2000
کاری که الان شما کردید،
13:38
that's the first step towards taking responsibility
314
818260
2000
اولین قدمه برای پذیرفتنِ مسئولیتِ
13:40
for what we should do with all of our power.
315
820260
3000
کاری که می‌تونیم با این همه قدرتِ‌مون انجام بدیم.
13:45
Now the next step -- try this.
316
825260
3000
حالا قدمِ بعدی-- اینو امتحان کنید.
13:49
Go find a friend and explain to them
317
829260
2000
برای یکی از دوست‌هاتون توضیح بدید
13:51
how you made that decision.
318
831260
2000
که چه طور اون تصمیم رو گرفتید.
13:53
Not right now. Wait till I finish talking.
319
833260
2000
الان نه. صبر کنید حرف‌های من تموم شه.
13:55
Do it over lunch.
320
835260
2000
موقع ناهار این کار رو بکنید.
13:57
And don't just find another technologist friend;
321
837260
3000
دوستی که برای این کار انتخاب می‌کنید، مثل خودتون فنّی نباشه.
14:00
find somebody different than you.
322
840260
2000
کسی رو انتخاب کنید که با شما فرق داشته‌باشه.
14:02
Find an artist or a writer --
323
842260
2000
یه هنرمند یا نویسنده--
14:04
or, heaven forbid, find a philosopher and talk to them.
324
844260
3000
یا، خدای ناکرده، یه فیلسوف بهتره.
14:07
In fact, find somebody from the humanities.
325
847260
2000
در واقع، سعی کنید رشته‌ش علوم انسانی باشه.
14:09
Why? Because they think about problems
326
849260
2000
چرا؟ چون اون‌ها نگاه‌شون به مسائل
14:11
differently than we do as technologists.
327
851260
2000
با نگاهِ ما فنّی‌ها فرق داره.
14:13
Just a few days ago, right across the street from here,
328
853260
3000
همین چند روز پیش، دقیقا" اون طرف خیابون،
14:16
there was hundreds of people gathered together.
329
856260
2000
صدها نفر تجمع کرده‌بودند.
14:18
It was technologists and humanists
330
858260
2000
فنی‌ها و علوم انسانی‌ها برای
14:20
at that big BiblioTech Conference.
331
860260
2000
کنفرانس بیبلیوتک اومده‌ بودند.
14:22
And they gathered together
332
862260
2000
اونا دور هم جمع شده‌بودند
14:24
because the technologists wanted to learn
333
864260
2000
چون فنی‌ها می‌خواستند بدونند
14:26
what it would be like to think from a humanities perspective.
334
866260
3000
فکر کردن از چشم‌انداز به علوم انسانی چه طوریه.
14:29
You have someone from Google
335
869260
2000
فرض کنید یک نفر از گوگل
14:31
talking to someone who does comparative literature.
336
871260
2000
با یک نفر در رشته‌ی ادبیات قیاسی صحبت می‌کنه.
14:33
You're thinking about the relevance of 17th century French theater --
337
873260
3000
حتما" دارید فکر می‌کنید که تئاتر قرن ۱۷ فرانسه
14:36
how does that bear upon venture capital?
338
876260
2000
چه ربطی به سرمایه‌گذاری داره؟
14:38
Well that's interesting. That's a different way of thinking.
339
878260
3000
این طوری جالب می‌شه. این یک طرز تفکرِ متفاوته.
14:41
And when you think in that way,
340
881260
2000
و وقتی این طوری فکر کنید،
14:43
you become more sensitive to the human considerations,
341
883260
3000
نسبت به ملاحظات انسانی که در تصمیم‌گیری‌های اخلاقی
14:46
which are crucial to making ethical decisions.
342
886260
3000
نقش مهمی دارند، حساس‌تر می‌شید.
14:49
So imagine that right now
343
889260
2000
همین حالا تصور کنید
14:51
you went and you found your musician friend.
344
891260
2000
که پیش دوستِ موسیقی‌دانتون می‌رید.
14:53
And you're telling him what we're talking about,
345
893260
3000
و این حرف‌ها رو براش توضیح می‌دید،
14:56
about our whole data revolution and all this --
346
896260
2000
انقلاب اطلاعات و بقیه‌ی چیزها--
14:58
maybe even hum a few bars of our theme music.
347
898260
2000
و شاید کمی هم موسیقی متنمون رو براش بزنید.
15:00
♫ Dum ta da da dum dum ta da da dum ♫
348
900260
3000
♫ دام تا دا دا دام دام تا دا دا دام ♫
15:03
Well, your musician friend will stop you and say,
349
903260
2000
دوست موسیقی‌دانتون می‌پره وسط آهنگ و می‌گه
15:05
"You know, the theme music
350
905260
2000
«می‌دونی؟ موسیقی متن
15:07
for your data revolution,
351
907260
2000
برای انقلاب اطلاعاتی شما،
15:09
that's an opera, that's Wagner.
352
909260
2000
یه اپراست. ونگره.
15:11
It's based on Norse legend.
353
911260
2000
اساسش افسانه‌ی نورسه.
15:13
It's Gods and mythical creatures
354
913260
2000
به الهه‌ها و موجودات اسطوره‌ای می‌خوره
15:15
fighting over magical jewelry."
355
915260
3000
که برای جوهرات جادویی با هم می‌جنگن»
15:19
That's interesting.
356
919260
3000
جالبه.
15:22
Now it's also a beautiful opera,
357
922260
3000
حالا قضیه به یه اپرای زیبا هم تبدیل شد.
15:25
and we're moved by that opera.
358
925260
3000
و ما با این اپرا انگیزه می‌گیریم.
15:28
We're moved because it's about the battle
359
928260
2000
انگیزه می‌گیریم،‌ چون داستان،
15:30
between good and evil,
360
930260
2000
داستانِ جنگ بین خوبی و بدی
15:32
about right and wrong.
361
932260
2000
و درست و غلطه.
15:34
And we care about right and wrong.
362
934260
2000
و ما به درست و غلط اهمیت می‌دیم.
15:36
We care what happens in that opera.
363
936260
3000
برامون مهمه که در اون اپرا چه اتفاقی می‌افته.
15:39
We care what happens in "Apocalypse Now."
364
939260
3000
برامون مهمه که در «اینک آخرالزمان» چه اتفاقی می‌افته.
15:42
And we certainly care
365
942260
2000
و مخصوصن برامون مهمه که
15:44
what happens with our technologies.
366
944260
2000
در فناوری‌مون چه اتفاقی می‌افته.
15:46
We have so much power today,
367
946260
2000
ما امروز خیلی قدرتمندیم.
15:48
it is up to us to figure out what to do,
368
948260
3000
تصمیم با خودمونه که چی کار کنیم.
15:51
and that's the good news.
369
951260
2000
و این خبر خوبیه.
15:53
We're the ones writing this opera.
370
953260
3000
ما این اپرا رو می‌نویسیم.
15:56
This is our movie.
371
956260
2000
این فیلمِ ماست.
15:58
We figure out what will happen with this technology.
372
958260
3000
ما تعیین می‌کنیم که برای این فناوری چه اتفاقی می‌افته.
16:01
We determine how this will all end.
373
961260
3000
ما تعیین می‌کنیم که آخر قصه چی می‌شه.
16:04
Thank you.
374
964260
2000
متشکرم.
16:06
(Applause)
375
966260
5000
(تشویق حضار)
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7