Damon Horowitz calls for a "moral operating system"

Damon Horowitz nói về một "hệ điều hành đạo đức"

94,846 views

2011-06-06 ・ TED


New videos

Damon Horowitz calls for a "moral operating system"

Damon Horowitz nói về một "hệ điều hành đạo đức"

94,846 views ・ 2011-06-06

TED


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video.

Translator: Hai Nguyen Reviewer: Duc Nguyen
00:15
Power.
0
15260
2000
Sức mạnh.
00:17
That is the word that comes to mind.
1
17260
2000
Đó là từ đến trong tâm trí tôi
00:19
We're the new technologists.
2
19260
2000
Chúng ta là những kỹ sư công nghệ mới
00:21
We have a lot of data, so we have a lot of power.
3
21260
3000
Chúng ta có rất nhiều dữ liệu, nên chúng ta có rất nhiều sức mạnh
00:24
How much power do we have?
4
24260
2000
Chúng ta có bao nhiêu sức mạnh?
00:26
Scene from a movie: "Apocalypse Now" -- great movie.
5
26260
3000
Cảnh trong phim: "Apocalypse Now" - một bộ phim tuyệt vời
00:29
We've got to get our hero, Captain Willard, to the mouth of the Nung River
6
29260
3000
Chúng ta phải mang người hùng của chúng ta, Capt. Willard, đến miệng sông Nung
00:32
so he can go pursue Colonel Kurtz.
7
32260
2000
để anh ta có thể đuổi theo Col. Kurtz.
00:34
The way we're going to do this is fly him in and drop him off.
8
34260
2000
Cách chúng ta làm là mang anh ta bay đến và thả xuống.
00:36
So the scene:
9
36260
2000
Đến cảnh này:
00:38
the sky is filled with this fleet of helicopters carrying him in.
10
38260
3000
bầu trời dày đặc phi đội trực thăng mang anh ta đến
00:41
And there's this loud, thrilling music in the background,
11
41260
2000
Và có tiếng nhạc nền to, hồi hộp,
00:43
this wild music.
12
43260
2000
thứ âm nhạc hoang dã này.
00:45
♫ Dum da ta da dum ♫
13
45260
2000
♫ Dum da ta da dum ♫
00:47
♫ Dum da ta da dum ♫
14
47260
2000
♫ Dum da ta da dum ♫
00:49
♫ Da ta da da ♫
15
49260
3000
♫ Da ta da da ♫
00:52
That's a lot of power.
16
52260
2000
Nó mang rất nhiều sức mạnh.
00:54
That's the kind of power I feel in this room.
17
54260
2000
Đó là thứ sức mạnh tôi cảm nhận được trong căn phòng này
00:56
That's the kind of power we have
18
56260
2000
Đó là thứ sức mạnh chúng ta có
00:58
because of all of the data that we have.
19
58260
2000
bởi tất cả những dữ liệu mà chúng ta có
01:00
Let's take an example.
20
60260
2000
Hãy cùng xem một ví dụ
01:02
What can we do
21
62260
2000
Chúng ta có thể làm gì
01:04
with just one person's data?
22
64260
3000
Với dữ liệu của chỉ một người?
01:07
What can we do
23
67260
2000
Chúng ta có thể làm gì
01:09
with that guy's data?
24
69260
2000
với dữ liệu của người đó?
01:11
I can look at your financial records.
25
71260
2000
Tôi có thể xem những bản lưu tài chính của bạn
01:13
I can tell if you pay your bills on time.
26
73260
2000
Tôi có thể nói cho bạn biết bạn có thanh toán hóa đơn đúng hạn không
01:15
I know if you're good to give a loan to.
27
75260
2000
Tôi biết bạn có đáng để cho vay hay không
01:17
I can look at your medical records; I can see if your pump is still pumping --
28
77260
3000
Tôi có thể nhìn vào các bản lưu y tế, tôi có thể thấy tim bạn vẫn còn đang đập
01:20
see if you're good to offer insurance to.
29
80260
3000
thấy bạn có đáng để cung cấp dịch vụ bảo hiểm không.
01:23
I can look at your clicking patterns.
30
83260
2000
Tôi có thể nhìn vào kiểu bạn nhấp chuột.
01:25
When you come to my website, I actually know what you're going to do already
31
85260
3000
Khi bạn đến thăm website của tôi, tôi thực sự biết những gì bạn sắp sửa làm,
01:28
because I've seen you visit millions of websites before.
32
88260
2000
bởi vì tôi đã thấy bạn ghé thăm hàng triệu wesite trước đây.
01:30
And I'm sorry to tell you,
33
90260
2000
Và tôi xin lỗi phải nói với bạn rằng
01:32
you're like a poker player, you have a tell.
34
92260
2000
bạn giống như tay chơi bài poker, bạn có một câu chuyện
01:34
I can tell with data analysis what you're going to do
35
94260
2000
Tôi có thể kể chuyện với dữ liệu phân tích rằng bạn sắp sửa làm gì
01:36
before you even do it.
36
96260
2000
thậm chí trước khi bạn làm nó.
01:38
I know what you like. I know who you are,
37
98260
3000
Tôi biết bạn thích gì, tôi biết bạn là ai.
01:41
and that's even before I look at your mail
38
101260
2000
Và điều đó xảy ra thậm chí trước khi tôi nhìn vào thư
01:43
or your phone.
39
103260
2000
hay điện thoại của bạn.
01:45
Those are the kinds of things we can do
40
105260
2000
Đó là những thứ chúng ta có thể làm được
01:47
with the data that we have.
41
107260
3000
với dữ liệu mà chúng ta có.
01:50
But I'm not actually here to talk about what we can do.
42
110260
3000
Nhưng tôi thực sự không có mặt ở đây để nói về những gì chúng ta có thể làm.
01:56
I'm here to talk about what we should do.
43
116260
3000
Tôi ở đây để nói về những gì chúng ta nên làm.
02:00
What's the right thing to do?
44
120260
3000
Điều gì là đúng đắn để làm?
02:04
Now I see some puzzled looks
45
124260
2000
Giờ tôi thấy vài ánh mắt mù mờ
02:06
like, "Why are you asking us what's the right thing to do?
46
126260
3000
như "Tại sao bạn lại hỏi chúng tôi điều gì là đúng để làm?
02:09
We're just building this stuff. Somebody else is using it."
47
129260
3000
Chúng ta chỉ là những người xây dựng nên nó. Người khác sẽ dùng chúng."
02:12
Fair enough.
48
132260
3000
Đủ công bằng.
02:15
But it brings me back.
49
135260
2000
Nhưng nó làm tôi nghĩ lại.
02:17
I think about World War II --
50
137260
2000
Tôi nghĩ về chiến tranh thế giới thứ hai --
02:19
some of our great technologists then,
51
139260
2000
một vài kĩ nghệ gia vĩ đại,
02:21
some of our great physicists,
52
141260
2000
một vài nhà vật lĩ vĩ đại,
02:23
studying nuclear fission and fusion --
53
143260
2000
nghiên cứu về sự phân rã và kết hợp hạt nhân --
02:25
just nuclear stuff.
54
145260
2000
những khái niệm liên quan đến hạt nhân
02:27
We gather together these physicists in Los Alamos
55
147260
3000
Chúng ta tập hợp những nhà vật lí này ở Los Alamos
02:30
to see what they'll build.
56
150260
3000
để xem những gì họ sẽ xây dựng.
02:33
We want the people building the technology
57
153260
3000
Chúng ta muốn con người xây dựng công nghệ
02:36
thinking about what we should be doing with the technology.
58
156260
3000
suy nghĩ về những gì chúng ta sẽ làm với công nghệ đó
02:41
So what should we be doing with that guy's data?
59
161260
3000
Vậy nên, chúng ta sẽ nên làm gì với dữ liệu của anh ta?
02:44
Should we be collecting it, gathering it,
60
164260
3000
Chúng ta có nên thu thập nó, tập trung nó lại,
02:47
so we can make his online experience better?
61
167260
2000
để làm cho kinh nghiệm trực tuyến của anh ta tốt hơn?
02:49
So we can make money?
62
169260
2000
Để chúng ta có thể kiếm tiền?
02:51
So we can protect ourselves
63
171260
2000
Để chúng ta có thể bảo vệ chính mình
02:53
if he was up to no good?
64
173260
2000
nếu anh ta trở nên không còn tốt nữa?
02:55
Or should we respect his privacy,
65
175260
3000
Hay chúng ta nên tôn trọng riêng tư của anh ấy
02:58
protect his dignity and leave him alone?
66
178260
3000
bảo vệ lòng tự trọng của anh ta và để anh ta được yên?
03:02
Which one is it?
67
182260
3000
Điều gì nên làm?
03:05
How should we figure it out?
68
185260
2000
Nên làm thế nào để nhận ra điều đó
03:07
I know: crowdsource. Let's crowdsource this.
69
187260
3000
Tôi biết: nguồn lực đám đông. Hãy để đám đông làm việc đó.
03:11
So to get people warmed up,
70
191260
3000
Để hâm nóng không khí,
03:14
let's start with an easy question --
71
194260
2000
hãy bắt đầu với một câu hỏi đơn giản
03:16
something I'm sure everybody here has an opinion about:
72
196260
3000
mà tôi chắc rằng mọi người ở đây đều có ý kiến về nó
03:19
iPhone versus Android.
73
199260
2000
iPhone và Android.
03:21
Let's do a show of hands -- iPhone.
74
201260
3000
Hãy giơ tay -- iPhone
03:24
Uh huh.
75
204260
2000
Uh huh.
03:26
Android.
76
206260
3000
Android.
03:29
You'd think with a bunch of smart people
77
209260
2000
Bạn nghĩ rằng với một nhóm người thông minh
03:31
we wouldn't be such suckers just for the pretty phones.
78
211260
2000
chúng ta sẽ không trở thành trò hề cho những chiếc điện thoại xinh xắn.
03:33
(Laughter)
79
213260
2000
(Tiếng cười)
03:35
Next question,
80
215260
2000
Câu hỏi tiếp theo,
03:37
a little bit harder.
81
217260
2000
khó hơn một chút.
03:39
Should we be collecting all of that guy's data
82
219260
2000
Chúng ta có nên thu thập mọi dữ liệu về một người
03:41
to make his experiences better
83
221260
2000
để làm cho trải nghiệm của anh ta tốt hơn
03:43
and to protect ourselves in case he's up to no good?
84
223260
3000
và để bảo vệ chúng ta trong trường hợp anh ta không còn tốt nữa?
03:46
Or should we leave him alone?
85
226260
2000
Hay chúng ta nên mặc kệ anh ta?
03:48
Collect his data.
86
228260
3000
Thu thập dữ liệu của anh ta
03:53
Leave him alone.
87
233260
3000
Để mặc kệ anh ấy
03:56
You're safe. It's fine.
88
236260
2000
Bạn an toàn rồi. Thật tốt.
03:58
(Laughter)
89
238260
2000
(Tiếng cười)
04:00
Okay, last question --
90
240260
2000
Rồi, câu hỏi cuối cùng
04:02
harder question --
91
242260
2000
câu hỏi khó hơn
04:04
when trying to evaluate
92
244260
3000
khi cố gắng đánh giá
04:07
what we should do in this case,
93
247260
3000
chúng ta nên làm gì trong trường hợp này,
04:10
should we use a Kantian deontological moral framework,
94
250260
4000
chúng ta có nên sử dụng khuôn khổ đạo đức luận của Kant không
04:14
or should we use a Millian consequentialist one?
95
254260
3000
hay chúng ta nên sử dụng khuôn khổ nhân quả của Mill?
04:19
Kant.
96
259260
3000
Kant
04:22
Mill.
97
262260
3000
Mill
04:25
Not as many votes.
98
265260
2000
Không nhiều biểu quyết lắm
04:27
(Laughter)
99
267260
3000
(Tiếng cười)
04:30
Yeah, that's a terrifying result.
100
270260
3000
Vâng, đó là một kết quả tồi tệ.
04:34
Terrifying, because we have stronger opinions
101
274260
4000
Tồi tệ, bởi vì chúng ta có những ý kiến mạnh hơn
04:38
about our hand-held devices
102
278260
2000
về những thiết bị cầm tay của chúng ta
04:40
than about the moral framework
103
280260
2000
hơn về những khuôn khổ đạo đức
04:42
we should use to guide our decisions.
104
282260
2000
mà chúng ta nên dùng dể đưa ra những quyết định.
04:44
How do we know what to do with all the power we have
105
284260
3000
Làm sao để chúng ta biết phải làm gì với những sức mạnh chúng ta có
04:47
if we don't have a moral framework?
106
287260
3000
nếu chúng ta không có một khuôn khổ đạo đức nào?
04:50
We know more about mobile operating systems,
107
290260
3000
Chúng ta biết nhiều về hệ điều hành cho di động,
04:53
but what we really need is a moral operating system.
108
293260
3000
nhưng chúng ta thực sự cần một hệ điều hành đạo đức.
04:58
What's a moral operating system?
109
298260
2000
Hệ điều hành đạo đức là gì?
05:00
We all know right and wrong, right?
110
300260
2000
Tất cả chúng ta đều biết về đúng và sai, đúng không.
05:02
You feel good when you do something right,
111
302260
2000
Bạn cảm thấy tốt khi bạn làm điều gì đó đúng,
05:04
you feel bad when you do something wrong.
112
304260
2000
bạn cảm thấy tệ khi bạn làm điều gì sai.
05:06
Our parents teach us that: praise with the good, scold with the bad.
113
306260
3000
Bố mẹ chúng ta dạy chúng ta rằng: Khen ngợi điều tốt, khiển trách điều xấu.
05:09
But how do we figure out what's right and wrong?
114
309260
3000
Nhưng làm sao để chúng ta nhận ra cái gì đúng, cái gì sai?
05:12
And from day to day, we have the techniques that we use.
115
312260
3000
Và ngày qua ngày, chúng ta có những kĩ thuật để sử dụng.
05:15
Maybe we just follow our gut.
116
315260
3000
Có thể chúng ta chỉ cần theo cảm tính của mình.
05:18
Maybe we take a vote -- we crowdsource.
117
318260
3000
Có thể chúng ta sẽ yêu cầu biểu quyết -- chúng ta dùng sức mạnh đám đông.
05:21
Or maybe we punt --
118
321260
2000
Hoặc có thể chúng ta sẽ đẩy nó cho người khác
05:23
ask the legal department, see what they say.
119
323260
3000
hỏi nhà chức trách, xem những gì họ nói.
05:26
In other words, it's kind of random,
120
326260
2000
Nói cách khác, đó là một kiểu ngẫu nhiên
05:28
kind of ad hoc,
121
328260
2000
kiểu bột phát
05:30
how we figure out what we should do.
122
330260
3000
làm sao chúng ta có thể nhận ra chúng ta nên làm gì.
05:33
And maybe, if we want to be on surer footing,
123
333260
3000
Và có lẽ, để chắc chắn,
05:36
what we really want is a moral framework that will help guide us there,
124
336260
3000
cái chúng ta thực sực cần là một khuôn khổ đạo đức có thể hướng dẫn chúng ta,
05:39
that will tell us what kinds of things are right and wrong in the first place,
125
339260
3000
nói chúng ta điều gì là đúng và sai ngay từ đầu,
05:42
and how would we know in a given situation what to do.
126
342260
4000
và làm thế nào để chúng ta có thể biết cần làm gì trong một tình huống cụ thể.
05:46
So let's get a moral framework.
127
346260
2000
Vậy hãy lấy một khuôn khổ đạo đức.
05:48
We're numbers people, living by numbers.
128
348260
3000
Chúng ta là người của những con số, sống bằng những con số.
05:51
How can we use numbers
129
351260
2000
Làm sao để chúng ta có thể sử dụng những con số
05:53
as the basis for a moral framework?
130
353260
3000
như là nền tảng của khuôn khổ đạo đức?
05:56
I know a guy who did exactly that.
131
356260
3000
Tôi biết một người biết đích xác việc đó
05:59
A brilliant guy --
132
359260
3000
Một người thông minh --
06:02
he's been dead 2,500 years.
133
362260
3000
đã mất cách đây 2500 năm.
06:05
Plato, that's right.
134
365260
2000
Plato, đúng vậy.
06:07
Remember him -- old philosopher?
135
367260
2000
Mọi người còn nhớ ông ta không - nhà triết học già?
06:09
You were sleeping during that class.
136
369260
3000
Bạn thường ngủ suốt lớp triết học đó.
06:12
And Plato, he had a lot of the same concerns that we did.
137
372260
2000
Và Plato, ông ta có nhiều mối quan tâm như chúng ta có.
06:14
He was worried about right and wrong.
138
374260
2000
Ông ta lo nghĩ về đúng và sai.
06:16
He wanted to know what is just.
139
376260
2000
Ông ta muốn biết rằng cái gì là xác đáng.
06:18
But he was worried that all we seem to be doing
140
378260
2000
Nhưng ông ta nghĩ rằng tất cả những gì có vẻ như sắp được làm
06:20
is trading opinions about this.
141
380260
2000
chỉ là sự ý kiến cân nhắc về nó.
06:22
He says something's just. She says something else is just.
142
382260
3000
Anh ta nói một cái gì đó là chân lý. Cô ta nói một cái khác mới là chân lý.
06:25
It's kind of convincing when he talks and when she talks too.
143
385260
2000
Đó là một kiểu thuyết phục khi anh ta nói và khi cô ta nói.
06:27
I'm just going back and forth; I'm not getting anywhere.
144
387260
2000
Tôi bị tiến thoái lưỡng nan, tôi chẳng đạt được gì cả.
06:29
I don't want opinions; I want knowledge.
145
389260
3000
Tôi không muốn ý kiến, tôi muốn kiến thức.
06:32
I want to know the truth about justice --
146
392260
3000
Tôi muốn biết sự thật về công lý --
06:35
like we have truths in math.
147
395260
3000
như tôi có sự thật trong toán.
06:38
In math, we know the objective facts.
148
398260
3000
Trong toán, chúng ta biết những dữ kiện khách quan.
06:41
Take a number, any number -- two.
149
401260
2000
Hãy lấy một số, bất kì số nào -- số hai.
06:43
Favorite number. I love that number.
150
403260
2000
Số ưa thích, tôi thích số này.
06:45
There are truths about two.
151
405260
2000
Có những sự thật về số hai
06:47
If you've got two of something,
152
407260
2000
Nếu bạn có hai vật gì đó,
06:49
you add two more, you get four.
153
409260
2000
bạn thêm hai, bạn sẽ có bốn.
06:51
That's true no matter what thing you're talking about.
154
411260
2000
Điều này luôn đúng cho dù bạn đang nói về vật gì.
06:53
It's an objective truth about the form of two,
155
413260
2000
Đó là sự thật rõ ràng về dạng thức của số hai,
06:55
the abstract form.
156
415260
2000
một dạng thức trừu tượng.
06:57
When you have two of anything -- two eyes, two ears, two noses,
157
417260
2000
Khi bạn có hai thứ của bất kì thứ gì -- hai mắt, hai tai, hai mũi,
06:59
just two protrusions --
158
419260
2000
chỉ là hai thứ thấy được --
07:01
those all partake of the form of two.
159
421260
3000
tất cả những thứ đó đều là dạng thức của số hai.
07:04
They all participate in the truths that two has.
160
424260
4000
Tất cả chúng tham gia vào những sự thật mà số hai có.
07:08
They all have two-ness in them.
161
428260
2000
Tất cả chúng có đặc tính hai trong bản thân chúng.
07:10
And therefore, it's not a matter of opinion.
162
430260
3000
Và vì thế, nó không phải là vấn đề của bản thân ý kiến.
07:13
What if, Plato thought,
163
433260
2000
Điều gì xảy ra nếu, Plato nghĩ rằng,
07:15
ethics was like math?
164
435260
2000
đạo đức giống như toán học?
07:17
What if there were a pure form of justice?
165
437260
3000
Nếu có một dạng thức thuần túy của công lý?
07:20
What if there are truths about justice,
166
440260
2000
Nếu có những sự thật về công lý,
07:22
and you could just look around in this world
167
442260
2000
và bạn có thể nhìn thấy thế giới xung quanh
07:24
and see which things participated,
168
444260
2000
và thấy những điều nào tham gia,
07:26
partook of that form of justice?
169
446260
3000
tham gia một phần vào dạng thức đó của công lý?
07:29
Then you would know what was really just and what wasn't.
170
449260
3000
Từ đó bạn sẽ biết cái gì thực sự là chân lý, và cái gì không.
07:32
It wouldn't be a matter
171
452260
2000
Điều này không liên quan đến
07:34
of just opinion or just appearances.
172
454260
3000
ý kiến hoặc hình thức..
07:37
That's a stunning vision.
173
457260
2000
Đó là một tầm nhìn tuyệt vời.
07:39
I mean, think about that. How grand. How ambitious.
174
459260
3000
Ý tôi là, hãy nghĩ về nó. Thật vĩ đại. Thật là nhiều tham vọng.
07:42
That's as ambitious as we are.
175
462260
2000
Nhiều tham vọng như chính chúng ta.
07:44
He wants to solve ethics.
176
464260
2000
Ông ấy muốn giải quyết các vấn đề về đạo lý.
07:46
He wants objective truths.
177
466260
2000
Ông ấy muốn những sự thật khách quan.
07:48
If you think that way,
178
468260
3000
Nếu bạn cũng nghĩ theo cách đó,
07:51
you have a Platonist moral framework.
179
471260
3000
bạn đã có một nền tảng đạo đức Platon.
07:54
If you don't think that way,
180
474260
2000
Nếu bạn không nghĩ theo cách đó,
07:56
well, you have a lot of company in the history of Western philosophy,
181
476260
2000
ồ, bạn có rất nhiều bè bạn trong lịch sử triết học phương Tây,
07:58
because the tidy idea, you know, people criticized it.
182
478260
3000
bởi vì ý tưởng tốt -- bạn biết đấy, con người chỉ trích nó lên.
08:01
Aristotle, in particular, he was not amused.
183
481260
3000
Aristotle, thực tế, ông không hài lòng.
08:04
He thought it was impractical.
184
484260
3000
Ông ấy nghĩ nó không thực tế.
08:07
Aristotle said, "We should seek only so much precision in each subject
185
487260
4000
Aristotle nói rằng "Chúng ta chỉ nên tìm kiếm sự chính xác ở mỗi đối tượng
08:11
as that subject allows."
186
491260
2000
mà đối tượng đó cho phép."
08:13
Aristotle thought ethics wasn't a lot like math.
187
493260
3000
Aristotle nghĩ rằng đạo lý không giống lắm với toán học.
08:16
He thought ethics was a matter of making decisions in the here-and-now
188
496260
3000
Ông ấy nghĩ đạo lí là vấn đề đưa ra quyết định luôn và ngay
08:19
using our best judgment
189
499260
2000
sử dụng những nhận xét xác đáng nhất
08:21
to find the right path.
190
501260
2000
để tìm ra con đường đúng đắn.
08:23
If you think that, Plato's not your guy.
191
503260
2000
Nếu bạn cũng nghĩ như thế, Plato không phải là kiểu người dành cho bạn.
08:25
But don't give up.
192
505260
2000
Nhưng đừng đầu hàng vội,
08:27
Maybe there's another way
193
507260
2000
có thể còn những cách khác
08:29
that we can use numbers as the basis of our moral framework.
194
509260
3000
mà chúng ta có thể sử dụng những con số như là nền tảng của khuôn khổ đạo đức.
08:33
How about this:
195
513260
2000
Bạn nghĩ sao về:
08:35
What if in any situation you could just calculate,
196
515260
3000
Sẽ ra sao nếu như ở bất kì tình trạng nào bạn cũng có thể vừa tính toán,
08:38
look at the choices,
197
518260
2000
nhìn những lựa chọn,
08:40
measure out which one's better and know what to do?
198
520260
3000
chọn ra điều tốt nhất và biết phải làm gì tiếp theo?
08:43
That sound familiar?
199
523260
2000
Điều này nghe có quen không?
08:45
That's a utilitarian moral framework.
200
525260
3000
Đó là khuôn khổ đạo đức vị lợi.
08:48
John Stuart Mill was a great advocate of this --
201
528260
2000
John Stuart Mill là một người ủng hộ vĩ đại của học thuyết này --
08:50
nice guy besides --
202
530260
2000
cũng là người rất tử tế
08:52
and only been dead 200 years.
203
532260
2000
và chỉ mới mất cách đây 200 năm.
08:54
So basis of utilitarianism --
204
534260
2000
Cơ bản của chủ nghĩa vị lợi --
08:56
I'm sure you're familiar at least.
205
536260
2000
Tôi chắc chắn rằng ít nhất bạn cũng đã quen với nó.
08:58
The three people who voted for Mill before are familiar with this.
206
538260
2000
Có ba người đã ủng hộ Mill trước khi quen với học thuyết đó
09:00
But here's the way it works.
207
540260
2000
Nhưng đây là cách mà nó thực hiện.
09:02
What if morals, what if what makes something moral
208
542260
3000
Sẽ ra sao, nếu đạo lí, nếu những gì tạo nên đạo lí,
09:05
is just a matter of if it maximizes pleasure
209
545260
2000
chỉ là vấn đề của nó có tối đa hóa sự hài lòng
09:07
and minimizes pain?
210
547260
2000
và tối thiểu hóa nỗi đau hay không?
09:09
It does something intrinsic to the act.
211
549260
3000
Nó mang những thứ chân thực vào trong hành động.
09:12
It's not like its relation to some abstract form.
212
552260
2000
Nó không phải là một dạng quan hệ của những hình thức trừu tượng.
09:14
It's just a matter of the consequences.
213
554260
2000
Nó là vấn đề của kết quả.
09:16
You just look at the consequences
214
556260
2000
Bạn chỉ nhìn vào kết quả
09:18
and see if, overall, it's for the good or for the worse.
215
558260
2000
và xem xét, một cách toàn cục, liệu nó có tốt hơn hay xấu hơn.
09:20
That would be simple. Then we know what to do.
216
560260
2000
Xem xét vậy sẽ trở nên đơn giản. Sau đó chúng ta biết chúng ta phải làm gì.
09:22
Let's take an example.
217
562260
2000
Hãy cùng xem một ví dụ.
09:24
Suppose I go up
218
564260
2000
Giả sử tôi đến
09:26
and I say, "I'm going to take your phone."
219
566260
2000
và nói "Tôi sắp lấy điện thoại của anh"
09:28
Not just because it rang earlier,
220
568260
2000
Không phải chỉ bởi vì nó đã đổ chuông trước đó,
09:30
but I'm going to take it because I made a little calculation.
221
570260
3000
mà tôi lấy nó bởi vì tôi đã thực hiện sự tính toán nhỏ.
09:33
I thought, that guy looks suspicious.
222
573260
3000
Tôi đã nghĩ rằng, gã này trông đáng nghi ngờ.
09:36
And what if he's been sending little messages to Bin Laden's hideout --
223
576260
3000
Và sẽ ra sao nếu gã đang gửi thông điệp đến nơi ẩn nấp của Bin Laden
09:39
or whoever took over after Bin Laden --
224
579260
2000
hoặc kẻ nào đang chăm sóc cho Bin Laden --
09:41
and he's actually like a terrorist, a sleeper cell.
225
581260
3000
và gã thực sự giống một tên khủng bố, một kẻ ung nhọt.
09:44
I'm going to find that out, and when I find that out,
226
584260
3000
Tôi sắp tìm thấy vấn đề, và khi tôi tìm thấy nó,
09:47
I'm going to prevent a huge amount of damage that he could cause.
227
587260
3000
tôi sẽ chống lại sự thiệt hại to lớn mà gã có thể gây ra
09:50
That has a very high utility to prevent that damage.
228
590260
3000
Đó là một công cụ cực kì hữu ích để chống lại sự thiệt hại như thế.
09:53
And compared to the little pain that it's going to cause --
229
593260
2000
Và so với sự đau đớn nhỏ mà nó có thể gây ra --
09:55
because it's going to be embarrassing when I'm looking on his phone
230
595260
2000
bởi vì nó gây ra sự lúng túng khi tôi nhìn vào điện thoại của anh ta
09:57
and seeing that he has a Farmville problem and that whole bit --
231
597260
3000
và nhìn thấy anh ta đang có vấn đề với FarmVille và tất cả điều đó --
10:00
that's overwhelmed
232
600260
3000
nó bị tràn ngập
10:03
by the value of looking at the phone.
233
603260
2000
bởi những giá trị khi nhìn vào chiếc điện thoại đó.
10:05
If you feel that way,
234
605260
2000
Nếu bạn cảm thấy theo cách đó
10:07
that's a utilitarian choice.
235
607260
3000
đó là một lựa chọn vị lợi.
10:10
But maybe you don't feel that way either.
236
610260
3000
Nhưng có thể bạn cũng không cảm thận theo cách đó.
10:13
Maybe you think, it's his phone.
237
613260
2000
Có thể bạn nghĩ, đó là điện thoại của anh ta.
10:15
It's wrong to take his phone
238
615260
2000
Thật là sai khi lấy điện thoại của anh ta,
10:17
because he's a person
239
617260
2000
bởi vì anh ta là một con người
10:19
and he has rights and he has dignity,
240
619260
2000
và anh ta có quyền và địa vị của mình,
10:21
and we can't just interfere with that.
241
621260
2000
và chúng ta không thể xen vào điều đó.
10:23
He has autonomy.
242
623260
2000
Anh ta có quyền tự do.
10:25
It doesn't matter what the calculations are.
243
625260
2000
Điều này không bị ảnh hưởng bởi những gì chúng ta tính toán.
10:27
There are things that are intrinsically wrong --
244
627260
3000
Có những thứ bản thân nó đã là sai --
10:30
like lying is wrong,
245
630260
2000
giống như nói dối là sai
10:32
like torturing innocent children is wrong.
246
632260
3000
giống như hành hạ trẻ em vô tội là sai.
10:35
Kant was very good on this point,
247
635260
3000
Kant thể hiện rất tốt ở điểm này,
10:38
and he said it a little better than I'll say it.
248
638260
2000
và ông ấy nói tốt hơn chúng ta nói về nó
10:40
He said we should use our reason
249
640260
2000
Ông ấy nói chúng ta nên sử dụng suy luận của mình
10:42
to figure out the rules by which we should guide our conduct,
250
642260
3000
để làm rõ những qui luật mà chúng ta nên dùng để dẫn dắt đạo đức của mình.
10:45
and then it is our duty to follow those rules.
251
645260
3000
Và khi đó nhiệm vụ của chúng ta là làm theo những qui luật đó.
10:48
It's not a matter of calculation.
252
648260
3000
Nó không liên quan gì đến sự tính toán cả.
10:51
So let's stop.
253
651260
2000
Vì thế hãy dừng lại.
10:53
We're right in the thick of it, this philosophical thicket.
254
653260
3000
Chúng ta đúng về những thứ triết học này.
10:56
And this goes on for thousands of years,
255
656260
3000
Và điều này đã diễn ra hàng ngàn năm,
10:59
because these are hard questions,
256
659260
2000
bởi vì đó là những câu hỏi khó,
11:01
and I've only got 15 minutes.
257
661260
2000
và tôi thì chỉ có 15 phút.
11:03
So let's cut to the chase.
258
663260
2000
Nên hãy rút gọn lại.
11:05
How should we be making our decisions?
259
665260
4000
Bạn nên làm như thế nào để đưa ra quyết định?
11:09
Is it Plato, is it Aristotle, is it Kant, is it Mill?
260
669260
3000
Nên làm như Plato, như Aristotle, như Kant, như Mill?
11:12
What should we be doing? What's the answer?
261
672260
2000
Chúng ta nên làm gì? Câu trả lời là gì?
11:14
What's the formula that we can use in any situation
262
674260
3000
Đâu là công thức mà chúng ta có thể sử dụng ở bất kì tình huống nào
11:17
to determine what we should do,
263
677260
2000
để quyết định rằng chúng ta nên làm gì,
11:19
whether we should use that guy's data or not?
264
679260
2000
chúng ta có nên sử dụng dữ liệu của anh ta hay không?
11:21
What's the formula?
265
681260
3000
Công thức là gì?
11:25
There's not a formula.
266
685260
2000
Không có 1 công thức nào hết.
11:29
There's not a simple answer.
267
689260
2000
Không hề có một câu trả lời đơn giác.
11:31
Ethics is hard.
268
691260
3000
Đạo đức là vấn đề khó.
11:34
Ethics requires thinking.
269
694260
3000
Đạo đức yêu cầu sự suy nghĩ.
11:38
And that's uncomfortable.
270
698260
2000
Và rằng nó không hề thoải mái
11:40
I know; I spent a lot of my career
271
700260
2000
Tôi biết, phần lớn thời gian trong sự nghiệp của tôi
11:42
in artificial intelligence,
272
702260
2000
là cho trí tuệ nhân tạo,
11:44
trying to build machines that could do some of this thinking for us,
273
704260
3000
cố gắng xây dựng những cỗ máy có thể có một số suy nghĩ như chúng ta,
11:47
that could give us answers.
274
707260
2000
có thể cho chúng ta một số câu trả lời.
11:49
But they can't.
275
709260
2000
Nhưng những cỗ máy đó không thể.
11:51
You can't just take human thinking
276
711260
2000
Bạn không thể chỉ lấy tư duy con người
11:53
and put it into a machine.
277
713260
2000
và nhét vào một cỗ máy.
11:55
We're the ones who have to do it.
278
715260
3000
Chúng ta là những thực thể duy nhất có thể suy nghĩ.
11:58
Happily, we're not machines, and we can do it.
279
718260
3000
Thật hạnh phúc rằng chúng ta không phải là máy móc, chúng ta có thể tư duy.
12:01
Not only can we think,
280
721260
2000
Không chỉ chúng ta có khả năng tư duy,
12:03
we must.
281
723260
2000
mà chúng ta phải tư duy.
12:05
Hannah Arendt said,
282
725260
2000
Hannad Arendt nói rằng,
12:07
"The sad truth
283
727260
2000
"Sự thật đáng buồn
12:09
is that most evil done in this world
284
729260
2000
là những điều xấu xa trên thế giới này
12:11
is not done by people
285
731260
2000
không phải được làm bởi những người
12:13
who choose to be evil.
286
733260
2000
muốn trở thành kẻ xấu.
12:15
It arises from not thinking."
287
735260
3000
Những điều xấu đến từ những kẻ không biết tư duy."
12:18
That's what she called the "banality of evil."
288
738260
4000
Bà gọi điều đó là "sự tầm thường của kẻ xấu."
12:22
And the response to that
289
742260
2000
Và đáp lại cho điều đó là
12:24
is that we demand the exercise of thinking
290
744260
2000
là chúng ta cần thực hành tư duy
12:26
from every sane person.
291
746260
3000
từ mỗi cá nhân theo đúng nghĩa.
12:29
So let's do that. Let's think.
292
749260
2000
Hãy làm nó. Hãy tư duy.
12:31
In fact, let's start right now.
293
751260
3000
Thực tế, hãy bắt đầu luôn bây giờ.
12:34
Every person in this room do this:
294
754260
3000
Mọi người trong phòng hãy làm việc này:
12:37
think of the last time you had a decision to make
295
757260
3000
nghĩ về lần cuối cùng bạn ra một quyết định
12:40
where you were worried to do the right thing,
296
760260
2000
lần mà bạn đã lo lắng về điều định làm,
12:42
where you wondered, "What should I be doing?"
297
762260
2000
lần mà bạn tự hỏi "Mình nên làm gì bây giờ?"
12:44
Bring that to mind,
298
764260
2000
Hãy nhớ lại điều đó.
12:46
and now reflect on that
299
766260
2000
Và bây giờ hãy áp dụng nó
12:48
and say, "How did I come up that decision?
300
768260
3000
và nói "Mình đã đi đến quyết định đó như thế nào?
12:51
What did I do? Did I follow my gut?
301
771260
3000
Mình đã làm gì? Mình có theo những gì thực lòng mình không?
12:54
Did I have somebody vote on it? Or did I punt to legal?"
302
774260
2000
Mình có ai ủng hộ không? Hoặc mình có vướng vào vấn đề pháp lí không?"
12:56
Or now we have a few more choices.
303
776260
3000
Hoặc ngay bây giờ chúng ta có nhiều lựa chọn hơn.
12:59
"Did I evaluate what would be the highest pleasure
304
779260
2000
"Chúng ta có đánh giá được sự vừa lòng tối đa
13:01
like Mill would?
305
781260
2000
như Mill không?
13:03
Or like Kant, did I use reason to figure out what was intrinsically right?"
306
783260
3000
Hoặc như Kant, chúng ta có dùng lí trí để làm rõ cái gì là bản chất sự thật không?"
13:06
Think about it. Really bring it to mind. This is important.
307
786260
3000
Hãy nghĩ về nó, thực sự chăm chú vào nó. Điều này rất quan trọng
13:09
It is so important
308
789260
2000
Nó quan trọng đến nỗi
13:11
we are going to spend 30 seconds of valuable TEDTalk time
309
791260
2000
chúng ta dùng đến 30 giây quí giá của thời gian TEDtalk
13:13
doing nothing but thinking about this.
310
793260
2000
chỉ để nghĩ về nó
13:15
Are you ready? Go.
311
795260
2000
Bạn sẵn sàng chưa. Bắt đầu.
13:33
Stop. Good work.
312
813260
3000
Dừng lại. Tốt lắm.
13:36
What you just did,
313
816260
2000
Những gì bạn vừa làm,
13:38
that's the first step towards taking responsibility
314
818260
2000
là bước đầu tiên hướng tới chịu trách nhiệm
13:40
for what we should do with all of our power.
315
820260
3000
về những gì chúng ta nên làm với sức mạnh của mình.
13:45
Now the next step -- try this.
316
825260
3000
Giờ bước tiếp theo -- hãy thử nó.
13:49
Go find a friend and explain to them
317
829260
2000
Tìm một người bạn và giải thích với họ
13:51
how you made that decision.
318
831260
2000
làm thế nào để đưa ra quyết định đó.
13:53
Not right now. Wait till I finish talking.
319
833260
2000
Không phải lúc này. Hãy đợi đến khi tôi hoàn thành bài nói.
13:55
Do it over lunch.
320
835260
2000
Hãy làm nó sau bữa trưa.
13:57
And don't just find another technologist friend;
321
837260
3000
Và đừng tìm một người bạn kĩ nghệ gia nào;
14:00
find somebody different than you.
322
840260
2000
hãy tìm người nào đó khác biệt với bạn.
14:02
Find an artist or a writer --
323
842260
2000
Tìm một nghệ sĩ, một nhà văn --
14:04
or, heaven forbid, find a philosopher and talk to them.
324
844260
3000
hoặc, tìm một nhà triết học và nói với họ.
14:07
In fact, find somebody from the humanities.
325
847260
2000
Thực tế, tìm một người nào đó từ cộng đồng.
14:09
Why? Because they think about problems
326
849260
2000
Tại sao? Bởi vì họ nghĩ về những vấn đề
14:11
differently than we do as technologists.
327
851260
2000
một cách khác biệt hơn là chúng ta nghĩ như một kĩ sư công nghệ.
14:13
Just a few days ago, right across the street from here,
328
853260
3000
Một vài ngày trước đây, ngay ngã tư bên đường từ đây,
14:16
there was hundreds of people gathered together.
329
856260
2000
có hàng trăm người tụ tập cùng nhau.
14:18
It was technologists and humanists
330
858260
2000
Họ là những kĩ sư công nghệ và nhà nhân chủng học
14:20
at that big BiblioTech Conference.
331
860260
2000
ở hội thảo lớn BiblioTech.
14:22
And they gathered together
332
862260
2000
Và họ tụ tập cùng nhau
14:24
because the technologists wanted to learn
333
864260
2000
bởi vì những kĩ sư công nghệ muốn biết
14:26
what it would be like to think from a humanities perspective.
334
866260
3000
suy nghĩ từ góc nhìn của nhà nhân chủng học là như thế nào.
14:29
You have someone from Google
335
869260
2000
Bạn tìm thấy một số người từ Google
14:31
talking to someone who does comparative literature.
336
871260
2000
nói chuyện với người nào đó có cùng văn hóa.
14:33
You're thinking about the relevance of 17th century French theater --
337
873260
3000
Bạn đang nghĩ về sự tương đồng từ các nhà hát Pháp thế kỉ 17 --
14:36
how does that bear upon venture capital?
338
876260
2000
chúng sẽ chịu đựng ra sao trước quĩ đầu tư tư bản?
14:38
Well that's interesting. That's a different way of thinking.
339
878260
3000
Nó thật thú vị. Đó là một một cách tư duy hoàn toàn khác.
14:41
And when you think in that way,
340
881260
2000
Và khi bạn tư duy theo cách đó,
14:43
you become more sensitive to the human considerations,
341
883260
3000
bạn trở nên nhạy cảm hơn với những mối lo của nhân loại,
14:46
which are crucial to making ethical decisions.
342
886260
3000
điều này là quan trọng để đưa ra những quyết định mang tính đạo lí.
14:49
So imagine that right now
343
889260
2000
Ngay lúc này đây, hãy tưởng tượng rằng
14:51
you went and you found your musician friend.
344
891260
2000
bạn đến và tím thấy một người bạn nhạc công.
14:53
And you're telling him what we're talking about,
345
893260
3000
Và bạn đang nói cho anh ta về những gì chúng ta đang nói đến,
14:56
about our whole data revolution and all this --
346
896260
2000
về những dữ liệu cách mạng và tất cả những thứ này --
14:58
maybe even hum a few bars of our theme music.
347
898260
2000
thậm chí có thể thêm một ít thanh âm nhiễu của nhạc nền này.
15:00
♫ Dum ta da da dum dum ta da da dum ♫
348
900260
3000
♫ Dum ta da da dum dum ta da da dum ♫
15:03
Well, your musician friend will stop you and say,
349
903260
2000
Ồ, người bạn nhạc sĩ của bạn sẽ dừng bạn lại và nói rằng,
15:05
"You know, the theme music
350
905260
2000
"Bạn biết không, nhạc nền
15:07
for your data revolution,
351
907260
2000
cho cuộc cách mạng dữ liệu của bạn
15:09
that's an opera, that's Wagner.
352
909260
2000
là opera, là Wagner.
15:11
It's based on Norse legend.
353
911260
2000
Nó dựa trên huyền thoại Norse.
15:13
It's Gods and mythical creatures
354
913260
2000
Đó là Chúa trời, và là đấng sáng tạo
15:15
fighting over magical jewelry."
355
915260
3000
đã vượt quá những nhung lụa kì ảo."
15:19
That's interesting.
356
919260
3000
Điều này thật thú vị.
15:22
Now it's also a beautiful opera,
357
922260
3000
Giờ nó còn là một bản nhạc kịch đẹp tuyệt vời.
15:25
and we're moved by that opera.
358
925260
3000
Và chúng ta tiến bộ nhờ vở nhạc kịch đó.
15:28
We're moved because it's about the battle
359
928260
2000
Chúng ta tiến bộ bởi đó là cuộc chiến
15:30
between good and evil,
360
930260
2000
giữa cái tốt và cái xấu,
15:32
about right and wrong.
361
932260
2000
giữa đúng và sai.
15:34
And we care about right and wrong.
362
934260
2000
Và chúng ta quan tâm về đúng và sai.
15:36
We care what happens in that opera.
363
936260
3000
Chúng ta quan tâm cái gì diễn ra trong vở nhạc kịch đó.
15:39
We care what happens in "Apocalypse Now."
364
939260
3000
Chúng ta quan tâm về những gì diễn ra trong phim "Apocalypse Now"
15:42
And we certainly care
365
942260
2000
Và chúng ta tất nhiên quan tâm
15:44
what happens with our technologies.
366
944260
2000
về những gì diễn ra với công nghệ.
15:46
We have so much power today,
367
946260
2000
Chúng ta có rất nhiều sức mạnh ngày nay,
15:48
it is up to us to figure out what to do,
368
948260
3000
và nó phụ thuộc vào chúng ta để đánh giá xem nên làm cái gì.
15:51
and that's the good news.
369
951260
2000
Và đó một tin tốt lành.
15:53
We're the ones writing this opera.
370
953260
3000
Chúng ta là những người viết nên vở nhạc kịch này.
15:56
This is our movie.
371
956260
2000
Đây là bộ phim của chúng ta.
15:58
We figure out what will happen with this technology.
372
958260
3000
Chúng ta xem xét cái gì sẽ diễn ra với công nghệ.
16:01
We determine how this will all end.
373
961260
3000
Chúng ta quyết định mọi thứ sẽ kết thúc như thế nào.
16:04
Thank you.
374
964260
2000
Xin cảm ơn.
16:06
(Applause)
375
966260
5000
(Vỗ tay)
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7