Damon Horowitz calls for a "moral operating system"

94,639 views ・ 2011-06-06

TED


โปรดดับเบิลคลิกที่คำบรรยายภาษาอังกฤษด้านล่างเพื่อเล่นวิดีโอ

Translator: Kelwalin Dhanasarnsombut Reviewer: Bank Light
00:15
Power.
0
15260
2000
พลัง
00:17
That is the word that comes to mind.
1
17260
2000
คำนี้เข้ามาในความคิดผม
00:19
We're the new technologists.
2
19260
2000
พวกเราเป็นนักเทคโนโลยียุคใหม่
00:21
We have a lot of data, so we have a lot of power.
3
21260
3000
พวกเรา มีข้อมูลมากมาย ดังนั้น พวกเรามีจึงมีพลังอำนาจสูง
00:24
How much power do we have?
4
24260
2000
เรามีพลังอำนาจมากแค่ไหนกัน?
00:26
Scene from a movie: "Apocalypse Now" -- great movie.
5
26260
3000
ฉากนึงจากภาพยนต์เรื่อง "กองทัพอำมหิต" -- เรื่องนี้ดีนะครับ
00:29
We've got to get our hero, Captain Willard, to the mouth of the Nung River
6
29260
3000
ในฉากนี้ พระเอกของเรา กัปตัน วิลยาร์ต จะต้องไปให้ถึงปากแม่น้ำนุง
00:32
so he can go pursue Colonel Kurtz.
7
32260
2000
เพื่อตามล่า ผู้พัน เคอร์ซ
00:34
The way we're going to do this is fly him in and drop him off.
8
34260
2000
และวิธีเดินทางก็คือ บินไปแล้วหย่อนเขาลง
00:36
So the scene:
9
36260
2000
ในฉากนั้น :
00:38
the sky is filled with this fleet of helicopters carrying him in.
10
38260
3000
ท้องฟ้าก็เต็มไปด้วยฝูงบินเฮลิคอปเตอร์นำเขาเข้าไป
00:41
And there's this loud, thrilling music in the background,
11
41260
2000
และขณะนั้น ก็มีเสียงดนตรี เสียงดัง และ ตื่นเต้น บรรเลงเป็นประกอบ
00:43
this wild music.
12
43260
2000
ให้อารมณ์ดุดัน
00:45
♫ Dum da ta da dum ♫
13
45260
2000
♫ ปัม ปั่ม ปัม ปั๊ม ปาม ♫
00:47
♫ Dum da ta da dum ♫
14
47260
2000
♫ปัม ปั่ม ปัม ป้าม ป่าม♫
00:49
♫ Da ta da da ♫
15
49260
3000
♫ปัม ปั่ม ปาม ป้าม♫
00:52
That's a lot of power.
16
52260
2000
ทรงพลังมาก
00:54
That's the kind of power I feel in this room.
17
54260
2000
นั่นเป็นรูปแบบพลังที่ผมรู้สึกได้ภายในห้องนี้
00:56
That's the kind of power we have
18
56260
2000
เป็นรูปแบบพลังที่เรามี
00:58
because of all of the data that we have.
19
58260
2000
เพราะว่าข้อมูลทั้งหมดที่เรามี
01:00
Let's take an example.
20
60260
2000
ลองมาดูตัวอย่าง
01:02
What can we do
21
62260
2000
เราทำอะไรได้บ้าง
01:04
with just one person's data?
22
64260
3000
ถ้ามีข้อมูลจากคนๆนึง?
01:07
What can we do
23
67260
2000
เราทำอะไรได้บ้าง
01:09
with that guy's data?
24
69260
2000
กับข้อมูลของคนๆนั้น?
01:11
I can look at your financial records.
25
71260
2000
ผมดูข้อมูลทางการเงินคุณได้
01:13
I can tell if you pay your bills on time.
26
73260
2000
บอกได้ว่าคุณจ่ายเงินตรงเวลาไหม
01:15
I know if you're good to give a loan to.
27
75260
2000
รู้ว่าควรให้คุณกู้เงินหรือเปล่า
01:17
I can look at your medical records; I can see if your pump is still pumping --
28
77260
3000
ผมสามารถดูประวัติทางการแพทย์ของคุณ ดูว่าปั๊มยังทำงานดีอยู่หรือเปล่า
01:20
see if you're good to offer insurance to.
29
80260
3000
จะได้รู้ว่าควรออกประกันสุขภาพให้คุณไหม
01:23
I can look at your clicking patterns.
30
83260
2000
ผมสามารถดูว่าคุณมักคลิ๊กดูอะไร
01:25
When you come to my website, I actually know what you're going to do already
31
85260
3000
เมื่อคุณเข้ามาที่เว็บไซต์ผม จริงๆผมก็รู้แล้วว่าคุณกำลังจะทำอะไร
01:28
because I've seen you visit millions of websites before.
32
88260
2000
เพราะผมเห็นว่า คุณไปดูเว็บอะไรมาก่อนเป็นล้านๆเว็บ
01:30
And I'm sorry to tell you,
33
90260
2000
และขอโทษด้วยที่ต้องบอกคุณว่า
01:32
you're like a poker player, you have a tell.
34
92260
2000
คุณก็เหมือนคนเล่นโป๊กเกอร์ คุณล่วงรู้ก่อนได้
01:34
I can tell with data analysis what you're going to do
35
94260
2000
ผมบอกได้จากการวิเคราะห์ข้อมูล ว่าคุณกำลังจะทำอะไร
01:36
before you even do it.
36
96260
2000
ก่อนที่คุณจะทำเสียอีก
01:38
I know what you like. I know who you are,
37
98260
3000
ผมรู้ว่าคุณชอบอะไร รู้ว่าคุณเป็นใคร
01:41
and that's even before I look at your mail
38
101260
2000
ก่อนจะเห็นจดหมาย หรือโทรศัพท์ ของคุณ
01:43
or your phone.
39
103260
2000
ด้วยซ้ำไป
01:45
Those are the kinds of things we can do
40
105260
2000
นั่นเป็นสิ่งที่เราสามารถทำได้
01:47
with the data that we have.
41
107260
3000
ด้วยข้อมูลที่เรามี
01:50
But I'm not actually here to talk about what we can do.
42
110260
3000
แต่ผมไม่ได้มาที่นี่ เพื่อจะบอกว่า เราทำอะไรได้
01:56
I'm here to talk about what we should do.
43
116260
3000
ผมมาที่นี่เพื่อจะพูดเกี่ยวกับสิ่งที่เราควรทำ
02:00
What's the right thing to do?
44
120260
3000
อะไรเป็นการกระทำที่ถูกต้อง?
02:04
Now I see some puzzled looks
45
124260
2000
ตอนนี้ผมเห็นหลายคนส่งสายตาสงสัย
02:06
like, "Why are you asking us what's the right thing to do?
46
126260
3000
แบบว่า "มาถามเราทำไมเนี่ย ว่าการกระทำอะไรเป็นสิ่งที่ถูกต้อง
02:09
We're just building this stuff. Somebody else is using it."
47
129260
3000
เราก็แค่สร้างสิ่งนี้ขึ้นมา คนอื่นต่างหากที่ใช้มัน"
02:12
Fair enough.
48
132260
3000
ก็จริงอยู่ครับ
02:15
But it brings me back.
49
135260
2000
แต่มันทำให้ผม
02:17
I think about World War II --
50
137260
2000
กลับมานึกถึงสงครามโลกครั้งที่ 2
02:19
some of our great technologists then,
51
139260
2000
ผู้สร้างนวัตกรรมผู้ยิ่งใหญ่บางท่าน
02:21
some of our great physicists,
52
141260
2000
นักฟิสิกส์ผู้ยิ่งใหญ่บางท่าน
02:23
studying nuclear fission and fusion --
53
143260
2000
ศึกษานิวเคลียร์ฟิชชั่นและฟิวส์ชั่น
02:25
just nuclear stuff.
54
145260
2000
ก็แค่เรื่องเกี่ยวกับนิวเคลียร์
02:27
We gather together these physicists in Los Alamos
55
147260
3000
เรานำนักฟิสิกส์เหล่านี้มารวมตัวกันที่ ลอส อลามอส
02:30
to see what they'll build.
56
150260
3000
ดูว่าพวกเขาจะสร้างอะไรออกมา
02:33
We want the people building the technology
57
153260
3000
เราต้องการเห็นคนสร้างสรรค์นวัตกรรม
02:36
thinking about what we should be doing with the technology.
58
156260
3000
เราคิดถึงว่า เราเป็นอย่างไร เมื่อมีนวัตกรรมเหล่านี้
02:41
So what should we be doing with that guy's data?
59
161260
3000
แล้ว เราควรทำอย่างไรกับข้อมูลของคนพวกนี้หล่ะ
02:44
Should we be collecting it, gathering it,
60
164260
3000
เราควรเก็บ และทำการรวบรวมมันไหม
02:47
so we can make his online experience better?
61
167260
2000
เพื่อที่เราจะได้ทำให้ประสบการณ์ท่องโลกไซเบอร์ดีขึ้น
02:49
So we can make money?
62
169260
2000
เพื่อที่เราจะได้ทำเงินหรือเปล่า?
02:51
So we can protect ourselves
63
171260
2000
เพื่อที่เราจะได้ป้องกันพวกเราเอง
02:53
if he was up to no good?
64
173260
2000
ถ้าคนๆนี้กำลังจะก่อเหตุร้าย
02:55
Or should we respect his privacy,
65
175260
3000
หรือ เราควรให้ความเคารพกับสิทธิส่วนตัวเขา
02:58
protect his dignity and leave him alone?
66
178260
3000
ปกป้องเกียรติของเขา แล้วอย่างไปยุ่งกับเขา?
03:02
Which one is it?
67
182260
3000
อย่างไหนดีหล่ะ?
03:05
How should we figure it out?
68
185260
2000
แล้วเราจะรู้ได้อย่างไร?
03:07
I know: crowdsource. Let's crowdsource this.
69
187260
3000
ผมรู้: ข้อมูลจากมหาชน ครับมาสำรวจกัน
03:11
So to get people warmed up,
70
191260
3000
เพื่อเป็นการอุ่นเครื่อง
03:14
let's start with an easy question --
71
194260
2000
เรามาเริ่มกันที่คำถามง่ายๆ
03:16
something I'm sure everybody here has an opinion about:
72
196260
3000
อะไรที่ผมมั่นใจว่าทุกคนที่นี่จะต้องมีความเห็นหล่ะ :
03:19
iPhone versus Android.
73
199260
2000
ไอโฟน ปะทะ แอนดรอยด์
03:21
Let's do a show of hands -- iPhone.
74
201260
3000
ไหนยกมือครับ -- ไอโฟน
03:24
Uh huh.
75
204260
2000
อ่าฮ่า
03:26
Android.
76
206260
3000
แอนดรอยด์
03:29
You'd think with a bunch of smart people
77
209260
2000
คุณคิดใช่ไหม คนฉลาดพวกนี้
03:31
we wouldn't be such suckers just for the pretty phones.
78
211260
2000
เราไม่น่าเป็นพวกไม่ได้เรื่องเพียงแค่มีมือถือสวยๆใช้หรอกเนอะ
03:33
(Laughter)
79
213260
2000
(เสียงหัวเราะ)
03:35
Next question,
80
215260
2000
คำถามถัดไป
03:37
a little bit harder.
81
217260
2000
ยากขึ้นอีกนิด
03:39
Should we be collecting all of that guy's data
82
219260
2000
เราควรเก็บข้อมูลของชายคนนั้น
03:41
to make his experiences better
83
221260
2000
เพื่อทำให้เขาได้รับประสบการณ์ที่ดีขึ้น
03:43
and to protect ourselves in case he's up to no good?
84
223260
3000
และเพื่อปกป้องพวกเรา ในกรณีที่คนๆนี้กำลังคิดแผนร้าย?
03:46
Or should we leave him alone?
85
226260
2000
หรือว่า เราไม่ควรไปจุ้นจ้านกับเขา?
03:48
Collect his data.
86
228260
3000
เก็บข้อมูลของเขาไป
03:53
Leave him alone.
87
233260
3000
อย่าไปยุ่งกะเขา
03:56
You're safe. It's fine.
88
236260
2000
คุณปลอดภัยครับ ดีครับ
03:58
(Laughter)
89
238260
2000
(เสียงหัวเราะ)
04:00
Okay, last question --
90
240260
2000
โอเค คำถามสุดท้าย
04:02
harder question --
91
242260
2000
ยากขึ้นไปอีก
04:04
when trying to evaluate
92
244260
3000
เมื่อทำการประเมินผล
04:07
what we should do in this case,
93
247260
3000
ในกรณีนี้เราควรทำอย่างไร
04:10
should we use a Kantian deontological moral framework,
94
250260
4000
เราควรใช้ กรอบความคิด หลักศีลธรรม หน้าที่นิยมที่ตายตัว แบบ คานท์
04:14
or should we use a Millian consequentialist one?
95
254260
3000
หรือว่า เราควรใช้ แนวผลลัพธ์นิยม แบบ มิลล์?
04:19
Kant.
96
259260
3000
(อิมมานูเอล) คานท์
04:22
Mill.
97
262260
3000
(จอห์น สจ๊วต) มิลล์
04:25
Not as many votes.
98
265260
2000
คนโหวตไม่เยอะแฮะ
04:27
(Laughter)
99
267260
3000
(เสียงหัวเราะ)
04:30
Yeah, that's a terrifying result.
100
270260
3000
อืม ผลลัพธ์น่าสะพรึงกลัวครับ
04:34
Terrifying, because we have stronger opinions
101
274260
4000
มันน่ากลัว เพราะว่าเรามีแนวคิดที่ชัดเจน
04:38
about our hand-held devices
102
278260
2000
ที่มีต่อเครื่องมือเครื่องใช้
04:40
than about the moral framework
103
280260
2000
มากกว่าที่มีต่อ กรอบความคิดทางจริยธรรม
04:42
we should use to guide our decisions.
104
282260
2000
ที่เราควรใช้มันเป็นแนวทางการตัดสินใจ
04:44
How do we know what to do with all the power we have
105
284260
3000
เราจะรู้ได้อย่างไร ว่าเราต้องทำอย่างไรกับอำนาจที่เรามี
04:47
if we don't have a moral framework?
106
287260
3000
ถ้าเราไม่มี กรอบความคิดทางจริยธรรม
04:50
We know more about mobile operating systems,
107
290260
3000
เรารู้มากขึ้นเกี่ยวกับระบบปฏิบัติการของโทรศัพท์มือถือ
04:53
but what we really need is a moral operating system.
108
293260
3000
แต่ที่เราต้องการจริงๆคือ ระบบปฏิบัติการทางจริยธรรม
04:58
What's a moral operating system?
109
298260
2000
แล้ว ระบบปฏิบัติการทางจริยธรรม มันคืออะไรกัน?
05:00
We all know right and wrong, right?
110
300260
2000
พวกเรารู้ว่าอะไร ถูก และ ผิด ใช่ไหมครับ ?
05:02
You feel good when you do something right,
111
302260
2000
คุณรู้สึกดี เมื่อเราทำสิ่งที่ถูก
05:04
you feel bad when you do something wrong.
112
304260
2000
คุณรู้สึกแย่ เมื่อทำอะไรที่มันผิด
05:06
Our parents teach us that: praise with the good, scold with the bad.
113
306260
3000
พ่อแม่เราสอนว่า จงสรรเสริญการกระทำดี ตำหนิการกระทำชั่ว
05:09
But how do we figure out what's right and wrong?
114
309260
3000
แต่ เรารู้ได้อย่างไร ว่าอะไรผิด และ ถูก?
05:12
And from day to day, we have the techniques that we use.
115
312260
3000
และทุกวันนี้ เรามีเทคนิคต่างๆที่เราใช้
05:15
Maybe we just follow our gut.
116
315260
3000
บางทีเราเชื่อกึ๋นเรา
05:18
Maybe we take a vote -- we crowdsource.
117
318260
3000
บางทีเราใช้วิธีโหวต -- เราทำประชานิยม
05:21
Or maybe we punt --
118
321260
2000
หรือบางที เราก็เสี่ยงเอา
05:23
ask the legal department, see what they say.
119
323260
3000
ลองถามแผนกกฎหมาย ดูซิว่าพวกเขาจะว่าอย่างไร
05:26
In other words, it's kind of random,
120
326260
2000
หรือพูดอีกอย่างคือ มันก็เหมือนจะสุ่มๆ
05:28
kind of ad hoc,
121
328260
2000
ทำแบบเฉพาะกิจ
05:30
how we figure out what we should do.
122
330260
3000
เราจะรู้ได้อย่างไร ว่าเราควรทำอย่างไร
05:33
And maybe, if we want to be on surer footing,
123
333260
3000
และบางที ถ้าเราต้องการหลักยืนที่มันคงกว่านี้
05:36
what we really want is a moral framework that will help guide us there,
124
336260
3000
สิ่งที่เราต้องการจริงๆก็คือ กรอบความคิดทางจริยธรรมที่จะช่วยแนะแนวเรา
05:39
that will tell us what kinds of things are right and wrong in the first place,
125
339260
3000
ซึ่งมันจะบอกเราแต่แรกว่า สิ่งแบบไหนที่ถูก และผิด
05:42
and how would we know in a given situation what to do.
126
342260
4000
แล้ว รู้ว่าในสถานการณ์ที่ถูกมอบหมายให้นั้น เราต้องทำอย่างไร
05:46
So let's get a moral framework.
127
346260
2000
ฉะนั้น เรามาสร้างกรอบจริยธรรมกันเถอะ
05:48
We're numbers people, living by numbers.
128
348260
3000
พวกเราเป็นมนุษย์ตัวเลข อยู่กันด้วยตัวเลข
05:51
How can we use numbers
129
351260
2000
เราจะสามารถใช้ตัวเลขได้อย่างไร
05:53
as the basis for a moral framework?
130
353260
3000
เพื่อเป็นรากฐานสำหรับกรอบจริยธรรม?
05:56
I know a guy who did exactly that.
131
356260
3000
ผมรู้จักคนที่ทำแบบนั้นเป๊ะๆ
05:59
A brilliant guy --
132
359260
3000
เป็นคนที่ยอดเยี่ยม
06:02
he's been dead 2,500 years.
133
362260
3000
เขาเพิ่งเสียชีวิตไป 2,500 ปีเอง
06:05
Plato, that's right.
134
365260
2000
พลาโต้ ใช่แล้ว
06:07
Remember him -- old philosopher?
135
367260
2000
จำเขาได้ไหมครับ? นักปรัชญาแก่ๆท่านนี้
06:09
You were sleeping during that class.
136
369260
3000
คุณคงหลับปุ๋ยในชั่วโมงเรียนนั้น
06:12
And Plato, he had a lot of the same concerns that we did.
137
372260
2000
และพลาโต้ เขาก็ตระหนักถึงอะไรหลายๆอย่างเหมือนกันเรา
06:14
He was worried about right and wrong.
138
374260
2000
เขาเป็นห่วงเรื่องสิ่งที่ถูก และ ผิด
06:16
He wanted to know what is just.
139
376260
2000
เขาต้องการรู้ว่ามันคืออะไรแน่
06:18
But he was worried that all we seem to be doing
140
378260
2000
แต่เขาเป็นห่วงว่า ที่พวกเราทุกคนทำๆกันอยู่
06:20
is trading opinions about this.
141
380260
2000
ก็เป็นแค่การแลกเปลี่ยนความคิดกันไปมา
06:22
He says something's just. She says something else is just.
142
382260
3000
เขาบอกว่าอันนี้ถูก หล่อนบอกว่าอีกอย่างนึงถูก
06:25
It's kind of convincing when he talks and when she talks too.
143
385260
2000
มันฟังดูน่าเชื่อถือเมื่อเขาพูด และเมื่อหล่อนพูด ก็ด้วยเหมือนกัน
06:27
I'm just going back and forth; I'm not getting anywhere.
144
387260
2000
ผมแค่เดินหน้าแล้วก็ถอยกลับมา ผมไม่ได้ไปไหนเลย
06:29
I don't want opinions; I want knowledge.
145
389260
3000
ผมไม่ต้องการความเห็นครับ ผมต้องการความรู้
06:32
I want to know the truth about justice --
146
392260
3000
ต้องการรู้ความจริงเกี่ยวกับความเป็นธรรม
06:35
like we have truths in math.
147
395260
3000
เหมือนกับที่เรารู้ความจริงทางคณิตศาสตร์
06:38
In math, we know the objective facts.
148
398260
3000
ในวิชาคณิตศาสตร์ เรารู้ในเชิงวัตถุวิสัย
06:41
Take a number, any number -- two.
149
401260
2000
เลือกมาสักค่าหนึ่ง เลขอะไรก็ได้ สอง ละกัน
06:43
Favorite number. I love that number.
150
403260
2000
เลขโปรดผมเลย ผมชอบเลขนี้
06:45
There are truths about two.
151
405260
2000
มันมีความจริงเกี่ยวกับค่าที่เท่ากับสองครับ
06:47
If you've got two of something,
152
407260
2000
ถ้าคุณมีอะไรสองอย่าง
06:49
you add two more, you get four.
153
409260
2000
เพิ่มมันเข้าไปอีกสอง คุณจะได้สี่
06:51
That's true no matter what thing you're talking about.
154
411260
2000
มันเป็นจริงเสมอ ไม่ว่าสิ่งที่คุณพูดถึงคืออะไร
06:53
It's an objective truth about the form of two,
155
413260
2000
มันเป็นความจริงเชิงวัตถุวิสัยของเลขสอง
06:55
the abstract form.
156
415260
2000
ในทางทฤษฎี (ที่มองไม่เห็น)
06:57
When you have two of anything -- two eyes, two ears, two noses,
157
417260
2000
เมื่อคุณมีของสองสิ่ง -- สองตา สองหู สองจมูก
06:59
just two protrusions --
158
419260
2000
อะไรสักอย่างสองหน่วย --
07:01
those all partake of the form of two.
159
421260
3000
ทั้งหมดนั่นเป็นส่วนที่เข้าร่วมเป็นคุณสมบัติของ สอง
07:04
They all participate in the truths that two has.
160
424260
4000
มันทั้งหมด เข้าร่วมเป็นส่วนของความจริงที่สองเป็น
07:08
They all have two-ness in them.
161
428260
2000
ความเป็น สอง อยู่ในพวกมันทั้งหมด
07:10
And therefore, it's not a matter of opinion.
162
430260
3000
ดังนั้น มันไม่ใช่เรื่องของความเห็น
07:13
What if, Plato thought,
163
433260
2000
พลาโต้คิด ถ้าหากว่า
07:15
ethics was like math?
164
435260
2000
จริยศาสตร์เป็นเหมือนคณิตศาสตร์หล่ะ
07:17
What if there were a pure form of justice?
165
437260
3000
ถ้ามันมีรูปแบบความเป็นธรรมที่บริสุทธิ์
07:20
What if there are truths about justice,
166
440260
2000
ถ้ามันมีความจริงเกี่ยวกับความเป็นธรรม
07:22
and you could just look around in this world
167
442260
2000
และคุณก็แค่มองไปรอบๆ ในโลกนี้
07:24
and see which things participated,
168
444260
2000
ดูซิ ว่าสิ่งไหนที่เข้าร่วมด้วย
07:26
partook of that form of justice?
169
446260
3000
เป็นส่วนร่วมของความเป็นธรรม
07:29
Then you would know what was really just and what wasn't.
170
449260
3000
แล้วคุณก็จะทราบว่า อะไรที่เป็นสิ่งที่ใช่ และอะไรที่ไม่ใช่
07:32
It wouldn't be a matter
171
452260
2000
มันจะไม่ได้เป็นเพียงแค่
07:34
of just opinion or just appearances.
172
454260
3000
ความเห็น หรือ แค่รูปลักษณ์ที่ปรากฎ
07:37
That's a stunning vision.
173
457260
2000
นั่นช่างเป็นความเห็นที่น่าทึ่ง
07:39
I mean, think about that. How grand. How ambitious.
174
459260
3000
ผมหมายถึง ลองคิดดูสิ มันช่างยิ่งใหญ่ ช่างทะเยอทะยาน
07:42
That's as ambitious as we are.
175
462260
2000
แสนจะทะเยอทะยาน ไม่ต่างจากพวกเรา
07:44
He wants to solve ethics.
176
464260
2000
เขาต้องการที่จะไขปัญหาทางจริยศาสตร์
07:46
He wants objective truths.
177
466260
2000
เขาต้องการ ความจริงเชิงวัตถุวิสัย
07:48
If you think that way,
178
468260
3000
ถ้าคุณคิดในแนวนั้น
07:51
you have a Platonist moral framework.
179
471260
3000
คุณมีกรอบความคิดทางศีลธรรมแบบพลาโต้
07:54
If you don't think that way,
180
474260
2000
ถ้าคุณไม่ได้คิดแบบนั้น
07:56
well, you have a lot of company in the history of Western philosophy,
181
476260
2000
เอาหล่ะ คุณก็มีพรรคพวกมากมายเลยในประวัติศาสตร์ปรัชญาตะวันตก
07:58
because the tidy idea, you know, people criticized it.
182
478260
3000
เพราะว่าความคิดที่เป็นระเบียบแบบแผน -- คุณก็รู้ คนมันจะวิจารณ์มัน
08:01
Aristotle, in particular, he was not amused.
183
481260
3000
โดยเฉพาะ อริสโตเติล เขาไม่ขำด้วยครับ
08:04
He thought it was impractical.
184
484260
3000
เขาคิดว่า มันเป็นไปไม่ได้ในทางปฏิบัติ
08:07
Aristotle said, "We should seek only so much precision in each subject
185
487260
4000
อริสโตเติลกล่าวว่า "เราควรค้นหาความแม่นตรงในแต่ละวิชา
08:11
as that subject allows."
186
491260
2000
ตราบแต่ที่วิชานั้นจะเอื้ออำนวย"
08:13
Aristotle thought ethics wasn't a lot like math.
187
493260
3000
อริสโตเติลคิดว่า จริยศาสตร์ ไม่ได้เหมือนคณิตศาสตร์มากนัก
08:16
He thought ethics was a matter of making decisions in the here-and-now
188
496260
3000
เขาคิดว่า จริยศาสตร์ เป็นเรื่องของการตัดสินใจ ในสถาณการณ์ต่างๆ
08:19
using our best judgment
189
499260
2000
โดยใช้การวินิจฉัยที่ดีที่สุดของเรา
08:21
to find the right path.
190
501260
2000
เพื่อที่จะหาหนทางที่ถูกต้อง
08:23
If you think that, Plato's not your guy.
191
503260
2000
ถ้าคุณคิดว่า อืม ไม่ปลื้มพลาโต้แฮะ
08:25
But don't give up.
192
505260
2000
อย่าเพิ่งถอดใจครับ
08:27
Maybe there's another way
193
507260
2000
บางที เรายังมีอีกหนทาง
08:29
that we can use numbers as the basis of our moral framework.
194
509260
3000
ที่เราจะใช้ตัวเลขเป็นรากฐานของกรอบความคิดทางศีลธรรมของเรา
08:33
How about this:
195
513260
2000
เอาอย่างนี้ไหมครับ
08:35
What if in any situation you could just calculate,
196
515260
3000
ถ้าหากว่าในสถานการณ์ได้ๆ คุณสามารถแค่ทำการคำนวณ
08:38
look at the choices,
197
518260
2000
ดูตัวเลือก
08:40
measure out which one's better and know what to do?
198
520260
3000
ทำการวัดค่าว่าอันไหนดีที่สุด แล้วรู้ว่าต้องทำอย่างไร?
08:43
That sound familiar?
199
523260
2000
คุ้นๆไหมครับ?
08:45
That's a utilitarian moral framework.
200
525260
3000
นั่นคือกรอบความคิดทางศีลธรรมแบบประโยชน์นิยม (อรรถประโยชน์นิยม)
08:48
John Stuart Mill was a great advocate of this --
201
528260
2000
จอห์น สจ๊วต มิลล์ เป็นนักสนับสนุนตัวยง สำหรับทฤษฎีนี้ --
08:50
nice guy besides --
202
530260
2000
เป็นคนน่ารักนะครับ จะว่าไป --
08:52
and only been dead 200 years.
203
532260
2000
แล้วก็ เพิ่งตายไป 200 ปีเอง
08:54
So basis of utilitarianism --
204
534260
2000
พื้นฐานแนวคิดแบบอรรถประโยชน์นิยม --
08:56
I'm sure you're familiar at least.
205
536260
2000
อย่างน้อยผมมั่นใจว่าคุณคงคุ้นเคย
08:58
The three people who voted for Mill before are familiar with this.
206
538260
2000
สามท่านที่โหวตให้ แนวคิดของ มิลล์ ก่อนหน้านี้ คงคุ้นเคยกับมันนะครับ
09:00
But here's the way it works.
207
540260
2000
แต่ มันเป็นแบบนี้ครับ
09:02
What if morals, what if what makes something moral
208
542260
3000
จะเป็นอย่างไรถ้าหากว่า ศีลธรรม หรืออะไรสักอย่างที่ทำสักสิ่งคือศีลธรรม
09:05
is just a matter of if it maximizes pleasure
209
545260
2000
เป็นเพียงแค่ เรื่องที่ว่า มันให้ความพอใจสูงสุด
09:07
and minimizes pain?
210
547260
2000
และ ให้ความเจ็บปวดน้อยที่สุด?
09:09
It does something intrinsic to the act.
211
549260
3000
มันส่งผลถึงแก่นแท้ถึงการกระทำ
09:12
It's not like its relation to some abstract form.
212
552260
2000
มันไม่เหมือนกับความสัมพันธ์ของมันกับรูปแบบทางทฤษฎี
09:14
It's just a matter of the consequences.
213
554260
2000
มันเป็นแค่เรื่องของผลลัพธ์
09:16
You just look at the consequences
214
556260
2000
คุณเพียงแค่ดูที่ผลลัพธ์
09:18
and see if, overall, it's for the good or for the worse.
215
558260
2000
แล้วพิจารณาว่า โดยรวมแล้ว มันดี หรือว่า มันแย่กว่า
09:20
That would be simple. Then we know what to do.
216
560260
2000
นั่นมันก็น่าจะง่ายดี ง่ายกว่าที่เราต้องรู้ว่าต้องทำอะไร
09:22
Let's take an example.
217
562260
2000
ลองมาดูตัวอย่างกันครับ
09:24
Suppose I go up
218
564260
2000
สมมติว่า ผมเดินเข้ามา
09:26
and I say, "I'm going to take your phone."
219
566260
2000
แล้วบอกว่า "ผมจะเอาโทรศัพท์คุณไปหล่ะนะ"
09:28
Not just because it rang earlier,
220
568260
2000
ไม่ใช่เพราะว่าตะกี้มันดังหรอกนะครับ
09:30
but I'm going to take it because I made a little calculation.
221
570260
3000
แต่เพราะว่าผมกำลังจะเอามันไป เพื่อจะเอาไปใช้ทำการคำนวณนิดหน่อย
09:33
I thought, that guy looks suspicious.
222
573260
3000
ผมคิดว่า คุณคนนั้นดูกังขาน่าสงสัย
09:36
And what if he's been sending little messages to Bin Laden's hideout --
223
576260
3000
และ ถ้าเคยใช้โทรศัพท์ส่งข้อความไปยังที่ซ่อนตัวของ บิน ลาเดน หล่ะ
09:39
or whoever took over after Bin Laden --
224
579260
2000
หรือส่งหาใครก็ตามที่ดูแล บิน ลาเดน อยู่
09:41
and he's actually like a terrorist, a sleeper cell.
225
581260
3000
แล้ว จริงๆแล้วเขาเป็นเหมือนพวกผู้ก่อการร้าย ร่วมขบวนการกันเลย
09:44
I'm going to find that out, and when I find that out,
226
584260
3000
ผมกำลังจะสืบดู และเมื่อผมทราบแล้ว
09:47
I'm going to prevent a huge amount of damage that he could cause.
227
587260
3000
ผมจะป้องกันความเสียหายอันยิ่งใหญ่ที่เขาจะก่อ
09:50
That has a very high utility to prevent that damage.
228
590260
3000
นั่นก็จะเป็นประโยชน์อย่างมากมายที่จะป้องกันการเกิดความเสียหาย
09:53
And compared to the little pain that it's going to cause --
229
593260
2000
และเมื่อเปรียบเทียบกับความเจ็บปวดเพียงเล็กน้อยที่จะเกิดขึ้น --
09:55
because it's going to be embarrassing when I'm looking on his phone
230
595260
2000
เพราะว่า มันคงจะน่าอับอายเหมือนกัน ที่ผมจะไปดูโทรศัพท์ของเขา
09:57
and seeing that he has a Farmville problem and that whole bit --
231
597260
3000
และเห็นว่าเขามีปัญหาอยู่ในเกมส์ฟาร์มวิลล์ อะไรก็แนวนั้น--
10:00
that's overwhelmed
232
600260
3000
แต่มันแพ้คว่ำเลยครับ
10:03
by the value of looking at the phone.
233
603260
2000
ถ้าเราเปรีบเทียบกับสิ่งที่เราจะได้ จากการดูโทรศัพท์เขา
10:05
If you feel that way,
234
605260
2000
ถ้าคุณรู้สึกเช่นนี้
10:07
that's a utilitarian choice.
235
607260
3000
นี่คือทางเลือกแบบ อรรถประโยชน์นิยม
10:10
But maybe you don't feel that way either.
236
610260
3000
แต่ บางทีคุณก็ไม่ได้คิดแบบนี้อีกเช่นกัน
10:13
Maybe you think, it's his phone.
237
613260
2000
บางที คุณคิดว่า นี่มันโทรศัพท์เขา
10:15
It's wrong to take his phone
238
615260
2000
มันผิด ที่จะไปเอาของเขามา
10:17
because he's a person
239
617260
2000
เขาเป็นคนเหมือนกันนะ
10:19
and he has rights and he has dignity,
240
619260
2000
และเขาก็มีสิทธิ เขามีศักดิ์ศรี
10:21
and we can't just interfere with that.
241
621260
2000
และไม่ใช่ว่าเราอยู่ๆเราจะไปแทรกแซงอย่างนั้นได้
10:23
He has autonomy.
242
623260
2000
เขามีอัตตานัติ (ความเป็นอิสระในการปกครองตนเอง)
10:25
It doesn't matter what the calculations are.
243
625260
2000
มันไม่สำคัญว่าการคำนวณพวกนั้นคืออะไร
10:27
There are things that are intrinsically wrong --
244
627260
3000
มันมีสิ่งที่โดยเนื้อแท้แล้ว มันผิด --
10:30
like lying is wrong,
245
630260
2000
เหมือนกับ การโกหก เป็นสิ่งที่ผิด
10:32
like torturing innocent children is wrong.
246
632260
3000
เหมือนกับการ ทรมานเด็กๆที่ไร้เดียงสา เป็นสิ่งที่ผิด
10:35
Kant was very good on this point,
247
635260
3000
คาร์ท เป็นคนที่เก่งมากในเรื่องนี้
10:38
and he said it a little better than I'll say it.
248
638260
2000
และเขากล่าวไว้ได้ดีกว่าที่ผมจะพูดนิดหน่อย
10:40
He said we should use our reason
249
640260
2000
เขากล่าวไว้ว่า เราควรใช้เหตุผลของเรา
10:42
to figure out the rules by which we should guide our conduct,
250
642260
3000
เพื่อที่จะคิดกฎระเบียบที่เราสมควรจะใช้ชี้นำพฤติกรรมของเรา
10:45
and then it is our duty to follow those rules.
251
645260
3000
และแล้วมันก็เป็นหน้าที่ของเราที่จะทำตามกฎเหล่านั้น
10:48
It's not a matter of calculation.
252
648260
3000
มันไม่ใช่เรื่องของการคำนวณ
10:51
So let's stop.
253
651260
2000
เอาหล่ะ หยุดกันก่อน
10:53
We're right in the thick of it, this philosophical thicket.
254
653260
3000
เราอยู่่ท่ามกลางจุดที่ไม่ชัดเจน เป็นความไม่ชัดเจนทางปรัชญา
10:56
And this goes on for thousands of years,
255
656260
3000
และมันเป็นมาเช่นนี้นานนับพันๆปีแล้ว
10:59
because these are hard questions,
256
659260
2000
ก็เพราะว่ามันเป็นคำถามที่ยาก
11:01
and I've only got 15 minutes.
257
661260
2000
และผมก็มีเวลาแค่15นาที
11:03
So let's cut to the chase.
258
663260
2000
ฉะนั้นผมผ่าประเด็นเลยก็แล้วกัน
11:05
How should we be making our decisions?
259
665260
4000
เราควรทำตัวอย่างไรในการตัดสินใจ?
11:09
Is it Plato, is it Aristotle, is it Kant, is it Mill?
260
669260
3000
แบบพลาโต้ อริสโตเติล แบบคาร์ท หรือว่า มิลล์?
11:12
What should we be doing? What's the answer?
261
672260
2000
เราควรจะประพฤติอย่างไร อะไรคือคำตอบ?
11:14
What's the formula that we can use in any situation
262
674260
3000
สูตรอะไรกันที่เราจะมาสามารถใช้ได้ไม่ว่าในสถาณการณ์ใด
11:17
to determine what we should do,
263
677260
2000
เพื่อที่จะตัดสินใจว่าเราควรทำเช่นไร
11:19
whether we should use that guy's data or not?
264
679260
2000
ว่าเราควรใช้ข้อมูลของคนๆนี้หรือไม่?
11:21
What's the formula?
265
681260
3000
สูตรนั้นคืออะไร?
11:25
There's not a formula.
266
685260
2000
มันไม่มีสูตรหรอกครับ
11:29
There's not a simple answer.
267
689260
2000
มันไม่มีคำตอบที่เรียบง่าย
11:31
Ethics is hard.
268
691260
3000
จริยศาสตร์เป็นเรื่องที่ยาก
11:34
Ethics requires thinking.
269
694260
3000
จริยศาสตร์ต้องการความคิด
11:38
And that's uncomfortable.
270
698260
2000
แล้วนั่นมันก็น่าลำบากใจ
11:40
I know; I spent a lot of my career
271
700260
2000
ผมทราบครับ ผมใช้เวลาส่วนมากในการทำงาน
11:42
in artificial intelligence,
272
702260
2000
ไปกับ จักรกลอัฉริยะ
11:44
trying to build machines that could do some of this thinking for us,
273
704260
3000
พยายามที่จะสร้างเครื่องยนต์ที่มีความสามารถบางส่วนเหมือนกับการคิดของเรา
11:47
that could give us answers.
274
707260
2000
นั่นมันอาจให้คำตอบเราได้
11:49
But they can't.
275
709260
2000
แต่มันทำไม่ได้ครับ
11:51
You can't just take human thinking
276
711260
2000
คุณไม่สามารถแค่เอาความคิดจากมนุษย์
11:53
and put it into a machine.
277
713260
2000
ไปใส่ให้กับเครื่องยนต์
11:55
We're the ones who have to do it.
278
715260
3000
พวกเราเป็นคนที่ต้องทำมัน
11:58
Happily, we're not machines, and we can do it.
279
718260
3000
ช่างน่ายินดี พวกเราไม่ใช่เครื่องจักร และพวกเราทำเช่นนั้นได้
12:01
Not only can we think,
280
721260
2000
ไม่ใช่เพียงแต่ว่าเราสามารถที่จะคิดได้
12:03
we must.
281
723260
2000
แต่เราต้องคิด
12:05
Hannah Arendt said,
282
725260
2000
ฮันนาห์ อเรนตท์ กล่าวว่า
12:07
"The sad truth
283
727260
2000
"เป็นเรื่องจริงที่น่าเศร้าว่า
12:09
is that most evil done in this world
284
729260
2000
การกระทำอันชั่วร้ายส่วนใหญ่ในโลกของเรา
12:11
is not done by people
285
731260
2000
ไม่ได้เกิดจากมนุษย์
12:13
who choose to be evil.
286
733260
2000
ผู้ที่เลือกที่จะเป็นคนพาล
12:15
It arises from not thinking."
287
735260
3000
แต่มันเกิดขึ้นมาจากการไม่ได้คิด"
12:18
That's what she called the "banality of evil."
288
738260
4000
นั่นเป็นสิ่งที่เธอเรียกว่า "ความไม่สร้างสรรค์ของสิ่งชั่วร้าย"
12:22
And the response to that
289
742260
2000
และการโต้ตอบต่อสิ่งนั้น
12:24
is that we demand the exercise of thinking
290
744260
2000
คือพวกเราต้องการแบบฝึกหัดสำหรับการคิด
12:26
from every sane person.
291
746260
3000
จากทุกคนที่มีสติ
12:29
So let's do that. Let's think.
292
749260
2000
เอาหล่ะลองทำดูครับ ลองคิด
12:31
In fact, let's start right now.
293
751260
3000
ที่จริงแล้ว ลองทำดูตอนนี้เลยดีกว่า
12:34
Every person in this room do this:
294
754260
3000
ทุกคนในห้องนี้ ทำอย่างนี้ครับ
12:37
think of the last time you had a decision to make
295
757260
3000
คิดถึงครั้งสุดท้ายที่คุณต้องตัดสินใจ
12:40
where you were worried to do the right thing,
296
760260
2000
ซึ่งคุณนั้นเป็นกังวลว่ามันจะเป็นสิ่งที่ถูกต้องไหม
12:42
where you wondered, "What should I be doing?"
297
762260
2000
ซึ่งคุณสงสัยว่า "แล้วอย่างนั้นฉันไปทำอะไรหล่ะเนี่ย?"
12:44
Bring that to mind,
298
764260
2000
ดึงความจำนั้นออกมาครับ
12:46
and now reflect on that
299
766260
2000
แล้วทีนี้ ไตร่ตรองดู
12:48
and say, "How did I come up that decision?
300
768260
3000
แล้วบอกว่า "การตัดสินใจนั้นเราได้มาอย่างไร"
12:51
What did I do? Did I follow my gut?
301
771260
3000
แล้วฉันทำอะไร ฉันทำตามกี๋นหรือเปล่านะ
12:54
Did I have somebody vote on it? Or did I punt to legal?"
302
774260
2000
ฉันให้คนช่วยออกความเห็น หรือว่า วิ่งรี่ไปพึ่งกฎหมาย
12:56
Or now we have a few more choices.
303
776260
3000
หรือว่า ตอนนี้ เรามีตัวเลือกมากขึ้นอีกหน่อย
12:59
"Did I evaluate what would be the highest pleasure
304
779260
2000
"ฉันประเมินหรือเปล่า ว่าอะไรจะให้ผลที่น่าพึงพอใจที่สุด
13:01
like Mill would?
305
781260
2000
เหมือนกับที่มิลล์จะทำ?
13:03
Or like Kant, did I use reason to figure out what was intrinsically right?"
306
783260
3000
หรือว่า แบบคาร์ท ฉันใช้เหตุผลในเพื่อให้ได้มาซึ่งแก่นของความถูกต้องหรือเปล่า"
13:06
Think about it. Really bring it to mind. This is important.
307
786260
3000
ลองคิดดูครับ เอาจริงๆนะครับ ดึงความคิดออกมา มันสำคัญครับ
13:09
It is so important
308
789260
2000
มันสำคัญมากๆ
13:11
we are going to spend 30 seconds of valuable TEDTalk time
309
791260
2000
เรากำลังจะใช้เวลา 30 วินาทีอันมีค่ายิ่งสำหรับการบรรยาย ณ TED
13:13
doing nothing but thinking about this.
310
793260
2000
ไม่ทำอะไรอื่น นอกจากคิดพิจารณาเกี่ยวกับสิ่งนี้
13:15
Are you ready? Go.
311
795260
2000
พร้อมหรือยังครับ เริ่ม
13:33
Stop. Good work.
312
813260
3000
หยุด เยี่ยมครับ
13:36
What you just did,
313
816260
2000
สิ่งที่คุณได้คิด
13:38
that's the first step towards taking responsibility
314
818260
2000
นั่นเป็นก้าวแรกไปสู่การมีหน้าที่รับผิดชอบ
13:40
for what we should do with all of our power.
315
820260
3000
ต่อสิ่งที่เราควรทำ ด้วยอำนาจทั้งหมดของเรา
13:45
Now the next step -- try this.
316
825260
3000
ทีนี้ ขั้นต่อไป -- ลองนี่ดู
13:49
Go find a friend and explain to them
317
829260
2000
ไปหาเพื่อน และอธิบายให้พวกเขาฟัง
13:51
how you made that decision.
318
831260
2000
ว่าคุณทำการตัดสินใจอย่างไร
13:53
Not right now. Wait till I finish talking.
319
833260
2000
ไม่ใช่ตอนนี้ครับ รอผมบรรยายจบก่อน
13:55
Do it over lunch.
320
835260
2000
ทำดูตอนพักเที่ยงก็ได้ครับ
13:57
And don't just find another technologist friend;
321
837260
3000
และอย่าไปหาแค่เพื่อนชาวเทคโนโลยีนะครับ
14:00
find somebody different than you.
322
840260
2000
หาใครสักคนที่แตกต่างจากคุณ
14:02
Find an artist or a writer --
323
842260
2000
หาศิลปิน หรือนักเขียน
14:04
or, heaven forbid, find a philosopher and talk to them.
324
844260
3000
หรือ หากสวรรค์ไม่เป็นใจ ลองคุยกับนักปรัชญาดูครับ
14:07
In fact, find somebody from the humanities.
325
847260
2000
ความจริงแล้ว หาใครสักคนที่มาจากด้านมนุษย์ศาสตร์
14:09
Why? Because they think about problems
326
849260
2000
ทำไมหรอครับ เพราะว่าคนพวกนี้คิดเกี่ยวกับปัญหา
14:11
differently than we do as technologists.
327
851260
2000
แตกต่างจากพวกเราชาวเทคโนโลยี
14:13
Just a few days ago, right across the street from here,
328
853260
3000
เมื่อไม่กี่วันก่อน อีกฝั่งหนึ่งของถนนจากตรงนี้
14:16
there was hundreds of people gathered together.
329
856260
2000
มีผู้คนเป็นร้อยๆมาชุมนุมรวมกัน
14:18
It was technologists and humanists
330
858260
2000
มีทั้งนักเทคโนโลยีและนักมนุษย์ศาสตร์
14:20
at that big BiblioTech Conference.
331
860260
2000
ที่งานประชุมวิชาการ บิบิโล เทค
14:22
And they gathered together
332
862260
2000
และพวกเขามารวมตัวกัน
14:24
because the technologists wanted to learn
333
864260
2000
เพราะว่า ชาวเทคโนโลยีต้องการที่จะเรียนรู้
14:26
what it would be like to think from a humanities perspective.
334
866260
3000
ว่ามันจะเป็นอย่างไรที่จะคิดด้วยทัศนคติแบบชาวมนุษย์ศาสตร์
14:29
You have someone from Google
335
869260
2000
เรามีคนๆหนึ่งมาจาก กูเกิล
14:31
talking to someone who does comparative literature.
336
871260
2000
พูดคุยกับคนๆหนึ่งที่ทำงานด้านวรรณกรรมเปรียบเทียบ
14:33
You're thinking about the relevance of 17th century French theater --
337
873260
3000
คุณกำลังคิดเกี่ยวกับความสัมพันธ์รของโรงละครฝรั่งเศสยุคศตวรรษที่17
14:36
how does that bear upon venture capital?
338
876260
2000
ว่ามันยืนหยัดอยู่ท่ามกลางเมืองหลวงอันตรายนี่ได้อย่างไร?
14:38
Well that's interesting. That's a different way of thinking.
339
878260
3000
อืม นั่นก็น่าสนใจครับ เป็นแนวทางความคิดที่แตกต่าง
14:41
And when you think in that way,
340
881260
2000
และเมื่อคุณคิดในแนวทางนั้น
14:43
you become more sensitive to the human considerations,
341
883260
3000
ก็จะกลายเป็นว่าคุณมีความละเอียดอ่อนต่อเข้าอกเข้าใจเพื่อนมนุษย์
14:46
which are crucial to making ethical decisions.
342
886260
3000
ซึ่งมันเป็นสิ่งสำคัญมากต่อการตัดสินใจทางจริยธรรม
14:49
So imagine that right now
343
889260
2000
ฉะนั้น ตอนนี้ จินตนาการ สิครับ
14:51
you went and you found your musician friend.
344
891260
2000
คุณออกไปและพบเพื่อนนักดนตรีของคุณ
14:53
And you're telling him what we're talking about,
345
893260
3000
คุณบอกเล่าให้เขาฟังเกี่ยวกับสิ่งที่เราพูดคุยกัน
14:56
about our whole data revolution and all this --
346
896260
2000
เกี่ยวกับเรื่อง การปฏิวัติข้อมูลทั้งหมด และทั้งหมดนี้
14:58
maybe even hum a few bars of our theme music.
347
898260
2000
บางที คุณอาจฮัมเพลงเอกของเราสักท่อนสองท่อน
15:00
♫ Dum ta da da dum dum ta da da dum ♫
348
900260
3000
♫ปัม ป่าม ปัม ปัม ป้าม ปัม ป่าม ปัม ปัม ป้าม♫
15:03
Well, your musician friend will stop you and say,
349
903260
2000
อ้า เพื่อนนักดนตรีก็จะหยุดคุณแล้วบอกว่า
15:05
"You know, the theme music
350
905260
2000
"เธอรู้ไหม เพลงเอก
15:07
for your data revolution,
351
907260
2000
ของการปฏิวัติข้องมูลของเธอหน่ะ
15:09
that's an opera, that's Wagner.
352
909260
2000
มันเป็นอุปรากร นั่นมัน(แต่งโดย)วาร์กเนอร์ หนิ
15:11
It's based on Norse legend.
353
911260
2000
มันมีเค้าโครงเรื่องจากตำนานยุโรปเหนือ (นอร์ส)
15:13
It's Gods and mythical creatures
354
913260
2000
มันเกี่ยวกับเทพเจ้าและสรรพสัตว์ในตำนาน
15:15
fighting over magical jewelry."
355
915260
3000
ต่อสู้แย่งชิงอัญมณีวิเศษ"
15:19
That's interesting.
356
919260
3000
อืม น่าสนใจนะครับ
15:22
Now it's also a beautiful opera,
357
922260
3000
แล้วทีนี้ อุปรากรอันงดงามนี่ก็ด้วย
15:25
and we're moved by that opera.
358
925260
3000
พวกเราได้รับการดลใจจากอุปรากร
15:28
We're moved because it's about the battle
359
928260
2000
พวกเรามีความรู้สึกร่วม เพราะว่ามันเกี่ยวกับการรบ
15:30
between good and evil,
360
930260
2000
ระหว่างธรรมะและอธรรม
15:32
about right and wrong.
361
932260
2000
เกี่ยวกับสิ่งที่ถูก และ ผิด
15:34
And we care about right and wrong.
362
934260
2000
และเรา ก็ใส่ใจในสิ่งที่ถูกและผิด
15:36
We care what happens in that opera.
363
936260
3000
เรา สนใจสิ่งที่เกิดขึ้นในอุปรากร
15:39
We care what happens in "Apocalypse Now."
364
939260
3000
เรา สนใจสิ่งที่เกิดขึ้นในหนังเรื่อง "กองทัพอำมหิต"
15:42
And we certainly care
365
942260
2000
และ แน่นอนว่า เราสนใจ
15:44
what happens with our technologies.
366
944260
2000
สิ่งที่เกิดขึ้นกับนวัตกรรมของเรา
15:46
We have so much power today,
367
946260
2000
ทุกวันนี้เรามีอำนาจมากมายเหลือเกิน
15:48
it is up to us to figure out what to do,
368
948260
3000
มันขึ้นอยู่กับเราที่จะตระหนักว่าต้องทำอย่างไร
15:51
and that's the good news.
369
951260
2000
และนั่นก็เป็นข่าวดีครับ
15:53
We're the ones writing this opera.
370
953260
3000
เราเป็นผู้ซึ่งเขียนบทอุปรากรนี้
15:56
This is our movie.
371
956260
2000
นี่คือภาพยนต์ของเรา
15:58
We figure out what will happen with this technology.
372
958260
3000
เราตระหนักว่า อะไรจะเกิดขึ้นกับนวัตกรรมเหล่านี้
16:01
We determine how this will all end.
373
961260
3000
เรามีเป้าหมายแน่วแน่ ว่าทั้งหมดนี้ จะลงเอยเช่นไร
16:04
Thank you.
374
964260
2000
ขอบคุณมากครับ
16:06
(Applause)
375
966260
5000
(เสียงปรบมือ)
เกี่ยวกับเว็บไซต์นี้

ไซต์นี้จะแนะนำคุณเกี่ยวกับวิดีโอ YouTube ที่เป็นประโยชน์สำหรับการเรียนรู้ภาษาอังกฤษ คุณจะได้เห็นบทเรียนภาษาอังกฤษที่สอนโดยอาจารย์ชั้นนำจากทั่วโลก ดับเบิลคลิกที่คำบรรยายภาษาอังกฤษที่แสดงในแต่ละหน้าของวิดีโอเพื่อเล่นวิดีโอจากที่นั่น คำบรรยายเลื่อนซิงค์กับการเล่นวิดีโอ หากคุณมีความคิดเห็นหรือคำขอใด ๆ โปรดติดต่อเราโดยใช้แบบฟอร์มการติดต่อนี้

https://forms.gle/WvT1wiN1qDtmnspy7