Can we build AI without losing control over it? | Sam Harris

3,769,729 views ・ 2016-10-19

TED


โปรดดับเบิลคลิกที่คำบรรยายภาษาอังกฤษด้านล่างเพื่อเล่นวิดีโอ

Translator: yamela areesamarn Reviewer: Kelwalin Dhanasarnsombut
00:13
I'm going to talk about a failure of intuition
0
13000
2216
ผมจะพูดถึงความล้มเหลว ของการหยั่งรู้โดยสัญชาตญาณ
00:15
that many of us suffer from.
1
15240
1600
ซึ่งพวกเราหลายคนประสบอยู่
00:17
It's really a failure to detect a certain kind of danger.
2
17480
3040
แท้จริงแล้ว มันเป็นความล้มเหลว ของการสัมผัสได้ถึงอันตรายบางอย่าง
00:21
I'm going to describe a scenario
3
21360
1736
ผมกำลังจะอธิบายสถานการณ์หนึ่ง
00:23
that I think is both terrifying
4
23120
3256
ที่ผมคิดว่ามันทั้งน่าสะพรึงกลัว
00:26
and likely to occur,
5
26400
1760
และก็น่าจะเกิดขึ้นได้
00:28
and that's not a good combination,
6
28840
1656
และนั่นไม่ใช่ส่วนผสมที่ดีเลย
00:30
as it turns out.
7
30520
1536
ดังที่ปรากฎออกมา
00:32
And yet rather than be scared, most of you will feel
8
32080
2456
แต่แทนที่จะกลัว ท่านทั้งหลายส่วนใหญ่จะรู้สึกว่า
00:34
that what I'm talking about is kind of cool.
9
34560
2080
สิ่งที่ผมกำลังจะพูดถึงนั้น เป็นอะไรที่ดูเจ๋ง
00:37
I'm going to describe how the gains we make
10
37200
2976
ผมกำลังจะอธิบายให้ฟังว่า ผลประโยชน์ที่เราได้รับ
00:40
in artificial intelligence
11
40200
1776
จากปัญญาประดิษฐ์
00:42
could ultimately destroy us.
12
42000
1776
ในที่สุดแล้วอาจทำลายเราได้อย่างไร
00:43
And in fact, I think it's very difficult to see how they won't destroy us
13
43800
3456
และที่จริง ผมว่ามันยากมาก ที่จะเข้าใจว่าพวกมันจะไม่ทำลายเรา
หรือไม่ดลใจให้เรา ทำลายตัวเองได้อย่างไร
00:47
or inspire us to destroy ourselves.
14
47280
1680
00:49
And yet if you're anything like me,
15
49400
1856
ถ้าหากว่าคุณเป็นอย่างผม
00:51
you'll find that it's fun to think about these things.
16
51280
2656
คุณจะพบว่ามันสนุกดี ที่จะคิดถึงเรื่องเหล่านี้
00:53
And that response is part of the problem.
17
53960
3376
และการตอบสนองนั้น ก็เป็นส่วนหนึ่งของปัญหา
00:57
OK? That response should worry you.
18
57360
1720
ใช่ไหมครับ การตอบรับนั้น น่าจะทำให้คุณกังวลใจ
00:59
And if I were to convince you in this talk
19
59920
2656
ถ้าในการบรรยายนี้ ผมต้องการโน้มน้าวคุณให้เชื่อว่า
01:02
that we were likely to suffer a global famine,
20
62600
3416
เราน่าจะต้องประสบกับความทุกข์ยาก จากความอดอยากไปทั่วโลก
01:06
either because of climate change or some other catastrophe,
21
66040
3056
ไม่ว่าจะเป็นเพราะการเปลี่ยนแปลง สภาวะอากาศ หรือหายนะอย่างอื่น
01:09
and that your grandchildren, or their grandchildren,
22
69120
3416
และลูกหลานของพวกคุณ หรือของลูกหลานของพวกเขา
01:12
are very likely to live like this,
23
72560
1800
อาจจะต้องมีความเป็นอยู่แบบนี้
01:15
you wouldn't think,
24
75200
1200
คุณคงจะไม่คิดหรอกว่า
01:17
"Interesting.
25
77440
1336
"น่าสนใจนะ
01:18
I like this TED Talk."
26
78800
1200
ฉันชอบ TED Talk เรื่องนี้"
01:21
Famine isn't fun.
27
81200
1520
ความอดอยากนั้นไม่น่าสนุก
01:23
Death by science fiction, on the other hand, is fun,
28
83800
3376
ในขณะที่ ความตาย ในนวนิยายวิทยาศาสตร์เป็นเรื่องสนุก
01:27
and one of the things that worries me most about the development of AI at this point
29
87200
3976
สิ่งหนึ่งที่ทำให้ผมกังวลที่สุดเกี่ยวกับ การพัฒนาปัญญาประดิษฐ์ขึ้นมา ณ ตอนนี้
ก็คือ ดูเหมือนว่าเราไม่สามารถสร้าง การตอบสนองทางอารมณ์ที่เหมาะสม
01:31
is that we seem unable to marshal an appropriate emotional response
30
91200
4096
01:35
to the dangers that lie ahead.
31
95320
1816
ต่ออันตรายที่อยู่เบื้องหน้าได้
01:37
I am unable to marshal this response, and I'm giving this talk.
32
97160
3200
ผมเองก็ไม่สามารถที่จะปลุกการตอบสนองนี้ได้ ผมจึงต้องมาพูดเรื่องนี้
01:42
It's as though we stand before two doors.
33
102120
2696
มันเหมือนกับว่า เรายืนอยู่ข้างหน้าประตูสองบาน
01:44
Behind door number one,
34
104840
1256
ด้านหลังประตูหมายเลขหนึ่ง
01:46
we stop making progress in building intelligent machines.
35
106120
3296
เราหยุดที่จะก้าวหน้าต่อไป ในการสร้างจักรกลที่ชาญฉลาด
01:49
Our computer hardware and software just stops getting better for some reason.
36
109440
4016
คอมพิวเตอร์ฮาร์ดแวร์และซอฟแวร์ ต่างหยุดพัฒนา ด้วยเหตุผลบางอย่าง
01:53
Now take a moment to consider why this might happen.
37
113480
3000
ลองใช้เวลาสักครู่เพื่อพิจารณานะครับ ว่าทำไมเรื่องแบบนี้อาจจะเกิดขึ้นได้
ผมหมายความว่า ด้วยคุณค่าของ ความฉลาดและความเป็นอัตโนมัตินั้น
01:57
I mean, given how valuable intelligence and automation are,
38
117080
3656
02:00
we will continue to improve our technology if we are at all able to.
39
120760
3520
เราจะยังคงพัฒนาเทคโนโลยีของเราต่อไป หากเรายังสามารถทำได้
02:05
What could stop us from doing this?
40
125200
1667
อะไรล่ะจะหยุดเราไม่ไห้ทำสิ่งนี้
02:07
A full-scale nuclear war?
41
127800
1800
สงครามนิวเคลียร์เต็มรูปแบบหรือ
02:11
A global pandemic?
42
131000
1560
โรคที่ระบาดไปทั่วโลกหรือ
02:14
An asteroid impact?
43
134320
1320
ดาวเคราะห์น้อยมาชนโลกหรือ
02:17
Justin Bieber becoming president of the United States?
44
137640
2576
จัสติน บีเบอร์ มาเป็นประธานาธิบดีของสหรัฐหรือ
02:20
(Laughter)
45
140240
2280
(เสียงหัวเราะ)
02:24
The point is, something would have to destroy civilization as we know it.
46
144760
3920
ประเด็นก็คือ บางสิ่งบางอย่างจะต้อง มาทำลายอารยธรรมที่เรารู้จัก
02:29
You have to imagine how bad it would have to be
47
149360
4296
คุณจะต้องจินตนาการเองว่า มันจะแย่ขนาดไหน
02:33
to prevent us from making improvements in our technology
48
153680
3336
ที่จะมากีดกันเราจากการ ปรับปรุงเทคโนโลยีของเราให้ดีขึ้น
02:37
permanently,
49
157040
1216
อย่างถาวร
02:38
generation after generation.
50
158280
2016
ที่เกิดขึ้นยุคแล้วยุคเล่า
02:40
Almost by definition, this is the worst thing
51
160320
2136
เกือบจะเรียกได้ว่า นี่คือสิ่งเลวร้ายที่สุด
02:42
that's ever happened in human history.
52
162480
2016
ที่ได้เคยเกิดขึ้น ในประวัติศาสตร์มนุษยชาติ
02:44
So the only alternative,
53
164520
1296
ฉะนั้นตัวเลือกเดียวที่เหลือ
02:45
and this is what lies behind door number two,
54
165840
2336
และนั่นคือสิ่งที่อยู่ด้านหลัง ประตูหมายเลขสอง
02:48
is that we continue to improve our intelligent machines
55
168200
3136
ก็คือ เรายังคงปรับปรุงจักรกลที่ฉลาด ของเรานี้ให้ดีขึ้นต่อไป
02:51
year after year after year.
56
171360
1600
ปีแล้วปีเล่า
02:53
At a certain point, we will build machines that are smarter than we are,
57
173720
3640
จนเมื่อถึงจุดหนึ่ง เราก็จะสร้างจักรกลที่ฉลาดกว่าเรา
02:58
and once we have machines that are smarter than we are,
58
178080
2616
และเมื่อเรามีจักรกล ที่ฉลาดกว่าเราแล้ว
03:00
they will begin to improve themselves.
59
180720
1976
มันก็จะเริ่มต้นปรับปรุงตัวมันเองให้ดีขึ้น
03:02
And then we risk what the mathematician IJ Good called
60
182720
2736
แล้วเราก็จะเสี่ยงกับ สิ่งที่นักคณิตศาสตร์ ไอเจ กูด เรียกว่า
03:05
an "intelligence explosion,"
61
185480
1776
"การระเบิดของความชาญฉลาด"
03:07
that the process could get away from us.
62
187280
2000
กระบวนการที่ซึ่งมนุษย์ ไม่สามารถควบคุมมันได้
03:10
Now, this is often caricatured, as I have here,
63
190120
2816
เรื่องนี้มักจะถูกทำเป็นการ์ตูนล้อเลียน อย่างที่แสดงให้ดูตรงนี้
03:12
as a fear that armies of malicious robots
64
192960
3216
เป็นความกลัวที่ทหารหุ่นยนต์ที่มุ่งร้าย
03:16
will attack us.
65
196200
1256
จะเข้ามาโจมตีทำร้ายเรา
03:17
But that isn't the most likely scenario.
66
197480
2696
แต่นั่นไม่ใช่สถานการณ์ ที่น่าจะเป็นไปได้มากที่สุด
03:20
It's not that our machines will become spontaneously malevolent.
67
200200
4856
ไม่ใช่ว่าจักรกลของเรา จะกลายเป็นภัยอันตรายขึ้นมาเอง
03:25
The concern is really that we will build machines
68
205080
2616
ความกังวลจริง ๆ ก็คือ เราจะสร้างจักรกล
03:27
that are so much more competent than we are
69
207720
2056
ที่มีความสามารถที่สูงกว่าเรามาก ๆ
03:29
that the slightest divergence between their goals and our own
70
209800
3776
ที่ความแตกต่างเพียงเล็กน้อยระหว่าง เป้าหมายของมันกับของเราเอง
03:33
could destroy us.
71
213600
1200
ก็อาจจะทำลายเราได้
03:35
Just think about how we relate to ants.
72
215960
2080
ลองแค่คิดดูว่า เรามีสัมพันธ์กับมดอย่างไร
03:38
We don't hate them.
73
218600
1656
เราไม่ได้เกลียดพวกมัน
03:40
We don't go out of our way to harm them.
74
220280
2056
เราไม่ได้ยอมลำบาก ใช้ความพยายามไปทำร้ายมัน
03:42
In fact, sometimes we take pains not to harm them.
75
222360
2376
อันที่จริง บางครั้งเราต้องอดกลั้น ที่จะไม่ทำร้ายมัน
03:44
We step over them on the sidewalk.
76
224760
2016
เราก้าวข้ามพวกมันไปบนทางเดิน
03:46
But whenever their presence
77
226800
2136
แต่เมื่อใดก็ตามที่การปรากฏอยู่ของมัน
03:48
seriously conflicts with one of our goals,
78
228960
2496
ขัดแย้งอย่างรุนแรง กับเป้าหมายอย่างหนึ่งของเรา
03:51
let's say when constructing a building like this one,
79
231480
2477
ยกตัวอย่าง เมื่อก่อสร้างอาคาร เช่น อาคารนี้
03:53
we annihilate them without a qualm.
80
233981
1960
เราทำลายล้างพวกมันได้อย่างสบายใจ
03:56
The concern is that we will one day build machines
81
236480
2936
ความวิตกกังวลก็คือสักวันหนึ่ง เราจะสร้างจักรกล
03:59
that, whether they're conscious or not,
82
239440
2736
ที่ไม่ว่าพวกมันจะมีความคิด อย่างมีสติหรือไม่ก็ตาม
04:02
could treat us with similar disregard.
83
242200
2000
จะทำกับเราได้อย่างเฉยเมย ในแบบเดียวกัน
04:05
Now, I suspect this seems far-fetched to many of you.
84
245760
2760
ครับ ผมเข้าใจว่า สิ่งนี้ดูจะไกลจากความจริง สำหรับหลาย ๆ ท่าน
04:09
I bet there are those of you who doubt that superintelligent AI is possible,
85
249360
6336
ผมมั่นใจว่ายังมีคนไม่เชื่อว่า ปัญญาประดิษฐ์ยอดอัจฉริยะจะเกิดขึ้นได้จริง
04:15
much less inevitable.
86
255720
1656
หรือไม่เชื่อว่ามันหลีกเลี่ยงไม่ได้
04:17
But then you must find something wrong with one of the following assumptions.
87
257400
3620
แต่คุณจะพบว่ามีบางอย่างที่ไม่ถูกต้อง ในสมมติฐานเบื้องต้นต่อไปนี้
04:21
And there are only three of them.
88
261044
1572
ซึ่งก็มีเพียงสามอย่างเท่านั้น
04:23
Intelligence is a matter of information processing in physical systems.
89
263800
4719
หนึ่งคือ ความฉลาดเป็นเรื่องของการ ประมวลข้อมูลในระบบทางกายภาพ
แต่จริง ๆ แล้ว ข้อนี้มัน มากกว่าสมมติฐานเบื้องต้นสักหน่อย
04:29
Actually, this is a little bit more than an assumption.
90
269320
2615
04:31
We have already built narrow intelligence into our machines,
91
271959
3457
เราใส่ความฉลาดในขอบเขตแคบ ๆ ไว้ในจักรกลของเราเรียบร้อยแล้ว
04:35
and many of these machines perform
92
275440
2016
และจักรกลมากมายเหล่านี้ก็ทำงาน
04:37
at a level of superhuman intelligence already.
93
277480
2640
ด้วยความฉลาดระดับเหนือมนุษย์อยู่แล้ว
04:40
And we know that mere matter
94
280840
2576
และเราก็รู้ว่า แค่มีความฉลาดระดับนั้น
04:43
can give rise to what is called "general intelligence,"
95
283440
2616
ก็ทำให้เกิดสิ่งที่เรียกว่า "ความฉลาดทั่วไป"
04:46
an ability to think flexibly across multiple domains,
96
286080
3656
ซึ่งเป็นความสามารถที่จะคิด ได้อย่างยืดหยุ่นในหลาย ๆ ด้าน
04:49
because our brains have managed it. Right?
97
289760
3136
ก็เพราะว่าสมองของเรานั้น ก็สามารถทำได้ ใช่ไหมล่ะครับ
04:52
I mean, there's just atoms in here,
98
292920
3936
ผมหมายความว่า มันก็แค่อะตอมในนี้
04:56
and as long as we continue to build systems of atoms
99
296880
4496
และตราบใดที่เรายังคงสร้าง ระบบของอะตอม
05:01
that display more and more intelligent behavior,
100
301400
2696
ที่แสดงพฤติกรรมชาญฉลาด มากขึ้นและมากขึ้น
05:04
we will eventually, unless we are interrupted,
101
304120
2536
ในที่สุดถ้าเราไม่ถูกขัดขวาง
05:06
we will eventually build general intelligence
102
306680
3376
เราก็จะสร้างความฉลาดทั่วไป
05:10
into our machines.
103
310080
1296
เอาไว้ในจักรกลของเรา
05:11
It's crucial to realize that the rate of progress doesn't matter,
104
311400
3656
มันจำเป็นมากที่ต้องตระหนักว่า อัตราความก้าวหน้านั้นไม่สำคัญ
05:15
because any progress is enough to get us into the end zone.
105
315080
3176
เพราะความก้าวหน้าใด ๆ ก็ตาม ก็เพียงพอที่จะพาเราเข้าสู่ช่วงสุดท้าย
05:18
We don't need Moore's law to continue. We don't need exponential progress.
106
318280
3776
ไม่จำเป็นต้องดำเนินไปตามกฎของมอร์ ไม่จำเป็นต้องก้าวหน้าไปแบบยกกำลัง
05:22
We just need to keep going.
107
322080
1600
เราแค่ต้องก้าวหน้าต่อไปเรื่อย ๆ เท่านั้นเอง
05:25
The second assumption is that we will keep going.
108
325480
2920
สมมติฐานเบื้องต้นข้อที่สอง คือเราจะก้าวหน้าต่อไปเรื่อย ๆ
05:29
We will continue to improve our intelligent machines.
109
329000
2760
เราจะยังคงปรับปรุงจักรกล ที่ชาญฉลาดของเราต่อไป
05:33
And given the value of intelligence --
110
333000
4376
และด้วยคุณค่าของความฉลาด --
05:37
I mean, intelligence is either the source of everything we value
111
337400
3536
ผมหมายถึงว่า ไม่ว่าความฉลาด จะเป็นทุก ๆ อย่างที่เราเห็นว่ามีคุณค่า
05:40
or we need it to safeguard everything we value.
112
340960
2776
หรือเราต้องใช้มันเพื่อปกป้อง ทุก ๆ อย่างที่เราเห็นว่ามีคุณค่า
05:43
It is our most valuable resource.
113
343760
2256
มันก็เป็นสิ่งที่มีคุณค่าที่สุดของเรา
05:46
So we want to do this.
114
346040
1536
ฉะนั้น เราจึงต้องการทำสิ่งนี้
05:47
We have problems that we desperately need to solve.
115
347600
3336
เรามีปัญหา ที่เราจำเป็นต้องแก้ไขอย่างเร่งด่วน
05:50
We want to cure diseases like Alzheimer's and cancer.
116
350960
3200
เราต้องการรักษาโรค อย่างเช่น อัลไซเมอร์และมะเร็ง
05:54
We want to understand economic systems. We want to improve our climate science.
117
354960
3936
เราต้องการเข้าใจระบบเศรษฐกิจ เราต้องการปรับปรุงศาสตร์ภูมิอากาศวิทยา
05:58
So we will do this, if we can.
118
358920
2256
เราจึงต้องทำสิ่งนี้ หากเราสามารถทำได้
06:01
The train is already out of the station, and there's no brake to pull.
119
361200
3286
รถไฟได้ออกจากสถานีไปแล้ว และไม่มีเบรคที่จะดึงมันไว้ได้
06:05
Finally, we don't stand on a peak of intelligence,
120
365880
5456
ข้อสุดท้าย เราไม่ได้ยืนอยู่ บนจุดสูงสุดของความฉลาด
06:11
or anywhere near it, likely.
121
371360
1800
ไม่แม้แต่จะใกล้เคียง
06:13
And this really is the crucial insight.
122
373640
1896
นี่เป็นความเข้าใจที่สำคัญยิ่ง
06:15
This is what makes our situation so precarious,
123
375560
2416
นี่แหละที่ทำให้สถานการณ์ของเรา ล่อแหลมต่ออันตรายยิ่ง
06:18
and this is what makes our intuitions about risk so unreliable.
124
378000
4040
และนี่แหละที่ทำให้สัญชาตญาณของเรา ที่มีต่อความเสี่ยงนั้นเชื่อถือไม่ได้
06:23
Now, just consider the smartest person who has ever lived.
125
383120
2720
ครับ แค่ลองพิจารณา ถึงคนฉลาดที่สุดที่เคยมีชีวิตอยู่
06:26
On almost everyone's shortlist here is John von Neumann.
126
386640
3416
สำหรับทุกคนแล้ว หนึ่งในรายชื่อนั้น ก็คืออ จอห์น วอน นอยแมน
06:30
I mean, the impression that von Neumann made on the people around him,
127
390080
3336
ผมหมายถึง ความประทับใจของผู้คน ที่มีต่อ วอน นอยแมน
06:33
and this included the greatest mathematicians and physicists of his time,
128
393440
4056
และนั่นก็รวมถึงนักคณิตศาสตร์ และนักฟิสิกส์ที่ยิ่งใหญ่ในยุคนั้น
06:37
is fairly well-documented.
129
397520
1936
ได้ถูกบันทีกไว้เป็นอย่างดี
06:39
If only half the stories about him are half true,
130
399480
3776
ถ้าเรื่องราวของเขาสักครึ่งหนึ่งนั้น จะมีมูลความจริงอยู่ถึงสักครึ่ง
06:43
there's no question
131
403280
1216
ก็ไม่ต้องกังขาเลยว่า
06:44
he's one of the smartest people who has ever lived.
132
404520
2456
เขาเป็นคนฉลาดที่สุดในโลกคนหนึ่ง
06:47
So consider the spectrum of intelligence.
133
407000
2520
เมื่อพิจารณาระดับช่วงของความฉลาด
06:50
Here we have John von Neumann.
134
410320
1429
ตรงนี้เรามี จอห์น วอน นอยแมน
06:53
And then we have you and me.
135
413560
1334
แล้วเราก็มี คุณและผม
06:56
And then we have a chicken.
136
416120
1296
แล้วต่อมาก็มีไก่
06:57
(Laughter)
137
417440
1936
(เสียงหัวเราะ)
06:59
Sorry, a chicken.
138
419400
1216
ขอโทษครับ ไก่
07:00
(Laughter)
139
420640
1256
(เสียงหัวเราะ)
07:01
There's no reason for me to make this talk more depressing than it needs to be.
140
421920
3736
ไม่มีเหตุผลอะไร ที่ผมจะทำให้ การบรรยายนี้หดหู่ใจมากเกินจำเป็น
07:05
(Laughter)
141
425680
1600
(เสียงหัวเราะ)
07:08
It seems overwhelmingly likely, however, that the spectrum of intelligence
142
428339
3477
อย่างไรก็ตาม ดูจะเป็นไปได้มาก ที่ระดับช่วงของความฉลาดนั้น
07:11
extends much further than we currently conceive,
143
431840
3120
ขยายออกไปได้ไกล มากกว่าที่เราตระหนักในปัจจุบัน
07:15
and if we build machines that are more intelligent than we are,
144
435880
3216
และถ้าเราสร้างจักรกลที่ฉลาดกว่าเรา
07:19
they will very likely explore this spectrum
145
439120
2296
พวกมันก็น่าจะสำรวจตรวจค้น ความชาญฉลาดเหล่านี้
07:21
in ways that we can't imagine,
146
441440
1856
ในแบบที่เราคิดไม่ถึง
07:23
and exceed us in ways that we can't imagine.
147
443320
2520
และเหนือกว่าเราในแบบที่เราคิดไม่ถึง
07:27
And it's important to recognize that this is true by virtue of speed alone.
148
447000
4336
มันจำเป็นที่เราต้องยอมรับว่า สิ่งนี้เป็นจริงไปแล้ว ในเรื่องความเร็ว
07:31
Right? So imagine if we just built a superintelligent AI
149
451360
5056
ใช่ไหมครับ ลองคิดดูว่า ถ้าเราแค่สร้าง ปัญญาประดิษฐ์อัจฉริยะขึ้นมาสักเครื่อง
07:36
that was no smarter than your average team of researchers
150
456440
3456
ที่ไม่ได้ฉลาดกว่ากลุ่มนักวิจัยทั่ว ๆ ไป
07:39
at Stanford or MIT.
151
459920
2296
ที่แสตนฟอร์ดหรือเอ็มไอที
07:42
Well, electronic circuits function about a million times faster
152
462240
2976
วงจรไฟฟ้านั้นทำงานได้เร็วกว่าวงจรชีวเคมี
07:45
than biochemical ones,
153
465240
1256
ประมาณหนึ่งล้านเท่า
07:46
so this machine should think about a million times faster
154
466520
3136
ดังนั้น จักรกลนี้ควรจะคิดได้เร็วกว่า ปัญญาของมนุษย์ผู้สร้างมันขึ้นมา
07:49
than the minds that built it.
155
469680
1816
ประมาณหนึ่งล้านเท่า
07:51
So you set it running for a week,
156
471520
1656
เมื่อคุณเดินเครื่องนานหนึ่งสัปดาห์
07:53
and it will perform 20,000 years of human-level intellectual work,
157
473200
4560
มันจะทำงานได้เท่ากับการทำงานโดยใช้ สติปัญญาในระดับของมนุษย์นาน 20,000 ปี
07:58
week after week after week.
158
478400
1960
นานสัปดาห์แล้วสัปดาห์เล่า
08:01
How could we even understand, much less constrain,
159
481640
3096
เราจะไปเข้าใจ หรือแม้แต่จำกัดขอบเขต ของปัญญาประดิษฐ์
08:04
a mind making this sort of progress?
160
484760
2280
ที่สร้างความก้าวหน้าแบบนี้ได้อย่างไร
08:08
The other thing that's worrying, frankly,
161
488840
2136
อีกเรื่องหนึ่งที่น่าวิตกกังวล
08:11
is that, imagine the best case scenario.
162
491000
4976
คือ ลองจินตนาการถึงสถานการณ์ที่ดีที่สุด
08:16
So imagine we hit upon a design of superintelligent AI
163
496000
4176
จินตนาการว่า เราค้นพบการออกแบบ ปัญญาประดิษฐ์อันชาญฉลาด
08:20
that has no safety concerns.
164
500200
1376
ที่ไม่มีปัญหาเรื่องความปลอดภัย
08:21
We have the perfect design the first time around.
165
501600
3256
เรามีแบบที่สมบูรณ์เป็นครั้งแรก
08:24
It's as though we've been handed an oracle
166
504880
2216
ราวกับว่าเราได้รับคำพยากรณ์
08:27
that behaves exactly as intended.
167
507120
2016
ที่เป็นไปดังใจคิดเป๊ะ
08:29
Well, this machine would be the perfect labor-saving device.
168
509160
3720
ครับ จักรกลนี้ก็น่าจะเป็นเครื่องมือ ที่ประหยัดแรงงานได้อย่างสมบูรณ์แบบ
08:33
It can design the machine that can build the machine
169
513680
2429
มันสามารถออกแบบจักรกล ที่สามารถสร้างจักรกล
08:36
that can do any physical work,
170
516133
1763
ซึ่งสามารถทำงานเชิงกายภาพอะไรก็ได้
08:37
powered by sunlight,
171
517920
1456
ใช้พลังจากแสงอาทิตย์
08:39
more or less for the cost of raw materials.
172
519400
2696
โดยมีต้นทุนแค่ค่าวัตถุดิบ
08:42
So we're talking about the end of human drudgery.
173
522120
3256
ดังนั้น เรากำลังพูดกันถึงการสิ้นสุด ของงานหนักที่น่าเบื่อของมนุษย์
08:45
We're also talking about the end of most intellectual work.
174
525400
2800
เรากำลังพูดถึงการจบสิ้นของงาน ที่ใช้สติปัญญามากที่สุดด้วยเช่นกัน
08:49
So what would apes like ourselves do in this circumstance?
175
529200
3056
แล้วลิงจ๋ออย่างพวกเรานั้น จะทำอย่างไรในสถานการณ์แบบนี้
08:52
Well, we'd be free to play Frisbee and give each other massages.
176
532280
4080
ครับ เราก็ว่างที่จะไปเล่นจานร่อน แล้วก็ทำการนวดเฟ้นให้กันและกัน
08:57
Add some LSD and some questionable wardrobe choices,
177
537840
2856
เพิ่มการเสพสารแอลเอสดี และเสื้อผ้าที่ดูไม่ออกว่าเป็นแนวไหน
09:00
and the whole world could be like Burning Man.
178
540720
2176
และโลกทั้งใบก็คงกลายเป็น งานเทศกาล Burning Man
09:02
(Laughter)
179
542920
1640
(เสียงหัวเราะ)
09:06
Now, that might sound pretty good,
180
546320
2000
ครับ นั่นอาจจะฟังดูค่อนข้างจะดี
09:09
but ask yourself what would happen
181
549280
2376
แต่ลองถามตัวเองดูว่าจะเกิดอะไรขึ้น
09:11
under our current economic and political order?
182
551680
2736
ภายใต้ระเบียบการเมืองและเศรษฐกิจ ในปัจจุบันของเรานี้
09:14
It seems likely that we would witness
183
554440
2416
ดูเหมือนว่าเราน่าจะได้เห็น
09:16
a level of wealth inequality and unemployment
184
556880
4136
ความไม่เท่าเทียมของความมั่งคั่ง และอัตราการว่างงานที่สูง
อย่างที่เราไม่เคยได้เห็นมาก่อน
09:21
that we have never seen before.
185
561040
1496
09:22
Absent a willingness to immediately put this new wealth
186
562560
2616
การขาดความเต็มใจ ที่จะรีบนำความมั่งคั่งที่เกิดขึ้นใหม่นี้
09:25
to the service of all humanity,
187
565200
1480
มารับใช้มนุษยชาติทั้งมวลในทันที
09:27
a few trillionaires could grace the covers of our business magazines
188
567640
3616
ทำให้เศรษฐีระดับพันล้านบางราย อาจเฉิดฉายบนปกนิตยสารธุรกิจ
09:31
while the rest of the world would be free to starve.
189
571280
2440
ในขณะที่ส่วนอื่น ๆ ของโลก กำลังอดอยากปากแห้งกัน
09:34
And what would the Russians or the Chinese do
190
574320
2296
แล้วคนรัสเซียหรือคนจีนจะทำอย่างไร
09:36
if they heard that some company in Silicon Valley
191
576640
2616
หากพวกเขารู้ว่าบางบริษัทในซิลิคอนแวลลีย์
09:39
was about to deploy a superintelligent AI?
192
579280
2736
กำลังจะนำปัญญาประดิษฐ์ที่ชาญฉลาดมาใช้
09:42
This machine would be capable of waging war,
193
582040
2856
จักรกลที่ว่านี้อาจสามารถนำไปใช้ ในการศึกสงครามได้
09:44
whether terrestrial or cyber,
194
584920
2216
ไม่ว่าจะเป็นทางภาคพื้นโลก หรือทางอินเทอร์เน็ต
09:47
with unprecedented power.
195
587160
1680
ด้วยพละกำลังที่ไม่อาจประเมินได้
09:50
This is a winner-take-all scenario.
196
590120
1856
นี่คือสถานการณ์แบบผู้ชนะได้ทุกอย่าง
09:52
To be six months ahead of the competition here
197
592000
3136
เพื่อที่จะนำหน้าไปหกเดือน ในการแข่งขันนี้
09:55
is to be 500,000 years ahead,
198
595160
2776
คือการที่เราต้องนำหน้าอยู่ 500,000 ปี
09:57
at a minimum.
199
597960
1496
เป็นอย่างน้อย
09:59
So it seems that even mere rumors of this kind of breakthrough
200
599480
4736
ฉะนั้น จึงเหมือนกับว่า แม้เพียงข่าวลือ ในเรื่องการค้นพบที่ยิ่งใหญ่แบบนี้
10:04
could cause our species to go berserk.
201
604240
2376
ก็อาจเป็นเหตุให้ชาติพันธุ์ของเรา บ้าระห่ำกันขึ้นมาได้
10:06
Now, one of the most frightening things,
202
606640
2896
ครับ สิ่งหนึ่งที่น่าหวาดกลัวที่สุด
10:09
in my view, at this moment,
203
609560
2776
ในความเห็นของผม ในขณะนี้
10:12
are the kinds of things that AI researchers say
204
612360
4296
คือ สิ่งที่พวกนักวิจัยปัญญาประดิษฐ์พูดกัน
10:16
when they want to be reassuring.
205
616680
1560
เมื่อพวกเขาต้องการจะปลอบใจเรา
10:19
And the most common reason we're told not to worry is time.
206
619000
3456
และเหตุผลที่ธรรมดาที่สุดที่เขาบอกพวกเรา ให้ไม่ต้องกังวลก็คือเรื่องเวลา
10:22
This is all a long way off, don't you know.
207
622480
2056
เรื่องนี้มันอีกนานนัก ไม่รู้หรอกหรือ
10:24
This is probably 50 or 100 years away.
208
624560
2440
มันน่าจะเป็นอีก 50 หรือ 100 ปี ข้างหน้า
10:27
One researcher has said,
209
627720
1256
นักวิจัยคนหนึ่งเคยพูดว่า
10:29
"Worrying about AI safety
210
629000
1576
"กังวลเรื่องความปลอดภัยของปัญญาประดิษฐ์
10:30
is like worrying about overpopulation on Mars."
211
630600
2280
ก็จะเหมือนกับกังวล เรื่องประชากรจะล้นดาวอังคาร"
นี่เป็นเรื่องราวในรูปแบบของซิลิคอนแวลลีย์
10:34
This is the Silicon Valley version
212
634116
1620
10:35
of "don't worry your pretty little head about it."
213
635760
2376
ในการบอกว่า "ไม่ต้องเอาสมองน้อยๆ มากังวลเรื่องนี้หรอก"
10:38
(Laughter)
214
638160
1336
(เสียงหัวเราะ)
10:39
No one seems to notice
215
639520
1896
ดูเหมือนจะไม่มีใครสังเกตเห็นว่า
10:41
that referencing the time horizon
216
641440
2616
การอ้างถึงขอบเขตของเวลา
10:44
is a total non sequitur.
217
644080
2576
เป็นคำพูดที่ไม่มีเหตุผลอย่างสิ้นเชิง
10:46
If intelligence is just a matter of information processing,
218
646680
3256
ถ้าหากว่าความชาญฉลาดเป็นเพียง เรื่องของการประมวลผลข้อมูล
10:49
and we continue to improve our machines,
219
649960
2656
และเรายังคงปรับปรุงจักรกลของเรา ให้ดียิ่งขึ้นต่อไป
10:52
we will produce some form of superintelligence.
220
652640
2880
เราก็จะผลิตอะไรบางอย่างในรูปแบบ สุดยอดความชาญฉลาดออกมา
10:56
And we have no idea how long it will take us
221
656320
3656
และเราก็ไม่รู้เลยว่า เราจะใช้เวลานานแค่ไหน
11:00
to create the conditions to do that safely.
222
660000
2400
เพื่อสร้างสภาวะที่จะทำสิ่งนั้น ได้อย่างปลอดภัย
11:04
Let me say that again.
223
664200
1296
ขอผมยํ้าอีกครั้ง
11:05
We have no idea how long it will take us
224
665520
3816
เราไม่รู้เลยว่าเราจะใช้เวลานานแค่ไหน
11:09
to create the conditions to do that safely.
225
669360
2240
เพื่อสร้างสภาวะที่จะทำสิ่งนั้น ได้อย่างปลอดภัย
11:12
And if you haven't noticed, 50 years is not what it used to be.
226
672920
3456
และถ้าคุณยังไม่ทันสังเกตอีกล่ะก็ 50 ปีนั้นไม่เป็นอย่างที่มันเคยเป็น
11:16
This is 50 years in months.
227
676400
2456
นี่คือ 50 ปีในอีกไม่กี่เดือน
11:18
This is how long we've had the iPhone.
228
678880
1840
เรามีไอโฟนมานานเท่านี้
11:21
This is how long "The Simpsons" has been on television.
229
681440
2600
"เดอะ ซิมพ์สันส์" ออกอากาศทางทีวี มานานแค่นี้
11:24
Fifty years is not that much time
230
684680
2376
ห้าสิบปีไม่ใช่เวลาที่นานมาก
11:27
to meet one of the greatest challenges our species will ever face.
231
687080
3160
ที่จะพบกับสิ่งท้าทายที่ยิ่งใหญ่ที่สุด ที่ชาติพันธ์ุของเราจะเผชิญ
11:31
Once again, we seem to be failing to have an appropriate emotional response
232
691640
4016
ยํ้าอีกครั้งนะครับ ดูเหมือนเรากำลังล้มเหลว ที่จะมีการตอบสนองทางอารมณ์ที่เหมาะสม
11:35
to what we have every reason to believe is coming.
233
695680
2696
ต่อสิ่งที่เราเชื่อได้ด้วยเหตุผล ในทุก ๆ ด้าน ว่ามันกำลังมาถึง
11:38
The computer scientist Stuart Russell has a nice analogy here.
234
698400
3976
นักวิทยาศาสตร์คอมพิวเตอร์ สจวร์ต รัสเซลล์ เปรียบเทียบไว้เป็นอย่างดีในเรื่องนี้
11:42
He said, imagine that we received a message from an alien civilization,
235
702400
4896
เขาพูดว่า ลองจินตนาการดูว่า เราได้รับข้อความจากอารยธรรมต่างดาว
11:47
which read:
236
707320
1696
ความว่า
11:49
"People of Earth,
237
709040
1536
"มนุษย์โลก
11:50
we will arrive on your planet in 50 years.
238
710600
2360
เราจะไปถึงดาวเคราะห์ของท่านในอีก 50 ปี
11:53
Get ready."
239
713800
1576
เตรียมตัวให้พร้อมนะ"
11:55
And now we're just counting down the months until the mothership lands?
240
715400
4256
แล้วตอนนี้เราจะแค่นับเดือนถอยหลัง จนยานแม่มาลงจอดบนพื้นโลกอย่างนั้นหรือ
11:59
We would feel a little more urgency than we do.
241
719680
3000
เราน่าจะรู้สึกต้องรีบเร่งขึ้น กว่าที่เราเป็นอยู่บ้าง
12:04
Another reason we're told not to worry
242
724680
1856
อีกเหตุผลหนึ่ง ที่เขาบอกเราไม่ให้กังวล
12:06
is that these machines can't help but share our values
243
726560
3016
คือจักรกลพวกนี้ ยังไงก็จะมีค่านิยมเหมือนกับเรา
12:09
because they will be literally extensions of ourselves.
244
729600
2616
เพราะแท้จริงแล้วมันจะเป็น ส่วนต่อขยายออกไปของตัวเราเอง
12:12
They'll be grafted onto our brains,
245
732240
1816
พวกมันจะถูกเชื่อมต่อกับสมองของเรา
12:14
and we'll essentially become their limbic systems.
246
734080
2360
หรือที่จริงคือ เรากลายเป็นสมองระบบลิมบิก (ทำหน้าที่รับรู้อารมณ์) ของพวกมัน
12:17
Now take a moment to consider
247
737120
1416
ครับ มาพิจารณาสักครู่
12:18
that the safest and only prudent path forward,
248
738560
3176
ว่าวิถีทางเดียวที่ปลอดภัยและรอบคอบ ที่จะใช้ต่อไปข้างหน้า
12:21
recommended,
249
741760
1336
ที่ได้รับการเสนอแนะมานั้น
12:23
is to implant this technology directly into our brains.
250
743120
2800
คือการปลูกถ่ายเทคโนโลยีนี้ เข้าสู่สมองของเราโดยตรง
12:26
Now, this may in fact be the safest and only prudent path forward,
251
746600
3376
ครับ จริง ๆ แล้วนี่อาจเป็นวิถีทางเดียว ที่ปลอดภัยและรอบคอบที่จะใช้ต่อไป
12:30
but usually one's safety concerns about a technology
252
750000
3056
แต่โดยปกติ ความกังวลเรื่อง ความปลอดภัยของเทคโนโลยี
12:33
have to be pretty much worked out before you stick it inside your head.
253
753080
3656
จะต้องได้รับการคลี่คลายให้ได้ไม่มากก็น้อย ก่อนที่จะเอามันไปติดเข้าไปในหัวของเรา
12:36
(Laughter)
254
756760
2016
(เสียงหัวเราะ)
12:38
The deeper problem is that building superintelligent AI on its own
255
758800
5336
ปัญหาที่ลึกลํ้ากว่าก็คือการสร้าง ปัญญาประดิษฐ์อัจฉริยะขึ้นมา โดยตัวมันเอง
12:44
seems likely to be easier
256
764160
1736
ดูน่าจะง่ายกว่า
12:45
than building superintelligent AI
257
765920
1856
การสร้างปัญญาประดิษฐ์อัจฉริยะ
12:47
and having the completed neuroscience
258
767800
1776
โดยมีประสาทวิทยาศาสตร์ที่สมบูรณ์แบบ
12:49
that allows us to seamlessly integrate our minds with it.
259
769600
2680
ที่ทำให้เราหลอมรวมปัญญาความคิดของเรา เข้ากับมันได้อย่างแนบเนียน
12:52
And given that the companies and governments doing this work
260
772800
3176
และถ้าคิดถึงว่า บริษัทและรัฐบาลทั้งหลาย ที่กำลังทำงานนี้อยู่
12:56
are likely to perceive themselves as being in a race against all others,
261
776000
3656
น่าจะรู้ดีว่าพวกเขานั้นกำลังแข่งขันกันอยู่
12:59
given that to win this race is to win the world,
262
779680
3256
เพราะว่าการเอาชนะการแข่งขันนี้ได้ คือการที่จะได้ครองโลก
13:02
provided you don't destroy it in the next moment,
263
782960
2456
ถ้าคุณไม่ทำลายมันในวินาทีต่อมาไปซะก่อน
13:05
then it seems likely that whatever is easier to do
264
785440
2616
มันก็ดูน่าจะเป็นไปได้ว่า อะไรก็ตามที่ทำได้ง่ายกว่า
13:08
will get done first.
265
788080
1200
ก็จะถูกทำเป็นอันดับแรก
13:10
Now, unfortunately, I don't have a solution to this problem,
266
790560
2856
ครับ โชคไม่ดี ผมไม่มีวิธีแก้ปัญหานี้
13:13
apart from recommending that more of us think about it.
267
793440
2616
นอกเหนือจากการแนะนำ ให้พวกเรานี้คิดถึงมันมากขึ้นกว่านี้
13:16
I think we need something like a Manhattan Project
268
796080
2376
ผมว่าเราต้องการอะไร คล้ายๆ โครงการแมนฮัตตัน
13:18
on the topic of artificial intelligence.
269
798480
2016
ในหัวเรื่องปัญญาประดิษฐ์นี้
13:20
Not to build it, because I think we'll inevitably do that,
270
800520
2736
ไม่ใช่เพื่อจะสร้างมัน เพราะผมว่า มันต้องเกิดแน่ เลี่ยงไม่ได้อยู่แล้ว
13:23
but to understand how to avoid an arms race
271
803280
3336
แต่เพื่อให้เข้าใจถึงวิธีที่จะหลีกเลี่ยง การแข่งขันกันสะสมอาวุธ
13:26
and to build it in a way that is aligned with our interests.
272
806640
3496
และสร้างมันขึ้นมา ในแบบที่ สอดคล้องกับผลประโยชน์ของเรา
13:30
When you're talking about superintelligent AI
273
810160
2136
เมื่อเราพูดกันถึงปัญญาประดิษฐ์อัจฉริยะ
13:32
that can make changes to itself,
274
812320
2256
ที่สามารถเปลี่ยนแปลงตัวมันได้เอง
13:34
it seems that we only have one chance to get the initial conditions right,
275
814600
4616
ก็ดูเหมือนว่า เรามีเพียงโอกาสเดียว ที่จะทำให้สภาพการณ์เริ่มแรกนั้นถูกต้อง
13:39
and even then we will need to absorb
276
819240
2056
และถึงกระนั้น เราก็จำเป็นจะต้องซึมซับ
13:41
the economic and political consequences of getting them right.
277
821320
3040
ผลสืบเนื่องทางการเมืองและเศรษฐกิจ ของการที่ต้องทำให้มันถูกต้อง
13:45
But the moment we admit
278
825760
2056
แต่ ณ วินาทีที่เรายอมรับ
13:47
that information processing is the source of intelligence,
279
827840
4000
ว่าการประมวลข้อมูล เป็นแหล่งที่มาของความชาญฉลาด
13:52
that some appropriate computational system is what the basis of intelligence is,
280
832720
4800
ว่าระบบคอมพิวเตอร์ที่เหมาะสมบางอย่างนั้น คือสิ่งที่เป็นพื้นฐานของความชาญฉลาด
13:58
and we admit that we will improve these systems continuously,
281
838360
3760
และเราก็ยอมรับว่า เราจะปรับปรุง ระบบเหล่านี้อย่างต่อเนื่อง
14:03
and we admit that the horizon of cognition very likely far exceeds
282
843280
4456
และเรายอมรับว่า มันเป็นไปได้มากว่า ขอบเขตของปัญญารู้คิดจะไกลเกินกว่า
14:07
what we currently know,
283
847760
1200
สิ่งที่เรารู้ในปัจจุบัน
14:10
then we have to admit
284
850120
1216
แล้วเราก็ต้องยอมรับ
14:11
that we are in the process of building some sort of god.
285
851360
2640
ว่าเราอยู่ในกระบวนการ ของการสร้างเทพเจ้าบางอย่างขึ้นมา
14:15
Now would be a good time
286
855400
1576
ขณะนี้ จึงน่าจะเป็นช่วงเวลาที่ดี
14:17
to make sure it's a god we can live with.
287
857000
1953
ที่เราจะทำให้แน่ใจว่าเทพเจ้าองค์นั้น จะเป็นเทพที่อยู่ร่วมกับเราได้
14:20
Thank you very much.
288
860120
1536
ขอบคุณมากครับ
14:21
(Applause)
289
861680
5093
(เสียงปรบมือ)
เกี่ยวกับเว็บไซต์นี้

ไซต์นี้จะแนะนำคุณเกี่ยวกับวิดีโอ YouTube ที่เป็นประโยชน์สำหรับการเรียนรู้ภาษาอังกฤษ คุณจะได้เห็นบทเรียนภาษาอังกฤษที่สอนโดยอาจารย์ชั้นนำจากทั่วโลก ดับเบิลคลิกที่คำบรรยายภาษาอังกฤษที่แสดงในแต่ละหน้าของวิดีโอเพื่อเล่นวิดีโอจากที่นั่น คำบรรยายเลื่อนซิงค์กับการเล่นวิดีโอ หากคุณมีความคิดเห็นหรือคำขอใด ๆ โปรดติดต่อเราโดยใช้แบบฟอร์มการติดต่อนี้

https://forms.gle/WvT1wiN1qDtmnspy7