Don't fear superintelligent AI | Grady Booch

270,234 views ・ 2017-03-13

TED


โปรดดับเบิลคลิกที่คำบรรยายภาษาอังกฤษด้านล่างเพื่อเล่นวิดีโอ

Translator: Sakunphat Jirawuthitanant Reviewer: Monsicha Suajorn
00:12
When I was a kid, I was the quintessential nerd.
0
12580
3840
ตอนผมเด็ก ๆ ผมเนี่ยเด็กเรียนตัวพ่อเลย
00:17
I think some of you were, too.
1
17140
2176
ผมคิดว่าคุณบางคนก็ เคยเป็นเหมือนกันแหละ
00:19
(Laughter)
2
19340
1216
(เสียงหัวเราะ)
00:20
And you, sir, who laughed the loudest, you probably still are.
3
20580
3216
คุณครับ คนที่หัวเราะดังกว่าใครเขา ผมว่าคุณเองยังเป็นอยู่แน่ ๆ
00:23
(Laughter)
4
23820
2256
(เสียงหัวเราะ)
00:26
I grew up in a small town in the dusty plains of north Texas,
5
26100
3496
ผมโตมาจากเมืองเล็ก ๆ แถบที่ราบลุ่มฝุ่นจับ ในทางตอนเหนือของรัฐเท็กซัส
00:29
the son of a sheriff who was the son of a pastor.
6
29620
3336
ผมเป็นลูกของนายอำเภอ ที่เป็นลูกของบาทหลวงอีกที
00:32
Getting into trouble was not an option.
7
32980
1920
การหาเรื่องใส่ตัวนั้นลืมไปได้เลย
00:35
And so I started reading calculus books for fun.
8
35860
3256
ดังนั้น ผมก็เลยเริ่มอ่าน หนังสือแคลคูลัสเอาเพลิน ๆ
00:39
(Laughter)
9
39140
1536
(เสียงหัวเราะ)
00:40
You did, too.
10
40700
1696
คุณเองก็อ่านแน่ ๆ เลย
00:42
That led me to building a laser and a computer and model rockets,
11
42420
3736
มันทำให้ผมสร้างเลเซอร์ คอมพิวเตอร์ และโมเดลจรวดต่าง ๆ เป็น
00:46
and that led me to making rocket fuel in my bedroom.
12
46180
3000
และก็ยังทำให้ผมสร้างเชื้อเพลิงจรวด ในห้องนอนผมเองได้อีกด้วย
00:49
Now, in scientific terms,
13
49780
3656
ทีนี้ ถ้าพูดแบบวิทย์ ๆ หน่อยล่ะก็
00:53
we call this a very bad idea.
14
53460
3256
เราถือว่านี่เป็นความคิดที่แย่มาก ๆ
00:56
(Laughter)
15
56740
1216
(เสียงหัวเราะ)
00:57
Around that same time,
16
57980
2176
และในช่วงเวลาไล่เลี่ยกันนั้นเอง
01:00
Stanley Kubrick's "2001: A Space Odyssey" came to the theaters,
17
60180
3216
หนังเรื่อง "2001 จอมจักรวาล" ของสแตนลีย์ คูบริคก็เข้าโรง
01:03
and my life was forever changed.
18
63420
2200
และชีวิตผมก็เปลี่ยนไปตลอดกาล
01:06
I loved everything about that movie,
19
66100
2056
ผมรักทุก ๆ อย่างในหนังเรื่องนั้น
01:08
especially the HAL 9000.
20
68180
2536
โดยเฉพาะเจ้า HAL 9000
01:10
Now, HAL was a sentient computer
21
70740
2056
ทีนี้ HAL คือคอมพิวเตอร์ ที่มีความนึกคิด
01:12
designed to guide the Discovery spacecraft
22
72820
2456
ที่ถูกออกแบบมาเพื่อเป็น ต้นหนของยานสำรวจอวกาศ
01:15
from the Earth to Jupiter.
23
75300
2536
จากโลกไปยังดาวพฤหัส
01:17
HAL was also a flawed character,
24
77860
2056
และ HAL ก็ยังเป็นตัวละครที่มีจุดบกพร่อง
01:19
for in the end he chose to value the mission over human life.
25
79940
4280
เพราะในตอนจบของเรื่อง มันกลับเลือก ที่จะให้ค่ากับภารกิจมากกว่าชีวิตคน
01:24
Now, HAL was a fictional character,
26
84660
2096
ทีนี้ แม้ HAL จะเป็นแค่เพียงตัวละครสมมุติ
01:26
but nonetheless he speaks to our fears,
27
86780
2656
แต่ถึงอย่างนั้น มันเองก็ได้สำแดง ความกลัวของเราออกมา
01:29
our fears of being subjugated
28
89460
2096
ความกลัวที่จะอยู่ใต้อาณัติ
01:31
by some unfeeling, artificial intelligence
29
91580
3016
โดยปัญญาประดิษฐ์ที่ไร้หัวใจ
01:34
who is indifferent to our humanity.
30
94620
1960
ผู้ซึ่งไม่แยแสมนุษยชาติ
01:37
I believe that such fears are unfounded.
31
97700
2576
ผมเชื่อว่าความกลัวแบบนั้นเป็นเรื่องเหลวไหล
01:40
Indeed, we stand at a remarkable time
32
100300
2696
แน่นอน เรากำลังยืนอยู่ ในช่วงเวลาอันน่าทึ่ง
01:43
in human history,
33
103020
1536
ในประวัติศาสตร์ของมนุษยชาติ
01:44
where, driven by refusal to accept the limits of our bodies and our minds,
34
104580
4976
ช่วงเวลา ที่เมื่อเราปฏิเสธขีดจำกัด ทางกายภาพและทางจิตใจของเรา
01:49
we are building machines
35
109580
1696
เราก็กำลังสร้างเครื่องจักรขึ้นมา
01:51
of exquisite, beautiful complexity and grace
36
111300
3616
ที่มีความซับซ้อนและความสง่าผ่าเผย อันงดงามและเลิศเลอ
01:54
that will extend the human experience
37
114940
2056
ซึ่งจะขยายประสบการณ์ของมนุษย์
01:57
in ways beyond our imagining.
38
117020
1680
ในรูปแบบที่เกินจินตนาการของเรา
01:59
After a career that led me from the Air Force Academy
39
119540
2576
หลังออกจากโรงเรียนนายเรืออากาศ
02:02
to Space Command to now,
40
122140
1936
ไปยังหน่วยบัญชาการอวกาศจนถึงตอนนี้
02:04
I became a systems engineer,
41
124100
1696
ผมก็ได้กลายมาเป็นวิศวกรระบบ
02:05
and recently I was drawn into an engineering problem
42
125820
2736
และไม่นานมานี้ ผมก็ถูกดึงตัว ไปแก้ปัญหาหนึ่งทางวิศวกรรม
02:08
associated with NASA's mission to Mars.
43
128580
2576
ที่เกี่ยวข้องกับภารกิจไปดาวอังคารของนาซา
02:11
Now, in space flights to the Moon,
44
131180
2496
ทีนี้ การเดินทางทางอวกาศไปยังดวงจันทร์
02:13
we can rely upon mission control in Houston
45
133700
3136
เราสามารถใช้ศูนย์ควบคุมภารกิจในฮูสตัน
02:16
to watch over all aspects of a flight.
46
136860
1976
เพื่อจัดการเที่ยวบินนั้นอย่างรอบด้าน
02:18
However, Mars is 200 times further away,
47
138860
3536
อย่างไรก็ตาม ดาวอังคารนั้น ไกลกว่าถึง 200 เท่า
02:22
and as a result it takes on average 13 minutes
48
142420
3216
และดังนั้น เวลาที่ใช้โดยเฉลี่ยคือ 13 นาที
02:25
for a signal to travel from the Earth to Mars.
49
145660
3136
ที่สัญญาณจะเดินทางจาก โลกไปถึงดาวอังคาร
02:28
If there's trouble, there's not enough time.
50
148820
3400
ซึ่งถ้าหากมีปัญหาเกิดขึ้น เวลาก็จะมีไม่พอ
02:32
And so a reasonable engineering solution
51
152660
2496
ดังนั้น ทางแก้ปัญหา อย่างสมเหตุสมผลในเชิงวิศวกรรม
02:35
calls for us to put mission control
52
155180
2576
ก็ทำให้เราต้องติดตั้งศูนย์ควบคุมภารกิจ
02:37
inside the walls of the Orion spacecraft.
53
157780
3016
ไว้ในผนังของยานอวกาศโอไรออน
02:40
Another fascinating idea in the mission profile
54
160820
2896
อีกหนึ่งความคิดที่น่าสนใจ ในข้อมูลภารกิจนี้นะครับ
02:43
places humanoid robots on the surface of Mars
55
163740
2896
คือเราจะส่งหุ่นยนต์เสมือนมนุษย์ ไปเหยียบดาวอังคาร
02:46
before the humans themselves arrive,
56
166660
1856
ก่อนที่มนุษย์จริง ๆ จะไปถึง
02:48
first to build facilities
57
168540
1656
เพื่อสร้างความสะดวกสบายรอไว้
02:50
and later to serve as collaborative members of the science team.
58
170220
3360
และทำงานเป็นผู้ช่วยประสานงาน ของทีมวิทยาศาสตร์
02:55
Now, as I looked at this from an engineering perspective,
59
175220
2736
และจากมุมมองของผมในเชิงวิศวกรรม
02:57
it became very clear to me that what I needed to architect
60
177980
3176
มันกลายเป็นสิ่งที่ชัดแจ้งสำหรับผมแล้ว ที่จะออกแบบปัญญาประดิษฐ์
03:01
was a smart, collaborative,
61
181180
2176
ที่ฉลาด ทำงานร่วมกับเราได้
03:03
socially intelligent artificial intelligence.
62
183380
2376
แถมเข้าสังคมเก่งซะด้วย
03:05
In other words, I needed to build something very much like a HAL
63
185780
4296
ในอีกนัยหนึ่ง ผมต้องการสร้าง สิ่งที่คล้ายกับ HAL นั่นเอง
03:10
but without the homicidal tendencies.
64
190100
2416
แต่ต้องไม่มีแนวโน้มที่จะฆ่าคน
03:12
(Laughter)
65
192540
1360
(เสียงหัวเราะ)
03:14
Let's pause for a moment.
66
194740
1816
มาหยุดพักกันสักครู่นะครับ
03:16
Is it really possible to build an artificial intelligence like that?
67
196580
3896
มันเป็นไปได้จริง ๆ ไหม ที่จะสร้างปัญญาประดิษฐ์แบบนั้น
03:20
Actually, it is.
68
200500
1456
ที่จริง มันเป็นไปได้ครับ
03:21
In many ways,
69
201980
1256
ในหลายแง่มุม
03:23
this is a hard engineering problem
70
203260
1976
นี่เป็นปัญหาเชิงวิศวกรรมที่ยาก
03:25
with elements of AI,
71
205260
1456
ปัญหาของปัญญาประดิษฐ์
03:26
not some wet hair ball of an AI problem that needs to be engineered.
72
206740
4696
ไม่ใช่เพียงปัญหาง่าย ๆ อย่างเช่น ความจำเป็นต้องได้รับการพัฒนาปรับปรุง
03:31
To paraphrase Alan Turing,
73
211460
2656
ที่จะมาเลียนแบบอลัน ทัวริง
03:34
I'm not interested in building a sentient machine.
74
214140
2376
ผมไม่ได้สนใจจะสร้าง เครื่องจักรมีความนึกคิดนะครับ
03:36
I'm not building a HAL.
75
216540
1576
ผมไม่ได้จะสร้าง HAL แน่ ๆ
03:38
All I'm after is a simple brain,
76
218140
2416
แต่สิ่งที่ผมกำลังไขว่คว้าอยู่ คือสมองที่ไม่ซับซ้อน
03:40
something that offers the illusion of intelligence.
77
220580
3120
แต่สามารถทดแทนสติปัญญาได้
03:44
The art and the science of computing have come a long way
78
224820
3136
ศาสตร์และศิลป์ของคอมพิวเตอร์นั้นมาไกลมาก
03:47
since HAL was onscreen,
79
227980
1496
ตั้งแต่ HAL ปรากฎบนจอภาพยนตร์
03:49
and I'd imagine if his inventor Dr. Chandra were here today,
80
229500
3216
และผมคิดว่าถ้า ดร.แชนดรา ผู้สร้าง HAL ได้มาอยู่ที่นี่ตอนนี้
03:52
he'd have a whole lot of questions for us.
81
232740
2336
เขาคงถามมีคำถามมากมายให้เรา
03:55
Is it really possible for us
82
235100
2096
มันเป็นไปได้ไหมสำหรับพวกเรา
03:57
to take a system of millions upon millions of devices,
83
237220
4016
ที่จะนำระบบของอุปกรณ์หลายล้านตัวมารวมกัน
04:01
to read in their data streams,
84
241260
1456
ให้มันอ่านข้อมูลที่ไหลเข้ามา
04:02
to predict their failures and act in advance?
85
242740
2256
ในการที่จะคาดคะเนข้อบกพร่อง และป้องกันล่วงหน้า
04:05
Yes.
86
245020
1216
ทำได้ครับ
04:06
Can we build systems that converse with humans in natural language?
87
246260
3176
เราสามารถสร้างระบบที่ตอบโต้กับมนุษย์ ผ่านภาษาพูดได้ไหม
04:09
Yes.
88
249460
1216
ทำได้ครับ
04:10
Can we build systems that recognize objects, identify emotions,
89
250700
2976
เราสามารถสร้างระบบที่ระบุวัตถุ และอารมณ์
04:13
emote themselves, play games and even read lips?
90
253700
3376
รวมถึงแสดงอารมณ์ของมันเอง เล่นเกมส์กับเรา หรือกระทั่งอ่านใจเราได้ไหม
04:17
Yes.
91
257100
1216
ทำได้ครับ
04:18
Can we build a system that sets goals,
92
258340
2136
เราสร้างระบบที่สามารถตั้งเป้าหมาย
04:20
that carries out plans against those goals and learns along the way?
93
260500
3616
และทำตามแผนจนสำเร็จ รวมถึงเรียนรู้ไปด้วยได้ไหม
04:24
Yes.
94
264140
1216
ทำได้ครับ
04:25
Can we build systems that have a theory of mind?
95
265380
3336
เราสามารถสร้างระบบ ที่มีทฤษฎีความนึกคิดได้ไหม
04:28
This we are learning to do.
96
268740
1496
นี่แหละครับที่เราพยายามจะสร้าง
04:30
Can we build systems that have an ethical and moral foundation?
97
270260
3480
เราสามารถสร้างระบบที่มีพื้นฐานจริยธรรม และจรรยาได้ไหม
04:34
This we must learn how to do.
98
274300
2040
นี่ก็คืออีกสิ่งที่เรากำลังเรียนรู้
04:37
So let's accept for a moment
99
277180
1376
ตอนนี้ต้องยอมรับว่า
04:38
that it's possible to build such an artificial intelligence
100
278580
2896
มันเป็นไปได้ที่จะสร้างปัญญาประดิษฐ์
04:41
for this kind of mission and others.
101
281500
2136
สำหรับภารกิจรูปแบบนี้และแบบอื่น ๆ
04:43
The next question you must ask yourself is,
102
283660
2536
แต่คำถามต่อไปที่คุณต้องถามตัวคุณเองคือ
04:46
should we fear it?
103
286220
1456
เราควรเกรงกลัวมันหรือไม่
04:47
Now, every new technology
104
287700
1976
ทุกวันนี้ เทคโนโลยีใหม่ทั้งหลาย
04:49
brings with it some measure of trepidation.
105
289700
2896
มาพร้อมกับความกังวลระดับหนึ่ง
04:52
When we first saw cars,
106
292620
1696
ครั้งแรกที่เราได้ยลโฉมรถยนต์
04:54
people lamented that we would see the destruction of the family.
107
294340
4016
ผู้คนคร่ำครวญว่านี่จะเป็น การทำลายล้างครอบครัว
04:58
When we first saw telephones come in,
108
298380
2696
เมื่อเราเห็นโทรศัพท์เป็นครั้งแรก
05:01
people were worried it would destroy all civil conversation.
109
301100
2896
ผู้คนต่างกลัวว่ามันจะทำลายการสื่อสารอื่น ๆ
05:04
At a point in time we saw the written word become pervasive,
110
304020
3936
ครั้งหนึ่ง เราพบว่าภาษาเขียนเริ่มแพร่หลาย
05:07
people thought we would lose our ability to memorize.
111
307980
2496
ผู้คนต่างคิดว่าเราจะสูญเสียทักษะการจดจำ
05:10
These things are all true to a degree,
112
310500
2056
เรื่องทั้งหมดนี้เป็นจริงในระดับหนึ่ง
05:12
but it's also the case that these technologies
113
312580
2416
แต่มันก็ยังมีส่วนที่เทคโนโลยีเหล่านี้
05:15
brought to us things that extended the human experience
114
315020
3376
ได้นำพาเราขยายประสบการณ์ของมนุษยชาติ
05:18
in some profound ways.
115
318420
1880
ในหนทางที่เยี่ยมยอดเช่นกัน
05:21
So let's take this a little further.
116
321660
2280
ฉะนั้นเรามาคุยกันให้ลึกขึ้นหน่อยนะครับ
05:24
I do not fear the creation of an AI like this,
117
324940
4736
ผมไม่ได้กลัวการสร้างสรรค์ ปัญญาประดิษฐ์แบบนี้
05:29
because it will eventually embody some of our values.
118
329700
3816
เพราะในที่สุดมันจะกลายประโยชน์ต่อเรา
05:33
Consider this: building a cognitive system is fundamentally different
119
333540
3496
ลองคิดว่าการสร้างระบบที่เรียนรู้ได้เอง โดยพื้นฐานแล้วแตกต่าง
05:37
than building a traditional software-intensive system of the past.
120
337060
3296
กับการสร้างระบบที่เน้นซอฟท์แวร์ อย่างที่เคยทำกันในอดีต
05:40
We don't program them. We teach them.
121
340380
2456
เราไม่ได้สั่งงาน แต่เราสอนให้มันคิด
05:42
In order to teach a system how to recognize flowers,
122
342860
2656
ในการสอนระบบให้จดจำดอกไม้ต่าง ๆ
05:45
I show it thousands of flowers of the kinds I like.
123
345540
3016
ผมแสดงรูปดอกไม้ เป็นพัน ๆ รูปให้มันดู
05:48
In order to teach a system how to play a game --
124
348580
2256
ในการสอนระบบให้เล่นเกมส์
05:50
Well, I would. You would, too.
125
350860
1960
ผมรู้ว่าคุณก็คิดเหมือนผมแหละครับ
05:54
I like flowers. Come on.
126
354420
2040
ผมชอบดอกไม้น่ะ ไม่เอาน่า
05:57
To teach a system how to play a game like Go,
127
357260
2856
ในการสอนมันให้เล่นเกมอย่างโกะได้
06:00
I'd have it play thousands of games of Go,
128
360140
2056
ผมปล่อยให้มันเล่นโกะเป็นพัน ๆ เกม
06:02
but in the process I also teach it
129
362220
1656
แต่ในระหว่างที่เล่น ผมก็สอนมัน
06:03
how to discern a good game from a bad game.
130
363900
2416
ให้แยกเกมที่ดีออกจากเกมที่แย่ด้วย
06:06
If I want to create an artificially intelligent legal assistant,
131
366340
3696
ถ้าผมต้องการสร้างปัญญาประดิษฐ์ ให้เป็นผู้ช่วยด้านกฎหมาย
06:10
I will teach it some corpus of law
132
370060
1776
ผมก็จะสอนหลักกฎหมายจำนวนหนึ่งให้มัน
06:11
but at the same time I am fusing with it
133
371860
2856
แต่ในขณะเดียวกันนั้น ผมก็จะถ่ายทอด
06:14
the sense of mercy and justice that is part of that law.
134
374740
2880
ความปรานีและความยุติธรรม ซึ่งเป็นส่วนหนึ่งของกฎหมายนั้น
06:18
In scientific terms, this is what we call ground truth,
135
378380
2976
ในแวดวงวิทยาศาสตร์ นี่คือสิ่งที่เราเรียกว่าความจริงพื้นฐาน
06:21
and here's the important point:
136
381380
2016
และนี่คือประเด็นสำคัญ
06:23
in producing these machines,
137
383420
1456
ในการสร้างจักรกลนั้น
06:24
we are therefore teaching them a sense of our values.
138
384900
3416
เราต้องสอนมันให้เข้าใจ คุณค่าของพวกเรา
06:28
To that end, I trust an artificial intelligence
139
388340
3136
ที่สุดแล้ว ผมเชื่อมั่นในปัญญาประดิษฐ์
06:31
the same, if not more, as a human who is well-trained.
140
391500
3640
ไม่น้อยไปกว่ามนุษย์ ที่ผ่านการฝึกฝนมาอย่างดี
06:35
But, you may ask,
141
395900
1216
แต่คุณอาจจะตั้งคำถามว่า
06:37
what about rogue agents,
142
397140
2616
ถ้าเกิดมีจักรกลนอกคอกขึ้นมา
06:39
some well-funded nongovernment organization?
143
399780
3336
จากองค์กรที่ไม่ใช่ของรัฐบาล แถมมีเงินทุนสนับสนุนอย่างดี
06:43
I do not fear an artificial intelligence in the hand of a lone wolf.
144
403140
3816
ผมไม่กลัวปัญญาประดิษฐ์ ที่อยู่ในมือของบุคคลใดบุคคลหนึ่ง
06:46
Clearly, we cannot protect ourselves against all random acts of violence,
145
406980
4536
มันชัดเจนว่า เราไม่สามารถปกป้อง ตัวเองจากความรุนแรงทั้งมวลได้
06:51
but the reality is such a system
146
411540
2136
แต่ความจริงแล้ว ระบบนั้น
06:53
requires substantial training and subtle training
147
413700
3096
ต้องการการฝึกฝนทั้งทางตรงและทางอ้อม
06:56
far beyond the resources of an individual.
148
416820
2296
อันเกินกว่าทรัพยากรของปัจเจกจะทำได้
06:59
And furthermore,
149
419140
1216
และยิ่งกว่านั้น
07:00
it's far more than just injecting an internet virus to the world,
150
420380
3256
มันไปไกลกว่าแค่การปล่อย ไวรัสคอมพิวเตอร์ไปทั่วโลก
07:03
where you push a button, all of a sudden it's in a million places
151
423660
3096
ที่เมื่อกดปุ่มแล้วมันก็ระบาดไปหลายล้านแห่ง
07:06
and laptops start blowing up all over the place.
152
426780
2456
และแล็ปท็อปก็ระเบิดตามกันไปหมด
07:09
Now, these kinds of substances are much larger,
153
429260
2816
สิ่งเหล่านี้ยิ่งใหญ่กว่ามาก
07:12
and we'll certainly see them coming.
154
432100
1715
และเราจะเห็นมันชัดเจนขึ้นเรื่อย ๆ
07:14
Do I fear that such an artificial intelligence
155
434340
3056
ผมกลัวว่าปัญญาประดิษฐ์
07:17
might threaten all of humanity?
156
437420
1960
จะคุกคามมนุษยชาติหรือไม่
07:20
If you look at movies such as "The Matrix," "Metropolis,"
157
440100
4376
ถ้าคุณเคยดูหนังอย่าง "The Matrix" "Metropolis"
07:24
"The Terminator," shows such as "Westworld,"
158
444500
3176
"The Terminator" หรือซีรี่ย์อย่าง "Westworld"
07:27
they all speak of this kind of fear.
159
447700
2136
เหล่านี้แสดงถึงความกลัวลักษณะเดียวกัน
07:29
Indeed, in the book "Superintelligence" by the philosopher Nick Bostrom,
160
449860
4296
และแน่นอนว่าอย่างในหนังสือ "ปัญญาล้ำลึก" ของนักปรัชญาอย่างนิค บอสทรอม
07:34
he picks up on this theme
161
454180
1536
เขาก็หยิบยกความกลัวแบบนี้มาใช้
07:35
and observes that a superintelligence might not only be dangerous,
162
455740
4016
และเราก็สังเกตว่าปัญญาล้ำลึก อาจจะไม่ได้แค่อันตรายอย่างเดียว
07:39
it could represent an existential threat to all of humanity.
163
459780
3856
มันอาจสื่อถึงภัยอันตรายอันมีอยู่จริง ต่อมวลมนุษยชาติ
07:43
Dr. Bostrom's basic argument
164
463660
2216
คำโต้เถียงพื้นฐานของ ดร.บอสทรอม
07:45
is that such systems will eventually
165
465900
2736
กล่าวว่าระบบปัญญาประดิษฐ์เหล่านี้ ในท้ายที่สุด
07:48
have such an insatiable thirst for information
166
468660
3256
จะเต็มไปด้วยความหิวกระหายข้อมูล อย่างไม่สิ้นสุด
07:51
that they will perhaps learn how to learn
167
471940
2896
จนสุดท้ายมันจะรู้จักวิธีการเรียนรู้
07:54
and eventually discover that they may have goals
168
474860
2616
และค้นพบว่าตัวมันเองมีเป้าหมายการกระทำ
07:57
that are contrary to human needs.
169
477500
2296
ที่ตรงกันข้ามกับความต้องการของมนุษย์
07:59
Dr. Bostrom has a number of followers.
170
479820
1856
ดร.บอสทรอมมีผู้ที่เชื่อถืออยู่ไม่น้อย
08:01
He is supported by people such as Elon Musk and Stephen Hawking.
171
481700
4320
สตีเฟน ฮอว์กิ้ง หรือ อีลอน มัสก์ ต่างก็สนับสนุนในคำพูดของเขา
08:06
With all due respect
172
486700
2400
ด้วยความเคารพนะครับ
08:09
to these brilliant minds,
173
489980
2016
ถึงท่านที่มีสติปัญญาปราดเปรื่องเหล่านั้น
08:12
I believe that they are fundamentally wrong.
174
492020
2256
ผมเชื่อว่าพวกท่านคิดผิด ตั้งแต่พื้นฐานแล้ว
08:14
Now, there are a lot of pieces of Dr. Bostrom's argument to unpack,
175
494300
3176
มีคำโต้เถียงของ ดร.บอสทรอม อยู่อีกมากที่ยังไม่ได้ต่อยอด
08:17
and I don't have time to unpack them all,
176
497500
2136
และผมก็ไม่มีเวลาอธิบายสิ่งเหล่านั้นทั้งหมด
08:19
but very briefly, consider this:
177
499660
2696
แต่อย่างสังเขปนะครับ ลองคิดแบบนี้
08:22
super knowing is very different than super doing.
178
502380
3736
การรู้มากต่างจากทำมาก
08:26
HAL was a threat to the Discovery crew
179
506140
1896
HAL จะเป็นภัยต่อลูกเรือยานดิสคัฟเวอรี
08:28
only insofar as HAL commanded all aspects of the Discovery.
180
508060
4416
หากมันสามารถคุมยานได้อย่างสมบูรณ์
08:32
So it would have to be with a superintelligence.
181
512500
2496
ซึ่งต้องอาศัยปัญญาที่ล้ำลึก
08:35
It would have to have dominion over all of our world.
182
515020
2496
จนอยู่เหมือนมนุษย์ในทุกหนแห่ง
08:37
This is the stuff of Skynet from the movie "The Terminator"
183
517540
2816
ประมาณสกายเน็ตของ The Terminator
08:40
in which we had a superintelligence
184
520380
1856
ซึ่งเป็นกรณีที่เรามีสุดยอดปัญญาประดิษฐ์
08:42
that commanded human will,
185
522260
1376
ที่ควบคุมเจตจำนงของมนุษย์ได้
08:43
that directed every device that was in every corner of the world.
186
523660
3856
จนถึงขั้นควบคุมอุปกรณ์ทุกชิ้นทุกมุมโลกได้
08:47
Practically speaking,
187
527540
1456
แต่เอาตามจริงเลย
08:49
it ain't gonna happen.
188
529020
2096
มันไม่มีทางจะเกิดขึ้นได้หรอกครับ
08:51
We are not building AIs that control the weather,
189
531140
3056
เราไม่ได้กำลังสร้างปัญญาประดิษฐ์ ที่สามารถควบคุมดินฟ้าอากาศได้
08:54
that direct the tides,
190
534220
1336
หรือควบคุมคลื่นน้ำได้
08:55
that command us capricious, chaotic humans.
191
535580
3376
หรือสั่งการมนุษย์ ที่มีความเอาแต่ใจและซับซ้อนได้
08:58
And furthermore, if such an artificial intelligence existed,
192
538980
3896
ยิ่งไปกว่านั้น หากปัญญาประดิษฐ์ แบบนั้นมีอยู่จริง
09:02
it would have to compete with human economies,
193
542900
2936
มันคงต้องแข่งขันกับมนุษย์ ในเชิงเศรษฐกิจด้วย
09:05
and thereby compete for resources with us.
194
545860
2520
เท่ากับว่ามันต้องแก่งแย่งทรัพยากรกับเรา
09:09
And in the end --
195
549020
1216
จนในที่สุดแล้ว
09:10
don't tell Siri this --
196
550260
1240
อย่าแอบบอกสิรินะครับ
09:12
we can always unplug them.
197
552260
1376
ว่าเราถอดปลั๊กมันได้ตลอดเวลา
09:13
(Laughter)
198
553660
2120
(เสียงหัวเราะ)
09:17
We are on an incredible journey
199
557180
2456
เรากำลังอยู่ในการเดินทาง อันแสนมหัศจรรย์
09:19
of coevolution with our machines.
200
559660
2496
ของการวิวัฒนาการร่วมไปกับจักรกลของเราเอง
09:22
The humans we are today
201
562180
2496
มนุษยชาติในวันนี้
09:24
are not the humans we will be then.
202
564700
2536
จะไม่ใช่มนุษยชาติในแบบที่เราจะเป็นในอนาคต
09:27
To worry now about the rise of a superintelligence
203
567260
3136
การด่วนกังวลกับปัญญาประดิษฐ์สุดล้ำ
09:30
is in many ways a dangerous distraction
204
570420
3056
กลายเป็นความหลงทางอันน่ากลัว
09:33
because the rise of computing itself
205
573500
2336
เพราะความรุ่งเรืองของคอมพิวเตอร์เองนั้น
09:35
brings to us a number of human and societal issues
206
575860
3016
ได้นำมาซึ่งปัญหาจำนวนมากของมนุษย์และสังคม
09:38
to which we must now attend.
207
578900
1640
ที่เราเผชิญอยู่แล้ว
09:41
How shall I best organize society
208
581180
2816
ผมจะจัดระเบียบสังคมให้ดีที่สุดได้อย่างไร
09:44
when the need for human labor diminishes?
209
584020
2336
ในเมื่อความต้องการแรงงานมนุษย์จะลดลง
09:46
How can I bring understanding and education throughout the globe
210
586380
3816
ผมจะนำความเข้าใจและการศึกษาให้แผ่ไปทั่วโลก ได้อย่างไร
09:50
and still respect our differences?
211
590220
1776
โดยที่ยังคำนึงถึงความแตกต่างของพวกเรา
09:52
How might I extend and enhance human life through cognitive healthcare?
212
592020
4256
ผมจะยืดอายุขัยและส่งเสริมชีวิตมนุษย์ ผ่านวิทยาการทางการแพทย์ได้อย่างไร
09:56
How might I use computing
213
596300
2856
ผมจะใช้งานคอมพิวเตอร์
09:59
to help take us to the stars?
214
599180
1760
ให้พาเราไปสู่ดวงดาวได้อย่างไร
10:01
And that's the exciting thing.
215
601580
2040
เหล่านั้นเป็นเรื่องที่น่าตื่นเต้นมาก
10:04
The opportunities to use computing
216
604220
2336
โอกาสของเราที่จะได้ใช้คอมพิวเตอร์
10:06
to advance the human experience
217
606580
1536
ในการขยายประสบการณ์ของมนุษยชาติ
10:08
are within our reach,
218
608140
1416
ให้กว้างไกลกว่าเดิม
10:09
here and now,
219
609580
1856
ณ ตอนนี้
10:11
and we are just beginning.
220
611460
1680
เราเองก็เพื่งเริ่มต้นเท่านั้น
10:14
Thank you very much.
221
614100
1216
ขอบคุณมากครับ
10:15
(Applause)
222
615340
4286
(เสียงปรบมือ)
เกี่ยวกับเว็บไซต์นี้

ไซต์นี้จะแนะนำคุณเกี่ยวกับวิดีโอ YouTube ที่เป็นประโยชน์สำหรับการเรียนรู้ภาษาอังกฤษ คุณจะได้เห็นบทเรียนภาษาอังกฤษที่สอนโดยอาจารย์ชั้นนำจากทั่วโลก ดับเบิลคลิกที่คำบรรยายภาษาอังกฤษที่แสดงในแต่ละหน้าของวิดีโอเพื่อเล่นวิดีโอจากที่นั่น คำบรรยายเลื่อนซิงค์กับการเล่นวิดีโอ หากคุณมีความคิดเห็นหรือคำขอใด ๆ โปรดติดต่อเราโดยใช้แบบฟอร์มการติดต่อนี้

https://forms.gle/WvT1wiN1qDtmnspy7