How to get empowered, not overpowered, by AI | Max Tegmark

127,885 views ・ 2018-07-05

TED


โปรดดับเบิลคลิกที่คำบรรยายภาษาอังกฤษด้านล่างเพื่อเล่นวิดีโอ

Translator: Kelwalin Dhanasarnsombut Reviewer: Rawee Ma
00:12
After 13.8 billion years of cosmic history,
0
12760
4416
หลังจาก 13.8 พันล้านปี ของประวัติศาสตร์อวกาศ
00:17
our universe has woken up
1
17200
2096
จักรวาลของเราก็ตื่นจากหลับ
00:19
and become aware of itself.
2
19320
1520
และรับรู้ถึงการคงอยู่ของตนเอง
00:21
From a small blue planet,
3
21480
1936
จากดาวเคราะห์สีฟ้าเล็ก ๆ
00:23
tiny, conscious parts of our universe have begun gazing out into the cosmos
4
23440
4136
ส่วนน้อยนิดที่มีความนึกคิดนี้ มองออกไปยังอวกาศ
00:27
with telescopes,
5
27600
1376
ด้วยกล้องโทรทรรศน์
00:29
discovering something humbling.
6
29000
1480
ค้นพบบางสิ่งที่ทำให้เรารู้สึกถ่อมตน
00:31
We've discovered that our universe is vastly grander
7
31320
2896
เราได้ค้นพบว่าจักรวาลของเรา
00:34
than our ancestors imagined
8
34240
1336
ใหญ่กว่าที่บรรพบุรุษเราคาดเอาไว้
00:35
and that life seems to be an almost imperceptibly small perturbation
9
35600
4256
และชีวิตก็ดูเหมือนจะมีค่าเพียงน้อยนิด
00:39
on an otherwise dead universe.
10
39880
1720
เมื่อเทียบกับจักรวาลไร้ชีวิตแสนเวิ้งว้าง
00:42
But we've also discovered something inspiring,
11
42320
3016
แต่เรายังได้ค้นพบบางอย่าง ที่สร้างแรงบันดาลใจ
00:45
which is that the technology we're developing has the potential
12
45360
2976
นั่นก็คือเทคโนโลยีที่เราพัฒนา
00:48
to help life flourish like never before,
13
48360
2856
มีศักยภาพในการช่วยให้ชีวิตเรา เฟื่องฟูกันในแบบที่ไม่เคยเป็นมาก่อน
00:51
not just for centuries but for billions of years,
14
51240
3096
ไม่ใช่แค่ในช่วงหลายศตวรรษ แต่เป็นเวลาหลายพันล้านปีแล้ว
00:54
and not just on earth but throughout much of this amazing cosmos.
15
54360
4120
และไม่ใช่แค่บนโลก แต่ทั่วทั้งจักรวาลเลยทีเดียว
00:59
I think of the earliest life as "Life 1.0"
16
59680
3336
ผมคิดว่าปฐมชีวิตเป็น "ชีวิน 1.0"
01:03
because it was really dumb,
17
63040
1376
ที่โง่ ๆ บื้อ ๆ
01:04
like bacteria, unable to learn anything during its lifetime.
18
64440
4296
เช่น แบคทีเรีย ที่ทั้งชีวิต มันไม่สามารถเรียนรู้อะไรได้เลย
01:08
I think of us humans as "Life 2.0" because we can learn,
19
68760
3376
ผมคิดว่ามนุษย์เราเป็น "ชีวิน 2.0" เพราะว่าเรามีการเรียนรู้
01:12
which we in nerdy, geek speak,
20
72160
1496
ซึ่งถ้าพูดให้ดูคงแก่เรียนสักหน่อย
01:13
might think of as installing new software into our brains,
21
73680
3216
ก็คงมองได้ว่ามันเป็นการลงซอร์ฟแวร์ใหม่ เข้าสู่สมองของเรา
01:16
like languages and job skills.
22
76920
2120
เช่น ภาษา หรือทักษะในการประกอบอาชีพ
01:19
"Life 3.0," which can design not only its software but also its hardware
23
79680
4296
"ชีวิน 3.0" ซึ่งสามารถออกแบบได้ ทั้งซอร์ฟแวร์และฮาร์ดแวร์ของมันเอง
01:24
of course doesn't exist yet.
24
84000
1656
ยังไม่ปรากฏอยู่จริง
01:25
But perhaps our technology has already made us "Life 2.1,"
25
85680
3776
แต่บางที เทคโนโลยีของเรา อาจทำให้เรากลายเป็น "ชีวิน 2.1" ไปแล้ว
01:29
with our artificial knees, pacemakers and cochlear implants.
26
89480
4336
มันทำให้เรามีเข่าเทียม เครื่องคุมจังหวะหัวใจ และหูเทียม
01:33
So let's take a closer look at our relationship with technology, OK?
27
93840
3880
ลองมาพิจารณาความสัมพันธ์ระหว่างเรา กับเทคโลยีดูนะครับ
01:38
As an example,
28
98800
1216
ยกตัวอย่างเช่น
01:40
the Apollo 11 moon mission was both successful and inspiring,
29
100040
5296
ปฏิบัติการอะพอลโล่ 11 ประสบความสำเร็จและสร้างแรงบันดาลใจ
01:45
showing that when we humans use technology wisely,
30
105360
3016
มันแสดงให้เราเห็นว่า มนุษย์ใช้เทคโนโลยีได้อย่างชาญฉลาด
01:48
we can accomplish things that our ancestors could only dream of.
31
108400
3936
เราสามารถพิชิต สิ่งที่บรรพบุรุษของเราได้แค่ฝัน
01:52
But there's an even more inspiring journey
32
112360
2976
มันยังมีการเดินทางที่น่าทึ่งยิ่งกว่านั้น
01:55
propelled by something more powerful than rocket engines,
33
115360
2680
การเดินทางที่ถูกขับเคลื่อน โดยสิ่งที่ทรงพลังกว่าจรวด
01:59
where the passengers aren't just three astronauts
34
119200
2336
การเดินทางที่ผู้โดยสาร ไม่ได้เป็นแค่นักบินอวกาศสามคน
02:01
but all of humanity.
35
121560
1776
แต่เป็นมวลมนุษยชาติ
02:03
Let's talk about our collective journey into the future
36
123360
2936
ลองมาพูดถึงการเดินทางไปสู่อนาคต
02:06
with artificial intelligence.
37
126320
2000
ด้วยปัญญาประดิษฐ์กันนะครับ
02:08
My friend Jaan Tallinn likes to point out that just as with rocketry,
38
128960
4536
เพื่อนของผม ยาน ทัลลิน มักจะบอกว่า
02:13
it's not enough to make our technology powerful.
39
133520
3160
การทำจรวดเพียงอย่างเดียว ไม่อาจทำให้เทคโนโลยีของเราทรงพลังได้
02:17
We also have to figure out, if we're going to be really ambitious,
40
137560
3175
ถ้าเราตั้งความหวังที่ทะเยอทะยานเอาไว้ เราต้องค้นหาให้ได้ว่า
02:20
how to steer it
41
140759
1416
เราจะกำกับทิศทางมันได้อย่างไร
02:22
and where we want to go with it.
42
142199
1681
และเราอยากจะไปที่ไหน
02:24
So let's talk about all three for artificial intelligence:
43
144880
2840
ลองพูดถึงสามประเด็นนี้ เกี่ยวกับปัญญาประดิษฐ์กันดู
02:28
the power, the steering and the destination.
44
148440
3056
อิทธิพล การกำหนดทิศทาง และเป้าหมาย
02:31
Let's start with the power.
45
151520
1286
เรามาเริ่มกันที่อิทธิพลของมันก่อน
02:33
I define intelligence very inclusively --
46
153600
3096
ผมจะใช้คำว่าปัญญาในความหมายเชิงกว้าง
02:36
simply as our ability to accomplish complex goals,
47
156720
4336
เพื่อสื่อถึงความสามารถของเรา ในการพิชิตเป้าหมายอันซับซ้อน
02:41
because I want to include both biological and artificial intelligence.
48
161080
3816
เพราะว่าผมอยากที่จะพูดให้ครอบคลุม ทั้งปัญญาในทางชีวภาพและปัญญาประดิษฐ์
02:44
And I want to avoid the silly carbon-chauvinism idea
49
164920
4016
ผมอยากที่จะหลีกเลี่ยง แนวคิดสุดอติที่อวยความมีเนื้อหนังมังสา
02:48
that you can only be smart if you're made of meat.
50
168960
2360
ว่ามีปัญญาเหนือยิ่งกว่าสิ่งอื่น
02:52
It's really amazing how the power of AI has grown recently.
51
172880
4176
การเติบโตของอิทธิพลของ AI เมื่อไม่นานมานี้ มันน่าทึ่งจริง ๆ ครับ
02:57
Just think about it.
52
177080
1256
ลองคิดดูสิครับว่า
02:58
Not long ago, robots couldn't walk.
53
178360
3200
ไม่นานมานี้เอง หุ่นยนต์ไม่สามารถพูดได้
03:03
Now, they can do backflips.
54
183040
1720
ตอนนี้ มันตีลังกาหลังได้แล้ว
03:06
Not long ago,
55
186080
1816
ไม่นานมานี้เอง
03:07
we didn't have self-driving cars.
56
187920
1760
เราไม่มีรถที่ขับเคลื่อนอัตโนมัติ
03:10
Now, we have self-flying rockets.
57
190920
2480
ตอนนี้ เรามีจรวดขับเคลื่อนอัตโนมัติ
03:15
Not long ago,
58
195960
1416
ไม่นานมานี้เอง
03:17
AI couldn't do face recognition.
59
197400
2616
AI ไม่สามารถจดจำใบหน้าได้
03:20
Now, AI can generate fake faces
60
200040
2976
ตอนนี้ AI สามารถสร้างหน้าปลอมได้
03:23
and simulate your face saying stuff that you never said.
61
203040
4160
และสร้างภาพหน้าของคุณ ที่พูดในสิ่งที่คุณไม่ได้พูด
03:28
Not long ago,
62
208400
1576
ไม่นานมานี้เอง
03:30
AI couldn't beat us at the game of Go.
63
210000
1880
AI ไม่สามารถเอาชนะเราในเกมโกะได้
03:32
Then, Google DeepMind's AlphaZero AI took 3,000 years of human Go games
64
212400
5096
แล้ว AI อัลฟาซีโร่ ของกูเกิล ดีพมายด์ ก็ดับยุคทองอายุ 3,000 ปี
03:37
and Go wisdom,
65
217520
1256
ของเกมโกะและของมนุษย์ผู้เล่นโกะ
03:38
ignored it all and became the world's best player by just playing against itself.
66
218800
4976
โดยการเอาชนะผู้เล่นที่เก่งกาจที่สุด โดยการเล่นแข่งกับตัวมันเอง
03:43
And the most impressive feat here wasn't that it crushed human gamers,
67
223800
3696
และความสามารถของมันที่น่าประทับใจที่สุด ไม่ใช่การที่มันเอาชนะมนุษย์ได้
03:47
but that it crushed human AI researchers
68
227520
2576
แต่เป็นการเอาชนะนักวิจัย AI ที่เป็นมนุษย์
03:50
who had spent decades handcrafting game-playing software.
69
230120
3680
ที่ใช้เวลาหลายทศวรรษ ประดิษฐ์ซอร์ฟแวร์ที่เล่นเกมนี้
03:54
And AlphaZero crushed human AI researchers not just in Go but even at chess,
70
234200
4656
และอัลฟาซีโร่ก็เอาชนะนักวิจัย AI ไม่ใช่แค่ในเกมโกะหรือหมากรุก
03:58
which we have been working on since 1950.
71
238880
2480
ซึ่งพวกเราทำการศึกษา มาตั้งแต่ช่วงยุคปี 1950
04:02
So all this amazing recent progress in AI really begs the question:
72
242000
4240
การพัฒนาอันน่าทึ่งเหล่านี้ของ AI ก่อให้เกิดคำถามคาใจว่า
04:07
How far will it go?
73
247280
1560
มันจะไปได้ไกลแค่ไหน
04:09
I like to think about this question
74
249800
1696
ผมมักพิจารณาคำถามนี้
04:11
in terms of this abstract landscape of tasks,
75
251520
2976
ในลักษณะของพื้นที่สมมติของการทำงาน
04:14
where the elevation represents how hard it is for AI to do each task
76
254520
3456
บริเวณที่ยกตัวสูงขึ้นมา แทนความยากของงานสำหรับ AI
04:18
at human level,
77
258000
1216
เมื่อ AI ต้องทำให้ได้ดีเท่ามนุษย์
04:19
and the sea level represents what AI can do today.
78
259240
2760
และระดับน้ำทะเลแสดงว่า ณ ปัจจุบันนี้ AI ทำได้ดีแค่ไหน
04:23
The sea level is rising as AI improves,
79
263120
2056
ระดับน้ำทะเลจะสูงขึ้นเรื่อย ๆ เมื่อ AI ได้รับการปรับปรุง
04:25
so there's a kind of global warming going on here in the task landscape.
80
265200
3440
เรากำลังเผชิญกับปัญหาโลกร้อน ในพื้นที่ของการทำงานสมมตินี้
04:30
And the obvious takeaway is to avoid careers at the waterfront --
81
270040
3335
และประเด็นสำคัญเลยก็คือ พยายามหลีกเลี่ยงงานที่อยู่ติดริมน้ำ
04:33
(Laughter)
82
273399
1257
(เสียงหัวเราะ)
04:34
which will soon be automated and disrupted.
83
274680
2856
ซึ่งไม่นานก็จะถูกเปลี่ยนแปลงแทนที่ ด้วยระบบอัตโนมัติ
04:37
But there's a much bigger question as well.
84
277560
2976
แต่เราก็มีคำถามที่ใหญ่กว่านั้น
04:40
How high will the water end up rising?
85
280560
1810
น้ำทะเลจะขึ้นสูงไปถึงไหน
04:43
Will it eventually rise to flood everything,
86
283440
3200
มันจะสูงขึ้นไปเรื่อย ๆ จนท่วมทุกที่เลยหรือเปล่า
04:47
matching human intelligence at all tasks.
87
287840
2496
ปัญญาประดิษฐ์จะเก่งทัดเทียมมนุษย์ ในทุกเรื่องเลยใช่ไหม
04:50
This is the definition of artificial general intelligence --
88
290360
3736
นี่คือนิยามของปัญญาประดิษฐ์ทั่วไป
04:54
AGI,
89
294120
1296
หรือ AGI
04:55
which has been the holy grail of AI research since its inception.
90
295440
3080
ซึ่งเป็นเหมือนจอกศักดิ์สิทธิ์ สำหรับการวิจัย AI ตั้งแต่อ้อนแต่ออก
04:59
By this definition, people who say,
91
299000
1776
โดยนิยามแล้ว คนที่บอกว่า
05:00
"Ah, there will always be jobs that humans can do better than machines,"
92
300800
3416
"โอ้ย เดี๋ยวก็มีงาน ที่คนจะทำได้ดีกว่าจักรกลอยู่ดีแหละ"
05:04
are simply saying that we'll never get AGI.
93
304240
2920
ก็คือคนที่บอกว่า เราไม่มีวันได้ AGI
05:07
Sure, we might still choose to have some human jobs
94
307680
3576
แน่ล่ะว่า เราอาจจะยังเลือก ให้มีงานสำหรับมนุษย์
05:11
or to give humans income and purpose with our jobs,
95
311280
3096
หรือให้เงินเดือนกับคน และให้คุณค่ากับงานของเรา
05:14
but AGI will in any case transform life as we know it
96
314400
3736
แต่ไม่ว่าจะอย่างไร AGI ก็จะเปลี่ยนชีวิตที่เราเคยรู้จัก
05:18
with humans no longer being the most intelligent.
97
318160
2736
มนุษย์จะไม่ใช่สิ่งที่มีปัญญามากที่สุดอีกต่อไป
05:20
Now, if the water level does reach AGI,
98
320920
3696
ทีนี้ ถ้าระดับน้ำไปไม่ถึง AGI แล้ว
05:24
then further AI progress will be driven mainly not by humans but by AI,
99
324640
5296
การพัฒนา AI ต่อไปจะไม่ได้ถูกขับเคลื่อน โดยมนุษย์เป็นหลัก แต่จะเป็น AI
05:29
which means that there's a possibility
100
329960
1856
ซึ่งนั่นหมายความว่า
05:31
that further AI progress could be way faster
101
331840
2336
มันเป็นไปได้ที่การพัฒนา AI ต่อไป อาจรวดเร็วกว่า
05:34
than the typical human research and development timescale of years,
102
334200
3376
งานวิจัยโดยมนุษย์ และระยะเวลาการพัฒนาในหน่วยปี
05:37
raising the controversial possibility of an intelligence explosion
103
337600
4016
ซึ่งอาจเป็นไปได้ว่า จะเกิดการปะทุของปัญญา
05:41
where recursively self-improving AI
104
341640
2296
เมื่อ AI ที่พัฒนาตัวเองแบบซ้ำ ๆ
05:43
rapidly leaves human intelligence far behind,
105
343960
3416
จะมีปัญญาเฉลียวฉลาด ชนิดทิ้งมนุษย์อย่างไม่เห็นฝุ่น
05:47
creating what's known as superintelligence.
106
347400
2440
และสร้างสิ่งที่เรารู้จักกันว่า ปัญญาประดิษฐ์ขั้นสูงสุด
05:51
Alright, reality check:
107
351800
2280
เอาล่ะ กลับมาสู่โลกแห่งความจริงก่อน
05:55
Are we going to get AGI any time soon?
108
355120
2440
เราจะมี AGI เร็ว ๆ นี้ไหม
05:58
Some famous AI researchers, like Rodney Brooks,
109
358360
2696
นักวิจัย AI ผู้โด่งดังบางท่าน เช่น ร็อดนีย์ บรูคส์
06:01
think it won't happen for hundreds of years.
110
361080
2496
คิดว่ามันจะไม่เกิดขึ้น ในอีกหลายร้อยปีนี้
06:03
But others, like Google DeepMind founder Demis Hassabis,
111
363600
3896
แต่คนอื่น ๆ เช่น ดีมิส ฮัซซาบิส ผู้ก่อตั้ง กูเกิล ดีพมายด์
06:07
are more optimistic
112
367520
1256
มองโลกในแง่ดีกว่ามาก
06:08
and are working to try to make it happen much sooner.
113
368800
2576
และพยายามที่จะทำให้มันเกิดขึ้นเร็วขึ้น
06:11
And recent surveys have shown that most AI researchers
114
371400
3296
และการสำรวจเมื่อไม่นานมานี้ แสดงว่า นักวิจัย AI ส่วนใหญ่
06:14
actually share Demis's optimism,
115
374720
2856
มีแนวคิดไปในทางเดียวกับ ดีมิส
06:17
expecting that we will get AGI within decades,
116
377600
3080
พวกเขาหวังว่าเราจะมี AGI กันภายในไม่กี่ทศวรรษนี้
06:21
so within the lifetime of many of us,
117
381640
2256
ในช่วงชีวิตของเราหลาย ๆ คน
06:23
which begs the question -- and then what?
118
383920
1960
ซึ่งมันทำให้เกิดปัญหาคาใจที่ว่า แล้วจากนั้นล่ะ
06:27
What do we want the role of humans to be
119
387040
2216
เราอยากจะให้มนุษย์มีบทบาทอย่างไร
06:29
if machines can do everything better and cheaper than us?
120
389280
2680
ถ้าจักรกลสามารถทำทุกอย่าง ได้ดีกว่าและถูกกว่าเรา
06:35
The way I see it, we face a choice.
121
395000
2000
ผมมองว่าเรากำลังเผชิญกับตัวเลือก
06:38
One option is to be complacent.
122
398000
1576
ตัวเลือกหนึ่งก็คือ เราควรจะยินดี
06:39
We can say, "Oh, let's just build machines that can do everything we can do
123
399600
3776
เราจะพูดได้ว่า "ก็สร้างจักรกล ที่ทำทุกอย่างที่เราทำได้สิ
06:43
and not worry about the consequences.
124
403400
1816
และไม่ต้องไปกังวลถึงผลที่ตามมาหรอก
06:45
Come on, if we build technology that makes all humans obsolete,
125
405240
3256
ไม่เอาหน่า ถ้าเราสร้างเทคโนโลยี ที่ทำให้มนุษย์ตกยุคไปเลยเนี่ย
06:48
what could possibly go wrong?"
126
408520
2096
มันจะแย่แค่ไหนกันเชียว"
06:50
(Laughter)
127
410640
1656
(เสียงหัวเราะ)
06:52
But I think that would be embarrassingly lame.
128
412320
2760
ผมคิดว่ามันฟังดูง่อยเปลี้ยเสียแขนทีเดียว
06:56
I think we should be more ambitious -- in the spirit of TED.
129
416080
3496
เราควรที่จะมีความทะเยอทะยานกันกว่านี้ ด้วยความมุ่งมั่นแบบ TED
06:59
Let's envision a truly inspiring high-tech future
130
419600
3496
เรามาลองมองอนาคตล้ำสมัย ที่ให้แรงบันดาลใจกันดีกว่า
07:03
and try to steer towards it.
131
423120
1400
แล้วลองพามันไปให้ถึงเป้าหมายนั้น
07:05
This brings us to the second part of our rocket metaphor: the steering.
132
425720
3536
ซึ่งมันก็นำเราไปสู่ส่วนที่สอง ของการเปรียบเปรยกับจรวด
07:09
We're making AI more powerful,
133
429280
1896
เรากำลังทำให้ AI มีอิทธิพลมากขึ้น
07:11
but how can we steer towards a future
134
431200
3816
แต่เราจะควบคุมทิศทาง ไปสู่อนาคตได้อย่างไร
07:15
where AI helps humanity flourish rather than flounder?
135
435040
3080
โดยที่ AI จะช่วยให้มนุษยชาติเบ่งบาน แต่ไม่เบียดเบียนพวกเรา
07:18
To help with this,
136
438760
1256
เพื่อสนับสนุนแนวคิดนี้
07:20
I cofounded the Future of Life Institute.
137
440040
1976
ผมร่วมก่อตั้งสถาบันฟิวเจอร์ออฟไลฟ์
07:22
It's a small nonprofit promoting beneficial technology use,
138
442040
2776
องค์กรไม่แสวงหาผลกำไรเล็ก ๆ ที่ส่งเสริมการใช้เทคโนโลยีอย่างมีคุณค่า
07:24
and our goal is simply for the future of life to exist
139
444840
2736
และเป้าหมายของเราก็คือ เพื่อให้ชีวิตในอนาคตยังคงอยู่
07:27
and to be as inspiring as possible.
140
447600
2056
และได้รับแรงบันดาลใจ มากที่สุดเท่าที่จะเป็นไปได้
07:29
You know, I love technology.
141
449680
3176
ผมรักเทคโนโลยีนะครับ
07:32
Technology is why today is better than the Stone Age.
142
452880
2920
เทคโนโลยีทำให้ทุกวันนี้ดีกว่าในยุคหิน
07:36
And I'm optimistic that we can create a really inspiring high-tech future ...
143
456600
4080
และผมก็เชื่อว่า เราสามารถที่จะสร้าง อนาคตที่ทันสมัยและเปี่ยมแรงบันดาลใจได้
07:41
if -- and this is a big if --
144
461680
1456
ถ้าหากว่า
07:43
if we win the wisdom race --
145
463160
2456
เราชนะการแข่งขันทางแนวคิด
07:45
the race between the growing power of our technology
146
465640
2856
ระหว่างอิทธิพลที่กำลังแผ่ขยาย ของเทคโนโลยี
07:48
and the growing wisdom with which we manage it.
147
468520
2200
กับแนวคิดที่เราใช้ควบคุมมัน ที่กำลังแผ่ขยายเช่นกัน
07:51
But this is going to require a change of strategy
148
471240
2296
แต่สิ่งนี้ต้องการการปรับเปลี่ยนแผนการ
07:53
because our old strategy has been learning from mistakes.
149
473560
3040
เพราะว่าแผนการเก่าของเรา คือการเรียนรู้จากข้อผิดพลาด
07:57
We invented fire,
150
477280
1536
เราประดิษฐ์ไฟ
07:58
screwed up a bunch of times --
151
478840
1536
ทำผิดพลาดนับครั้งไม่ถ้วน
08:00
invented the fire extinguisher.
152
480400
1816
แล้วเราก็ประดิษฐ์อุปกรณ์ดับเพลิงขึ้นมา
08:02
(Laughter)
153
482240
1336
(เสียงหัวเราะ)
08:03
We invented the car, screwed up a bunch of times --
154
483600
2416
เราประดิษฐ์รถยนต์ ทำผิดพลาดหลายครั้งหลายหน
08:06
invented the traffic light, the seat belt and the airbag,
155
486040
2667
แล้วเราก็ประดิษฐ์ไฟจราจร เข็มขัดนิรภัย และถุงลมนิรภัยขึ้นมา
08:08
but with more powerful technology like nuclear weapons and AGI,
156
488731
3845
แต่ด้วยเทคโนโลยีที่ทรงพลังกว่านั้น อย่างเช่นอาวุธนิวเคลียร์ และ AGI
08:12
learning from mistakes is a lousy strategy,
157
492600
3376
การเรียนรู้จากข้อผิดพลาด เป็นแผนการไม่เข้าท่าเลย
08:16
don't you think?
158
496000
1216
ว่าไหมครับ
08:17
(Laughter)
159
497240
1016
(เสียงหัวเราะ)
08:18
It's much better to be proactive rather than reactive;
160
498280
2576
การป้องกันดีกว่าการแก้ไขมาก
08:20
plan ahead and get things right the first time
161
500880
2296
วางแผนล่วงหน้า และทำให้มันเหมาะสมตั้งแต่แรก
08:23
because that might be the only time we'll get.
162
503200
2496
เพราะว่าเราอาจมีโอกาสเพียงแค่ครั้งเดียว
08:25
But it is funny because sometimes people tell me,
163
505720
2336
ตลกดีครับ ที่บางทีคนก็บอกผมว่า
08:28
"Max, shhh, don't talk like that.
164
508080
2736
"เฮ้ย แม็กซ์ อย่าไปพูดแบบนั้นสิ
08:30
That's Luddite scaremongering."
165
510840
1720
จะพูดปลุกระดมให้คนแตกตื่นทำไม"
08:34
But it's not scaremongering.
166
514040
1536
แต่มันไม่ใช่แบบนั้นเลย
08:35
It's what we at MIT call safety engineering.
167
515600
2880
พวกเราที่ MIT เรียกว่า วิศวกรรมความปลอดภัย
08:39
Think about it:
168
519200
1216
ลองคิดดูนะครับว่า
08:40
before NASA launched the Apollo 11 mission,
169
520440
2216
ก่อนที่นาซ่าจะเปิดตัว ปฏิบัติการณ์อะพอลโล่ 11
08:42
they systematically thought through everything that could go wrong
170
522680
3136
พวกเขารวบรวมความคิดอย่างเป็นระบบ เกี่ยวกับเรื่องร้ายทุกอย่างที่อาจเกิดขึ้น
08:45
when you put people on top of explosive fuel tanks
171
525840
2376
เมื่อคุณเอาคนขึ้นไปนั่ง อยู่บนถังเชื้อเพลิงระเบิดได้
08:48
and launch them somewhere where no one could help them.
172
528240
2616
ยิงพวกเขาขึ้นไปยังที่ที่ไม่มีใครช่วยได้
08:50
And there was a lot that could go wrong.
173
530880
1936
และอาจมีเรื่องผิดพลาดเกิดขึ้นได้มากมาย
08:52
Was that scaremongering?
174
532840
1480
นั่นเป็นการสร้างความแตกตื่นหรือ
08:55
No.
175
535159
1217
ไม่เลย
08:56
That's was precisely the safety engineering
176
536400
2016
นั่นแหละ คือวิศวกรรมความปลอดภัย
08:58
that ensured the success of the mission,
177
538440
1936
ที่จะทำให้เรามั่นใจได้ว่า ปฏิบัติการจะประสบความสำเร็จ
09:00
and that is precisely the strategy I think we should take with AGI.
178
540400
4176
และนี่แหละคือแนวทาง ที่ผมคิดว่าเราควรที่จะใช้กับ AGI
09:04
Think through what can go wrong to make sure it goes right.
179
544600
4056
ลองคิดดูว่าอะไรที่จะผิดพลาดได้บ้าง เพื่อที่จะยื่นยันว่าเรามาถูกทางแล้ว
09:08
So in this spirit, we've organized conferences,
180
548680
2536
ด้วยความมุ่งมั่นดังกล่าว เราจัดให้มีการสัมมนา
09:11
bringing together leading AI researchers and other thinkers
181
551240
2816
นำผู้นำด้านการวิจัย AI และผู้นำทางความคิดต่าง ๆ มาพบกัน
09:14
to discuss how to grow this wisdom we need to keep AI beneficial.
182
554080
3736
เพื่ออภิปรายว่าเราจะทำให้แนวคิดที่เรา ต้องการนี้เป็นประโยชน์ต่อ AI ได้อย่างไร
09:17
Our last conference was in Asilomar, California last year
183
557840
3296
ปีที่แล้ว สัมมนาครั้งก่อนของเรา จัดที่อะซิโลมาร์ แคลิฟอร์เนีย
09:21
and produced this list of 23 principles
184
561160
3056
และเราได้ตั้งหลักการ 23 ข้อ
09:24
which have since been signed by over 1,000 AI researchers
185
564240
2896
ซึ่งได้รับการลงนามโดยนักวิจัย AI และผู้นำทางอุตสาหกรรม
09:27
and key industry leaders,
186
567160
1296
กว่า 1,000 คน
09:28
and I want to tell you about three of these principles.
187
568480
3176
และผมอยากจะเล่า หลักการสามข้อจากรายการดังกล่าว
09:31
One is that we should avoid an arms race and lethal autonomous weapons.
188
571680
4960
หลักการแรกคือเราควรที่จะหยุดแข่งขั้นกัน เรื่องอาวุธยุทธภัณฑ์อันตราย
09:37
The idea here is that any science can be used for new ways of helping people
189
577480
3616
ประเด็นก็คือ วิทยาศาสตร์ไม่ว่าสาขาใด ๆ สามารถถูกใช้เพื่อช่วยเหลือคนได้
09:41
or new ways of harming people.
190
581120
1536
และทำร้ายคนได้
09:42
For example, biology and chemistry are much more likely to be used
191
582680
3936
ยกตัวอย่างเช่น ชีววิทยาและเคมี มักจะถูกใช้
09:46
for new medicines or new cures than for new ways of killing people,
192
586640
4856
เพื่อผลิตยาใหม่และเพื่อการรักษาแบบใหม่ มากกว่าที่จะใช้ฆ่าคน
09:51
because biologists and chemists pushed hard --
193
591520
2176
เพราะว่านักชีววิทยา และนักเคมีพยายามอย่างมาก
09:53
and successfully --
194
593720
1256
และสำเร็จเสียด้วย
09:55
for bans on biological and chemical weapons.
195
595000
2176
ในการคว่ำบาตรอาวุธชีวภาพและเคมี
09:57
And in the same spirit,
196
597200
1256
และด้วยความมุมานะนี้
09:58
most AI researchers want to stigmatize and ban lethal autonomous weapons.
197
598480
4440
นักวิจัย AI ส่วนใหญ่อยากที่จะ ประณามและคว่ำบาตรอาวุธอัตโนมัติ
10:03
Another Asilomar AI principle
198
603600
1816
หลักการ AI อะซิโลมาร์ อีกอย่างก็คือ
10:05
is that we should mitigate AI-fueled income inequality.
199
605440
3696
เราควรที่จะทำให้ลดความเหลื่อมล้ำ ของรายได้ที่ได้จาก AI
10:09
I think that if we can grow the economic pie dramatically with AI
200
609160
4456
ผมคิดว่า ถ้าเราสามารถสร้าง แผนผังทางเศรษฐศาสตร์ด้วย AI
10:13
and we still can't figure out how to divide this pie
201
613640
2456
แต่ยังไม่รู้ว่าจะจัดสรรได้อย่างไร
10:16
so that everyone is better off,
202
616120
1576
ให้ทุกคนอยู่ดีกินดีกว่าเดิม
10:17
then shame on us.
203
617720
1256
มันก็คงขายหน้าพิลึก
10:19
(Applause)
204
619000
4096
(เสียงปรบมือ)
10:23
Alright, now raise your hand if your computer has ever crashed.
205
623120
3600
เอาล่ะครับ ไหนลองยกมือขึ้นหน่อย ถ้าคอมพิวเตอร์ของคุณไม่เคยค้างเลย
10:27
(Laughter)
206
627480
1256
(เสียงหัวเราะ)
10:28
Wow, that's a lot of hands.
207
628760
1656
โห คนยกมือเยอะเลย
10:30
Well, then you'll appreciate this principle
208
630440
2176
คุณคงชอบหลักการนี้
10:32
that we should invest much more in AI safety research,
209
632640
3136
ที่ว่าเราควรลงทุน กับการวิจัยความปลอดภัย AI มากกว่านี้
10:35
because as we put AI in charge of even more decisions and infrastructure,
210
635800
3656
เพราะเมื่อเราให้ AI ทำหน้าที่ที่เกี่ยวกับ การตัดสินใจและโครงสร้างพื้นฐานมากขึ้น
10:39
we need to figure out how to transform today's buggy and hackable computers
211
639480
3616
เราต้องรู้ให้ได้ว่าจะเปลี่ยนคอมพิวเตอร์ ที่มีทั้งปัญหาและถูกลักข้อมูลได้
10:43
into robust AI systems that we can really trust,
212
643120
2416
ไปเป็นระบบ AI ที่สมบูรณ์ ที่เราจะไว้ใจได้จริง ๆ ได้อย่างไร
10:45
because otherwise,
213
645560
1216
มิฉะนั้น
10:46
all this awesome new technology can malfunction and harm us,
214
646800
2816
เทคโนโลยีใหม่สุดเจ๋งนี้ อาจทำงานผิดพลาดและทำร้ายเรา
10:49
or get hacked and be turned against us.
215
649640
1976
หรือถูกลักข้อมูลและนำมันมาทำร้ายเราได้
10:51
And this AI safety work has to include work on AI value alignment,
216
651640
5696
และงานด้านความปลอดภัย AI นี้ จะต้องรวมถึงงานที่เกี่ยวกับวางคุณค่าให้ AI
10:57
because the real threat from AGI isn't malice,
217
657360
2816
เพราะอันที่จริงภัยจาก AGI ไม่ใช่การมุ่งร้ายอย่างจงใจ
11:00
like in silly Hollywood movies,
218
660200
1656
อย่างหนังไร้สาระในฮอลลีวูด
11:01
but competence --
219
661880
1736
แต่คือความเป็นไปได้
11:03
AGI accomplishing goals that just aren't aligned with ours.
220
663640
3416
ที่ AGI จะบรรลุเป้าหมาย ที่ไม่ได้อยู่ในแนวทางเดียวกับเรา
11:07
For example, when we humans drove the West African black rhino extinct,
221
667080
4736
ยกตัวอย่างเช่น เมื่อมนุษย์เรา ทำให้แรดดำจากแอฟริกาตะวันตกสูญพันธุ์
11:11
we didn't do it because we were a bunch of evil rhinoceros haters, did we?
222
671840
3896
เราไม่ได้จงใจทำอย่างนั้นเพราะว่า เราเป็นพวกปิศาจเกลียดแรดใช่ไหมครับ
11:15
We did it because we were smarter than them
223
675760
2056
เราทำเช่นนั้น เพราะว่าเราฉลาดกว่าพวกมัน
11:17
and our goals weren't aligned with theirs.
224
677840
2576
และเป้าหมายของเรา ไม่ได้อยู่ในแนวทางเดียวกับพวกมัน
11:20
But AGI is by definition smarter than us,
225
680440
2656
แต่โดยนิยามแล้ว AGI ฉลาดกว่าเรา
11:23
so to make sure that we don't put ourselves in the position of those rhinos
226
683120
3576
ฉะนั้น เพื่อที่จะให้มั่นใจว่าเรา จะไม่ตกอยู่ในสถานการณ์เดียวกับแรด
11:26
if we create AGI,
227
686720
1976
ถ้าเราสร้าง AGI ขึ้นมา
11:28
we need to figure out how to make machines understand our goals,
228
688720
4176
เราต้องรู้ว่าจะทำให้จักรกล เข้าใจเป้าหมายเราได้อย่างไร
11:32
adopt our goals and retain our goals.
229
692920
3160
ยอมรับเป้าหมายของเรา และรักษาเป้าหมายของเราไว้
11:37
And whose goals should these be, anyway?
230
697320
2856
และเป้าหมายที่ว่านี้คือเป้าหมายของใคร
11:40
Which goals should they be?
231
700200
1896
เป้าหมายควรจะเป็นอะไร
11:42
This brings us to the third part of our rocket metaphor: the destination.
232
702120
3560
ซึ่งมันก็นำเราไปสู่ส่วนที่สาม ของการเปรียบเปรยกับจรวด เป้าหมาย
11:47
We're making AI more powerful,
233
707160
1856
เราสร้าง AI ให้มีอิทธิพลมากกว่าเดิม
11:49
trying to figure out how to steer it,
234
709040
1816
พยายามที่จะหาทางว่า จะกำหนดทิศทางมันอย่างไร
11:50
but where do we want to go with it?
235
710880
1680
แต่เราอยากไปไหนด้วยกันกับมันล่ะ
11:53
This is the elephant in the room that almost nobody talks about --
236
713760
3656
นี่คือช้างในห้อง ที่แทบจะไม่มีใครพูดถึง
11:57
not even here at TED --
237
717440
1856
แม้แต่ที่ TED
11:59
because we're so fixated on short-term AI challenges.
238
719320
4080
เพราะว่าเรามัวแต่หลงระเริง อยู่กับปัญหาในระยะสั้น ๆ เกี่ยวกับ AI
12:04
Look, our species is trying to build AGI,
239
724080
4656
ฟังนะครับ พวกเรากำลังพยายามสร้าง AGI
12:08
motivated by curiosity and economics,
240
728760
3496
โดยได้รับแรงกระตุ้นจากความสงสัยใคร่รู้ และเศรษฐกิจ
12:12
but what sort of future society are we hoping for if we succeed?
241
732280
3680
แต่สังคมแห่งอนาคตแบบไหนกัน ที่เราคาดหวังจะเห็นถ้าเราทำสำเร็จ
12:16
We did an opinion poll on this recently,
242
736680
1936
เราทำแบบสอบถามเมื่อไม่นานมานี้
12:18
and I was struck to see
243
738640
1216
และผมก็ตกใจที่ได้เห็นว่า
12:19
that most people actually want us to build superintelligence:
244
739880
2896
คนส่วนใหญ่ต้องการให้เรา สร้างปัญญาประดิษฐ์ขั้นสูงสุด
12:22
AI that's vastly smarter than us in all ways.
245
742800
3160
AI ที่ฉลาดกว่าเรามาก ๆ ในทุก ๆ เรื่อง
12:27
What there was the greatest agreement on was that we should be ambitious
246
747120
3416
สิ่งที่เราคิดเหมือนกันก็คือ เราควรที่จะทะเยอทะยานมุ่งมั่น
12:30
and help life spread into the cosmos,
247
750560
2016
และให้เผ่าพันธุ์ต่าง ๆ กระจายสู่อวกาศ
12:32
but there was much less agreement about who or what should be in charge.
248
752600
4496
แต่เรามีความคิดไม่ค่อยลงรอยกัน ว่าใครหรืออะไรที่ควรทำหน้าที่ควบคุม
12:37
And I was actually quite amused
249
757120
1736
ผมขำหน่อย ๆ
12:38
to see that there's some some people who want it to be just machines.
250
758880
3456
ที่เห็นว่าบางคน อยากให้พวกมันเป็นแค่เครื่องจักร
12:42
(Laughter)
251
762360
1696
(เสียงหัวเราะ)
12:44
And there was total disagreement about what the role of humans should be,
252
764080
3856
และเราก็มีความเห็นแตกแยกกัน ในเรื่องบทบาทของมนุษย์
12:47
even at the most basic level,
253
767960
1976
แม้แต่ในระดับพื้นฐาน
12:49
so let's take a closer look at possible futures
254
769960
2816
เอาล่ะครับ ลองมาพิจารณา อนาคตที่อาจเป็นไปได้
12:52
that we might choose to steer toward, alright?
255
772800
2736
ที่อาจเป็นเป้าหมายที่เรากำลังจะมุ่งไป
12:55
So don't get me wrong here.
256
775560
1336
อย่าเพิ่งเข้าใจผิดนะครับ
12:56
I'm not talking about space travel,
257
776920
2056
ผมไม่ได้พูดถึงการเดินทางท่องอวกาศ
12:59
merely about humanity's metaphorical journey into the future.
258
779000
3200
แต่เป็นการเปรียบเปรยถึง การเดินทางสู่อนาคตของมนุษยชาติ
13:02
So one option that some of my AI colleagues like
259
782920
3496
ทางเลือกหนึ่งที่เพื่อน ๆ ชาว AI ของผมชอบก็คือ
13:06
is to build superintelligence and keep it under human control,
260
786440
3616
การสร้างปัญญาประดิษฐ์ขั้นสูงสุด และให้มันอยู่ใต้การควบคุมของมนุษย์
13:10
like an enslaved god,
261
790080
1736
เหมือนกับพระเจ้าผู้เป็นทาส
13:11
disconnected from the internet
262
791840
1576
ไม่เชื่อมต่อมันกับอินเทอร์เน็ต
13:13
and used to create unimaginable technology and wealth
263
793440
3256
และใช้มันเพื่อสร้างเทคโนโลยี และความมั่งคั่งเหนือจินตนาการ
13:16
for whoever controls it.
264
796720
1240
เพื่อใครก็ตามที่เป็นผู้ควบคุม
13:18
But Lord Acton warned us
265
798800
1456
แต่ลอร์ดแอคตันเตือนเราว่า
13:20
that power corrupts, and absolute power corrupts absolutely,
266
800280
3616
ความบ้าอำนาจและอำนาจแบบเบ็ดเสร็จ จะนำไปสู่ความเสื่อมถอย
13:23
so you might worry that maybe we humans just aren't smart enough,
267
803920
4056
คุณอาจกังวลว่า บางทีมนุษย์อาจไม่ฉลาดพอ
13:28
or wise enough rather,
268
808000
1536
หรือมีสติปัญญาเพียงพอ
13:29
to handle this much power.
269
809560
1240
ที่จะจัดการควบคุม อิทธิพลที่มากมายขนาดนี้
13:31
Also, aside from any moral qualms you might have
270
811640
2536
นอกจากความหวั่นวิตกทางศีลธรรม
13:34
about enslaving superior minds,
271
814200
2296
ต่อความคิดของผู้ที่มีอำนาจ ที่เป็นผู้ควบคุมแล้ว
13:36
you might worry that maybe the superintelligence could outsmart us,
272
816520
3976
คุณอาจกังวลว่าปัญญาประดิษฐ์ขั้นสูงสุด อาจฉลาดล้ำกว่าเรา
13:40
break out and take over.
273
820520
2240
ก่อกบฎ และยึดอำนาจ
13:43
But I also have colleagues who are fine with AI taking over
274
823560
3416
แต่เพื่อนของผมบางคนก็ไม่รู้สึกวิตกอะไร ถ้า AI จะเข้ามาครอบครอง
13:47
and even causing human extinction,
275
827000
2296
หรือแม้กระทั่งทำให้มนุษย์สูญพันธุ์
13:49
as long as we feel the the AIs are our worthy descendants,
276
829320
3576
ตราบใดที่เรารู้สึกว่า AI เป็นผู้สืบทอดที่คู่ควรแล้ว
13:52
like our children.
277
832920
1736
เหมือนกับลูกหลานของเรา
13:54
But how would we know that the AIs have adopted our best values
278
834680
5616
แต่เราจะรู้ได้อย่างไรว่า AI จะได้รับคุณค่าที่ดีที่สุดจากเราไป
14:00
and aren't just unconscious zombies tricking us into anthropomorphizing them?
279
840320
4376
และไม่ได้เป็นแค่ผีดิบไร้สติสำนึก ที่จะทำให้เราลุ่มหลงไปบูชาพวกมัน
14:04
Also, shouldn't those people who don't want human extinction
280
844720
2856
แล้วคนที่ไม่ต้องการให้มนุษย์สูญพันธุ์
14:07
have a say in the matter, too?
281
847600
1440
มีสิทธิเสนออะไรเกี่ยวกับประเด็นนี้บ้างไหม
14:10
Now, if you didn't like either of those two high-tech options,
282
850200
3376
ถ้าคุณไม่ชอบแนวคิดล้ำยุคทั้งสองอย่างที่ว่า
14:13
it's important to remember that low-tech is suicide
283
853600
3176
คุณควรที่จะรู้ไว้ว่าการใช้เทคโนโลยีเก่า ๆ ก็เป็นการฆ่าตัวตาย
14:16
from a cosmic perspective,
284
856800
1256
ในมุมมองเชิงกว้าง
14:18
because if we don't go far beyond today's technology,
285
858080
2496
เพราะว่า ถ้าเราไม่พัฒนาให้ไกล ไปกว่าเทคโนโลยีในปัจจุบัน
14:20
the question isn't whether humanity is going to go extinct,
286
860600
2816
คำถามไม่ใช่ว่ามนุษยชาติจะสูญพันธุ์หรือไม่
14:23
merely whether we're going to get taken out
287
863440
2016
แต่จะกลายเป็นว่าเรากำลังจะถูกกำจัด
14:25
by the next killer asteroid, supervolcano
288
865480
2136
โดยดาวตกพิฆาต ภูเขาไฟยักษ์
14:27
or some other problem that better technology could have solved.
289
867640
3096
หรือปัญหาอื่น ๆ ที่เทคโนโลยีที่ดีกว่า จะสามารถจัดการกับมันได้
14:30
So, how about having our cake and eating it ...
290
870760
3576
แล้ว จะเป็นอย่างไร ถ้าเรามีเค้กแล้วก็ได้กินมัน
14:34
with AGI that's not enslaved
291
874360
1840
ด้วย AGI ที่ไม่ได้ถูกคุมเป็นทาส
14:37
but treats us well because its values are aligned with ours?
292
877120
3176
แต่ปฏิบัติกับเราดี เพราะว่าเป้าหมายของมัน สอดคล้องกับของเรา
14:40
This is the gist of what Eliezer Yudkowsky has called "friendly AI,"
293
880320
4176
นี่คือแก่นสำคัญของ "AI ที่เป็นมิตร" ตามแนวคิดของ อีลิเซอร์ ยอดคอฟสกี
14:44
and if we can do this, it could be awesome.
294
884520
2680
และถ้าเราสามารถทำได้ มันก็คงจะเจ๋งมาก
14:47
It could not only eliminate negative experiences like disease, poverty,
295
887840
4816
ไม่เพียงแต่มันจะกำจัดเรื่องแย่ ๆ อย่างเช่น โรคภัย ความอดอยาก
14:52
crime and other suffering,
296
892680
1456
อาชญากรรม และเรื่องร้ายอื่น ๆ
14:54
but it could also give us the freedom to choose
297
894160
2816
แต่ยังจะทำให้เราได้รับอิสระภาพในการเลือก
14:57
from a fantastic new diversity of positive experiences --
298
897000
4056
ประสบการณ์ดี ๆ ใหม่ ๆ ที่น่าทึ่ง
15:01
basically making us the masters of our own destiny.
299
901080
3160
ที่จะทำให้เรา เป็นนายของชะตากรรมของตัวเอง
15:06
So in summary,
300
906280
1376
โดยสรุปแล้ว
15:07
our situation with technology is complicated,
301
907680
3096
สถานการณ์ของเรา ที่มีต่อเทคโนโลยีนั้นซับซ้อน
15:10
but the big picture is rather simple.
302
910800
2416
แต่ภาพรวมนั้นค่อนข้างเรียบง่าย
15:13
Most AI researchers expect AGI within decades,
303
913240
3456
นักวิจัย AI ส่วนใหญ่ คาดเราจะมีว่า AGI ภายในทศวรรษนี้
15:16
and if we just bumble into this unprepared,
304
916720
3136
และถ้าเราซี้ซั้วไม่ยอมเตรียมตัวกัน
15:19
it will probably be the biggest mistake in human history --
305
919880
3336
มันอาจเป็นความผิดพลาด ที่ยิ่งใหญ่ที่สุดในมนุษยชาติ
15:23
let's face it.
306
923240
1416
เผชิญหน้ากับมันเถอะครับ
15:24
It could enable brutal, global dictatorship
307
924680
2576
มันอาจนำมาซึ่งเผด็จการโหดระดับโลก
15:27
with unprecedented inequality, surveillance and suffering,
308
927280
3536
และความเหลื่อมล้ำ การระแวดระวัง และความทุกข์เข็ญแบบที่ไม่เคยมีมาก่อน
15:30
and maybe even human extinction.
309
930840
1976
หรือแม้แต่ทำให้เราสูญพันธุ์
15:32
But if we steer carefully,
310
932840
2320
แต่ถ้าเราควบคุมกำกับมันอย่างระมัดระวัง
15:36
we could end up in a fantastic future where everybody's better off:
311
936040
3896
เราอาจลงเอยที่อนาคตที่น่าทึ่ง ที่ที่ทุกคนมีโอกาสที่ดีกว่า
15:39
the poor are richer, the rich are richer,
312
939960
2376
ยาจกก็มีเงินมีทอง คนรวยก็มั่งคั่งกว่าเดิม
15:42
everybody is healthy and free to live out their dreams.
313
942360
3960
ทุก ๆ คนมีสุขภาพที่ดี และมีอิสระในการใช้ชีวิตที่วาดฝันไว้
15:47
Now, hang on.
314
947000
1536
แต่เดี๋ยวก่อน
15:48
Do you folks want the future that's politically right or left?
315
948560
4576
พวกคุณต้องการอนาคต ที่เข้ากับการเมืองฝ่ายขวาหรือซ้าย
15:53
Do you want the pious society with strict moral rules,
316
953160
2856
คุณต้องการสังคมที่เคร่งศาสนา ที่ให้เข้มงวดกับกฎศีลธรรม
15:56
or do you an hedonistic free-for-all,
317
956040
1816
หรือจะเอาแบบสำราญสบาย ๆ อะไรก็ได้หมด
15:57
more like Burning Man 24/7?
318
957880
2216
แบบงานเบอร์นนิงแมน ตลอดยี่สิบสี่ชั่วโมง
16:00
Do you want beautiful beaches, forests and lakes,
319
960120
2416
คุณอยากได้หาด ป่าเขา ลำธารแสนงาม
16:02
or would you prefer to rearrange some of those atoms with the computers,
320
962560
3416
หรืออยากที่จะปรับเปลี่ยนบางอะตอม ด้วยคอมพิวเตอร์
16:06
enabling virtual experiences?
321
966000
1715
เพื่อให้เกิดประสบการณ์แบบเสมือนจริง
16:07
With friendly AI, we could simply build all of these societies
322
967739
3157
ด้วย AI ที่เป็นมิตร เราอาจสร้างสังคมเหล่านั้น
16:10
and give people the freedom to choose which one they want to live in
323
970920
3216
มอบอิสระภาพให้กับผู้คน ที่จะเลือกว่าพวกเขาต้องการใช้ชีวิตแบบไหน
16:14
because we would no longer be limited by our intelligence,
324
974160
3096
เพราะว่าเราจะไม่ได้ถูกจำกัด ด้วยความเฉลียวฉลาดอีกต่อไป
16:17
merely by the laws of physics.
325
977280
1456
แต่ด้วยกฎทางฟิสิกส์
16:18
So the resources and space for this would be astronomical --
326
978760
4616
ฉะนั้น ทรัพยากรและพื้นที่สำหรับสิ่งนี้ ก็น่าจะอยู่ในระดับจักรวาล
16:23
literally.
327
983400
1320
อย่างแท้จริง
16:25
So here's our choice.
328
985320
1200
ตัวเลือกของเราก็คือ
16:27
We can either be complacent about our future,
329
987880
2320
เราจะยินดีกับอนาคตของเรา
16:31
taking as an article of blind faith
330
991440
2656
ยอมรับว่ามันเป็นชะตากรรมที่กำหนดไม่ได้
16:34
that any new technology is guaranteed to be beneficial,
331
994120
4016
ในการยืนยันว่าเทคโนโลยีใหม่ จะเป็นประโยชน์
16:38
and just repeat that to ourselves as a mantra over and over and over again
332
998160
4136
แล้วบอกกับตัวเราเองซ้ำ ๆ เหมือนสวด
16:42
as we drift like a rudderless ship towards our own obsolescence.
333
1002320
3680
ในขณะที่เราล่องลอยไปราวกับเรือไร้เรดาร์ สู่ความล้าสมัยของตัวเราเอง
16:46
Or we can be ambitious --
334
1006920
1880
หรือเราจะมุมานะ
16:49
thinking hard about how to steer our technology
335
1009840
2456
คิดให้หนักว่าเราจะควบคุมกำกับ เทคโนโลยีของเราอย่างไร
16:52
and where we want to go with it
336
1012320
1936
และเราอยากจะไปที่ไหน
16:54
to create the age of amazement.
337
1014280
1760
เพื่อที่จะสร้างยุคแห่งความน่าทึ่ง
16:57
We're all here to celebrate the age of amazement,
338
1017000
2856
พวกเราทุกคนมาที่นี่เพื่อเฉลิมฉลอง ยุคแห่งความน่าทึ่ง
16:59
and I feel that its essence should lie in becoming not overpowered
339
1019880
4440
และรับรู้ว่าแก่นสารของมัน ไม่ควรที่จะมีอำนาจมากเกินไป
17:05
but empowered by our technology.
340
1025240
2616
แต่ถูกส่งเสริมด้วยเทคโนโลยีของเรา
17:07
Thank you.
341
1027880
1376
ขอบคุณครับ
17:09
(Applause)
342
1029280
3080
(เสียงปรบมือ)
เกี่ยวกับเว็บไซต์นี้

ไซต์นี้จะแนะนำคุณเกี่ยวกับวิดีโอ YouTube ที่เป็นประโยชน์สำหรับการเรียนรู้ภาษาอังกฤษ คุณจะได้เห็นบทเรียนภาษาอังกฤษที่สอนโดยอาจารย์ชั้นนำจากทั่วโลก ดับเบิลคลิกที่คำบรรยายภาษาอังกฤษที่แสดงในแต่ละหน้าของวิดีโอเพื่อเล่นวิดีโอจากที่นั่น คำบรรยายเลื่อนซิงค์กับการเล่นวิดีโอ หากคุณมีความคิดเห็นหรือคำขอใด ๆ โปรดติดต่อเราโดยใช้แบบฟอร์มการติดต่อนี้

https://forms.gle/WvT1wiN1qDtmnspy7