How will AI change the world?

1,995,079 views ・ 2022-12-06

TED-Ed


โปรดดับเบิลคลิกที่คำบรรยายภาษาอังกฤษด้านล่างเพื่อเล่นวิดีโอ

Translator: Phichayapha (Monika) Phuengmak Reviewer: Sakunphat Jirawuthitanant
ในอนาคตที่กำลังจะมาถึง
00:07
In the coming years, artificial intelligence
0
7336
2169
ปัญญาประดิษฐ์หรือ AI จะเปลี่ยนชีวิตคุณ และโลกใบนี้
00:09
is probably going to change your life, and likely the entire world.
1
9505
3629
แต่ความเปลี่ยนแปลงจะเป็นไปในทิศทางไหน ยังไม่มีใครหาข้อตกลงได้
00:13
But people have a hard time agreeing on exactly how.
2
13301
3295
นี่คือข้อความส่วนหนึ่งของบทสัมภาษณ์ จาก World Economic Forum
00:16
The following are excerpts from an interview
3
16804
2127
00:18
where renowned computer science professor and AI expert Stuart Russell
4
18931
3504
สจวร์ต รัสเซลล์ นักวิทยาศาสตร์คอมพิวเตอร์ และผู้เชี่ยวชาญด้าน AI ที่มีชื่อเสียง
00:22
helps separate the sense from the nonsense.
5
22435
2586
อธิบายแยกแยะระหว่างเรื่องจริง และเรื่องแต่งเกี่ยวกับ AI
00:25
There’s a big difference between asking a human to do something
6
25313
3754
การบอกมนุษย์ให้ทำอะไรสักอย่าง
00:29
and giving that as the objective to an AI system.
7
29067
3461
แตกต่างจากการกำหนดเป้าหมายให้ AI มาก
00:32
When you ask a human to get you a cup of coffee,
8
32528
2628
ถ้าคุณขอมนุษย์ให้ไปหากาแฟให้คุณสักแก้ว
00:35
you don’t mean this should be their life’s mission,
9
35156
2586
คุณไม่ได้หมายความว่ากาแฟ เป็นภารกิจทั้งหมดของชีวิต
00:37
and nothing else in the universe matters.
10
37742
1960
และไม่มีอะไรในจักรวาลสำคัญไปกว่านั้น
00:39
Even if they have to kill everybody else in Starbucks
11
39702
2586
ถ้าต้องฆ่าทุกคนเพื่อให้ได้กาแฟมาหนึ่งแก้ว ก่อนร้านสตาร์บัคส์ปิด
00:42
to get you the coffee before it closes— they should do that.
12
42288
2836
ก็เอาเลย
00:45
No, that’s not what you mean.
13
45124
1627
นั่นไม่ใช่สิ่งที่คุณต้องการจะสื่อ
00:46
All the other things that we mutually care about,
14
46751
2294
สิ่งอื่นที่พวกเราให้ความสำคัญร่วมกัน
00:49
they should factor into your behavior as well.
15
49045
2169
ก็ต้องมีผลต่อการตัดสินใจเรื่องพฤติกรรมด้วย
00:51
And the problem with the way we build AI systems now
16
51214
3169
ปัญหาของวิธีที่ เราใช้สร้างระบบ AI ในปัจจุบันก็คือ
00:54
is we give them a fixed objective.
17
54383
1627
เราตั้งเป้าหมายที่ตายตัวให้มัน
00:56
The algorithms require us to specify everything in the objective.
18
56010
3545
อัลกอรึทึมของ AI บังคับให้เราระบุทุกอย่าง เข้าไปในเป้าหมาย
00:59
And if you say, can we fix the acidification of the oceans?
19
59555
3420
ถ้าคุณถาม AI ว่าจะแก้ปัญหา ความเป็นกรดของทะเลยังไง
01:02
Yeah, you could have a catalytic reaction that does that extremely efficiently,
20
62975
4046
จริงอยู่ที่ว่าแค่ใช้ตัวเร่งปฏิกิริยา ก็แก้ปัญหาได้อย่างมีประสิทธิภาพ
01:07
but it consumes a quarter of the oxygen in the atmosphere,
21
67021
3253
แต่มันใช้หนึ่งในสี่ของ ปริมาณออกซิเจนในบรรยากาศ
01:10
which would apparently cause us to die fairly slowly and unpleasantly
22
70274
3712
ซึ่งแน่นอนว่าจะทำให้เราตายอย่างช้าๆ และทรมานในเวลาไม่กี่ชั่วโมง
01:13
over the course of several hours.
23
73986
1752
01:15
So, how do we avoid this problem?
24
75780
3211
เราจะหลีกเลี่ยงปัญหานี้ยังไง
01:18
You might say, okay, well, just be more careful about specifying the objective—
25
78991
4088
คุณคงพูดว่า “โอเค งั้นเราก็ระบุเป้าหมายให้รอบคอบสิ”
01:23
don’t forget the atmospheric oxygen.
26
83079
2544
“อย่าลืมเรื่องออกซิเจนในบรรยากาศ”
01:25
And then, of course, some side effect of the reaction in the ocean
27
85873
3545
หลังจากนั้น แน่นอนว่ามีผลข้างเคียง จากปฏิกิริยาในน้ำที่กระทบมหาสมุทร
01:29
poisons all the fish.
28
89418
1377
ปลาได้รับสารพิษ
01:30
Okay, well I meant don’t kill the fish either.
29
90795
2669
“โอเค ห้ามฆ่าปลาด้วย”
01:33
And then, well, what about the seaweed?
30
93464
1919
ได้ ถ้าอย่างนั้น แล้วสาหร่ายล่ะ
01:35
Don’t do anything that’s going to cause all the seaweed to die.
31
95383
2961
“อย่าทำอะไรก็ตามที่ทำให้สาหร่ายตาย”
01:38
And on and on and on.
32
98344
1210
ระบุอย่างนี้ไปเรื่อยๆ
01:39
And the reason that we don’t have to do that with humans is that
33
99679
3920
สาเหตุที่เราไม่ต้องบอกมนุษย์แบบนี้ ก็เพราะว่า
01:43
humans often know that they don’t know all the things that we care about.
34
103599
4505
มนุษย์มักเข้าใจว่าตัวเองไม่ได้รู้ทุกอย่าง เกี่ยวกับสิ่งที่เราให้ความสำคัญ
01:48
If you ask a human to get you a cup of coffee,
35
108354
2961
ถ้าคุณขอมนุษย์คนหนึ่งให้ไปหากาแฟมาให้คุณ
01:51
and you happen to be in the Hotel George Sand in Paris,
36
111315
2878
แล้วบังเอิญว่าคุณอยู่ที่ โรงแรม George V ในปารีส
01:54
where the coffee is 13 euros a cup,
37
114193
2628
กาแฟที่นั่นแก้วละ 13 ยูโร (480 บาท)
01:56
it’s entirely reasonable to come back and say, well, it’s 13 euros,
38
116821
4171
เขาก็คงกลับมาบอกคุณว่า “กาแฟแล้วละ 13 ยูโรเลยนะ”
02:00
are you sure you want it, or I could go next door and get one?
39
120992
2961
“แน่ในนะว่าอยากซื้อ หรือฉันไปซื้อจากร้านข้างนอกใกล้ๆ ให้ก็ได้”
02:03
And it’s a perfectly normal thing for a person to do.
40
123953
2878
มันเป็นสิ่งที่สมเหตุสมผลมากสำหรับมนุษย์
02:07
To ask, I’m going to repaint your house—
41
127039
3003
การถามว่า “ฉันจะทาสีบ้านคุณใหม่”
02:10
is it okay if I take off the drainpipes and then put them back?
42
130042
3337
“จะต้องเอารางน้ำฝนออกนะ ผมจะติดเข้าที่เดิมให้ คุณโอเคไหม”
02:13
We don't think of this as a terribly sophisticated capability,
43
133504
3128
พวกเรารู้สึกว่ามันก็ไม่ได้เป็นความสามารถ ที่ซับซ้อนอะไร
02:16
but AI systems don’t have it because the way we build them now,
44
136632
3087
แต่ AI ทำเรื่องพวกนี้ไม่เป็น เพราะตามวิธีที่เราสร้างมันในปัจจุบัน
02:19
they have to know the full objective.
45
139719
1793
มันต้องรู้เป้าหมายทุกอย่างครบถ้วน
02:21
If we build systems that know that they don’t know what the objective is,
46
141721
3753
ถ้าเราสร้างระบบที่รู้ตัวเอง ว่าไม่รู้เป้าหมายที่แน่นอน
02:25
then they start to exhibit these behaviors,
47
145474
2586
มันก็จะเริ่มแสดงพฤติกรรมเหล่านี้
02:28
like asking permission before getting rid of all the oxygen in the atmosphere.
48
148060
4046
เช่น ขออนุญาตก่อนที่จะสูบออกซิเจน ทั้งหมดจากชั้นบรรยากาศ
02:32
In all these senses, control over the AI system
49
152565
3378
เมื่อคำนึงถึงเรื่องเหล่านี้ การควบคุมระบบ AI
02:35
comes from the machine’s uncertainty about what the true objective is.
50
155943
4463
มาจากการที่ระบบ ไม่มั่นใจว่าอะไรคือเป้าหมายที่แท้จริง
02:41
And it’s when you build machines that believe with certainty
51
161282
3086
เมื่อคุณสร้างระบบที่มั่นใจแน่นอน
02:44
that they have the objective,
52
164368
1418
ว่าตัวเองเข้าใจเป้าหมาย
02:45
that’s when you get this sort of psychopathic behavior.
53
165786
2753
มันก็จะมีพฤติกรรมไร้สติและศีลธรรม
02:48
And I think we see the same thing in humans.
54
168539
2127
เราเห็นเรื่องพวกนี้ในมนุษย์เหมือนกัน
02:50
What happens when general purpose AI hits the real economy?
55
170750
4254
จะเกิดอะไรขึ้นเมื่อ AI อเนกประสงค์ ถูกปล่อยสู่ตลาดเศรษฐกิจ
02:55
How do things change? Can we adapt?
56
175379
3587
มีอะไรเปลี่ยนไปบ้าง เราจะปรับตัวได้ไหม
02:59
This is a very old point.
57
179175
1835
คำถามพวกนี้มีมานานแล้ว
03:01
Amazingly, Aristotle actually has a passage where he says,
58
181010
3587
อริสโตเติลมีงานเขียนที่พูดถึงเรื่องนี้อยู่ เขาเขียนว่า
03:04
look, if we had fully automated weaving machines
59
184597
3045
ถ้าเรามีเครื่องจักรที่ทอผ้าได้เอง
03:07
and plectrums that could pluck the lyre and produce music without any humans,
60
187642
3837
และปิ๊กที่ดีดพิณไลร์เพื่อเล่นดนตรีได้เอง โดยไม่ต้องมีมนุษย์มาเกี่ยวข้อง
03:11
then we wouldn’t need any workers.
61
191604
2002
งั้นเราก็ไม่จำเป็นต้องมีคนงาน
03:13
That idea, which I think it was Keynes
62
193814
2878
ความคิดนี้ ซึ่งเคนส์เป็นคนตั้งชื่อให้ว่า การตกงานเพราะเทคโนโลยี ในปี 1930
03:16
who called it technological unemployment in 1930,
63
196692
2836
03:19
is very obvious to people.
64
199528
1919
เป็นสิ่งที่คนเห็นได้ชัดเจน
03:21
They think, yeah, of course, if the machine does the work,
65
201447
3086
คนคิดว่า “ในเมื่อมีเครื่องจักรทำงานแล้ว”
03:24
then I'm going to be unemployed.
66
204533
1669
“ฉันตกงานแน่ๆ”
03:26
You can think about the warehouses that companies are currently operating
67
206369
3503
ลองคิดถึงโกดังสินค้าของบริษัท e-commere ในปัจจุบัน
03:29
for e-commerce, they are half automated.
68
209872
2711
ระบบงานก็อัตโนมัติไปครึ่งหนึ่งแล้ว
03:32
The way it works is that an old warehouse— where you’ve got tons of stuff piled up
69
212583
4046
แทนที่จะทำแบบในโกดังเก่า แบบที่สินต้าต่างๆ อยู่ในที่ของมัน
03:36
all over the place and humans go and rummage around
70
216629
2461
มนุษย์ต้องเดินไปหาของเองตามมุมต่างๆ
03:39
and then bring it back and send it off—
71
219090
1877
เอาของออกมา แล้วส่งสินค้าไปตามที่อยู่
03:40
there’s a robot who goes and gets the shelving unit
72
220967
3586
โกดังในปัจจุบันมีหุ่นยนต์ที่ทำหน้าที่ หาชั้นวางสินค้าที่เราต้องการ
03:44
that contains the thing that you need,
73
224553
1919
03:46
but the human has to pick the object out of the bin or off the shelf,
74
226472
3629
มนุษย์แค่หยิบของชิ้นนั้นออกมาจากชั้น
03:50
because that’s still too difficult.
75
230101
1877
เพราะการแยกแยะของยังยากสำหรับ AI
03:52
But, at the same time,
76
232019
2002
ในขณะเดียวกัน
03:54
would you make a robot that is accurate enough to be able to pick
77
234021
3921
คุณจะอยากสร้างหุ่นยนต์ที่มีความแม่นยำ ถึงขนาดสามารถเลือกหยิบ
03:57
pretty much any object within a very wide variety of objects that you can buy?
78
237942
4338
ของที่ถูกต้องจากสิ่งของอื่นๆ ที่คุณซื้อไหม
04:02
That would, at a stroke, eliminate 3 or 4 million jobs?
79
242280
4004
เพราะมันหมายความว่างานในตลาดแรงงาน จะหายไปถึง 3 หรือ 4 ล้านตำแหน่ง
04:06
There's an interesting story that E.M. Forster wrote,
80
246409
3336
อี.เอ็ม. ฟอร์สเตอร์ เขียนเรื่องเล่า ที่น่าสนใจไว้
04:09
where everyone is entirely machine dependent.
81
249745
3504
ในเรื่อง มนุษย์ทุกคนพึ่งพาหุ่นยนต์ ให้ทำทุกอย่าง
04:13
The story is really about the fact that if you hand over
82
253499
3754
ใจความหลักของเรื่องคือ ถ้าคุณยกการบริหารอารยธรรมให้จักรกล
04:17
the management of your civilization to machines,
83
257253
2961
04:20
you then lose the incentive to understand it yourself
84
260214
3504
คุณก็จะสูญเสียแรงจูงใจ ในการทำความเข้าใจมันด้วยตัวเอง
04:23
or to teach the next generation how to understand it.
85
263718
2544
รวมถึงความต้องการสอน ให้คนรุ่นต่อไปเข้าใจด้วย
04:26
You can see “WALL-E” actually as a modern version,
86
266262
3003
“WALL-E” พูดถึงเรื่องเดียวกันในแบบที่ ทันสมัยขึ้น
04:29
where everyone is enfeebled and infantilized by the machine,
87
269265
3628
ในเรื่อง มนุษย์ร่างกายอ่อนแอเพราะไม่ต้อง ทำอะไรเองเมื่อมีหุ่นยนต์ช่วย
04:32
and that hasn’t been possible up to now.
88
272893
1961
เรื่องแบบนั้นยังไม่มาถึงในปัจจุบัน
04:34
We put a lot of our civilization into books,
89
274854
2419
พวกเราใส่อารยธรรมของตัวเองเข้าไปในหนังสือ
04:37
but the books can’t run it for us.
90
277273
1626
แต่หนังสือไม่สามารถควบคุมมันได้
04:38
And so we always have to teach the next generation.
91
278899
2795
เราจึงต้องสอนคนรุ่นหลังเองเสมอ
04:41
If you work it out, it’s about a trillion person years of teaching and learning
92
281736
4212
ถ้าคุณคำนวณ อารยธรรมที่ผ่านมาทั้งหมดใช้ เวลาเป็นล้านล้านอายุคนในการสอนและเรียนรู้
04:45
and an unbroken chain that goes back tens of thousands of generations.
93
285948
3962
และห่วงโซ่ที่ไม่เคยขาดนี้ก็ย้อนกลับไป กว่าหมื่นรุ่นคน
04:50
What happens if that chain breaks?
94
290119
1919
จะเกิดอะไรขึ้นถ้าห่วงโซ่นั้นขาดลง
04:52
I think that’s something we have to understand as AI moves forward.
95
292038
3461
ผมคิดว่านี่คือสิ่งที่เราต้องทำความเข้าใจ ในขณะที่ AI ก้าวหน้าไปเรื่อยๆ
04:55
The actual date of arrival of general purpose AI—
96
295624
3587
วันที่ AI อเนกประสงค์จะเกิดขึ้นจริง
04:59
you’re not going to be able to pinpoint, it isn’t a single day.
97
299211
3087
คุณไม่มีทางชี้ได้หรอกว่าคือวันไหน มันไม่ใช่แค่วันเดียว
05:02
It’s also not the case that it’s all or nothing.
98
302298
2294
AI ไม่ใช่มีแค่ต้องสำเร็จ หรือล้มเหลวเท่านั้น
05:04
The impact is going to be increasing.
99
304592
2461
เพราะผลกระทบจาก AI จะเพิ่มขึ้นตลอด
05:07
So with every advance in AI,
100
307053
2043
ทุกครั้งที่ AI พัฒนา
05:09
it significantly expands the range of tasks.
101
309096
2962
ขอบเขตของสิ่งที่มันทำได้ ก็เพิ่มมากขึ้นแบบก้าวกระโดด
05:12
So in that sense, I think most experts say by the end of the century,
102
312058
5338
ผมคิดว่าผู้เชี่ยวชาญส่วนมาก คงพูดว่าเมื่อปลายศตวรรษมาถึง
05:17
we’re very, very likely to have general purpose AI.
103
317396
3337
มีความเป็นไปได้สูงมากว่า AI อเนกประสงค์ จะกลายเป็นความจริง
05:20
The median is something around 2045.
104
320733
3754
ส่วนมากบอกว่าประมาณปี 2045
05:24
I'm a little more on the conservative side.
105
324487
2002
ผมค่อนไปทางระมัดระวังหน่อย
05:26
I think the problem is harder than we think.
106
326489
2085
ผมคิดว่าปัญหาเรื่องนี้แก้ยากกว่าที่เราคิด
05:28
I like what John McAfee, he was one of the founders of AI,
107
328574
3253
ผมชอบคำตอบของ จอห์น แมคอาฟี หนึ่งในผู้บุกเบิก AI
05:31
when he was asked this question, he said, somewhere between five and 500 years.
108
331911
3837
เมื่อเขาถูกถามคำถามนี้ เขาตอบว่า “ใช้เวลาระหว่าง 5 ถึง 500 ปี”
05:35
And we're going to need, I think, several Einsteins to make it happen.
109
335748
3337
“แล้วผมก็คิดว่าเราคงต้องมี ไอน์สไตน์อีกหลายคนเลยถึงจะทำมันสำเร็จ”

Original video on YouTube.com
เกี่ยวกับเว็บไซต์นี้

ไซต์นี้จะแนะนำคุณเกี่ยวกับวิดีโอ YouTube ที่เป็นประโยชน์สำหรับการเรียนรู้ภาษาอังกฤษ คุณจะได้เห็นบทเรียนภาษาอังกฤษที่สอนโดยอาจารย์ชั้นนำจากทั่วโลก ดับเบิลคลิกที่คำบรรยายภาษาอังกฤษที่แสดงในแต่ละหน้าของวิดีโอเพื่อเล่นวิดีโอจากที่นั่น คำบรรยายเลื่อนซิงค์กับการเล่นวิดีโอ หากคุณมีความคิดเห็นหรือคำขอใด ๆ โปรดติดต่อเราโดยใช้แบบฟอร์มการติดต่อนี้

https://forms.gle/WvT1wiN1qDtmnspy7