The danger of AI is weirder than you think | Janelle Shane

2,816,115 views ・ 2019-11-13

TED


โปรดดับเบิลคลิกที่คำบรรยายภาษาอังกฤษด้านล่างเพื่อเล่นวิดีโอ

Translator: Patipon Tantisirivattana Reviewer: Varut Wiseschinda
00:01
So, artificial intelligence
0
1765
3000
ปัญญาประดิษฐ์
00:04
is known for disrupting all kinds of industries.
1
4789
3529
สิ่งประดิษฐ์ที่เข้ามาแทรกแซง อุตสาหกรรมทุกชนิด
00:08
What about ice cream?
2
8961
2043
แล้วกับไอศครีมล่ะ
00:11
What kind of mind-blowing new flavors could we generate
3
11879
3639
รสชาติสุดตะลึงแบบไหนกัน ที่เราสามารถสร้างได้
00:15
with the power of an advanced artificial intelligence?
4
15542
2976
ด้วยพลังของปัญญาประดิษฐ์ขั้นสูง
00:19
So I teamed up with a group of coders from Kealing Middle School
5
19011
4161
ฉันจึงจับกลุ่มกับนักเขียนโค้ด จากโรงเรียนมัธยมต้น Kealing
00:23
to find out the answer to this question.
6
23196
2241
เพื่อค้นหาคำตอบของคำถามนี้
00:25
They collected over 1,600 existing ice cream flavors,
7
25461
5081
พวกเขารวบรวมไอศครีมทั้งหมด 1,600 รสชาติ ที่มีอยู่
00:30
and together, we fed them to an algorithm to see what it would generate.
8
30566
5522
และเราก็ป้อนเข้าอัลกอริทึม เพื่อดูว่ามันจะสร้างอะไร
00:36
And here are some of the flavors that the AI came up with.
9
36112
3753
และนี่คือบางรสที่ AI คิดขึ้นมา
[ขยะฟักทอง]
00:40
[Pumpkin Trash Break]
10
40444
1471
00:41
(Laughter)
11
41939
1402
(เสียงหัวเราะ)
00:43
[Peanut Butter Slime]
12
43365
2469
[แยมเนยถั่วเหนียวเหนอะหนะ]
00:46
[Strawberry Cream Disease]
13
46822
1343
[โรคครีมสตรอเบอรี่]
00:48
(Laughter)
14
48189
2126
(เสียงหัวเราะ)
00:50
These flavors are not delicious, as we might have hoped they would be.
15
50339
4597
รสชาติพวกนี้ไม่อร่อยเอาซะเลย ในขณะที่เราหวังว่าพวกเขาจะ
00:54
So the question is: What happened?
16
54960
1864
งั้นคำถามก็คือ มันเกิดอะไรขึ้น
00:56
What went wrong?
17
56848
1394
มันผิดพลาดตรงไหน
00:58
Is the AI trying to kill us?
18
58266
1959
นี่ AI พยายามจะฆ่าเราหรอ
01:01
Or is it trying to do what we asked, and there was a problem?
19
61027
4310
หรือมันพยายามทำตามที่เราสั่ง และมันเป็นปัญหาหรอ
01:06
In movies, when something goes wrong with AI,
20
66567
2464
ในภาพยนต์ เมื่อมีบางอย่างผิดปกติกับ AI
01:09
it's usually because the AI has decided
21
69055
2712
มันเป็นเพราะ AI เป็นคนตัดสินใจว่า
01:11
that it doesn't want to obey the humans anymore,
22
71791
2272
มันไม่จำเป็นที่จะต้องทำตามคำสั่ง มนุษย์อีกต่อไป
01:14
and it's got its own goals, thank you very much.
23
74087
2623
และมันมีเป้าหมายของมันเอง ขอบคุณมากๆเลย
01:17
In real life, though, the AI that we actually have
24
77266
3216
ในความเป็นจริง ถึงแม้ AI ที่เรามี
01:20
is not nearly smart enough for that.
25
80506
1863
ยังไม่ฉลาดพอที่จะทำเช่นนั้น
01:22
It has the approximate computing power
26
82781
2982
มันมีพลังในการคำนวณโดยประมาณ
01:25
of an earthworm,
27
85787
1276
พอๆกับไส้เดือนดิน
01:27
or maybe at most a single honeybee,
28
87087
3403
หรืออาจจะพอๆกับผึ้งแค่ตัวเดียว
01:30
and actually, probably maybe less.
29
90514
2215
อันที่จริง อาจจะน้อยกว่าด้วยซ้ำ
01:32
Like, we're constantly learning new things about brains
30
92753
2594
เนื่องเพราะเราเรียนรู้สิ่งใหม่เกี่ยวกับสมอง
01:35
that make it clear how much our AIs don't measure up to real brains.
31
95371
4360
นี่ทำให้รู้ชัดว่า AI ยังเทียบไม่ได้กับสมองคนมนุษย์
01:39
So today's AI can do a task like identify a pedestrian in a picture,
32
99755
5663
ดังนั้นทุกวันนี้ AI สามารถทำงาน อย่างระบุคนเดินเท้าในภาพ
01:45
but it doesn't have a concept of what the pedestrian is
33
105442
2983
แต่มันไม่ได้มีความคิดที่ว่า อะไรคือคนเดินเท้า
01:48
beyond that it's a collection of lines and textures and things.
34
108449
4824
มากไปกว่าว่ามันคือชุด ของเส้น พื้นผิวและสิ่งของ
01:53
It doesn't know what a human actually is.
35
113792
2521
มันไม่รู้เลยว่าจริงๆแล้วมนุษย์คืออะไร
01:56
So will today's AI do what we ask it to do?
36
116822
3282
ดังนั้นทุกวันนี้ AI จะทำในสิ่งที่เราสั่งให้ทำ
02:00
It will if it can,
37
120128
1594
มันจะทำถ้ามันทำได้
02:01
but it might not do what we actually want.
38
121746
2726
แต่มันอาจไม่ทำในสิ่งที่เราต้องการ
02:04
So let's say that you were trying to get an AI
39
124496
2415
งั้นลองคิดว่าคุณ พยายามใช้ AI
02:06
to take this collection of robot parts
40
126935
2619
เพื่อรวบรวมชิ้นส่วนหุ่นยนต์นี้
02:09
and assemble them into some kind of robot to get from Point A to Point B.
41
129578
4197
และประกอบมันกลายเป็นหุ่นยนต์ เพื่อไปจากจุด A ไปจุด B
02:13
Now, if you were going to try and solve this problem
42
133799
2481
ตอนนี้ ถ้าคุณกำลังพยายาม และแก้โจทย์นี้อยู่
02:16
by writing a traditional-style computer program,
43
136304
2351
โดยการเขียนโค้ดแบบเดิม
02:18
you would give the program step-by-step instructions
44
138679
3417
คุณจะให้โปรแกรม ทำตามคำแนะนำทีละขั้นตอน
02:22
on how to take these parts,
45
142120
1329
วิธีการใช้ชิ้นส่วนเหล่านี้
02:23
how to assemble them into a robot with legs
46
143473
2407
วิธีประกอบมันให้กลายเป็นหุ่นยนต์ที่มีขา
02:25
and then how to use those legs to walk to Point B.
47
145904
2942
และจากนั้นคือวิธีใช้ขาพวกนั้นไปให้ถึงจุด B
02:29
But when you're using AI to solve the problem,
48
149441
2340
แต่เมื่อคุณใช้ AI เพื่อแก้โจทย์นี้
02:31
it goes differently.
49
151805
1174
มันต่างกันเลย
คุณไม่ได้บอกมันว่า ต้องแก้โจทย์นี้อย่างไง
02:33
You don't tell it how to solve the problem,
50
153003
2382
02:35
you just give it the goal,
51
155409
1479
คุณแค่ให้เป้าหมายกับมัน
02:36
and it has to figure out for itself via trial and error
52
156912
3262
และมันก็คิดออกด้วยตัวมันเอง ผ่านการลองผิดลองถูก
02:40
how to reach that goal.
53
160198
1484
เพื่อให้ถึงเป้าหมาย
02:42
And it turns out that the way AI tends to solve this particular problem
54
162254
4102
และกลับพบว่าวิธีที่ AI มีแนวโน้ม เพื่อแก้ปัญหานี้
02:46
is by doing this:
55
166380
1484
โดยการทำสิ่งนี้
02:47
it assembles itself into a tower and then falls over
56
167888
3367
มันประกอบตัวเองเป็นหอคอย และหล่นลงมา
02:51
and lands at Point B.
57
171279
1827
ลงที่จุด B
02:53
And technically, this solves the problem.
58
173130
2829
และในทางเทคนิค สิ่งนี้ช่วยแก้ปัญหา
02:55
Technically, it got to Point B.
59
175983
1639
ทางเทคนิค มันไปยังจุด B
02:57
The danger of AI is not that it's going to rebel against us,
60
177646
4265
อันตรายของ AI ไม่ใช่ว่า มันกำลังจะกบฏต่อเรา
03:01
it's that it's going to do exactly what we ask it to do.
61
181935
4274
แต่มันกำลังจะทำในสิ่งที่เรา ขอให้ทำแบบเฉพาะเจาะจงเลย
03:06
So then the trick of working with AI becomes:
62
186876
2498
ดังนั้นแล้วเคล็ดลับ การทำงานร่วมกับ AI ควรจะเป็น:
03:09
How do we set up the problem so that it actually does what we want?
63
189398
3828
เราจะตั้งค่าปัญหาอย่างไร เพื่อที่มันทำสิ่งที่เราต้องการจริงๆ
03:14
So this little robot here is being controlled by an AI.
64
194726
3306
เจ้าหุ่นตัวจิ๋วนี้ กำลังถูกควบคุมโดย AI
03:18
The AI came up with a design for the robot legs
65
198056
2814
AI มาพร้อมกับการออกแบบ สำหรับขาหุ่นยนต์
03:20
and then figured out how to use them to get past all these obstacles.
66
200894
4078
จากนั้นหาวิธีใช้มัน เพื่อผ่านอุปสรรคเหล่านี้ทั้งหมด
03:24
But when David Ha set up this experiment,
67
204996
2741
แต่เมื่อ David Ha ตั้งค่าการทดลองนี้
03:27
he had to set it up with very, very strict limits
68
207761
2856
เขาตั้งค่ามันขึ้นมา ด้วยข้อจำกัดที่เข้มงวดมาก
03:30
on how big the AI was allowed to make the legs,
69
210641
3292
ว่า AI นั้นได้รับอนุญาต ที่จะทำให้ขาใหญ่แค่ไหน
03:33
because otherwise ...
70
213957
1550
เพราะมิฉะนั้น...
03:43
(Laughter)
71
223058
3931
(เสียงหัวเราะ)
03:48
And technically, it got to the end of that obstacle course.
72
228563
3745
และถ้าพูดในทางเทคนิคแล้ว มันก็ไปถึงจุดหมายแหละค่ะ
03:52
So you see how hard it is to get AI to do something as simple as just walk.
73
232332
4942
ดังนั้นคุณจะเห็นว่ามันยากแค่ไหนที่จะให้ AI ทำสิ่งที่ง่ายเพียงแค่เดิน
03:57
So seeing the AI do this, you may say, OK, no fair,
74
237298
3820
ดังนั้นเมื่อเห็น AI ทำเช่นนี้ คุณอาจพูดว่า มันไม่ยุติธรรม
04:01
you can't just be a tall tower and fall over,
75
241142
2580
คุณไม่สามารถเป็น หอคอยสูงและล้มตัวลงมา
04:03
you have to actually, like, use legs to walk.
76
243746
3435
สิ่งที่คุณต้องทำจริงๆ คือการใช้ขาเพื่อเดิน
04:07
And it turns out, that doesn't always work, either.
77
247205
2759
ผลปรากฎว่า มันก็ไม่ได้ผลเช่นกัน
04:09
This AI's job was to move fast.
78
249988
2759
งานของ AI ตัวนี้คือเคลื่อนที่ให้เร็ว
04:13
They didn't tell it that it had to run facing forward
79
253115
3593
พวกมันไม่ได้ถูกบอกว่า มันต้องวิ่งเพื่อไปข้างหน้า
04:16
or that it couldn't use its arms.
80
256732
2258
หรือว่ามันห้ามใช้แขนช่วย
04:19
So this is what you get when you train AI to move fast,
81
259487
4618
นี่คือสิ่งที่คุณได้รับ เมื่อคุณฝึก AI ให้เคลื่อนที่เร็ว
04:24
you get things like somersaulting and silly walks.
82
264129
3534
สิ่งที่คุณจะได้ คือการตีลังกา และท่าเดินโง่ ๆ
04:27
It's really common.
83
267687
1400
จนเป็นเรื่องธรรมดาไปเลย
04:29
So is twitching along the floor in a heap.
84
269667
3179
ดังนั้นการกระตุกไปมา
04:32
(Laughter)
85
272870
1150
(เสียงหัวเราะ)
04:35
So in my opinion, you know what should have been a whole lot weirder
86
275241
3254
ในความคิดของฉัน คุณรู้มั้ย อะไรที่จะประหลาดกว่านี้มาก
04:38
is the "Terminator" robots.
87
278519
1396
อย่างหุ่นยนต์ "Terminator"
04:40
Hacking "The Matrix" is another thing that AI will do if you give it a chance.
88
280256
3755
การแฮ็ก "The Matrix" เป็นอีกสิ่งหนึ่ง AI นั้นจะทำถ้าคุณให้โอกาสมัน
04:44
So if you train an AI in a simulation,
89
284035
2517
ดังนั้นถ้าคุณฝึก AI ในแบบจำลอง
04:46
it will learn how to do things like hack into the simulation's math errors
90
286576
4113
มันจะเรียนรู้วิธีทำสิ่งต่าง ๆ เช่นแฮ็คเข้าไปใน ความผิดพลาดของคณิตศาสตร์ที่ใช้ในการจำลอง
04:50
and harvest them for energy.
91
290713
2207
และเก็บเกี่ยวพวกมันเป็นพลังงาน
04:52
Or it will figure out how to move faster by glitching repeatedly into the floor.
92
292944
5475
หรือมันจะคิดว่าทำอย่างไรที่จะ กระตุกตัวซ้ำๆ ลงกับพื้นเพื่อเคลื่อนที่เร็วๆ
04:58
When you're working with AI,
93
298443
1585
เมื่อคุณทำงานร่วมกับ AI
05:00
it's less like working with another human
94
300052
2389
มันไม่เหมือนกับ การทำงานกับมนุษย์คนอื่น
05:02
and a lot more like working with some kind of weird force of nature.
95
302465
3629
และยังเหมือนทำงานกับ พลังธรรมชาติประหลาดๆสักอย่าง
05:06
And it's really easy to accidentally give AI the wrong problem to solve,
96
306562
4623
และเป็นเรื่องง่ายโดยไม่ได้ตั้งใจ ที่ให้ AI แก้ปัญหาที่ผิด
05:11
and often we don't realize that until something has actually gone wrong.
97
311209
4538
และบ่อยครั้งเราไม่ได้ตระหนักถึงมัน จนกว่าจะมีบางอย่างผิดพลาดขึ้นมาจริงๆ
05:16
So here's an experiment I did,
98
316242
2080
นี่คือการทดลองที่ฉันทำ
05:18
where I wanted the AI to copy paint colors,
99
318346
3182
ฉันให้ปัญญาประดิษฐ์ลอกแถบสีเหล่านี้
05:21
to invent new paint colors,
100
321552
1746
เพื่อคิดค้นสีใหม่ขึ้นมา
05:23
given the list like the ones here on the left.
101
323322
2987
โดยให้รายการสีเหมือนกับ อันที่อยู่ทางซ้ายมือนี้
05:26
And here's what the AI actually came up with.
102
326798
3004
และนี่คือสิ่งที่ปัญญาประดิษฐ์ ให้ผลลัพท์ออกมา
05:29
[Sindis Poop, Turdly, Suffer, Gray Pubic]
103
329826
3143
[อึของซินดิส, เสมือนอึ, ความเจ็บปวด, ขนลับหงอก]
05:32
(Laughter)
104
332993
4230
(เสียงหัวเราะ)
05:39
So technically,
105
339177
1886
ดังนั้นทางเทคนิคแล้ว
05:41
it did what I asked it to.
106
341087
1864
มันทำอย่างที่ฉันสั่งให้ทำ
05:42
I thought I was asking it for, like, nice paint color names,
107
342975
3308
ฉันคิดว่าฉันขอให้มัน ตั้งชื่อสีที่ดูดี
05:46
but what I was actually asking it to do
108
346307
2307
แต่สิ่งที่ฉันสั่งให้ทำจริงๆ
05:48
was just imitate the kinds of letter combinations
109
348638
3086
แค่ลอกรูปแบบของกลุ่มอักษร
05:51
that it had seen in the original.
110
351748
1905
อย่างที่มันเห็นในตัวต้นฉบับ
05:53
And I didn't tell it anything about what words mean,
111
353677
3098
และฉันไม่ได้บอกอะไรเลย เกี่ยวกับความหมายของคำ
05:56
or that there are maybe some words
112
356799
2560
หรือว่าอาจจะมีบางคำ
05:59
that it should avoid using in these paint colors.
113
359383
2889
ที่มันควรเลี่ยงที่จะใช้ ในแทบสีเหล่านี้
06:03
So its entire world is the data that I gave it.
114
363141
3494
ดังนั้นโลกทั้งโลกของมัน คือข้อมูลที่ฉันให้มัน
06:06
Like with the ice cream flavors, it doesn't know about anything else.
115
366659
4028
เช่นเดียวกับ รสของไอศครีม มันไม่รู้อะไรอื่นเลย
06:12
So it is through the data
116
372491
1638
ดังนั้น จากข้อมูลที่ให้มันนี่เอง
06:14
that we often accidentally tell AI to do the wrong thing.
117
374153
4044
บ่อยครั้งที่เราบอกให้ AI ทำสิ่งที่ผิดโดยไม่เราตั้งใจ
06:18
This is a fish called a tench.
118
378694
3032
นี่คือปลาที่เรียกว่าเทนช์
06:21
And there was a group of researchers
119
381750
1815
และมีกลุ่มนักวิจัย
06:23
who trained an AI to identify this tench in pictures.
120
383589
3874
ที่เป็นคนฝึกให้ AI ระบุ ปลาเทนช์ในรูปนี้
06:27
But then when they asked it
121
387487
1296
แต่เมื่อพวกเขาถามมัน
06:28
what part of the picture it was actually using to identify the fish,
122
388807
3426
ส่วนไหนของภาพที่ใช้ เพื่อระบุปลาจริงๆล่ะ
06:32
here's what it highlighted.
123
392257
1358
นี่คือสิ่งที่ AI บอกมาค่ะ
06:35
Yes, those are human fingers.
124
395203
2189
ใช่ พวกนั้นคือนิ้วมือมนุษย์
06:37
Why would it be looking for human fingers
125
397416
2059
ทำไมถึงต้องมองหานิ้วมือมนุษย์ล่ะ
06:39
if it's trying to identify a fish?
126
399499
1921
ถ้ามันพยายามที่จะระบุตัวปลา
06:42
Well, it turns out that the tench is a trophy fish,
127
402126
3164
คือปรากฎว่าปลาเทนช์ ตัวนั้นคือถ้วยรางวัล
06:45
and so in a lot of pictures that the AI had seen of this fish
128
405314
3811
และในภาพจำนวนมาก ที่ AI ได้เห็นปลาตัวนี้
06:49
during training,
129
409149
1151
ในระหว่างการฝึก
06:50
the fish looked like this.
130
410324
1490
ปลามีลักษณะเช่นนี้
06:51
(Laughter)
131
411838
1635
(เสียงหัวเราะ)
06:53
And it didn't know that the fingers aren't part of the fish.
132
413497
3330
และมันก็ไม่รู้ว่านิ้ว ไม่ใช่ส่วนหนึ่งของปลา
06:58
So you see why it is so hard to design an AI
133
418808
4120
ฉะนั้นคุณจะเห็นว่ามันยากเหลือเกิน ที่จะออกแบบ AI
07:02
that actually can understand what it's looking at.
134
422952
3319
ที่สามารถเข้าใจจริงๆว่า มันกำลังดูอะไรอยู่
07:06
And this is why designing the image recognition
135
426295
2862
และนั้นคือเหตุผลที่การออกแบบ กระบวนการจดจำรูปภาพ
07:09
in self-driving cars is so hard,
136
429181
2067
ในพาหนะไร้คนขับถึงได้ยากนัก
07:11
and why so many self-driving car failures
137
431272
2205
และนั้นคือเหตุผลที่ยานไร้คนขับ ทั้งหลายล้มเหลว
07:13
are because the AI got confused.
138
433501
2885
นั้นก็เพราะ AI เกิดความสับสน
07:16
I want to talk about an example from 2016.
139
436410
4008
ฉันอยากจะพูดเกี่ยวกับตัวอย่างจากปี 2016
07:20
There was a fatal accident when somebody was using Tesla's autopilot AI,
140
440442
4455
ครั้งนั้นได้เกิดอุบัติเหตุเมื่อมีคน ใช้ระบบคนขับโดยใช้ AI ของ Tesla
07:24
but instead of using it on the highway like it was designed for,
141
444921
3414
แต่แทนที่จะใช้บนทางด่วน อย่างที่มันถูกออกแบบมา
07:28
they used it on city streets.
142
448359
2205
พวกเขากลับใช้มันบนถนน
07:31
And what happened was,
143
451239
1175
และสิ่งที่เกิดขึ้นคือ
07:32
a truck drove out in front of the car and the car failed to brake.
144
452438
3396
มีรถบรรทุกขับอยู่ข้างหน้ารถ และรถไม่สามารถเบรกได้
07:36
Now, the AI definitely was trained to recognize trucks in pictures.
145
456507
4762
ตอนนี้ AI ถูกสอนให้ จดจำรถบรรทุกในรูป
07:41
But what it looks like happened is
146
461293
2145
แต่สิ่งที่ดูเหมือนว่าจะเกิดขึ้นคือ
07:43
the AI was trained to recognize trucks on highway driving,
147
463462
2931
AI ถูกสอนให้จดจำ รถบรรทุกที่ขับบนทางด่วน
07:46
where you would expect to see trucks from behind.
148
466417
2899
ที่ที่คุณน่าจะเดาได้ ว่าจะเห็นรถบรรทุกจากข้างหลัง
07:49
Trucks on the side is not supposed to happen on a highway,
149
469340
3420
ภาพรถบรรทุกด้านข้างไม่ควร เกิดขึ้นบนทางด่วน
07:52
and so when the AI saw this truck,
150
472784
3455
และเมื่อ AI เห็นรถบรรทุกเช่นนั้น
07:56
it looks like the AI recognized it as most likely to be a road sign
151
476263
4827
มันกลับคิดว่าสิ่งนั้น คล้ายกับป้ายจราจร
08:01
and therefore, safe to drive underneath.
152
481114
2273
และดังนั้นมันจึงปลอดภัยที่จะขับต่อ
08:04
Here's an AI misstep from a different field.
153
484114
2580
นี่คือความผิดพลาดของ AI จากสายงานต่างๆ
08:06
Amazon recently had to give up on a résumé-sorting algorithm
154
486718
3460
Amazon ต้องยอมล้มเลิก อัลกอริธิมจัดเรียงเรซูเม่
08:10
that they were working on
155
490202
1220
ที่พวกเขากำลังทำกันอยู่
08:11
when they discovered that the algorithm had learned to discriminate against women.
156
491446
3908
เมื่อพวกเขาค้นพบว่าอัลกอริทึม เรียนรู้ที่จะเลือกปฏิบัติต่อผู้หญิง
08:15
What happened is they had trained it on example résumés
157
495378
2716
สิ่งที่เกิดขึ้นคือพวกเขาฝึกมัน ในตัวอย่างเรซูเม่
08:18
of people who they had hired in the past.
158
498118
2242
ของคนที่เคยถูกจ้างมาแล้วในอดีต
08:20
And from these examples, the AI learned to avoid the résumés of people
159
500384
4023
และจากตัวอย่างนี้ AI เรียนรู้ เพื่อหลีกเลี่ยงเรซูเม่ของ
08:24
who had gone to women's colleges
160
504431
2026
คนที่มาจากวิทยาลัยสตรี
08:26
or who had the word "women" somewhere in their resume,
161
506481
2806
หรือใครก็ตามที่มีคำว่า "ผู้หญิง" สักแห่งในเร่ซูเม่พวกเขา
08:29
as in, "women's soccer team" or "Society of Women Engineers."
162
509311
4576
ไม่ว่าจะ "นักฟุตบอลหญิง" หรือ "สมาคมวิศวะกรหญิง"
08:33
The AI didn't know that it wasn't supposed to copy this particular thing
163
513911
3974
AI ไม่รู้ว่ามันไม่จำเป็นจะต้อง สำเนาข้อความ
08:37
that it had seen the humans do.
164
517909
1978
ที่มันได้เคยเห็นมนุษย์ทำไปเหล่านี้
08:39
And technically, it did what they asked it to do.
165
519911
3177
และในทางเทคนิค มันทำอย่างที่มันถูกร้องขอให้ทำ
08:43
They just accidentally asked it to do the wrong thing.
166
523112
2797
พวกมันถูกร้องขอโดยไม่ตั้งใจ ให้ทำสิ่งผิด
08:46
And this happens all the time with AI.
167
526653
2895
และมันเกิดขึ้นตลอดเวลากับ AI
08:50
AI can be really destructive and not know it.
168
530120
3591
AI สามารถทำตัวไม่เป็นประโยชน์ โดยที่มันไม่รู้ตัว
08:53
So the AIs that recommend new content in Facebook, in YouTube,
169
533735
5078
ฉะนั้น AI ที่แนะนำ เนื่อหาใหม่ๆใน Facebook ใน Youtube
08:58
they're optimized to increase the number of clicks and views.
170
538837
3539
พวกมันถูกปรับแต่ง เพื่อเพี่มยอดคลิกและยอดรับชม
09:02
And unfortunately, one way that they have found of doing this
171
542400
3436
และโชคร้าย วิธีที่พวกมันทำ
09:05
is to recommend the content of conspiracy theories or bigotry.
172
545860
4503
คือการแนะนำเนื้อหา เกี่ยวกับทฤษฎีสมคบคิดหรือการคลั่งศาสนา
09:10
The AIs themselves don't have any concept of what this content actually is,
173
550902
5302
ตัว AI เองไม่มีแนวคิดใดๆ ว่าเนื้อหาพวกนี้คืออะไรกันแน่
09:16
and they don't have any concept of what the consequences might be
174
556228
3395
และพวกมันก็ไม่มีแนวคิด ว่าผลกระทบที่ตามมาอาจเป็นอะไร
09:19
of recommending this content.
175
559647
2109
ของการแนะนำเนื้อหานี้
09:22
So, when we're working with AI,
176
562296
2011
ฉะนั้น เมื่อเราทำงานร่วมกับ AI
09:24
it's up to us to avoid problems.
177
564331
4182
มันขึ้นอยู่กับพวกเราเพื่อหลีกเลี่ยงปัญหา
09:28
And avoiding things going wrong,
178
568537
2323
และหลีกเลี่ยงความผิดพลาดต่างๆ
09:30
that may come down to the age-old problem of communication,
179
570884
4526
ที่จะนำไปสู่ปัญหาเดิมๆนั้นคือการสื่อสาร
09:35
where we as humans have to learn how to communicate with AI.
180
575434
3745
มนุษย์ต้องเรียนรู้ วิธีสื่อสารกับ AI
09:39
We have to learn what AI is capable of doing and what it's not,
181
579203
4039
เราต้องเรียนรู้ว่าอะไรที่ AI ทำได้หรือไม่ได้
09:43
and to understand that, with its tiny little worm brain,
182
583266
3086
และเพื่อให้เข้าใจว่า ด้วยสมองหนอนจิ๋วๆของมัน
09:46
AI doesn't really understand what we're trying to ask it to do.
183
586376
4013
มันไม่เข้าใจจริงๆ ว่าอะไรคือสิ่งที่เราต้องการให้มันทำ
09:51
So in other words, we have to be prepared to work with AI
184
591148
3321
ในอีกแง่หนึ่งก็คือ เราต้องเตรียมพร้อม ที่จะทำงานร่วมกับ AI
09:54
that's not the super-competent, all-knowing AI of science fiction.
185
594493
5258
นั่นไม่ใช่ความสามารถระดับสูงของ AI ที่ทุกคนรู้จักในนิยายวิทยาศาสตร์
09:59
We have to be prepared to work with an AI
186
599775
2862
เราต้องเตรียมพร้อมทำงาน ร่วมกับ AI
10:02
that's the one that we actually have in the present day.
187
602661
2938
ที่เรามีในปัจจุบัน
10:05
And present-day AI is plenty weird enough.
188
605623
4205
และในปัจจุบัน AI ก็ดูจะแปลกมากขึ้นทุกที
10:09
Thank you.
189
609852
1190
ขอบคุณค่ะ
10:11
(Applause)
190
611066
5225
(เสียงปรบมือ)
เกี่ยวกับเว็บไซต์นี้

ไซต์นี้จะแนะนำคุณเกี่ยวกับวิดีโอ YouTube ที่เป็นประโยชน์สำหรับการเรียนรู้ภาษาอังกฤษ คุณจะได้เห็นบทเรียนภาษาอังกฤษที่สอนโดยอาจารย์ชั้นนำจากทั่วโลก ดับเบิลคลิกที่คำบรรยายภาษาอังกฤษที่แสดงในแต่ละหน้าของวิดีโอเพื่อเล่นวิดีโอจากที่นั่น คำบรรยายเลื่อนซิงค์กับการเล่นวิดีโอ หากคุณมีความคิดเห็นหรือคำขอใด ๆ โปรดติดต่อเราโดยใช้แบบฟอร์มการติดต่อนี้

https://forms.gle/WvT1wiN1qDtmnspy7