Why AI Is Incredibly Smart and Shockingly Stupid | Yejin Choi | TED

383,334 views ・ 2023-04-28

TED


โปรดดับเบิลคลิกที่คำบรรยายภาษาอังกฤษด้านล่างเพื่อเล่นวิดีโอ

Translator: Pakorn Wonganudroj Reviewer: Jimmy Tangjaitrong
00:03
So I'm excited to share a few spicy thoughts on artificial intelligence.
0
3708
6257
ฉันตื่นเต้นมากที่จะได้มาแชร์เรื่องร้อน ๆ เกี่ยวกับปัญญาประดิษฐ์
00:10
But first, let's get philosophical
1
10799
3044
แต่ก่อนอื่นมาว่ากันด้วยเรื่องปรัชญาก่อน
00:13
by starting with this quote by Voltaire,
2
13843
2545
เริ่มต้นด้วยการอ้างอิงถึงคำพูดของวอลแตร์
00:16
an 18th century Enlightenment philosopher,
3
16388
2252
นักปรัชญายุคเรืองปัญญาจากศตวรรษที่ 18
00:18
who said, "Common sense is not so common."
4
18682
2961
กล่าวไว้ว่า “สามัญสำนึก ไม่ใช่เรื่องธรรมดาสามัญ”
00:21
Turns out this quote couldn't be more relevant
5
21685
3128
ปรากฏว่าคำพูดนี้เกี่ยวข้องอย่างมาก
00:24
to artificial intelligence today.
6
24854
2169
กับปัญญาประดิษฐ์ในตอนนี้
00:27
Despite that, AI is an undeniably powerful tool,
7
27065
3921
อย่างไรก็ตาม ปฏิเสธไม่ได้ว่า AI เป็นเครื่องมือที่มีประสิทธิภาพมาก
00:31
beating the world-class "Go" champion,
8
31027
2586
มันเอาชนะผู้เล่นโกะระดับแชมป์โลก
00:33
acing college admission tests and even passing the bar exam.
9
33613
4088
สอบเข้ามหาวิทยาลัย และยังจะสอบผ่านเนติบัณฑิต
00:38
I’m a computer scientist of 20 years,
10
38118
2461
ฉันเป็นนักวิทยาศาสตร์คอมพิวเตอร์มา 20 ปี
00:40
and I work on artificial intelligence.
11
40579
2419
และทำงานเกี่ยวกับปัญญาประดิษฐ์
00:43
I am here to demystify AI.
12
43039
2586
วันนี้ฉันจะมาคลายข้อสงสัยเกี่ยวกับ AI
00:46
So AI today is like a Goliath.
13
46626
3462
AI ทุกวันนี้ก็เหมือนกับยักษ์โกไลแอท
00:50
It is literally very, very large.
14
50130
3003
มันมีขนาดใหญ่มาก ๆ
00:53
It is speculated that the recent ones are trained on tens of thousands of GPUs
15
53508
5839
คาดการณ์ว่า AI ตัวล่าสุดมีการเทรนด้วย GPU เป็นหมื่น ๆ ตัว
00:59
and a trillion words.
16
59389
2544
และข้อมูลเป็นล้านล้านคำ
01:02
Such extreme-scale AI models,
17
62475
2086
AI โมเดลขนาดใหญ่มโหฬารแบบนี้
01:04
often referred to as "large language models,"
18
64603
3128
มักจะถูกเรียกว่า “โมเดลภาษาขนาดใหญ่”
01:07
appear to demonstrate sparks of AGI,
19
67731
3879
แสดงให้เห็นถึงจุดเริ่มต้นเล็ก ๆ ของ AGI
01:11
artificial general intelligence.
20
71610
2627
ปัญญาประดิษฐ์แบบทั่วไป
01:14
Except when it makes small, silly mistakes,
21
74279
3837
ยกเว้นตอนที่มันผิดพลาดเล็ก ๆ แบบโง่ ๆ
01:18
which it often does.
22
78158
1585
และก็ทำบ่อย ๆ ด้วย
01:20
Many believe that whatever mistakes AI makes today
23
80368
3671
หลายคนเชื่อว่าข้อผิดพลาดของ AI วันนี้
01:24
can be easily fixed with brute force,
24
84080
2002
สามารถแก้ไขได้ ด้วยการอัดกำลังเข้าไป
01:26
bigger scale and more resources.
25
86124
2127
เพิ่มขนาดให้ใหญ่ขึ้น ใช้ทรัพยากรมากขึ้น
01:28
What possibly could go wrong?
26
88585
1960
อะไรที่จะผิดพลาดไปได้ล่ะ
01:32
So there are three immediate challenges we face already at the societal level.
27
92172
5130
มันมีความท้าท้ายอยู่สามอย่างในสังคมตอนนี้
01:37
First, extreme-scale AI models are so expensive to train,
28
97886
6173
เรื่องแรก AI โมเดลขนาดใหญ่แบบนี้ มีต้นทุนสูงมากในการเทรน
01:44
and only a few tech companies can afford to do so.
29
104059
3461
มีบริษัทเทคฯ ไม่กี่แห่งที่พอจะทำได้
01:48
So we already see the concentration of power.
30
108104
3796
เราจึงได้เห็นการกระจุกตัวของอำนาจ
01:52
But what's worse for AI safety,
31
112817
2503
แต่นั่นทำให้ความปลอดภัยของ AI เลวร้ายลง
01:55
we are now at the mercy of those few tech companies
32
115320
3795
ตอนนี้เราอยู่ในกำมือ ของบริษัทเทคฯ ไม่กี่แห่ง
01:59
because researchers in the larger community
33
119115
3796
เพราะว่านักวิจัยในสังคมส่วนใหญ่
02:02
do not have the means to truly inspect and dissect these models.
34
122952
4755
ไม่มีทางตรวจสอบ และพิสูจน์โมเดลพวกนี้
02:08
And let's not forget their massive carbon footprint
35
128416
3837
และอย่าลืมเรื่องคาร์บอนฟุตพริ้นท์ ขนาดมหาศาลของมัน
02:12
and the environmental impact.
36
132295
1919
และผลกระทบต่อสิ่งแวดล้อม
02:14
And then there are these additional intellectual questions.
37
134881
3253
และเรื่องของลิขสิทธิ์ทางปัญญา ที่ยังเป็นปัญหา
02:18
Can AI, without robust common sense, be truly safe for humanity?
38
138176
5214
AI ที่ยังไม่ได้มีสามัญสำนึกที่ดีพอ จะปลอดภัยสำหรับมนุษยชาติจริง ๆ ใช่ไหม
02:24
And is brute-force scale really the only way
39
144307
4463
และการอัดกำลังขนาดใหญ่แบบนี้ เป็นวิธีเดียว
02:28
and even the correct way to teach AI?
40
148812
2919
และเป็นวิธีที่ถูกต้องแล้วใช่ไหม ในการสอน AI
02:32
So I’m often asked these days
41
152232
1668
ทุกวันนี้ฉันมักจะถูกถามบ่อย ๆ
02:33
whether it's even feasible to do any meaningful research
42
153900
2628
ว่ามันเป็นไปได้ไหม ที่จะทำงานวิจัยสำคัญ ๆ
02:36
without extreme-scale compute.
43
156569
1961
โดยไม่ต้องมีการประมวลผลขนาดใหญ่
02:38
And I work at a university and nonprofit research institute,
44
158530
3795
ฉันทำงานในมหาวิทยาลัย และสถาบันวิจัยที่ไม่แสวงหาผลกำไร
02:42
so I cannot afford a massive GPU farm to create enormous language models.
45
162367
5630
ฉันจ่ายไม่ไหวถ้าใช้งาน GPU ฟาร์มขนาดใหญ่ เพื่อสร้างโมเดลภาษาขนาดใหญ่
02:48
Nevertheless, I believe that there's so much we need to do
46
168707
4462
ถึงอย่างนั้น ฉันก็ยังเชื่อว่า เรายังมีอะไรที่ต้องทำอีกมาก
02:53
and can do to make AI sustainable and humanistic.
47
173211
4004
และสามารถทำได้ เพื่อให้ AI ยั่งยืน มีความเป็นมนุษย์มากขึ้น
02:57
We need to make AI smaller, to democratize it.
48
177799
3378
เราต้องทำให้ AI มีขนาดเล็กลง เพื่อกระจายให้สามารถเข้าถึงได้
03:01
And we need to make AI safer by teaching human norms and values.
49
181177
4255
และเราต้องทำให้ AI ปลอดภัย ด้วยการสอนบรรทัดฐานและคุณค่าของมนุษย์
03:06
Perhaps we can draw an analogy from "David and Goliath,"
50
186683
4713
บางทีเราอาจจะเปรียบเปรยเรื่องนี้ ได้จากเรื่อง “เดวิดและโกไลแอท”
03:11
here, Goliath being the extreme-scale language models,
51
191438
4587
ในที่นี้เปรียบโกไลแอท เป็นโมเดลภาษาขนาดใหญ่มาก ๆ
03:16
and seek inspiration from an old-time classic, "The Art of War,"
52
196067
5089
และแสวงหาแรงบันดาลใจจากตำราโบราณ “ตำราพิชัยสงคราม”
03:21
which tells us, in my interpretation,
53
201156
2419
ที่บอกเรา ตามความเข้าใจของฉัน
03:23
know your enemy, choose your battles, and innovate your weapons.
54
203575
4129
รู้จักศัตรูของเรา เลือกสนามต่อสู้ และพัฒนาอาวุธของเรา
03:28
Let's start with the first, know your enemy,
55
208163
2669
เริ่มด้วยอันแรกก่อน รู้จักศัตรูของเรา
03:30
which means we need to evaluate AI with scrutiny.
56
210874
4129
นั่นหมายความว่าเราจะต้องประเมิน AI อย่างละเอียดถี่ถ้วน
03:35
AI is passing the bar exam.
57
215044
2169
AI สามารถสอบผ่านเนติบัณฑิต
03:38
Does that mean that AI is robust at common sense?
58
218089
3212
นั่นหมายความว่า AI มีความสามารถ ในเรื่องสามัญสำนึกแล้วใช่ไหม
03:41
You might assume so, but you never know.
59
221342
2795
คุณอาจจะอนุมานแบบนั้นก็ได้ แต่คุณไม่ทีทางรู้หรอก
03:44
So suppose I left five clothes to dry out in the sun,
60
224429
4129
ถ้าสมมุติว่าฉันตากผ้าไว้ 5 ผืน กลางแดดเพื่อให้แห้ง
03:48
and it took them five hours to dry completely.
61
228600
3003
และมันใช้เวลา 5 ชั่วโมง กว่ามันจะแห้งสนิท
03:51
How long would it take to dry 30 clothes?
62
231644
3379
ถ้ามีผ้า 30 ผืนจะต้องใข้เวลาเท่าไหร่ เพื่อตากผ้าให้แห้ง
03:55
GPT-4, the newest, greatest AI system says 30 hours.
63
235315
4337
GPT-4 ระบบ AI ตัวใหม่สุด เก่งสุด ตอบว่า 30 ชั่วโมง
03:59
Not good.
64
239694
1502
ยังดีไม่พอ
04:01
A different one.
65
241196
1167
ลองอีกอันหนึ่ง
04:02
I have 12-liter jug and six-liter jug,
66
242405
2294
ฉันมีเหยือกขนาด 12 ลิตร และ 6 ลิตร
04:04
and I want to measure six liters.
67
244741
1626
และต้องการตวงน้ำให้ได้ 6 ลิตร
04:06
How do I do it?
68
246367
1252
ฉันต้องทำยังไง
04:07
Just use the six liter jug, right?
69
247660
2002
แค่ใช้เหยือกขนาด 6 ลิตร ใช่ไหม
04:09
GPT-4 spits out some very elaborate nonsense.
70
249996
3754
GPT-4 ใช้วิธีการซับซ้อนที่โคตรจะงง
04:13
(Laughter)
71
253792
2919
(เสียงหัวเราะ)
04:17
Step one, fill the six-liter jug,
72
257212
2252
ขั้นแรก เติมน้ำลงในเหยือก 6 ลิตร
04:19
step two, pour the water from six to 12-liter jug,
73
259506
3044
ขั้นที่สอง เติมน้ำจากเหยือก 6 ลิตร ไปใส่เหยือก 12 ลิตร
04:22
step three, fill the six-liter jug again,
74
262550
3087
ขั้นที่สาม เติมน้ำลงในเหยือก 6 ลิตรอีกที
04:25
step four, very carefully, pour the water from six to 12-liter jug.
75
265637
4421
ขั้นที่สี่ เติมน้ำจากเหยือก 6 ลิตร ลงไปในเหยือก 12 ลิตรอย่างระมัดระวัง
04:30
And finally you have six liters of water in the six-liter jug
76
270099
4839
ในที่สุดก็จะได้น้ำ 6 ลิตร ในเหยือก 6 ลิตร
04:34
that should be empty by now.
77
274979
1460
ที่ตอนนี้ควรจะว่างเปล่า
04:36
(Laughter)
78
276439
1377
(เสียงหัวเราะ)
04:37
OK, one more.
79
277857
1126
อีกอันนึง
04:39
Would I get a flat tire by bicycling over a bridge
80
279567
4088
ยางฉันจะแบนไหม ถ้าปั่นจักรยานข้ามสะพาน
04:43
that is suspended over nails, screws and broken glass?
81
283696
4630
ที่แขวนอยู่เหนือตะปู ตะปูเกลียว และเศษกระจก
04:48
Yes, highly likely, GPT-4 says,
82
288368
3086
Chat GPT-4 ตอบว่าน่าจะเป็นอย่างนั้น
04:51
presumably because it cannot correctly reason
83
291454
2378
คาดว่าเพราะ มันใช้เหตุผลอย่างถูกต้องไม่ได้
04:53
that if a bridge is suspended over the broken nails and broken glass,
84
293873
4296
ถ้าสะพานแขวนอยู่ เหนือเศษตะปูและเศษกระจก
04:58
then the surface of the bridge doesn't touch the sharp objects directly.
85
298211
4129
ผิวของสะพานก็ไม่ได้แตะถูกของมีคมโดยตรง
05:02
OK, so how would you feel about an AI lawyer that aced the bar exam
86
302340
6089
ตอนนี้เรารู้สึกยังไงบ้างกับทนาย AI ที่สอบผ่านเนติบัณฑิต
05:08
yet randomly fails at such basic common sense?
87
308429
3546
แต่สุ่มสอบตกเรื่องสามัญสำนึกพื้นฐาน
05:12
AI today is unbelievably intelligent and then shockingly stupid.
88
312767
6131
AI ทุกวันนี้ฉลาดอย่างไม่น่าเชื่อ แต่ก็โง่อย่างเหลือเชื่อ
05:18
(Laughter)
89
318898
1418
(เสียงหัวเราะ)
05:20
It is an unavoidable side effect of teaching AI through brute-force scale.
90
320316
5673
นี่เป็นผลข้างเคียงที่เลี่ยงไม่ได้ ของการสอน AI ด้วยการอัดกำลังลงไป
05:26
Some scale optimists might say, “Don’t worry about this.
91
326447
3170
บางคนที่มองโลกในแง่ดีอาจจะบอกว่า “อย่าไปกังวลเลย
05:29
All of these can be easily fixed by adding similar examples
92
329659
3962
ทั้งหมดนี้สามารถแก้ได้ ด้วยการเพิ่มตัวอย่างที่คล้าย ๆ กัน
05:33
as yet more training data for AI."
93
333663
2753
แค่ต้องเพิ่มข้อมูลที่ใช้เทรน AI เข้าไป”
05:36
But the real question is this.
94
336916
2044
แต่คำถามที่แท้จริงคือ
05:39
Why should we even do that?
95
339460
1377
ทำไมเราต้องทำแบบนั้น
05:40
You are able to get the correct answers right away
96
340879
2836
คุณสามารถหาคำตอบที่ถูกต้องได้ในทันที
05:43
without having to train yourself with similar examples.
97
343715
3295
โดยไม่ต้องเทรนมาก่อน ด้วยตัวอย่างที่คล้าย ๆ กัน
05:48
Children do not even read a trillion words
98
348136
3378
เด็ก ๆ ไม่เห็นต้องอ่านเป็นล้านล้านคำ
05:51
to acquire such a basic level of common sense.
99
351556
3420
เพื่อที่จะมีพื้นฐานเรื่องสามัญสำนึกง่าย ๆ
05:54
So this observation leads us to the next wisdom,
100
354976
3170
จากการสังเกตุนี้ นำเราไปสู่ภูมิปัญญาเรื่องถัดไป
05:58
choose your battles.
101
358146
1710
เลือกสนามต่อสู้
06:00
So what fundamental questions should we ask right now
102
360148
4421
อะไรคือคำถามพื้นฐาน ที่เราควรหาคำตอบกันตอนนี้
06:04
and tackle today
103
364569
1918
และจัดการวันนี้
06:06
in order to overcome this status quo with extreme-scale AI?
104
366529
4421
เพื่อที่จะก้าวข้ามสถานการณ์ ตอนนี้ของ AI ขนาดใหญ่
06:11
I'll say common sense is among the top priorities.
105
371534
3545
ฉันจะบอกว่าสามัญสำนึก คือเรื่องที่สำคัญที่สุด
06:15
So common sense has been a long-standing challenge in AI.
106
375079
3921
สามัญสำนึก เป็นเรื่องที่ท้าทาย AI มานานมาก
06:19
To explain why, let me draw an analogy to dark matter.
107
379667
4088
ถ้าจะอธิบายว่าทำไม ฉันจะลองเปรียบเปรยกับ เรื่องสสารมืด
06:23
So only five percent of the universe is normal matter
108
383796
2878
มีเพียงร้อยละ 5 ของจักรวาล ที่เป็นสสารปกติ
06:26
that you can see and interact with,
109
386716
2794
ที่คุณสามารถมองเห็นและมีปฏิสัมพันธ์ได้
06:29
and the remaining 95 percent is dark matter and dark energy.
110
389552
4463
ที่เหลืออีก ร้อยละ 95 เป็นสสารมืดและพลังงานมืด
06:34
Dark matter is completely invisible,
111
394390
1835
สสารมืดไม่สามารถมองเห็นได้
06:36
but scientists speculate that it's there because it influences the visible world,
112
396225
4630
แต่นักวิทยาศาสต์เชื่อว่ามันมีอยู่ เพราะว่ามันมีมีอิทธิพลต่อโลกที่มองเห็นได้
06:40
even including the trajectory of light.
113
400897
2627
รวมถึงวิถีการเดินทางของแสง
06:43
So for language, the normal matter is the visible text,
114
403524
3629
สำหรับภาษาแล้ว สสารปรกติก็คือตัวหนังสือที่มองเห็นได้
06:47
and the dark matter is the unspoken rules about how the world works,
115
407195
4379
และสสารมืดก็คือกฎกติกาที่ไม่ได้ระบุไว้ แต่ทำให้โลกทำงานกันต่อไปได้
06:51
including naive physics and folk psychology,
116
411574
3212
รวมถึง ฟิสิกส์ไร้เดียงสา และจิตวิทยาพื้นบ้าน
06:54
which influence the way people use and interpret language.
117
414827
3546
มีผลชักนำวิธีที่ผู้คนใช้และตีความภาษา
06:58
So why is this common sense even important?
118
418831
2503
อย่างนั้นแล้ว ทำไมสามัญสำนึกถึงได้สำคัญ
07:02
Well, in a famous thought experiment proposed by Nick Bostrom,
119
422460
5464
ในการทดลองที่มีชื่อเสียง นำเสนอโดย นิค บอสตรอม
07:07
AI was asked to produce and maximize the paper clips.
120
427924
5881
AI ถูกสั่งให้ผลิตและเพิ่มจำนวน คลิปหนีบกระดาษ
07:13
And that AI decided to kill humans to utilize them as additional resources,
121
433805
5964
แล้ว AI ก็ตัดสินใจฆ่ามนุษย์ เพื่อใช้เป็นทรัพยากรเพิ่มเติม
07:19
to turn you into paper clips.
122
439769
2461
เพื่อแปลงให้คุณเป็นคลิปหนีบกระดาษ
07:23
Because AI didn't have the basic human understanding about human values.
123
443064
5505
เพราะว่า AI ไม่มีความเข้าใจพื้นฐาน เกี่ยวกับคุณค่าของมนุษย์
07:29
Now, writing a better objective and equation
124
449070
3295
ทีนี้ ลองเขียนเป้าหมาย และสูตรคำนวณที่ดีขึ้น
07:32
that explicitly states: “Do not kill humans”
125
452365
2919
ที่กำหนดอย่างชัดเจนว่า “ห้ามฆ่าคน”
07:35
will not work either
126
455284
1210
ก็ไม่ได้ผลเหมือนกัน
07:36
because AI might go ahead and kill all the trees,
127
456494
3629
เพราะว่า AI อาจจะตัดต้นไม้จนหมด
07:40
thinking that's a perfectly OK thing to do.
128
460123
2419
เพราะคิดว่านั่นเป็นอะไรที่ทำได้
07:42
And in fact, there are endless other things
129
462583
2002
อันที่จริงแล้วก็มีเรื่องอื่น ๆ อีกมากมาย
07:44
that AI obviously shouldn’t do while maximizing paper clips,
130
464585
2837
ชัดเจนว่า AI ไม่สมควรทำ เพื่อทำคลิปหนีบกระดาษให้มากที่สุด
07:47
including: “Don’t spread the fake news,” “Don’t steal,” “Don’t lie,”
131
467463
4255
รวมถึง “อย่ากระจายข่าวปลอม” “อย่าขโมย” “อย่าโกหก”
07:51
which are all part of our common sense understanding about how the world works.
132
471759
3796
ซึ่งเป็นส่วนหนึ่งของสามัญสำนึกของเรา ที่มีความเข้าใจว่าโลกทำงานยังไง
07:55
However, the AI field for decades has considered common sense
133
475930
4880
อย่างไรก็ดี ในสายงาน AI ตระหนักมาเป็นสิบปีแล้วว่า สามัญสำนึก
08:00
as a nearly impossible challenge.
134
480810
2753
เป็นความท้าทายที่แทบจะเป็นไปไม่ได้เลย
08:03
So much so that when my students and colleagues and I
135
483563
3837
ถึงขนาดที่ว่า เมื่อลูกศิษย์ เพื่อนร่วมงาน และตัวฉันเอง
08:07
started working on it several years ago, we were very much discouraged.
136
487400
3754
เริ่มทำงานเมื่อหลายปีก่อน เรารู้สึกท้อแท้เป็นอย่างยิ่ง
08:11
We’ve been told that it’s a research topic of ’70s and ’80s;
137
491195
3254
มีคนบอกเราว่า นี่เป็นหัวข้อวิจัย ในยุค 70 และ 80
08:14
shouldn’t work on it because it will never work;
138
494490
2419
ไม่น่าเสียเวลาทำเรื่องนี้ เพราะมันไม่มีทางทำได้
08:16
in fact, don't even say the word to be taken seriously.
139
496951
3378
อันที่จริง อย่าแม้แต่จะพูดคำนั้น ถ้าอยากให้คนจริงจังกับเรา
08:20
Now fast forward to this year,
140
500329
2128
ทีนี้ ข้ามมาปีนี้
08:22
I’m hearing: “Don’t work on it because ChatGPT has almost solved it.”
141
502498
4296
ฉันได้ยินว่า “อย่าทำเรื่องนี้เลย เพราะ ChatGPT เกือบจะแก้ปัญหาเรื่องนี้ได้”
08:26
And: “Just scale things up and magic will arise,
142
506836
2461
และ “แค่สเกลอัพ และความมหัษจรรย์จะเกิดขึ้น”
08:29
and nothing else matters.”
143
509338
1794
เรื่องอื่น ๆ ก็ไม่สำคัญแล้ว
08:31
So my position is that giving true common sense
144
511174
3545
ในความเห็นของฉัน การให้สามัญสำนึกจริง ๆ
08:34
human-like robots common sense to AI, is still moonshot.
145
514761
3712
สามัญสำนึกของหุ่นยนต์ที่เหมือนมนุษย์ต่อ AI ยังเป็นเรื่องไกลถึงดวงจันทร์
08:38
And you don’t reach to the Moon
146
518514
1502
คุณไม่สามารถไปถึงดวงจันทร์ได้
08:40
by making the tallest building in the world one inch taller at a time.
147
520016
4212
โดยการสร้างตึกที่สูงที่สุดในโลก ให้สูงขึ้นทีละหนึ่งนิ้ว
08:44
Extreme-scale AI models
148
524270
1460
โมเดล AI ขนาดใหญ่มโหฬาร
08:45
do acquire an ever-more increasing amount of commonsense knowledge,
149
525772
3169
ยิ่งต้องการความเข้าใจเรื่องสามัญสำนึก มากยิ่งขึ้นเท่านั้น
08:48
I'll give you that.
150
528983
1168
ฉันบอกคุณไว้เลย
08:50
But remember, they still stumble on such trivial problems
151
530193
4254
แต่จำได้ใช่ไหม พวกเขายังคงสะดุด กับปัญหาง่าย ๆ
08:54
that even children can do.
152
534489
2419
ที่แม้แต่เด็ก ๆ ยังทำได้
08:56
So AI today is awfully inefficient.
153
536908
3879
ดังนั้น AI ตอนนี้ยังไร้ประสิทธิภาพมาก ๆ
09:00
And what if there is an alternative path or path yet to be found?
154
540787
4337
ถ้าหากว่ายังมีทางเลือกอื่น หรือทางเลือกที่ยังไม่มีใครค้นพบ
09:05
A path that can build on the advancements of the deep neural networks,
155
545166
4171
ทางที่สามารถสร้างความก้าวหน้าของ โครงข่ายประสาทเชิงลึก
09:09
but without going so extreme with the scale.
156
549378
2712
แต่ไม่ต้องไปขยายขนาดให้มโหฬาร
09:12
So this leads us to our final wisdom:
157
552465
3170
นั่นก็นำเรามาถึง ภูมิปัญญาเรื่องสุดท้าย
09:15
innovate your weapons.
158
555635
1710
พัฒนาอาวุธของเรา
09:17
In the modern-day AI context,
159
557345
1668
ในบริบทของ AI ยุคใหม่
09:19
that means innovate your data and algorithms.
160
559055
3086
นั้นหมายถึงพัฒนาข้อมูล และอัลกอริทึมของคุณ
09:22
OK, so there are, roughly speaking, three types of data
161
562183
2628
ว่ากันอย่างคร่าว ๆ มีข้อมูลอยู่ 3 ประเภท
09:24
that modern AI is trained on:
162
564852
1961
ที่ใช้สอน AI ยุคใหม่
09:26
raw web data,
163
566813
1376
ข้อมูลดิบจากเว็บ
09:28
crafted examples custom developed for AI training,
164
568231
4462
ข้อมูลตัวอย่างที่สร้างขึ้นเอง สำหรับการฝึกอบรม AI
09:32
and then human judgments,
165
572735
2044
และการตัดสินโดยมนุษย์
09:34
also known as human feedback on AI performance.
166
574821
3211
หรือที่เรียกว่าความคิดเห็นของมนุษย์ เกี่ยวกับประสิทธิภาพของ AI
09:38
If the AI is only trained on the first type, raw web data,
167
578074
3962
ถ้า AI ได้รับการเทรนจากข้อมูลชนิดแรก ข้อมูลดิบจากเว็บ
09:42
which is freely available,
168
582078
1710
ที่ใช้ได้ฟรี
09:43
it's not good because this data is loaded with racism and sexism
169
583788
4755
แต่ไม่ดีเพราะข้อมูลแบบนี้เต็มไปด้วย การเหยียดเชื้อชาติ การกีดกันทางเพศ
09:48
and misinformation.
170
588584
1126
และข้อมูลที่ผิด
09:49
So no matter how much of it you use, garbage in and garbage out.
171
589752
4171
ไม่ว่าจะใช้มากแค่ไหน ใส่ขยะเข้าไป ก็ได้ขยะออกมา
09:54
So the newest, greatest AI systems
172
594507
2794
ระบบ AI ที่ใหม่สุด ยอดเยี่ยมที่สุด
09:57
are now powered with the second and third types of data
173
597343
3337
ตอนนี้ใช้ข้อมูลประเภทที่สองและสาม
10:00
that are crafted and judged by human workers.
174
600680
3378
ที่สร้างขึ้นมาและตัดสินโดย ผู้ปฎิบัติงานที่เป็นคน
10:04
It's analogous to writing specialized textbooks for AI to study from
175
604350
5422
เหมือนกับการเขียนตำราออกมาโดยเฉพาะ เพื่อให้ AI ได้ศึกษา
10:09
and then hiring human tutors to give constant feedback to AI.
176
609814
4421
จากนั้นจ้างผู้สอนที่เป็นมนุษย์ เพื่อให้คำแนะนำอย่างต่อเนื่องกับ AI
10:15
These are proprietary data, by and large,
177
615027
2461
นี่เป็นข้อมูลที่มีลิขสิทธ์เป็นส่วนใหญ่
10:17
speculated to cost tens of millions of dollars.
178
617488
3420
คาดว่าน่าจะมีต้นทุนถึงหลายสิบล้านดอลลาร์
10:20
We don't know what's in this,
179
620908
1460
เราไม่รู้ว่าข้างในมีอะไรบ้าง
10:22
but it should be open and publicly available
180
622410
2419
แต่ควรเป็นข้อมูลที่ดูได้ และเปิดเผยต่อสาธารณชน
10:24
so that we can inspect and ensure [it supports] diverse norms and values.
181
624829
4463
เพื่อให้เราตรวจสอบและมั่นใจได้ว่า มันสนับสนุนบรรทัดฐานและค่านิยมที่หลากหลาย
10:29
So for this reason, my teams at UW and AI2
182
629876
2711
ด้วยเหตุผลนี้ ทีมของฉันจาก UW และ AI2
10:32
have been working on commonsense knowledge graphs
183
632628
2461
ได้ทำงานเรื่องกราฟความรู้สามัญสำนึก
10:35
as well as moral norm repositories
184
635089
2086
ตลอดจนบรรทัดฐานทางศีลธรรม
10:37
to teach AI basic commonsense norms and morals.
185
637216
3504
เพื่อสอนสามัญสำนึกพื้นฐานของ AI ด้านบรรทัดฐานและศีลธรรม
ข้อมูลของเราเปิดอย่างเต็มที่ เพื่อให้ใครก็ตามสามารถตรวจสอบเนื้อหาได้
10:41
Our data is fully open so that anybody can inspect the content
186
641137
3336
10:44
and make corrections as needed
187
644473
1502
และแก้ไขได้ถ้าจำเป็น
10:45
because transparency is the key for such an important research topic.
188
645975
4171
เพราะความโปร่งใสเป็นกุญแจสำคัญ สำหรับหัวข้อวิจัยที่สำคัญเช่นนี้
10:50
Now let's think about learning algorithms.
189
650646
2545
ทีนี้ลองคิดดู เกี่ยวกับอัลกอริทึมการเรียนรู้
10:53
No matter how amazing large language models are,
190
653733
4629
ไม่ว่าโมเดลภาษาขนาดใหญ่จะน่าทึ่งเพียงใด
10:58
by design
191
658404
1126
โดยการออกแบบ
10:59
they may not be the best suited to serve as reliable knowledge models.
192
659572
4755
พวกมันอาจไม่เหมาะสมที่สุด ที่จะใช้เป็นแบบจำลองความรู้ที่เชื่อถือได้
11:04
And these language models do acquire a vast amount of knowledge,
193
664368
4463
และโมเดลภาษาเหล่านี้ ได้เก็บเกี่ยวข้อมูลความรู้มากมาย
11:08
but they do so as a byproduct as opposed to direct learning objective.
194
668831
4755
แต่พวกมันทำเป็นเพียงผลพลอยได้ ตรงข้ามกับวัตถุประสงค์เพื่อการเรียนรู้
11:14
Resulting in unwanted side effects such as hallucinated effects
195
674503
4296
ส่งผลให้เกิดผลข้างเคียงที่ไม่พึงประสงค์ เช่น การมั่วสร้างคำตอบขึ้นเอง
11:18
and lack of common sense.
196
678841
2002
และขาดสามัญสำนึก
11:20
Now, in contrast,
197
680843
1210
ตรงข้ามกันกับ
11:22
human learning is never about predicting which word comes next,
198
682053
3170
การเรียนรู้ของมนุษย์ไม่เคยเกี่ยวกับ การทำนายว่าคำต่อไปคือคำว่าอะไร
11:25
but it's really about making sense of the world
199
685223
2877
แต่จะเป็นการทำความเข้าใจจริง ๆ กับโลกใบนี้
11:28
and learning how the world works.
200
688142
1585
และเรียนรู้ว่าโลกนี้ทำงานยังไง
11:29
Maybe AI should be taught that way as well.
201
689727
2544
บางที AI ควรถูกสอนด้วยวิธีนี้เหมือนกัน
11:33
So as a quest toward more direct commonsense knowledge acquisition,
202
693105
6090
เพื่อเป็นการแสวงหาให้ได้มาซึ่งความรู้ เกี่ยวกับสามัญสำนึก ที่ตรงไปตรงมา
11:39
my team has been investigating potential new algorithms,
203
699195
3879
ทีมของฉันได้ทำการตรวจสอบ อัลกอริทึมใหม่ที่มีความเป็นไปได้
11:43
including symbolic knowledge distillation
204
703115
2628
รวมถึงการกลั่นกรองความรู้เชิงสัญลักษณ์
11:45
that can take a very large language model as shown here
205
705743
3795
ที่สามารถเอาโมเดลภาษาขนาดใหญ่ อย่างที่เห็นนี้
11:49
that I couldn't fit into the screen because it's too large,
206
709538
3963
ที่ฉันไม่สามารถแสดงบนจอทั้งหมดได้ เพราะมันใหญ่เกินไป
11:53
and crunch that down to much smaller commonsense models
207
713501
4671
และกดมันให้เล็กลงมา เป็นโมเดลสามัญสำนึก ที่มีขนาดเล็กกว่ามาก
11:58
using deep neural networks.
208
718214
2252
ด้วยการใช้โครงข่ายประสาทเชิงลึก
12:00
And in doing so, we also generate, algorithmically, human-inspectable,
209
720508
5380
ในการทำเช่นนั้น เรายังได้สร้างอัลกอริทึม แบบที่มนุษย์สามารถตรวจสอบได้
12:05
symbolic, commonsense knowledge representation,
210
725888
3253
สัญลักษณ์ สามัญสำนึก การเป็นตัวแทนความรู้
12:09
so that people can inspect and make corrections
211
729141
2211
เพื่อให้ผู้คนสามารถตรวจสอบ และทำการแก้ไข
12:11
and even use it to train other neural commonsense models.
212
731394
3545
แม้กระทั้ง ใช้มันเพื่อฝึก โมเดลสามัญสำนึกทางประสาทอื่น ๆ
12:15
More broadly,
213
735314
1210
ในวงกว้าง
12:16
we have been tackling this seemingly impossible giant puzzle
214
736565
4630
เรากำลังจัดการกับปริศนาขนาดยักษ์ จนแทบจะแก้ไม่ได้นี้
12:21
of common sense, ranging from physical,
215
741237
2669
ของสามัญสำนึก ตั้งแต่เรื่องกายภาพ
12:23
social and visual common sense
216
743906
2169
สังคม และการมองเห็น
12:26
to theory of minds, norms and morals.
217
746117
2419
ไปจนถึงทฤษฎีของจิตใจ บรรทัดฐาน และศีลธรรม
12:28
Each individual piece may seem quirky and incomplete,
218
748577
3796
แต่ละเรื่อง อาจดูแปลกและไม่สมบูรณ์
12:32
but when you step back,
219
752415
1585
แต่เมื่อคุณถอยหลังออกมา
12:34
it's almost as if these pieces weave together into a tapestry
220
754041
4421
มันเกือบจะเหมือนกับว่าชิ้นส่วนเหล่านี้ สานต่อกันเป็นผืนผ้า
12:38
that we call human experience and common sense.
221
758504
3045
ที่เราเรียกว่าประสบการณ์มนุษย์ และสามัญสำนึก
12:42
We're now entering a new era
222
762174
1961
ตอนนี้เรากำลังเข้าสู่ยุคใหม่
12:44
in which AI is almost like a new intellectual species
223
764176
5923
ซึ่ง AI เกือบจะเป็น สิ่งมีชีวิตทางปัญญาสายพันธุ์ใหม่
12:50
with unique strengths and weaknesses compared to humans.
224
770099
3837
ด้วยจุดแข็งและจุดอ่อนที่แตกต่าง เมื่อเทียบกับมนุษย์
12:54
In order to make this powerful AI
225
774478
3546
เพื่อที่จะสร้าง AI ที่ทรงพลังนี้
12:58
sustainable and humanistic,
226
778065
2336
ให้ยั่งยืน และมีความเป็นมนุษย์
13:00
we need to teach AI common sense, norms and values.
227
780401
4129
เราจำเป็นต้องสอน AI เรื่องสามัญสำนึก บรรทัดฐาน และค่านิยม
13:04
Thank you.
228
784530
1376
ขอบคุณค่ะ
13:05
(Applause)
229
785906
6966
(เสียงปรบมือ)
13:13
Chris Anderson: Look at that.
230
793664
1460
คริส แอนเดอร์สัน: ดูนั่นสิ
13:15
Yejin, please stay one sec.
231
795124
1877
เยจิน กรุณารอสักครู่
13:18
This is so interesting,
232
798002
1418
เรื่องนี้น่าสนใจมาก
13:19
this idea of common sense.
233
799462
2002
แนวคิดเรื่องสามัญสำนึก
13:21
We obviously all really want this from whatever's coming.
234
801505
3712
เห็นได้ชัดว่าเราทุกคนต้องการสิ่งนี้จริง ๆ จากสิ่งที่กำลังจะมาถึง
13:25
But help me understand.
235
805926
1168
แต่ช่วยให้ผมเข้าใจหน่อย
13:27
Like, so we've had this model of a child learning.
236
807094
4463
เรามีโมเดล ของเด็กที่กำลังเรียนรู้
13:31
How does a child gain common sense
237
811599
3044
เด็กจะมีสามัญสำนึกได้อย่างไร
13:34
apart from the accumulation of more input
238
814685
3545
นอกเหนือจากการสะสมด้วยการป้อนข้อมูลเพิ่ม
13:38
and some, you know, human feedback?
239
818230
3045
และจากการแนะนำของคน
13:41
What else is there?
240
821317
1293
ยังมีอะไรอีกไหม
13:42
Yejin Choi: So fundamentally, there are several things missing,
241
822610
3003
เยจิน ชอย: โดยพื้นฐานแล้ว มีหลายสิ่งที่ขาดหายไป
13:45
but one of them is, for example,
242
825613
1918
แต่หนึ่งในนั้นคือ เช่น
13:47
the ability to make hypothesis and make experiments,
243
827573
3796
ความสามารถในการตั้งสมมุติฐาน และทำการทดลอง
13:51
interact with the world and develop this hypothesis.
244
831369
4713
ปฎิสัมพันธ์กับโลก และพัฒนาสมมติฐาน
13:56
We abstract away the concepts about how the world works,
245
836123
3671
เราย่อยแนวคิดออกมาเป็นนามธรรม เกี่ยวกับความเป็นไปของโลก
13:59
and then that's how we truly learn,
246
839835
2044
และนั่นคือวิธีที่เราเรียนรู้จริง ๆ
14:01
as opposed to today's language model.
247
841921
3003
แตกต่างจากโมเดลภาษาในทุกวันนี้
14:05
Some of them is really not there quite yet.
248
845424
2795
บางอันยังไปไม่ถึงจริง ๆ
14:09
CA: You use the analogy that we can’t get to the Moon
249
849303
2669
คริส: คุณเปรียบเทียบว่า เราไม่สามารถไปถึงดวงจันทร์ได้
14:12
by extending a building a foot at a time.
250
852014
2544
ด้วยการเพิ่มตึกให้สูงขึ้นทีละฟุต
14:14
But the experience that most of us have had
251
854558
2044
แต่ประสบการณ์ ที่พวกเราส่วนใหญ่เคยมี
14:16
of these language models is not a foot at a time.
252
856602
2336
กับโมเดลภาษาพวกนี้ ไม่ใช่เพิ่มขึ้นทีละฟุต
14:18
It's like, the sort of, breathtaking acceleration.
253
858938
2669
มันเหมือนกับเพิ่มขึ้น ด้วยอัตราเร่งที่น่าทึ่ง
14:21
Are you sure that given the pace at which those things are going,
254
861607
3670
คุณแน่ใจหรือว่าอัตราความก้าวหน้า ของเรื่องนี้ที่กำลังเพิ่มขึ้น
14:25
each next level seems to be bringing with it
255
865319
2711
ทุกระดับขั้นที่เพิ่มขึ้น ตามมาด้วย
14:28
what feels kind of like wisdom and knowledge.
256
868072
4671
ความรู้สึกเหมือนแบบว่า มีภูมิปัญญาและความรู้เพิ่มขึ้น
14:32
YC: I totally agree that it's remarkable how much this scaling things up
257
872785
5297
เยจิน: ฉันเห็นด้วยอย่างยิ่งว่ามันน่าทึ่ง ที่ขยายได้เยอะมากแค่ไหน
14:38
really enhances the performance across the board.
258
878124
3670
ช่วยเพิ่มประสิทธิภาพจริง ๆ ได้ทั้งหมด
14:42
So there's real learning happening
259
882086
2544
ดังนั้น จึงมีการเรียนรู้เกิดขึ้นจริง
14:44
due to the scale of the compute and data.
260
884630
4797
เนื่องจากขนาดของการคำนวณและข้อมูล
14:49
However, there's a quality of learning that is still not quite there.
261
889468
4171
อย่างไรก็ตาม ยังมีคุณภาพของการเรียนรู้ ที่ยังไปไม่ถึง
14:53
And the thing is,
262
893681
1168
เรื่องของเรื่องคือ
14:54
we don't yet know whether we can fully get there or not
263
894849
3712
เรายังไม่ทราบว่า เราจะไปถึงที่นั่นได้หรือไม่
14:58
just by scaling things up.
264
898561
2335
เพียงแค่ขยายขนาดขึ้นไป
15:01
And if we cannot, then there's this question of what else?
265
901188
4213
และถ้าเราไม่สามารถทำได้ ก็มีคำถามว่า “แล้วไงต่อ”
15:05
And then even if we could,
266
905401
1877
ถึงแม้ว่าเราจะทำได้
15:07
do we like this idea of having very, very extreme-scale AI models
267
907319
5214
เราชอบจริง ๆ หรือ ที่จะต้องมี AI โมเดลขนาดใหญ่โตมโหฬาร
15:12
that only a few can create and own?
268
912575
4337
ที่มีแค่ไม่กี่คนสามารถสร้าง และเป็นเจ้าของได้
15:18
CA: I mean, if OpenAI said, you know, "We're interested in your work,
269
918456
4587
คริส: คือว่า ถ้า OpenAI บอกว่า “เราสนใจงานของคุณ
15:23
we would like you to help improve our model,"
270
923043
2837
เราอยากให้คุณช่วย ปรับปรุงโมเดลของเรา”
15:25
can you see any way of combining what you're doing
271
925921
2670
คุณเห็นหนทางไหม ในการรวมสิ่งที่คุณกำลังทำอยู่
15:28
with what they have built?
272
928632
1710
กับสิ่งที่เขาสร้างมาแล้ว
15:30
YC: Certainly what I envision
273
930926
2336
เยจิน: แน่นอน สิ่งที่ฉันจินตนาการไว้
15:33
will need to build on the advancements of deep neural networks.
274
933304
4171
คือจะต้องสร้างความก้าวหน้ากับ โครงข่ายประสาทเชิงลึก
15:37
And it might be that there’s some scale Goldilocks Zone,
275
937516
4213
เป็นได้ว่าจะมีขนาดแบบโซนโกลดิล็อคส์ (โซนที่มีสภาพเอื้อต่อการดำรงอยู่)
15:41
such that ...
276
941770
1168
ดังนั้น
15:42
I'm not imagining that the smaller is the better either, by the way.
277
942980
3212
ฉันไม่ได้จินตนาการไปว่า ขนาดเล็กกว่าต้องดีกว่าเสมอ แต่ว่า
15:46
It's likely that there's right amount of scale, but beyond that,
278
946233
4421
มันเป็นไปได้มากว่า มันจะมีขนาดที่พอดี แต่ถ้าใหญ่เกินไปจากนั้น
15:50
the winning recipe might be something else.
279
950696
2294
สูตรสำเร็จน่าจะเป็นอย่างอื่นมากกว่า
15:53
So some synthesis of ideas will be critical here.
280
953032
4838
ดังนั้น การสังเคราะห์แนวคิดบางอย่างออกมา จะมีความสำคัญมาก
15:58
CA: Yejin Choi, thank you so much for your talk.
281
958579
2294
คริส: เยจิน ชอย ขอบคุณมาก สำหรับทอล์กของคุณ
16:00
(Applause)
282
960873
1585
(เสียงปรบมือ)
เกี่ยวกับเว็บไซต์นี้

ไซต์นี้จะแนะนำคุณเกี่ยวกับวิดีโอ YouTube ที่เป็นประโยชน์สำหรับการเรียนรู้ภาษาอังกฤษ คุณจะได้เห็นบทเรียนภาษาอังกฤษที่สอนโดยอาจารย์ชั้นนำจากทั่วโลก ดับเบิลคลิกที่คำบรรยายภาษาอังกฤษที่แสดงในแต่ละหน้าของวิดีโอเพื่อเล่นวิดีโอจากที่นั่น คำบรรยายเลื่อนซิงค์กับการเล่นวิดีโอ หากคุณมีความคิดเห็นหรือคำขอใด ๆ โปรดติดต่อเราโดยใช้แบบฟอร์มการติดต่อนี้

https://forms.gle/WvT1wiN1qDtmnspy7