The Inside Story of ChatGPT’s Astonishing Potential | Greg Brockman | TED

1,768,093 views ・ 2023-04-20

TED


โปรดดับเบิลคลิกที่คำบรรยายภาษาอังกฤษด้านล่างเพื่อเล่นวิดีโอ

Translator: Jimmy Tangjaitrong Reviewer: Chatthip Chaichakan
00:03
We started OpenAI seven years ago
0
3875
2503
เราเริ่มโอเพนเอไอเมื่อเจ็ดปีที่แล้ว
00:06
because we felt like something really interesting was happening in AI
1
6378
3712
เพราะเรารู้สึกว่าบางอย่างที่น่าสนใจมาก ๆ กำลังเกิดขึ้นกับเอไอ
00:10
and we wanted to help steer it in a positive direction.
2
10131
3170
และเราอยากช่วย นำมันไปในทิศทางที่เป็นบวก
00:15
It's honestly just really amazing to see
3
15220
2085
มันน่าทึ่งจริง ๆ ที่ได้เห็น
00:17
how far this whole field has come since then.
4
17347
3086
ว่าเรื่องราวทั้งหมดนี้ มาไกลแค่ไหนแล้วตั้งแต่เริ่มต้น
00:20
And it's really gratifying to hear from people like Raymond
5
20433
3629
และเป็นเรื่องน่ายินดีจริง ๆ ที่ได้ยินจากคนอย่างเรย์มอนด์
00:24
who are using the technology we are building, and others,
6
24104
2836
ที่กำลังใช้เทคโนโลยีที่เรากำลังพัฒนา และคนอื่น ๆ ด้วย
00:26
for so many wonderful things.
7
26982
2127
เพื่อสิ่งมหัศจรรย์มากมาย
00:29
We hear from people who are excited,
8
29150
2503
เราได้ยินจากผู้คนที่ตื่นเต้น
00:31
we hear from people who are concerned,
9
31653
1835
เราได้ยินจากผู้คนที่กังวล
00:33
we hear from people who feel both those emotions at once.
10
33530
2961
เราได้ยินจากผู้คนที่รู้สึกทั้งสองอย่าง ในเวลาเดียวกัน
00:36
And honestly, that's how we feel.
11
36533
2252
ความจริงแล้วเราเองก็รู้สึกเช่นนั้น
00:40
Above all, it feels like we're entering an historic period right now
12
40245
4087
เหนือสิ่งอื่นใด มันเหมือนเรากำลัง เข้าสู่ช่วงเวลาแห่งประวัติศาสตร์
00:44
where we as a world are going to define a technology
13
44374
4421
ซึ่งเราในฐานะโลก กำลังจะกำหนดเทคโนโลยี
00:48
that will be so important for our society going forward.
14
48795
3086
ที่จะมีความสำคัญต่อสังคมของเราในอนาคต
00:52
And I believe that we can manage this for good.
15
52924
2628
และผมเชื่อว่า เราจะจัดการเรื่องนี้ให้ดีได้
00:56
So today, I want to show you the current state of that technology
16
56845
4171
วันนี้ผมอยากจะโชว์ให้คุณเห็น ถึงสถานะปัจจุบันของเทคโนโลยีนั้น
01:01
and some of the underlying design principles that we hold dear.
17
61016
3086
และหลักการออกแบบพื้นฐานบางประการ ที่เรายึดมั่น
01:09
So the first thing I'm going to show you
18
69983
1918
ดังนั้น สิ่งแรกที่ผมจะโชว์
01:11
is what it's like to build a tool for an AI
19
71943
2086
คือการสร้างเครื่องมือสำหรับเอไอ
01:14
rather than building it for a human.
20
74029
1876
แทนที่จะสร้างสำหรับมนุษย์
01:17
So we have a new DALL-E model, which generates images,
21
77574
3545
เอาล่ะ เรามี ดอล-อี รุ่นใหม่ ซึ่งสร้างภาพได้
01:21
and we are exposing it as an app for ChatGPT to use on your behalf.
22
81161
4045
และเรากำลังเปิดมันเป็นแอป สำหรับให้แชทจีพีทีใช้งานมันแทนคุณได้
01:25
And you can do things like ask, you know,
23
85248
2461
คุณสามารถทำบางอย่างได้ เช่น ถามให้
01:27
suggest a nice post-TED meal and draw a picture of it.
24
87751
6631
แนะนำมื้ออาหารดี ๆ หลังจบงานเท็ด และวาดภาพออกมา
01:35
(Laughter)
25
95216
1419
(เสียงหัวเราะ)
01:38
Now you get all of the, sort of, ideation and creative back-and-forth
26
98303
4671
คุณจะรับส่งไอเดีย และความคิดสร้างสรรค์กลับไปกลับมา
01:43
and taking care of the details for you that you get out of ChatGPT.
27
103016
4004
และจะดูแลรายละเอียดต่าง ๆ ให้คุณ เมื่อคุณใช้แชทจีพีที
01:47
And here we go, it's not just the idea for the meal,
28
107062
2669
มาละครับ มันไม่ใช่แค่ไอเดียสำหรับมื้ออาหาร
01:49
but a very, very detailed spread.
29
109773
3587
แต่มีรายละเอียดมากมาย
01:54
So let's see what we're going to get.
30
114110
2044
มาดูกันว่าเราจะได้อะไร
01:56
But ChatGPT doesn't just generate images in this case --
31
116154
3795
แต่แชทจีพีทีไม่เพียงแค่ สร้างรูปภาพในกรณีนี้ --
01:59
sorry, it doesn't generate text, it also generates an image.
32
119991
2836
ขออภัยครับ มันไม่ได้สร้างแค่ข้อความ แต่สร้างรูปภาพด้วย
02:02
And that is something that really expands the power
33
122827
2419
และนั่นเป็นสิ่งที่ขยายขอบเขต
02:05
of what it can do on your behalf in terms of carrying out your intent.
34
125246
3504
ของสิ่งที่สามารถทำได้ในนามของคุณ ในการปฏิบัติตามเจตนาของคุณ
02:08
And I'll point out, this is all a live demo.
35
128750
2085
ผมอยากบอกว่า นี่คือการสาธิตสดทั้งหมด
02:10
This is all generated by the AI as we speak.
36
130835
2169
ทั้งหมดนี้ถูกสร้างขึ้นโดยเอไอ ณ ขณะนี้
02:13
So I actually don't even know what we're going to see.
37
133046
2544
ผมก็ไม่รู้เหมือนกันว่าเราจะเห็นอะไร
02:16
This looks wonderful.
38
136216
2294
มันดูยอดเยี่ยมนะ
02:18
(Applause)
39
138510
3712
(เสียงปรบมือ)
02:22
I'm getting hungry just looking at it.
40
142514
1877
แค่มองภาพ ผมก็เริ่มหิวละ
02:24
Now we've extended ChatGPT with other tools too,
41
144724
2753
ตอนนี้เราได้ขยายแชทจีพีที ด้วยเครื่องมืออื่น ๆ ด้วย
02:27
for example, memory.
42
147519
1168
ยกตัวอย่างเช่น ความทรงจำ
02:28
You can say "save this for later."
43
148728
2795
คุณสามารถพูดว่า “บันทึกไว้สำหรับภายหลัง”
02:33
And the interesting thing about these tools
44
153233
2043
สิ่งที่น่าสนใจ เกี่ยวกับเครื่องมือเหล่านี้
02:35
is they're very inspectable.
45
155318
1377
คือพวกมันตรวจสอบได้
02:36
So you get this little pop up here that says "use the DALL-E app."
46
156695
3128
คุณจะเห็นป๊อปอัพเล็ก ๆ ตรงนี้ ว่า “ใช้แอปดอล-อี”
02:39
And by the way, this is coming to you, all ChatGPT users, over upcoming months.
47
159823
3712
แล้วมันกำลังจะมาถึงผู้ใช้แชทจีพีทีทุกคน ในอีกไม่กี่เดือนข้างหน้า
02:43
And you can look under the hood and see that what it actually did
48
163535
3086
คุณสามารถเข้าไปดูว่า จริงๆ แล้ว สิ่งที่มันทำ
02:46
was write a prompt just like a human could.
49
166621
2169
คือเขียนข้อความแจ้ง เหมือนกับที่มนุษย์ทำ
02:48
And so you sort of have this ability to inspect
50
168790
2628
ดังนั้น คุณจึงมีความสามารถในการตรวจสอบ
02:51
how the machine is using these tools,
51
171459
2086
ว่าเครื่องนี้ มันใช้เครื่องมือเหล่านี้อย่างไร
02:53
which allows us to provide feedback to them.
52
173586
2086
ซึ่งทำให้เราสามารถ ให้ข้อเสนอแนะแก่พวกมันได้
02:55
Now it's saved for later,
53
175714
1209
มาดูการบันทึกไว้สำหรับภายหลัง
02:56
and let me show you what it's like to use that information
54
176965
2878
ให้ผมโชว์ให้คุณเห็นว่า การใช้ข้อมูลนั้นเป็นอย่างไร
02:59
and to integrate with other applications too.
55
179884
2503
และรวมเข้ากับแอปพลิเคชันอื่นด้วย
03:02
You can say,
56
182387
2210
คุณอาจพูดว่า
03:04
“Now make a shopping list for the tasty thing
57
184639
5506
“จงทำรายการซื้อของ สำหรับของอร่อย ๆ
03:10
I was suggesting earlier.”
58
190186
1835
ที่ผมแนะนำไปก่อนหน้านี้”
03:12
And make it a little tricky for the AI.
59
192021
2128
และทำให้มันยุ่งยากสักหน่อย สำหรับเจ้าเอไอ
03:16
"And tweet it out for all the TED viewers out there."
60
196276
4337
“และทวีตมันออกไปสำหรับผู้ชมเท็ดทุกคน”
03:20
(Laughter)
61
200655
2252
(เสียงหัวเราะ)
03:22
So if you do make this wonderful, wonderful meal,
62
202949
2461
ดังนั้น ถ้าคุณได้ทำอาหารมื้อสุดวิเศษนี้
03:25
I definitely want to know how it tastes.
63
205410
2044
ผมอยากรู้เลยว่ารสชาติมันเป็นยังไง
03:28
But you can see that ChatGPT is selecting all these different tools
64
208496
3504
คุณจะเห็นว่าแชทจีพีที ได้เลือกใช้เครื่องมือต่าง ๆ เหล่านี้
03:32
without me having to tell it explicitly which ones to use in any situation.
65
212000
4379
โดยที่ผมไม่ได้บอกมันตรง ๆ ว่าต้องใช้อันไหนในแต่ละสถานการณ์
03:37
And this, I think, shows a new way of thinking about the user interface.
66
217088
3879
ผมคิดว่านี่แสดงให้เห็นถึงวิธีคิดใหม่ เกี่ยวกับอินเทอร์เฟซของผู้ใช้
03:40
Like, we are so used to thinking of, well, we have these apps,
67
220967
3796
อย่างเช่น เราเคยชินกับการคิดว่า เราต้องใช้แอปฯ ต่าง ๆ
03:44
we click between them, we copy/paste between them,
68
224763
2335
เราสลับไปมา เราคัดลอกและวาง
03:47
and usually it's a great experience within an app
69
227098
2294
แล้วก็มักจะเป็นประสบการณ์ที่ดี ในการใช้แอปฯ
03:49
as long as you kind of know the menus and know all the options.
70
229434
2961
ตราบเท่าที่คุณพอจะรู้ ทุกเมนูและทุกลูกเล่น
03:52
Yes, I would like you to.
71
232395
1293
ครับ ผมต้องการให้คุณทำ
03:53
Yes, please.
72
233730
1126
ได้โปรดครับ
03:54
Always good to be polite.
73
234898
1251
ความสุภาพเป็นสิ่งที่ดีเสมอ
03:56
(Laughter)
74
236149
2628
(เสียงหัวเราะ)
04:00
And by having this unified language interface on top of tools,
75
240361
5464
ด้วยการใช้ภาษาเดียว ครอบคลุมเครื่องมือต่าง ๆ
04:05
the AI is able to sort of take away all those details from you.
76
245867
4630
เอไอก็สามารถช่วยคุณ ในรายละเอียดต่าง ๆ
04:10
So you don't have to be the one
77
250538
1543
คุณก็จะได้ไม่ต้อง
04:12
who spells out every single sort of little piece
78
252123
2294
ยิงคำสั่งเองทั้งหมด
04:14
of what's supposed to happen.
79
254459
1543
สำหรับสิ่งที่ควรจะเกิดขึ้น
04:16
And as I said, this is a live demo,
80
256419
1710
อย่างที่ผมว่าไว้ นี่คือการสาธิตสด
04:18
so sometimes the unexpected will happen to us.
81
258129
3379
เพราะฉะนั้น สิ่งที่ไม่คาดก็อาจเกิดขึ้นได้
04:21
But let's take a look at the Instacart shopping list while we're at it.
82
261549
3420
งั้นลองมาดูที่รายการช้อปปิ้งของอินสตาคาร์ท ขณะที่เรากำลังดำเนินการอยู่
04:25
And you can see we sent a list of ingredients to Instacart.
83
265386
3254
คุณจะเห็นว่าเราส่งรายการส่วนผสม ไปที่อินสตาคาร์ท
04:29
Here's everything you need.
84
269349
1543
นี่คือทุกอย่างที่เราต้องการ
04:30
And the thing that's really interesting
85
270892
1877
สิ่งที่น่าสนใจจริง ๆ ก็คือ
04:32
is that the traditional UI is still very valuable, right?
86
272811
2919
ยูไอแบบเดิมยังคงมีคุณค่ามาก
04:35
If you look at this,
87
275772
1877
ถ้าคุณดูตรงนี้
04:37
you still can click through it and sort of modify the actual quantities.
88
277690
4296
คุณยังสามารถเลือกและแก้ไขปริมาณจริงได้
04:41
And that's something that I think shows
89
281986
1877
และนั่นเป็นสิ่งที่แสดงให้เห็นว่า
04:43
that they're not going away, traditional UIs.
90
283863
3253
พวกยูไอแบบเดิมจะไม่หายไป
04:47
It's just we have a new, augmented way to build them.
91
287158
2795
มันก็แค่เรามีวิธีใหม่ เพิ่มเติมในการสร้างมัน
04:49
And now we have a tweet that's been drafted for our review,
92
289994
2920
และตอนนี้เรามีทวีตที่ถูกร่างขึ้น เพื่อให้เราตรวจสอบ
04:52
which is also a very important thing.
93
292956
1793
ซึ่งเป็นสิ่งที่สำคัญมากเช่นกัน
04:54
We can click “run,” and there we are, we’re the manager, we’re able to inspect,
94
294749
3712
เราสามารถกด “รัน” แล้วเราก็กลายเป็นผู้จัดการ เราตรวจสอบได้
04:58
we're able to change the work of the AI if we want to.
95
298461
2836
เราสามารถเปลี่ยนแปลงการทำงานของเอไอได้ หากต้องการ
05:02
And so after this talk, you will be able to access this yourself.
96
302924
5964
และหลังจากทอล์คนี้ คุณจะสามารถเข้าถึงได้ด้วยตัวคุณเอง
05:17
And there we go.
97
317647
1710
นั่นแหละครับ
05:19
Cool.
98
319816
1126
เจ๋ง
05:22
Thank you, everyone.
99
322485
1168
ขอบคุณครับทุกคน
05:23
(Applause)
100
323653
3003
(เสียงปรบมือ)
05:29
So we’ll cut back to the slides.
101
329367
1627
เราจะกลับกันมาที่สไลด์
05:32
Now, the important thing about how we build this,
102
332954
3587
ทีนี้ สิ่งสำคัญเกี่ยวกับวิธีที่เราสร้างมัน
05:36
it's not just about building these tools.
103
336583
2210
มันไม่ใช่แค่เรื่องของ การสร้างเครื่องมือเหล่านี้
05:38
It's about teaching the AI how to use them.
104
338793
2252
มันคือเรื่องการสอนเอไอ ให้ใช้งานพวกมัน
05:41
Like, what do we even want it to do
105
341087
1710
เราต้องการให้มันทำอะไร
05:42
when we ask these very high-level questions?
106
342839
2419
เมื่อเราถามคำถามระดับสูงพวกนี้
05:45
And to do this, we use an old idea.
107
345258
2669
และในการทำสิ่งนี้ เราจะใช้แนวคิดแบบเก่า
05:48
If you go back to Alan Turing's 1950 paper on the Turing test, he says,
108
348261
3337
หากคุณย้อนไปดูบทความการทดสอบทัวริง ในปี 1950 ของอลัน ทัวริง เขากล่าวว่า
05:51
you'll never program an answer to this.
109
351598
2043
คุณไม่มีทางตั้งโปรแกรมคำตอบได้
05:53
Instead, you can learn it.
110
353683
1627
แต่คุณสามารถเรียนรู้ได้
05:55
You could build a machine, like a human child,
111
355351
2169
คุณสามารถสร้างเครื่อง ให้เหมือนเด็กมนุษย์
05:57
and then teach it through feedback.
112
357520
2127
แล้วสอนมันผ่านคำติชม
05:59
Have a human teacher who provides rewards and punishments
113
359689
2711
มีครูที่เป็นมนุษย์ให้รางวัลและบทลงโทษ
06:02
as it tries things out and does things that are either good or bad.
114
362400
3212
ในขณะที่ทดลองและทำสิ่งที่ดีหรือไม่ดี
06:06
And this is exactly how we train ChatGPT.
115
366237
2002
และนี่คือวิธีที่เราสอนแชทจีพีที
06:08
It's a two-step process.
116
368239
1168
มันเป็นกระบวนการสองขั้นตอน
06:09
First, we produce what Turing would have called a child machine
117
369449
3086
ขั้นตอนแรก เราผลิตสิ่งที่ ทัวริงเรียกว่าเครื่องลูก
06:12
through an unsupervised learning process.
118
372535
1960
ผ่านกระบวนการเรียนรู้แบบไม่มีผู้ดูแล
06:14
We just show it the whole world, the whole internet
119
374495
2461
เราแค่โชว์โลก โชว์อินเทอร์เน็ตทั้งหมดให้มันดู
06:16
and say, “Predict what comes next in text you’ve never seen before.”
120
376956
3212
และพูดว่า “ทำนายสิ่งที่จะเกิดขึ้น จากข้อความที่คุณไม่เคยเห็นมาก่อน”
06:20
And this process imbues it with all sorts of wonderful skills.
121
380168
3044
และกระบวนการนี้ช่วยเสริม ทักษะที่ยอดเยี่ยมหลายประการ
06:23
For example, if you're shown a math problem,
122
383212
2086
ตัวอย่างเช่น หากคุณเห็นปัญหาทางคณิตศาสตร์
06:25
the only way to actually complete that math problem,
123
385298
2544
วิธีเดียวที่จะทำโจทย์เลขให้เสร็จ
06:27
to say what comes next,
124
387884
1334
เพื่อบอกว่าจะเกิดอะไรขึ้นต่อไป
06:29
that green nine up there,
125
389218
1293
เลขเก้าสีเขียวนั่น
06:30
is to actually solve the math problem.
126
390511
2294
คือการแก้โจทย์เลขจริง ๆ
06:34
But we actually have to do a second step, too,
127
394432
2169
แต่เราต้องทำขั้นที่ 2 ด้วย
06:36
which is to teach the AI what to do with those skills.
128
396601
2544
ซึ่งก็คือการสอนเอไอว่า จะทำอะไรกับทักษะเหล่านั้น
06:39
And for this, we provide feedback.
129
399187
1668
และสำหรับสิ่งนี้ คือเราให้คำติชม
06:40
We have the AI try out multiple things, give us multiple suggestions,
130
400855
3253
เราให้เอไอลองทำหลาย ๆ อย่าง ให้คำแนะนำหลายอย่างแก่เรา
06:44
and then a human rates them, says “This one’s better than that one.”
131
404150
3212
จากนั้นมนุษย์ก็ให้คะแนนพวกมัน “อันนี้ดีกว่าอันนั้น”
06:47
And this reinforces not just the specific thing that the AI said,
132
407362
3086
และนี่ไม่ได้เสริม เฉพาะสิ่งที่เอไอพูดเท่านั้น
06:50
but very importantly, the whole process that the AI used to produce that answer.
133
410448
3795
แต่มันคือกระบวนการทั้งหมดที่เอไอใช้ ในการสร้างคำตอบนั้น ๆ
และนี่ช่วยให้มันสามารถ พูดคุยเรื่องทั่วไปได้
06:54
And this allows it to generalize.
134
414243
1585
06:55
It allows it to teach, to sort of infer your intent
135
415828
2419
ช่วยให้สามารถสอน สามารถสรุปเจตนาของคุณ
06:58
and apply it in scenarios that it hasn't seen before,
136
418247
2503
และนำไปใช้ในสถานการณ์ ที่ไม่เคยเจอมาก่อน
07:00
that it hasn't received feedback.
137
420750
1585
ที่ไม่เคยรับคำติชมเสนอแนะมาก่อน
07:02
Now, sometimes the things we have to teach the AI
138
422669
2460
เอาละ บางครั้งสิ่งที่เราต้องสอนเอไอ
07:05
are not what you'd expect.
139
425171
1543
กลับไม่ใช่สิ่งที่คุณคาดคิด
07:06
For example, when we first showed GPT-4 to Khan Academy,
140
426756
3086
ตัวอย่างเช่น ตอนที่เรานำเสนอจีพีที-4 ให้กับคานอะคาเดมี่
07:09
they said, "Wow, this is so great,
141
429884
1627
เราว่า “ว้าว นี่มันยอดเยี่ยมมาก
07:11
We're going to be able to teach students wonderful things.
142
431552
2753
เราจะสามารถสอนสิ่งที่ยอดเยี่ยม ให้กับนักเรียนได้
07:14
Only one problem, it doesn't double-check students' math.
143
434347
3462
ปัญหาเดียวเลย มันไม่ยอมตรวจเลขให้นักเรียนอีกรอบ
07:17
If there's some bad math in there,
144
437809
1626
ถ้ามีการคำนวณที่ผิดพลาด
07:19
it will happily pretend that one plus one equals three and run with it."
145
439477
3462
มันก็พร้อมที่จะแกล้งทำเป็นว่า 1 + 1 = 3”
07:23
So we had to collect some feedback data.
146
443523
2294
เราจึงต้องรวบรวมข้อมูลความคิดเห็น
07:25
Sal Khan himself was very kind
147
445858
1544
ซาล คาน เองก็ใจดีมาก
07:27
and offered 20 hours of his own time to provide feedback to the machine
148
447443
3337
และให้เวลาส่วนตัวถึง 20 ชั่วโมง เพื่อให้คำติชมเสนอแนะต่อเครื่อง
07:30
alongside our team.
149
450780
1501
พร้อมกับทีมของเรา
07:32
And over the course of a couple of months we were able to teach the AI that,
150
452323
3587
และในช่วงสองสามเดือน เราก็สามารถสอนเอไอได้ว่า
07:35
"Hey, you really should push back on humans
151
455910
2044
“เฮ้ คุณควรจะโต้ตอบกับมนุษย์
07:37
in this specific kind of scenario."
152
457954
2044
ในสถานการณ์เฉพาะแบบนี้นะ”
07:41
And we've actually made lots and lots of improvements to the models this way.
153
461416
4921
และเราได้ปรับปรุงโมเดล ด้วยวิธีนี้อย่างมากมายจริง ๆ
07:46
And when you push that thumbs down in ChatGPT,
154
466379
2544
และเมื่อคุณกดปุ่มรูปนิ้วโป้งกดลง ให้กับแชทจีพีที
07:48
that actually is kind of like sending up a bat signal to our team to say,
155
468965
3462
มันก็เหมือนการส่งสัญญาณแบทแมนให้ทีมเรา เพื่อบอกว่า
07:52
“Here’s an area of weakness where you should gather feedback.”
156
472427
2919
“นี่คือจุดอ่อนที่คุณควร รวบรวมความคิดเห็นติชม”
07:55
And so when you do that,
157
475388
1168
เมื่อคุณทำเช่นนั้น
07:56
that's one way that we really listen to our users
158
476597
2294
นั่นเป็นวิธีหนึ่งที่เรา รับฟังผู้ใช้ของเราจริง ๆ
07:58
and make sure we're building something that's more useful for everyone.
159
478933
3378
และทำให้แน่ใจว่าเรากำลัง สร้างสิ่งที่มีประโยชน์มากขึ้นสำหรับทุกคน
08:02
Now, providing high-quality feedback is a hard thing.
160
482895
3754
การให้คำติชมเสนอแนะ ที่มีคุณภาพสูงนั้นเป็นสิ่งที่ยาก
ถ้าคุณคิดที่จะถาม ให้เด็กทำความสะอาดห้องของตน
08:07
If you think about asking a kid to clean their room,
161
487025
2460
08:09
if all you're doing is inspecting the floor,
162
489485
2711
ถ้าทั้งหมดที่คุณทำ คือการตรวจสอบพื้นห้อง
08:12
you don't know if you're just teaching them to stuff all the toys in the closet.
163
492196
3796
คุณไม่รู้หรอกว่าคุณกำลังสอนพวกเขา ให้เก็บของเล่นทั้งหมดไว้ในตู้หรือเปล่า
08:15
This is a nice DALL-E-generated image, by the way.
164
495992
2627
จะว่าไป นี่เป็นภาพที่ดีที่สร้างโดยดอล-อี
08:19
And the same sort of reasoning applies to AI.
165
499912
4713
การใช้เหตุผลแบบเดียวกันนี้ ก็ถูกนำมาใช้กับเอไอ
08:24
As we move to harder tasks,
166
504667
1794
เมื่อเราเริ่มทำงานที่ยากขึ้น
08:26
we will have to scale our ability to provide high-quality feedback.
167
506502
3796
เราจะต้องเพิ่มความสามารถของเรา ในการให้คำติชมเสนอแนะที่มีคุณภาพสูง
08:30
But for this, the AI itself is happy to help.
168
510882
3879
แต่สำหรับงานนี้เอง เอไอก็ยินดีที่จะช่วยเหลือ
08:34
It's happy to help us provide even better feedback
169
514761
2335
ยินดีที่จะช่วยเรา ให้ข้อเสนอแนะที่ดียิ่งขึ้นไปอีก
08:37
and to scale our ability to supervise the machine as time goes on.
170
517138
3587
และเพื่อขยายความสามารถของเรา ในการดูแลเครื่องเมื่อเวลาผ่านไป
08:40
And let me show you what I mean.
171
520767
1543
ให้ผมโชว์ให้คุณดู ว่าผมหมายความว่าอย่างไร
08:42
For example, you can ask GPT-4 a question like this,
172
522810
4546
ตัวอย่างเช่น คุณสามารถถาม จีพีที-4 ด้วยคำถามแบบนี้
08:47
of how much time passed between these two foundational blogs
173
527356
3295
เวลาผ่านไปนานแค่ไหน ระหว่างบล็อกพื้นฐานทั้งสองบล็อกนี้
08:50
on unsupervised learning
174
530693
1668
การเรียนรู้แบบไม่มีผู้ดูแล
08:52
and learning from human feedback.
175
532403
1794
และการเรียนรู้จากคำแนะนำติชมของมนุษย์
08:54
And the model says two months passed.
176
534197
2460
โมเดลตอบว่าสองเดือน
08:57
But is it true?
177
537075
1167
แต่มันจริงมั้ย
08:58
Like, these models are not 100-percent reliable,
178
538284
2252
โมเดลพวกนี้ ไม่ได้น่าเชื่อถือ 100 เปอร์เซ็นต์
09:00
although they’re getting better every time we provide some feedback.
179
540536
3921
ถึงแม้ว่ามันจะดีขึ้นในทุก ๆ ครั้ง ที่เราให้ข้อเสนอแนะติชม
09:04
But we can actually use the AI to fact-check.
180
544457
3086
แต่จริง ๆ เราสามารถใช้เอไอ เพื่อตรวจสอบข้อเท็จจริงได้
09:07
And it can actually check its own work.
181
547543
1877
และมันก็สามารถตรวจสอบ งานของตัวมันเองได้
09:09
You can say, fact-check this for me.
182
549462
1877
คุณสามารถบอกมัน ให้ตรวจสอบข้อเท็จจริงให้หน่อย
09:12
Now, in this case, I've actually given the AI a new tool.
183
552757
3670
ในกรณีนี้ ผมได้ให้เครื่องมือใหม่กับเอไอ
09:16
This one is a browsing tool
184
556427
1710
เป็นเครื่องมือในการสืบค้น
09:18
where the model can issue search queries and click into web pages.
185
558137
3879
โดยที่โมเดลสามารถออกคำค้นหา และคลิกเข้าสู่หน้าเว็บได้
09:22
And it actually writes out its whole chain of thought as it does it.
186
562016
3253
และมันก็เขียนห่วงโซ่ความคิดทั้งหมดออกมา ตามความเป็นจริง
09:25
It says, I’m just going to search for this and it actually does the search.
187
565269
3587
มันแจ้งว่ามันจะค้นหาสิ่งนี้ และมันก็ทำการค้นหาจริง ๆ
09:28
It then it finds the publication date and the search results.
188
568856
3128
จากนั้นมันก็พบวันที่เผยแพร่ และผลการค้นหา
09:32
It then is issuing another search query.
189
572026
1919
จากนั้นมันจะออกคำค้นหาต่อไป
09:33
It's going to click into the blog post.
190
573945
1877
มันจะคลิกเข้าไปในบล็อกโพสต์
09:35
And all of this you could do, but it’s a very tedious task.
191
575822
2877
ซึ่งคุณสามารถทำทั้งหมดนี้ได้เอง แต่จะเป็นงานที่น่าเบื่อมาก
09:38
It's not a thing that humans really want to do.
192
578741
2211
ไม่ใช่งานที่มนุษย์อยากจะทำเองจริง ๆ
09:40
It's much more fun to be in the driver's seat,
193
580952
2169
มันสนุกกว่าที่จะเป็นคนขับ
อยู่ในตำแหน่งผู้จัดการ ซึ่งคุณก็สามารถนะ ถ้าคุณต้องการที่จะ
09:43
to be in this manager's position where you can, if you want,
194
583162
2836
09:45
triple-check the work.
195
585998
1210
ตรวจงานซ้ำสามรอบ
คุณสามารถดูข้อมูลอ้างอิงได้
09:47
And out come citations
196
587208
1501
09:48
so you can actually go
197
588709
1168
คุณจึงสามารถ
09:49
and very easily verify any piece of this whole chain of reasoning.
198
589919
3754
ตรวจสอบส่วนต่าง ๆ ของห่วงโซ่เหตุผล ได้อย่างง่ายดาย
09:53
And it actually turns out two months was wrong.
199
593673
2210
และปรากฎว่ามันผิดไปสองเดือน
09:55
Two months and one week,
200
595883
2169
สองเดือนกับหนึ่งสัปดาห์
09:58
that was correct.
201
598094
1251
ถึงจะถูก
10:00
(Applause)
202
600888
3837
(เสียงปรบมือ)
10:07
And we'll cut back to the side.
203
607645
1502
และเราจะตัดกลับไปที่สไลด์
10:09
And so thing that's so interesting to me about this whole process
204
609147
3920
สิ่งที่น่าสนใจสำหรับผม เกี่ยวกับกระบวนการทั้งหมดนี้
10:13
is that it’s this many-step collaboration between a human and an AI.
205
613067
3962
ก็คือการทำงานร่วมกันหลายขั้นตอน ระหว่างมนุษย์กับเอไอ
10:17
Because a human, using this fact-checking tool
206
617029
2461
จากการที่มนุษย์ ใช้เครื่องมือตรวจสอบข้อเท็จจริงนี้
10:19
is doing it in order to produce data
207
619532
2210
เพื่อเป็นการผลิตข้อมูล
10:21
for another AI to become more useful to a human.
208
621742
3170
สำหรับเอไอตัวอื่น ๆ นั้น มีประโยชน์ต่อมนุษย์มากยิ่งขึ้น
10:25
And I think this really shows the shape of something
209
625454
2545
ผมคิดว่ามันดูเป็นรูปเป็นร่างของบางสิ่ง
10:28
that we should expect to be much more common in the future,
210
628040
3087
ที่เราควรตั้งตารอว่าจะมีอยู่ทั่วไปในอนาคต
10:31
where we have humans and machines kind of very carefully
211
631127
2711
เมื่อมนุษย์และเครื่องจักร
10:33
and delicately designed in how they fit into a problem
212
633880
3503
ได้ออกแบบวางแผนอย่างระมัดระวัง ว่าแต่ละฝ่ายเหมาะสมกับปัญหา
10:37
and how we want to solve that problem.
213
637425
1918
และต้องการที่จะแก้ปัญหานั้น ๆ อย่างไร
10:39
We make sure that the humans are providing the management, the oversight,
214
639385
3462
เราต้องแน่ใจว่ามนุษย์เป็นผู้จัดการ เป็นผู้กำกับดูแล และให้ข้อเสนอแนะ
10:42
the feedback,
215
642847
1168
และเครื่องจักรกำลังทำงาน ในลักษณะที่ตรวจสอบได้
10:44
and the machines are operating in a way that's inspectable
216
644015
2752
และเชื่อถือได้
10:46
and trustworthy.
217
646809
1126
เราสามารถสร้างเครื่องที่ น่าเชื่อถือมากยิ่งขึ้นเมื่อทำงานร่วมกัน
10:47
And together we're able to actually create even more trustworthy machines.
218
647977
3503
และผมคิดว่าเมื่อเวลาผ่านไป หากเราทำให้กระบวนการนี้ถูกต้อง
10:51
And I think that over time, if we get this process right,
219
651522
2711
เราจะสามารถแก้ปัญหาที่แก้ไม่ได้
10:54
we will be able to solve impossible problems.
220
654233
2127
และเพื่อให้คุณเข้าใจ เมื่อผมพูดถึงปัญหาที่แก้ไม่ได้
10:56
And to give you a sense of just how impossible I'm talking,
221
656360
3963
11:00
I think we're going to be able to rethink almost every aspect
222
660323
2878
ผมคิดว่าเราจะสามารถ คิดใหม่ได้ในเกือบทุกด้าน
11:03
of how we interact with computers.
223
663242
2378
ของวิธีการโต้ตอบกับคอมพิวเตอร์
11:05
For example, think about spreadsheets.
224
665620
2502
ตัวอย่างเช่น ลองนึกถึงสเปรดชีต
11:08
They've been around in some form since, we'll say, 40 years ago with VisiCalc.
225
668122
4379
พวกมันมีอยู่ในรูปแบบใดรูปแบบหนึ่ง ตั้งแต่ประมาณ 40 ปีก่อน ด้วยโปรแกรมวิสิแคล
11:12
I don't think they've really changed that much in that time.
226
672543
2878
ผมไม่เห็นการเปลี่ยนแปลงมากนัก นับจากช่วงเวลานั้น
11:16
And here is a specific spreadsheet of all the AI papers on the arXiv
227
676214
5922
และนี่คือสเปรดชีตเฉพาะ ของเอกสารทั้งหมดของเอไอในอาร์ไคฟ
11:22
for the past 30 years.
228
682178
1168
ในช่วง 30 ปีที่ผ่านมา
11:23
There's about 167,000 of them.
229
683346
1960
มีประมาณ 167,000 ชิ้น
11:25
And you can see there the data right here.
230
685348
2878
คุณสามารถดูข้อมูลได้ที่นี่
11:28
But let me show you the ChatGPT take on how to analyze a data set like this.
231
688267
3837
ให้ผมโชว์ให้คุณเห็นวิธีที่แชทจีพีที ใช้ในการวิเคราะห์ชุดข้อมูลลักษณะนี้
11:37
So we can give ChatGPT access to yet another tool,
232
697318
3837
เราให้แชทจีพีทีได้เข้าถึง อีกหนึ่งเครื่องมือ
11:41
this one a Python interpreter,
233
701197
1460
มันคือโปรแกรมล่ามไพทอน
11:42
so it’s able to run code, just like a data scientist would.
234
702657
4004
มันสามารถรันโค้ดได้เหมือนกับที่ นักวิทยาศาสตร์ข้อมูลทำกัน
11:46
And so you can just literally upload a file
235
706661
2335
คุณจึงสามารถอัปโหลดไฟล์
11:48
and ask questions about it.
236
708996
1335
และถามคำถามเกี่ยวกับไฟล์นั้น ๆ
11:50
And very helpfully, you know, it knows the name of the file and it's like,
237
710373
3545
และมีประโยชน์มากที่มันรู้ชื่อไฟล์ และมันจะแจ้งว่า
11:53
"Oh, this is CSV," comma-separated value file,
238
713960
2419
“โอ้ นี่คือไฟล์ซีเอสวี ไฟล์ค่าที่คั่นด้วยจุลภาค
11:56
"I'll parse it for you."
239
716420
1335
ฉันจะแยกวิเคราะห์ให้คุณ”
11:57
The only information here is the name of the file,
240
717755
2794
ข้อมูลเดียวที่เราให้คือชื่อของไฟล์
12:00
the column names like you saw and then the actual data.
241
720591
3671
ชื่อคอลัมน์ตามที่คุณเห็น และข้อมูลจริง
12:04
And from that it's able to infer what these columns actually mean.
242
724262
4504
จากนั้นเจ้าเอไอก็สามารถคาดคะเนได้ว่า คอลัมน์เหล่านี้หมายถึงอะไร
12:08
Like, that semantic information wasn't in there.
243
728766
2294
แบบว่า ความหมายของข้อมูลนั้น ๆ ไม่ได้ปรากฎอยู่
12:11
It has to sort of, put together its world knowledge of knowing that,
244
731102
3211
มันต้องรวบรวมความรู้ทั้งหมดที่มี ในการที่จะรู้ว่า
12:14
“Oh yeah, arXiv is a site that people submit papers
245
734355
2502
“อ๋อ อาร์ไคฟเป็นไซต์ที่ผู้คนส่งบทความ
12:16
and therefore that's what these things are and that these are integer values
246
736857
3587
ดังนั้น นั่นคือสิ่งที่มันเป็น และค่าเหล่านี้เป็นค่าจำนวนเต็ม
12:20
and so therefore it's a number of authors in the paper,"
247
740486
2628
ดังนั้น มันคือจำนวนของ ผู้เขียนบทความชิ้นนี้
ทั้งหมดนี้เป็นงานที่มนุษย์ต้องทำ
12:23
like all of that, that’s work for a human to do,
248
743114
2252
และเจ้าเอไอก็ยินดีที่จะช่วยเหลือ
12:25
and the AI is happy to help with it.
249
745408
1751
ตอนนี้ผมไม่รู้ด้วยซ้ำ ว่าผมอยากจะถามอะไร
12:27
Now I don't even know what I want to ask.
250
747159
2002
12:29
So fortunately, you can ask the machine,
251
749203
3003
โชคดีที่คุณสามารถถามมัน
12:32
"Can you make some exploratory graphs?"
252
752248
1877
“ช่วยทำกราฟเชิงสำรวจให้หน่อยได้ไหม”
12:37
And once again, this is a super high-level instruction with lots of intent behind it.
253
757461
4004
นี่เป็นอีกครั้งที่เราให้คำสั่งระดับสูง ที่แฝงไปด้วยความมุ่งหมายหลายอย่าง
12:41
But I don't even know what I want.
254
761507
1668
แต่ผมไม่รู้ด้วยซ้ำว่าผมต้องการอะไร
12:43
And the AI kind of has to infer what I might be interested in.
255
763175
2920
และเอไอจะต้องอนุมาน ในสิ่งที่ผมอาจสนใจ
และมันก็เสนอไอเดียเจ๋ง ๆ
12:46
And so it comes up with some good ideas, I think.
256
766137
2294
ฮิสโตแกรมของจำนวนผู้เขียนบทความ
12:48
So a histogram of the number of authors per paper,
257
768472
2336
12:50
time series of papers per year, word cloud of the paper titles.
258
770850
2961
อนุกรมเวลาของเอกสารต่อปี กลุ่มคำที่ปรากฎบ่อย ๆ ในชื่อบทความ
12:53
All of that, I think, will be pretty interesting to see.
259
773853
2627
ผมคิดว่าทั้งหมดนี้ น่าสนใจมากที่จะได้เห็น
และสิ่งที่ยอดเยี่ยมก็คือ มันสามารถทำได้จริง ๆ
12:56
And the great thing is, it can actually do it.
260
776522
2169
12:58
Here we go, a nice bell curve.
261
778691
1460
เอาล่ะ กราฟระฆังคว่ำสวย ๆ
คุณจะเห็นว่าจำนวนสามคน พบได้บ่อยที่สุด
13:00
You see that three is kind of the most common.
262
780151
2169
13:02
It's going to then make this nice plot of the papers per year.
263
782320
5797
มันจะสร้างกราฟของจำนวนบทความต่อปี
13:08
Something crazy is happening in 2023, though.
264
788117
2294
บางอย่างดูแปลก ๆ ในปี 2023 นะ
13:10
Looks like we were on an exponential and it dropped off the cliff.
265
790411
3128
ดูเหมือนมันกำลังทะยานขึ้น แล้วอยู่ ๆ ก็ดิ่งลงเฉย
13:13
What could be going on there?
266
793539
1460
ฮืม เกิดอะไรขึ้น
13:14
By the way, all this is Python code, you can inspect.
267
794999
2753
อย่างไรก็ตาม ทั้งหมดนี้คือโค้ดไพทอน ที่คุณสามารถตรวจสอบได้
13:17
And then we'll see word cloud.
268
797752
1459
แล้วเราจะเห็นกลุ่มคำ
13:19
So you can see all these wonderful things that appear in these titles.
269
799253
3378
คุณสามารถเห็นสิ่งมหัศจรรย์ทั้งหมด ที่ปรากฏในชื่อเหล่านี้
13:23
But I'm pretty unhappy about this 2023 thing.
270
803090
2127
แต่ผมไม่ค่อยพอใจ กับไอ้เรื่องปี 2023 นี้นัก
13:25
It makes this year look really bad.
271
805634
1711
มันทำให้ปีนี้ดูแย่จริง ๆ
13:27
Of course, the problem is that the year is not over.
272
807345
2877
แน่นอนว่า ปัญหาคือมันยังไม่ถึงสิ้นปี
13:30
So I'm going to push back on the machine.
273
810222
2878
ผมเลยจะเถียงกับเจ้าเครื่องนี้สักหน่อย
13:33
[Waitttt that's not fair!!!
274
813142
1585
[เดี๋ยวก่อน นั่นมันไม่ยุติธรรม!!!
13:34
2023 isn't over.
275
814727
1293
ปี 2023 ยังไม่สิ้นสุดด้วยซ้ำ
กี่เปอร์เซ็นต์ของบทความในปี 2022 ที่ถูกโพสต์ภายในวันที่ 13 เมษายน]
13:38
What percentage of papers in 2022 were even posted by April 13?]
276
818481
5088
13:44
So April 13 was the cut-off date I believe.
277
824695
2294
ดังนั้น วันที่ 13 เมษายน จึงเป็นวันตัดจบ
13:47
Can you use that to make a fair projection?
278
827656
4922
ช่วยทำให้มันถูกต้องมากขึ้นได้ไหม
13:54
So we'll see, this is the kind of ambitious one.
279
834747
2294
เรามาลองดูกัน มันแอบทะเยอทะยานนิด ๆ
13:57
(Laughter)
280
837083
1126
(เสียงหัวเราะ)
13:59
So you know,
281
839877
1251
นั่นแหละครับ
14:01
again, I feel like there was more I wanted out of the machine here.
282
841128
3921
ย้ำอีกครั้ง ผมรู้สึกเหมือนยังมีอะไรอีกมาก ที่ผมอยากได้จากเจ้าเครื่องนี้
14:05
I really wanted it to notice this thing,
283
845049
2502
ผมอยากให้มันสังเกตเห็นสิ่งนี้จริง ๆ
14:07
maybe it's a little bit of an overreach for it
284
847593
3128
บางทีมันอาจจะ เกินเอื้อมไปหน่อยสำหรับมัน
14:10
to have sort of, inferred magically that this is what I wanted.
285
850763
3378
ที่จะอนุมานได้อย่างแม่นยำว่า นี่คือสิ่งที่ผมต้องการ
14:14
But I inject my intent,
286
854183
1627
แต่ผมก็ได้ใส่ความตั้งใจของผมลงไป
14:15
I provide this additional piece of, you know, guidance.
287
855810
4754
ผมได้ให้คำแนะนำเพิ่มเติมในส่วนนี้
14:20
And under the hood,
288
860564
1168
และในระบบหลังบ้าน
14:21
the AI is just writing code again, so if you want to inspect what it's doing,
289
861774
3629
เอไอกำลังเขียนโค้ดอีกครั้ง ดังนั้น ถ้าคุณอยากตรวจสอบว่ามันกำลังทำอะไรอยู่
14:25
it's very possible.
290
865403
1251
มันก็เป็นไปได้
14:26
And now, it does the correct projection.
291
866654
3628
แล้วตอนนี้มันทำการประมาณการได้แม่นยำขึ้น
14:30
(Applause)
292
870282
5005
(เสียงปรบมือ)
14:35
If you noticed, it even updates the title.
293
875287
2169
ถ้าคุณสังเกต มันอัปเดตชื่อเรื่องให้ด้วย
14:37
I didn't ask for that, but it know what I want.
294
877498
2336
ผมไม่ได้ขอ แต่มันรู้ว่าผมต้องการอะไร
14:41
Now we'll cut back to the slide again.
295
881794
2544
เราจะตัดกลับไปที่สไลด์อีกครั้ง
14:45
This slide shows a parable of how I think we ...
296
885714
4880
สไลด์นี้อุปมาอุปไมย ว่าผมคิดว่าพวกเรา...
14:51
A vision of how we may end up using this technology in the future.
297
891220
3212
วิสัยทัศน์ถึงวิธีที่เราจะ ใช้เทคโนโลยีนี้ในอนาคต
14:54
A person brought his very sick dog to the vet,
298
894849
3712
มีคนพาน้องหมาที่ป่วย ไปพบสัตว์แพทย์
14:58
and the veterinarian made a bad call to say, “Let’s just wait and see.”
299
898561
3336
แล้วสัตวแพทย์ก็วินิจฉัยผิด โดยให้ “รอดูอาการกันไปก่อน”
15:01
And the dog would not be here today had he listened.
300
901897
2795
น้องหมาคงไม่รอด ถ้าเขาเชื่อคำวินิจฉัย
15:05
In the meanwhile, he provided the blood test,
301
905401
2252
ในขณะเดียวกัน เขาก็ให้ผลตรวจเลือด
15:07
like, the full medical records, to GPT-4,
302
907653
2586
เวชระเบียนฉบับเต็ม ให้กับจีพีที-4
15:10
which said, "I am not a vet, you need to talk to a professional,
303
910281
3170
ซึ่งมันก็ตอบว่า “ผมไม่ใช่สัตว์แพทย์ คุณต้องคุยกับผู้เชี่ยวชาญ
15:13
here are some hypotheses."
304
913492
1710
แต่นี่คือสมมติฐานบางอย่าง”
15:15
He brought that information to a second vet
305
915786
2127
มันนำข้อมูลนั้น ๆ ไปให้สัตว์แพทย์คนที่สอง
15:17
who used it to save the dog's life.
306
917913
1835
ซึ่งได้ใช้ข้อมูลดังกล่าว ในการช่วยชีวิตน้องหมา
15:21
Now, these systems, they're not perfect.
307
921292
2252
เอาละ ระบบเหล่านี้ ไม่ได้ถูกต้องสมบูรณ์หรอก
15:23
You cannot overly rely on them.
308
923544
2336
คุณไม่ควรเชื่อมันมากจนเกินไป
15:25
But this story, I think, shows
309
925880
3712
แต่เรื่อง ๆ นี้ ทำให้เห็นว่า
15:29
that a human with a medical professional
310
929592
3044
คนที่มีความเชี่ยวชาญทางการแพทย์
15:32
and with ChatGPT as a brainstorming partner
311
932678
2461
และแชทจีพีที ในฐานะเพื่อนคู่คิด
15:35
was able to achieve an outcome that would not have happened otherwise.
312
935181
3295
สามารถทำให้เกิดผลที่ ไม่อาจเกิดขึ้นได้หากไม่ได้ทำงานร่วมกัน
15:38
I think this is something we should all reflect on,
313
938476
2419
ผมคิดว่านี่คือสิ่งที่เราทุกคนควรไตร่ตรอง
15:40
think about as we consider how to integrate these systems
314
940895
2711
คิดถึงวิธีการรวมระบบเหล่านี้ ให้เข้ากับโลกของเรา
15:43
into our world.
315
943606
1167
15:44
And one thing I believe really deeply,
316
944815
1835
สิ่งหนึ่งที่ผมเชื่ออย่างสุดจิตสุดใจ
15:46
is that getting AI right is going to require participation from everyone.
317
946650
4338
คือการทำให้เอไอทำงานได้อย่างถูกต้อง ทุกคนต้องช่วยกัน
15:50
And that's for deciding how we want it to slot in,
318
950988
2377
มันคือการตัดสินใจว่า เราอยากจะวางมันอย่างไร
15:53
that's for setting the rules of the road,
319
953365
1961
มันคือการตั้งกฎ
15:55
for what an AI will and won't do.
320
955367
2044
ว่าเจ้าเอไอนั้น สามารถทำหรือไม่ทำอะไร
15:57
And if there's one thing to take away from this talk,
321
957453
2502
แล้วถ้ามีสิ่งหนึ่ง ที่ควรได้รับไปจากการฟังทอล์กนี้
15:59
it's that this technology just looks different.
322
959997
2211
คือการที่เทคโนโลยีนี้ดูแตกต่าง
16:02
Just different from anything people had anticipated.
323
962208
2502
แตกต่างจากที่ผู้คนคาดการณ์ไว้
16:04
And so we all have to become literate.
324
964710
1835
ดังนั้น เราทุกคนจึงต้องเป็นผู้รู้เท่าทัน
16:06
And that's, honestly, one of the reasons we released ChatGPT.
325
966587
2961
และนั่นคือหนึ่งในเหตุผล ที่เราเปิดตัวแชทจีพีที
16:09
Together, I believe that we can achieve the OpenAI mission
326
969548
3128
ผมเชื่อว่าเราจะสามารถ บรรลุภารกิจของโอเพนเอไอ
16:12
of ensuring that artificial general intelligence
327
972718
2252
ในการสร้างความมั่นใจว่า ปัญญาประดิษฐ์ทั่วไป
16:14
benefits all of humanity.
328
974970
1877
จะสร้างประโยชน์ต่อมวลมนุษยชาติ
16:16
Thank you.
329
976847
1168
ขอบคุณครับ
16:18
(Applause)
330
978057
6965
(เสียงปรบมือ)
16:33
(Applause ends)
331
993322
1168
(เสียงปรบมือจบลง)
16:34
Chris Anderson: Greg.
332
994532
1334
คริส แอนเดอร์สัน: เกร็ก
16:36
Wow.
333
996242
1167
ว้าว
16:37
I mean ...
334
997868
1126
คือว่า ...
16:39
I suspect that within every mind out here
335
999662
3753
ผมคิดว่าในใจของทุกคนที่นี่
16:43
there's a feeling of reeling.
336
1003457
2503
มีความรู้สึกปั่นป่วน
ผมคิดว่าคนจำนวนมากที่กำลังดูอยู่
16:46
Like, I suspect that a very large number of people viewing this,
337
1006001
3379
16:49
you look at that and you think, “Oh my goodness,
338
1009421
2419
มองมาแล้วคิดว่า “พระเจ้าช่วย
16:51
pretty much every single thing about the way I work, I need to rethink."
339
1011882
3462
ทุกอย่างที่เกี่ยวกับวิธีการทำงานของผม ผมต้องคิดใหม่ซะแล้ว
16:55
Like, there's just new possibilities there.
340
1015386
2002
แบบว่า มันมีความเป็นไปได้ใหม่ ๆ
16:57
Am I right?
341
1017388
1168
ใช่ไหมครับ
16:58
Who thinks that they're having to rethink the way that we do things?
342
1018597
3337
มีใครคิดบ้างว่าเราจะต้องคิดใหม่ ถึงวิธีการที่เราทำสิ่งต่าง ๆ
17:01
Yeah, I mean, it's amazing,
343
1021976
1543
ผมคิดว่า มันน่าทึ่งมาก ๆ
17:03
but it's also really scary.
344
1023561
2002
และมันก็น่าหวาดหวั่นด้วยเช่นกัน
17:05
So let's talk, Greg, let's talk.
345
1025604
1585
เรามาคุยกันเถอะ เกร็ก
เกร็ก บร็อคแมน: ได้เลยครับ
17:08
I mean, I guess my first question actually is just
346
1028524
2377
ผมว่าคำถามแรกของผมคือ
17:10
how the hell have you done this?
347
1030901
1585
คุณทำเรื่องบ้าบอนี้ขึ้นมาได้ยังไง
17:12
(Laughter)
348
1032486
1251
(เสียงหัวเราะ)
17:13
OpenAI has a few hundred employees.
349
1033737
2962
โอเพนเอไอ มีพนักงานอยู่สองสามร้อยคน
17:16
Google has thousands of employees working on artificial intelligence.
350
1036740
4755
กูเกิลมีพนักงานหลายพันคน
ที่ทำงานด้านปัญญาประดิษฐ์
17:21
Why is it you who's come up with this technology
351
1041996
3503
ทำไมถึงเป็นคุณที่ สามารถสร้างเทคโนโลยีนี้
17:25
that shocked the world?
352
1045541
1168
ที่ทำให้โลกตะลึง
17:26
Greg Brockman: I mean, the truth is,
353
1046709
1751
เกร็ก: ความจริงก็คือ
เรากำลังต่อยอดจากองค์ความรู้เดิม
17:28
we're all building on shoulders of giants, right, there's no question.
354
1048502
3295
ดูจากความก้าวหน้าด้านการคำนวณ
ความก้าวหน้าของอัลกอริทึม ความก้าวหน้าของข้อมูล
17:31
If you look at the compute progress,
355
1051797
1752
17:33
the algorithmic progress, the data progress,
356
1053549
2085
ทั้งหมดนี้ครอบคลุมทั่วทั้งอุตสาหกรรม
17:35
all of those are really industry-wide.
357
1055634
1835
ในส่วนของโอเพนเอไอ
เราได้เลือกอย่างรอบคอบ มาตั้งแต่ช่วงแรก ๆ
17:37
But I think within OpenAI,
358
1057469
1252
17:38
we made a lot of very deliberate choices from the early days.
359
1058762
2878
อย่างแรกคือการเผชิญหน้ากับความจริง ตามความเป็นจริง
17:41
And the first one was just to confront reality as it lays.
360
1061640
2711
แล้วเราก็คิดอย่างหนัก เกี่ยวกับเรื่อง
17:44
And that we just thought really hard about like:
361
1064393
2294
17:46
What is it going to take to make progress here?
362
1066687
2210
ต้องทำอะไรบ้าง เพื่อให้เกิดความก้าวหน้า
17:48
We tried a lot of things that didn't work, so you only see the things that did.
363
1068939
3754
เราลองมาหลายสิ่งที่ไม่ได้ผล คุณจึงเห็นแต่สิ่งที่ได้ผล
และผมคิดว่าสิ่งที่สำคัญที่สุด คือการสร้างทีมที่มีผู้คน
17:52
And I think that the most important thing has been to get teams of people
364
1072693
3462
ที่มีความแตกต่างอย่างมาก มาทำงานร่วมกันอย่างกลมกลืน
17:56
who are very different from each other to work together harmoniously.
365
1076196
3254
17:59
CA: Can we have the water, by the way, just brought here?
366
1079450
2711
คริส: ขอน้ำหน่อยได้ไหมครับ เอามาวางไว้ตรงนี้
ผมว่าเราต้องกระหายแน่ ๆ มันเป็นหัวข้อที่ทำให้คอแห้ง
18:02
I think we're going to need it, it's a dry-mouth topic.
367
1082202
3170
18:06
But isn't there something also just about the fact
368
1086665
2795
แต่มันก็มีความจริงที่ว่า
18:09
that you saw something in these language models
369
1089501
4755
คุณเห็นอะไรบางอย่าง ในโมเดลภาษาเหล่านี้
18:14
that meant that if you continue to invest in them and grow them,
370
1094256
3921
ซึ่งส่งสัญญาณว่าหากคุณยังคงลุยไปกับมัน และทำให้มันเติบโต
18:18
that something at some point might emerge?
371
1098218
3129
บางสิ่งอาจปรากฏขึ้น ในเวลาใดเวลาหนึ่ง
18:21
GB: Yes.
372
1101847
1126
เกร็ก: ใช่ครับ
และผมคิดว่า ว่ากันตามตรง
18:23
And I think that, I mean, honestly,
373
1103015
2836
18:25
I think the story there is pretty illustrative, right?
374
1105893
2544
ผมว่าเรื่องนั้น ภาพมันค่อนข้างชัดอยู่แล้ว ใช่ไหมครับ
ผมว่าการเรียนรู้เชิงลึกในระดับสูง
18:28
I think that high level, deep learning,
375
1108437
2002
18:30
like we always knew that was what we wanted to be,
376
1110481
2335
เป็นสิ่งที่เรารู้มาตลอด ว่าเราอยากเป็น
18:32
was a deep learning lab, and exactly how to do it?
377
1112858
2419
เป็นแล็บการเรียนรู้เชิงลึก และต้องทำอย่างไรกันแน่นั้น
18:35
I think that in the early days, we didn't know.
378
1115277
2211
ผมว่าในยุคแรก ๆ เราไม่รู้หรอก
เราลองหลายอย่าง
18:37
We tried a lot of things,
379
1117529
1210
และมีคนหนึ่งกำลังฝึกโมเดล
18:38
and one person was working on training a model
380
1118739
2336
18:41
to predict the next character in Amazon reviews,
381
1121075
2877
เพื่อให้ทำนายอักขระตัวต่อไป ในรีวิวของแอมะซอน
18:43
and he got a result where -- this is a syntactic process,
382
1123994
4755
และเขาได้ผลลัพธ์ที่ -- มันเป็นกระบวนการเกี่ยวกับการสร้างประโยค
18:48
you expect, you know, the model will predict where the commas go,
383
1128749
3086
คุณคาดว่าโมเดลจะทำนายว่า เครื่องหมายจุลภาคจะอยู่ตรงไหน
18:51
where the nouns and verbs are.
384
1131835
1627
คำนามและกริยาอยู่ตรงไหน
18:53
But he actually got a state-of-the-art sentiment analysis classifier out of it.
385
1133504
4337
แต่เขากลับได้รับตัวแยกประเภท ของการวิเคราะห์ความรู้สึกที่ล้ำสมัยมาก ๆ
18:57
This model could tell you if a review was positive or negative.
386
1137883
2961
โมเดลนี้สามารถบอกคุณได้ว่า รีวิวนั้น ๆ เป็นบวกหรือเป็นลบ
19:00
I mean, today we are just like, come on, anyone can do that.
387
1140886
3378
คือทุกวันนี้เราก็แบบว่า เอาเถอะ ใคร ๆ ก็ทำได้วะ
19:04
But this was the first time that you saw this emergence,
388
1144306
3087
แต่นี่เป็นครั้งแรก ที่คุณได้เห็นปรากฎการณ์นี้
19:07
this sort of semantics that emerged from this underlying syntactic process.
389
1147434
5005
ความหมายของคำที่เกิดจาก กระบวนการพื้นฐานเกี่ยวกับการสร้างประโยค
19:12
And there we knew, you've got to scale this thing,
390
1152481
2336
เรารู้ทันทีว่า เราต้องขยายเรื่องนี้
19:14
you've got to see where it goes.
391
1154858
1544
ต้องดูว่ามันจะไปในทิศทางไหน
คริส: ผมคิดว่านี่จะช่วยอธิบาย
19:16
CA: So I think this helps explain
392
1156402
1626
ปริศนาที่ทำให้ ทุกคนที่จับตามองอยู่รู้สึกงงงวย
19:18
the riddle that baffles everyone looking at this,
393
1158028
2544
19:20
because these things are described as prediction machines.
394
1160572
2753
เพราะสิ่งเหล่านี้ถูกอธิบายว่า เป็นเครื่องทำนาย
19:23
And yet, what we're seeing out of them feels ...
395
1163367
2669
แต่สิ่งที่เห็นทำให้เรารู้สึกว่า ...
19:26
it just feels impossible that that could come from a prediction machine.
396
1166036
3420
มันแค่รู้สึกว่าเป็นไปไม่ได้ที่ มันจะเป็นแค่เครื่องทำนาย
19:29
Just the stuff you showed us just now.
397
1169456
2378
แค่สิ่งต่าง ๆ ที่คุณแสดงให้เราเห็นเมื่อกี้
19:31
And the key idea of emergence is that when you get more of a thing,
398
1171875
3838
และแนวคิดหลักของการเกิดขึ้นก็คือ เมื่อคุณได้รับสิ่งหนึ่งสิ่งใดมากขึ้น
19:35
suddenly different things emerge.
399
1175754
1585
จู่ ๆ สิ่งที่แตกต่างก็จะเกิดขึ้น
19:37
It happens all the time, ant colonies, single ants run around,
400
1177339
3045
มันเกิดขึ้นตลอดเวลา อย่างในฝูงมด มดหนึ่งตัวทำบางอย่างอยู่
19:40
when you bring enough of them together,
401
1180384
1877
เมื่อเพิ่มจำนวนของมดขึ้นมากพอ
คุณก็จะเห็นฝูงมด ที่แสดงพฤติกรรมที่แตกต่างโดยสิ้นเชิง
19:42
you get these ant colonies that show completely emergent, different behavior.
402
1182302
3629
19:45
Or a city where a few houses together, it's just houses together.
403
1185973
3086
หรือในเมืองที่มีบ้านอยู่ไม่กี่หลัง
แต่เมื่อมีจำนวนของบ้านเพิ่มขึ้นเรื่อย ๆ
19:49
But as you grow the number of houses,
404
1189059
1794
19:50
things emerge, like suburbs and cultural centers and traffic jams.
405
1190894
4588
บางสิ่งก็อุบัติขึ้น เช่น ชานเมือง และศูนย์วัฒนธรรม และการจราจรที่ติดขัด
19:57
Give me one moment for you when you saw just something pop
406
1197276
3211
เล่าให้ผมฟังหน่อย มีไหมที่คุณเห็นบางสิ่งอุบัติขึ้น
20:00
that just blew your mind
407
1200529
1668
แล้วคุณตื่นเต้นตกใจสุด ๆ
20:02
that you just did not see coming.
408
1202197
1627
สิ่งที่คุณคาดไม่ถึง
20:03
GB: Yeah, well,
409
1203824
1209
เกร็ก: แน่นอนครับ
20:05
so you can try this in ChatGPT, if you add 40-digit numbers --
410
1205075
3462
ให้คุณลองกับแชทจีพีที ถ้าคุณบวกตัวเลข 40 หลัก
20:08
CA: 40-digit?
411
1208537
1168
คริส: 40 หลักหรือครับ
20:09
GB: 40-digit numbers, the model will do it,
412
1209705
2169
เกร็ก: 40 หลัก โมเดลจะทำได้
20:11
which means it's really learned an internal circuit for how to do it.
413
1211915
3254
ซึ่งหมายความว่ามันได้เรียนรู้ ว่าวงจรภายในทำงานอย่างไร
20:15
And the really interesting thing is actually,
414
1215210
2127
แล้วสิ่งที่น่าสนใจจริง ๆ คือ
20:17
if you have it add like a 40-digit number plus a 35-digit number,
415
1217337
3212
ถ้าคุณบวกเลข 40 หลัก เข้ากับเลข 35 หลัก
20:20
it'll often get it wrong.
416
1220591
1710
มันมักจะคำนวณผิด
20:22
And so you can see that it's really learning the process,
417
1222676
2795
คุณจะเห็นว่า มันกำลังเรียนรู้กระบวนการจริง ๆ
20:25
but it hasn't fully generalized, right?
418
1225471
1876
แต่มันก็ยังไม่ได้เรียนรู้ครบทั้งหมด
20:27
It's like you can't memorize the 40-digit addition table,
419
1227389
2711
คุณไม่สามารถจดจำตาราง การบวกเลขจำนวน 40 หลักได้หรอก
20:30
that's more atoms than there are in the universe.
420
1230100
2294
เพราะจำนวนมันมากกว่า อะตอมที่มีอยู่ในจักรวาล
20:32
So it had to have learned something general,
421
1232394
2086
ดังนั้น มันจึงต้องเรียนรู้เรื่องทั่ว ๆ ไป
20:34
but that it hasn't really fully yet learned that,
422
1234480
2377
แต่ว่ามันยังไม่ได้เรียนรู้อย่างถ่องแท้ว่า
20:36
Oh, I can sort of generalize this to adding arbitrary numbers
423
1236899
2961
โอ้ มันสามารถแก้โจทย์นี้ โดยการบวกเลข ที่มีค่าเท่าไหร่ก็ได้ จะมีกี่หลักก็ได้
20:39
of arbitrary lengths.
424
1239902
1167
คริส: สิ่งที่เกิดขึ้นก็คือ
20:41
CA: So what's happened here
425
1241111
1335
20:42
is that you've allowed it to scale up
426
1242488
1793
คุณปล่อยให้มันออกไปทำงาน
20:44
and look at an incredible number of pieces of text.
427
1244281
2419
และเรียนรู้จากต้นฉบับจำนวนมหาศาล
20:46
And it is learning things
428
1246742
1209
แล้วมันก็ได้เรียนรู้
20:47
that you didn't know that it was going to be capable of learning.
429
1247951
3379
ในสิ่งที่คุณคาดไม่ถึงด้วยซ้ำว่า มันจะสามารถเรียนรู้ได้
20:51
GB Well, yeah, and it’s more nuanced, too.
430
1251371
2002
เกร็ก: ใช่ครับ และมันก็เหมาะสมอย่างยิ่ง
20:53
So one science that we’re starting to really get good at
431
1253415
2878
ศาสตร์หนึ่งที่เราเริ่มจะทำได้ดี
20:56
is predicting some of these emergent capabilities.
432
1256335
2586
ก็คือการทำนายความสามารถ ที่จะเกิดขึ้นใหม่นี้
20:58
And to do that actually,
433
1258962
1335
และในการทำเรื่องนั้น
21:00
one of the things I think is very undersung in this field
434
1260339
2711
สิ่งหนึ่งที่ผมคิดว่าด้อยมาก ๆ ในสายงานนี้
21:03
is sort of engineering quality.
435
1263050
1501
ก็คือคุณภาพทางวิศวกรรม
21:04
Like, we had to rebuild our entire stack.
436
1264551
2044
เราต้องสร้างเทคโนโลยีใหม่ทั้งหมด
21:06
When you think about building a rocket,
437
1266637
1877
เมื่อคุณคิดจะสร้างจรวด
21:08
every tolerance has to be incredibly tiny.
438
1268555
2211
ตัวแปรและโอกาสที่จะพลาด จะต้องมีน้อยที่สุด
21:10
Same is true in machine learning.
439
1270766
1626
การให้คอมพิวเตอร์ เรียนรู้ด้วยตัวเองก็เช่นกัน
21:12
You have to get every single piece of the stack engineered properly,
440
1272434
3212
คุณต้องทำให้เทคโนโลยีทุกชิ้น ได้รับการออกแบบอย่างเหมาะสม
21:15
and then you can start doing these predictions.
441
1275646
2210
คุณถึงจะสามารถคาดการณ์ได้
21:17
There are all these incredibly smooth scaling curves.
442
1277856
2503
พวกเส้นโค้งสเกล ที่ราบรื่นอย่างไม่น่าเชื่อเหล่านี้
มันบอกอะไรบางอย่าง ที่เป็นพื้นฐานเชิงลึกเกี่ยวกับปัญญา
21:20
They tell you something deeply fundamental about intelligence.
443
1280359
2919
หากคุณดูบล็อกโพสต์ของจีพีที-4
21:23
If you look at our GPT-4 blog post,
444
1283320
1710
คุณจะเห็นเส้นโค้งเหล่านี้อยู่ในนั้น
21:25
you can see all of these curves in there.
445
1285030
1960
21:26
And now we're starting to be able to predict.
446
1286990
2127
ตอนนี้เราก็เริ่มที่จะคาดการณ์ได้แล้ว
เราสามารถคาดการณ์ถึงประสิทธิภาพ ของปัญหาการเข้ารหัสได้ เป็นต้น
21:29
So we were able to predict, for example, the performance on coding problems.
447
1289117
3713
21:32
We basically look at some models
448
1292871
1585
เราลองดูโมเดลบางรุ่น
21:34
that are 10,000 times or 1,000 times smaller.
449
1294456
2461
ที่เล็กกว่า 10,000 เท่า หรือ 1,000 เท่า
21:36
And so there's something about this that is actually smooth scaling,
450
1296959
3211
มีบางอย่างที่ปรับสเกลได้อย่างราบรื่น
21:40
even though it's still early days.
451
1300170
2044
แม้ว่าเราจะยังอยู่ในยุคต้น ๆ ก็ตาม
21:42
CA: So here is, one of the big fears then,
452
1302756
2544
คริส: เอาละ หนึ่งในความน่ากลัว
21:45
that arises from this.
453
1305300
1252
ที่เกิดขึ้นจากสิ่งนี้
21:46
If it’s fundamental to what’s happening here,
454
1306593
2127
หากนี่เป็นพื้นฐานของสิ่งที่เกิดขึ้น
21:48
that as you scale up,
455
1308720
1210
เมื่อคุณขยายขึ้นเรื่อย ๆ
21:49
things emerge that
456
1309930
2419
สิ่งต่าง ๆ จะอุบัติขึ้น
21:52
you can maybe predict in some level of confidence,
457
1312349
4171
ซึ่งคุณอาจคาดการณ์ได้ ด้วยความมั่นใจในระดับหนึ่ง
21:56
but it's capable of surprising you.
458
1316562
2544
แต่มันก็สามารถทำให้คุณประหลาดใจได้
22:00
Why isn't there just a huge risk of something truly terrible emerging?
459
1320816
4463
ทำไมจึงไม่มีความเสี่ยงสูง ที่บางสิ่งที่น่ากลัวจะอุบัติขึ้น
22:05
GB: Well, I think all of these are questions of degree
460
1325320
2545
เกร็ก: ครับ ผมว่า ทั้งหมดนี้เป็นคำถามเกี่ยวกับระดับ
22:07
and scale and timing.
461
1327865
1209
และขนาด และเวลา
อย่างหนึ่งที่คนอาจจะคลาดไป
22:09
And I think one thing people miss, too,
462
1329116
1877
22:10
is sort of the integration with the world is also this incredibly emergent,
463
1330993
3587
มันคือการรวมตัวเข้ากับโลก มันอุบัติขึ้นอย่างไม่น่าเชื่อ
22:14
sort of, very powerful thing too.
464
1334621
1585
เป็นสิ่งที่ทรงพลังมากเช่นกัน
และนั่นเป็นหนึ่งในเหตุผล ที่เราคิดว่าสำคัญมาก ๆ
22:16
And so that's one of the reasons that we think it's so important
465
1336248
3045
ในการนำมาปรับใช้ทีละน้อย
22:19
to deploy incrementally.
466
1339293
1167
ดังนั้น สิ่งที่เราเห็นอยู่ในตอนนี้ ในทอล์คนี้
22:20
And so I think that what we kind of see right now, if you look at this talk,
467
1340502
3629
สิ่งที่ผมมุ่งเน้นอย่างมาก คือการให้ข้อเสนอแนะติชมที่มีคุณภาพสูง
22:24
a lot of what I focus on is providing really high-quality feedback.
468
1344131
3170
ในวันนี้ งานต่าง ๆ ที่เราทำ คุณสามารถตรวจสอบได้
22:27
Today, the tasks that we do, you can inspect them, right?
469
1347301
2711
มันง่ายมากที่จะดูโจทย์เลข แล้วแบบว่า ไม่ ไม่ ไม่
22:30
It's very easy to look at that math problem and be like, no, no, no,
470
1350012
3211
เจ้าเครื่องเอ๋ย เลขเจ็ดคือคำตอบที่ถูกต้อง
22:33
machine, seven was the correct answer.
471
1353265
1835
แต่ถึงอย่างนั้น อย่างการสรุปหนังสือ ก็เป็นสิ่งที่กำกับดูแลได้ยาก
22:35
But even summarizing a book, like, that's a hard thing to supervise.
472
1355100
3212
คุณจะรู้ได้ยังไงว่า หนังสือนั่นถูกสรุปมาดีแล้ว
22:38
Like, how do you know if this book summary is any good?
473
1358312
2586
คุณต้องอ่านทั้งเล่ม
22:40
You have to read the whole book.
474
1360939
1543
ไม่มีใครอยากจะทำหรอกครับ
22:42
No one wants to do that.
475
1362482
1168
22:43
(Laughter)
476
1363692
1293
(เสียงหัวเราะ)
22:44
And so I think that the important thing will be that we take this step by step.
477
1364985
4296
ผมคิดว่าสิ่งที่สำคัญ คือเราต้องค่อย ๆ เป็น ค่อย ๆ ไป
22:49
And that we say, OK, as we move on to book summaries,
478
1369323
2544
จนกว่าเราจะโอเค เมื่อเราเริ่มงานสรุปหนังสือต่าง ๆ
22:51
we have to supervise this task properly.
479
1371867
1960
เราต้องกำกับดูแลงานให้เหมาะสม
22:53
We have to build up a track record with these machines
480
1373827
2586
เราต้องสร้างการบันทึกติดตามเครื่องพวกนี้
22:56
that they're able to actually carry out our intent.
481
1376413
2586
ให้มันสามารถทำงาน ตามเจตจำนงของเราได้จริง ๆ
22:59
And I think we're going to have to produce even better, more efficient,
482
1379041
3336
ผมคิดว่าเราจะต้องสร้างวิธีการที่ดียิ่งขึ้น มีประสิทธิภาพมากขึ้น
23:02
more reliable ways of scaling this,
483
1382419
1710
น่าเชื่อถือได้มากขึ้น ในการขยายตัว
23:04
sort of like making the machine be aligned with you.
484
1384129
2878
ประมาณว่าทำให้เครื่องนี้ สอดคล้องไปกับคุณ
23:07
CA: So we're going to hear later in this session,
485
1387049
2294
คริส: เราจะได้ฟังในช่วงต่อไปของเซสชั่นนี้
23:09
there are critics who say that,
486
1389343
1543
มีนักวิจารณ์ที่พูดว่า
23:10
you know, there's no real understanding inside,
487
1390928
4587
ยังไม่มีความเข้าใจอย่างถ่องแท้ ต่อระบบข้างใน
23:15
the system is going to always --
488
1395557
1627
ระบบจะมีปัญหาเสมอ --
23:17
we're never going to know that it's not generating errors,
489
1397225
3212
เราจะไม่มีวันรู้ ว่ามันไม่ได้กำลังสร้างข้อผิดพลาด
23:20
that it doesn't have common sense and so forth.
490
1400479
2210
ว่ามันไม่มีสามัญสำนึก และอื่น ๆ
23:22
Is it your belief, Greg, that it is true at any one moment,
491
1402689
4088
มันคือความเชื่อของคุณใช่ไหม เกร็ก ว่าจริง ๆ แล้ว ณ จุด ๆ หนึ่ง
23:26
but that the expansion of the scale and the human feedback
492
1406818
3629
การขยายขนาด และการให้ความคิดเห็นจากมนุษย์
23:30
that you talked about is basically going to take it on that journey
493
1410489
4963
ที่คุณพูดถึงนั้น จะพามันไปสู่การเดินทาง
23:35
of actually getting to things like truth and wisdom and so forth,
494
1415494
3837
ไปสู่สิ่งต่าง ๆ เช่น ความจริง และภูมิปัญญา และอื่น ๆ
23:39
with a high degree of confidence.
495
1419331
1627
ด้วยความมั่นใจอย่างสูง
23:40
Can you be sure of that?
496
1420999
1335
คุณแน่ใจแน่นะ
23:42
GB: Yeah, well, I think that the OpenAI, I mean, the short answer is yes,
497
1422334
3462
เกร็ก: แน่ใจครับ ผมว่าโอเพนเอไอ ขอตอบสั้น ๆ ว่าแน่ใจครับ
23:45
I believe that is where we're headed.
498
1425796
1793
ผมเชื่อว่าเรากำลังมุ่งหน้าไปในทิศทางนั้น
23:47
And I think that the OpenAI approach here has always been just like,
499
1427631
3211
ผมคิดว่าวิธีการของโอเพนเอไอ มักจะเป็นแบบ
23:50
let reality hit you in the face, right?
500
1430842
1877
ปล่อยให้ความเป็นจริงตีแสกหน้าคุณเลย
23:52
It's like this field is the field of broken promises,
501
1432719
2503
ประหนึ่งว่าสายงานนี้ เป็นสายงานแห่งคำสัญญาที่ไม่เป็นจริง
23:55
of all these experts saying X is going to happen, Y is how it works.
502
1435263
3212
เกจิทั้งหลายออกมาพูดว่า สิ่งนี้จะเกิดขึ้น สิ่งนั้นถูกต้อง
23:58
People have been saying neural nets aren't going to work for 70 years.
503
1438475
3337
มีคนพูดว่านิวรัลเน็ตเวิร์ก จะไม่เวิร์คไปอีก 70 ปี
พวกเขายังไม่ถูก
24:01
They haven't been right yet.
504
1441812
1376
เขาอาจจะถูก อาจจะ 70 ปี บวกหนึ่ง
24:03
They might be right maybe 70 years plus one
505
1443188
2044
หรืออะไรทำนองนั้น คือสิ่งที่คุณต้องการ
24:05
or something like that is what you need.
506
1445232
1918
แต่วิธีการของเราเป็นแบบนี้เสมอมา
24:07
But I think that our approach has always been,
507
1447192
2169
คุณต้องผลักดันขีดจำกัดของเทคโนโลยีนี้
24:09
you've got to push to the limits of this technology
508
1449361
2419
จึงจะเห็นมันทำงานจริง ๆ
เพราะนั่นทำให้คุณรู้ว่า โอ้ นี่คือวิธีที่เราจะก้าวไปสู่กระบวนทัศน์ใหม่
24:11
to really see it in action,
509
1451822
1293
24:13
because that tells you then, oh, here's how we can move on to a new paradigm.
510
1453115
3670
สงครามยังไม่จบ อย่าเพิ่งนับศพทหาร
24:16
And we just haven't exhausted the fruit here.
511
1456785
2127
คริส: ถือเป็นจุดยืนที่ก่อให้เกิด การถกเถียงกันในสังคมได้
24:18
CA: I mean, it's quite a controversial stance you've taken,
512
1458954
2794
ที่ว่าวิธีการที่ถูกต้อง คือการเผยแพร่ออกไปสู่สาธารณะ
24:21
that the right way to do this is to put it out there in public
513
1461748
2920
24:24
and then harness all this, you know,
514
1464710
1751
แล้วใช้ประโยชน์จากสิ่งที่จะเกิดขึ้น
24:26
instead of just your team giving feedback,
515
1466461
2002
แทนที่จะเป็นแค่ทีมของคุณ ที่ให้ข้อเสนอแนะ
24:28
the world is now giving feedback.
516
1468463
2461
ทั้งโลกกำลังให้ข้อเสนอแนะ
24:30
But ...
517
1470924
1168
แต่ ...
24:33
If, you know, bad things are going to emerge,
518
1473135
3753
ถ้าเรื่องราวร้าย ๆ จะอุบัติขึ้น
24:36
it is out there.
519
1476930
1168
เราก็จะเห็นมัน
24:38
So, you know, the original story that I heard on OpenAI
520
1478140
2919
ผมได้ยินเรื่องราว การกำเนิดของโอเพนเอไอ
24:41
when you were founded as a nonprofit,
521
1481101
1793
ตอนที่คุณเริ่มจาก องค์กรไม่แสวงหาผลกำไร
24:42
well you were there as the great sort of check on the big companies
522
1482894
4463
คุณเริ่มในฐานะ ผู้ที่คอยตรวจสอบบริษัทใหญ่ ๆ
24:47
doing their unknown, possibly evil thing with AI.
523
1487399
3837
ที่เป็นไปได้ว่ากำลังทำ สิ่งชั่วร้ายอะไรก็ไม่รู้กับเอไอ
24:51
And you were going to build models that sort of, you know,
524
1491278
4755
แล้วคุณก็มีแผนจะสร้างโมเดลที่จะช่วยทำให้
พวกเขาต้องรับผิดชอบ ไม่ทางใดก็ทางหนึ่ง
24:56
somehow held them accountable
525
1496033
1418
24:57
and was capable of slowing the field down, if need be.
526
1497492
4380
และสามารถชะลองานลงได้หากจำเป็น
25:01
Or at least that's kind of what I heard.
527
1501872
1960
หรืออย่างน้อย นั่นก็คือสิ่งที่ผมได้ยินมา
25:03
And yet, what's happened, arguably, is the opposite.
528
1503832
2461
แต่สิ่งที่เกิดขึ้นกลับตรงกันข้าม
25:06
That your release of GPT, especially ChatGPT,
529
1506334
5673
การเปิดตัวจีพีทีของคุณ โดยเฉพาะแชทจีพีที
25:12
sent such shockwaves through the tech world
530
1512049
2002
ได้ส่งแรงสั่นสะเทือน ไปทั่วทั้งวงการเทคฯ
25:14
that now Google and Meta and so forth are all scrambling to catch up.
531
1514051
3795
ถึงขนาดที่กูเกิล เมตา และเจ้าอื่น ๆ กำลังดิ้นเพื่อตามให้ทัน
25:17
And some of their criticisms have been,
532
1517888
2085
และบางส่วนของคำวิจารณ์ของพวกเขาคือ
25:20
you are forcing us to put this out here without proper guardrails or we die.
533
1520015
4963
คุณบังคับให้เขานำสิ่งนี้ออกสู่สาธารณะ โดยยังไม่มีการป้องกันที่ดี
ไม่งั้นบริษัทเขาก็ตาย
25:25
You know, how do you, like,
534
1525020
2794
คุณจะอธิบายอย่างไร
25:27
make the case that what you have done is responsible here and not reckless.
535
1527814
3754
ว่าสิ่งที่คุณทำนั้นมีความรับผิดชอบ และไม่ได้ประมาท
25:31
GB: Yeah, we think about these questions all the time.
536
1531568
3128
เกร็ก: พวกเราคิดถึงคำถามเหล่านี้ตลอดเวลา
25:34
Like, seriously all the time.
537
1534738
1418
ตลอดเวลาจริง ๆ
25:36
And I don't think we're always going to get it right.
538
1536198
2711
และผมไม่คิดว่าเราจะคิดถูกเสมอนะ
25:38
But one thing I think has been incredibly important,
539
1538909
2460
แต่สิ่งหนึ่งที่ผมคิดว่าสำคัญยิ่ง
ตั้งแต่ต้นที่เราเริ่มคิด
25:41
from the very beginning, when we were thinking
540
1541411
2169
เกี่ยวกับวิธีที่จะสร้าง ปัญญาประดิษฐ์ทั่วไป
25:43
about how to build artificial general intelligence,
541
1543580
2419
ที่มีประโยชน์ต่อมวลมนุษยชาติอย่างแท้จริง
25:45
actually have it benefit all of humanity,
542
1545999
2002
แบบว่า คุณจะต้องทำยังไง ใช่ไหมครับ
25:48
like, how are you supposed to do that, right?
543
1548001
2127
แผนการตั้งต้น คุณสร้างมันขึ้นมาอย่างลับ ๆ
25:50
And that default plan of being, well, you build in secret,
544
1550170
2711
คุณสร้างสิ่งที่ทรงพลังสุด ๆ ขึ้นมา
25:52
you get this super powerful thing,
545
1552923
1626
จากนั้นคุณคิดวิธีทำให้มันปลอดภัย แล้วคุณก็กด “เดินเครื่อง”
25:54
and then you figure out the safety of it and then you push “go,”
546
1554549
3003
และคุณหวังว่าคุณทำมาถูกแล้ว
25:57
and you hope you got it right.
547
1557552
1460
ผมไม่รู้วิธีดำเนินการตามแผนนั้น
25:59
I don't know how to execute that plan.
548
1559012
1835
อาจจะมีใครซักคนที่รู้
26:00
Maybe someone else does.
549
1560889
1168
แต่สำหรับผมเอง แผนนั้นมันน่ากลัวมาก ๆ
26:02
But for me, that was always terrifying, it didn't feel right.
550
1562099
2877
ดังนั้น ผมคิดว่าแนวทางทางเลือกนี้
26:04
And so I think that this alternative approach
551
1564976
2128
เป็นอีกทางเลือกที่ผมเห็น
26:07
is the only other path that I see,
552
1567104
2043
26:09
which is that you do let reality hit you in the face.
553
1569147
2503
ซึ่งก็คือการที่คุณปล่อยให้ ความจริงตีแสกหน้าคุณเลย
26:11
And I think you do give people time to give input.
554
1571691
2336
และผู้คนก็จะมีเวลาในการป้อนข้อมูล
26:14
You do have, before these machines are perfect,
555
1574027
2211
ก่อนที่เครื่องนี้จะเสร็จสมบูรณ์
26:16
before they are super powerful, that you actually have the ability
556
1576279
3128
ก่อนที่มันจะมีพลังล้นฟ้า
คุณยังมีเวลาดูมันเติบโตได้
26:19
to see them in action.
557
1579407
1168
26:20
And we've seen it from GPT-3, right?
558
1580617
1752
เราเห็นจากจีพีที-3 แล้วใช่ไหมครับ
26:22
GPT-3, we really were afraid
559
1582369
1376
เรากลัวเรื่องจีพีที-3
26:23
that the number one thing people were going to do with it
560
1583745
2711
ว่าสิ่งแรกที่คนจะนำมันไปใช้
คือการสร้างข้อมูลเท็จ พยายามจะปั่นป่วนผลการเลือกตั้ง
26:26
was generate misinformation, try to tip elections.
561
1586456
2336
26:28
Instead, the number one thing was generating Viagra spam.
562
1588834
2711
กลับกลายเป็นว่า สิ่งแรกที่มันทำ คือสร้างสแปมไวอากร้า
26:31
(Laughter)
563
1591545
3169
(เสียงหัวเราะ)
26:36
CA: So Viagra spam is bad, but there are things that are much worse.
564
1596007
3212
คริส: สแปมไวอากร้านี่มันแย่นะ แต่ยังมีอีกหลายอย่างที่แย่ได้มากกว่า
26:39
Here's a thought experiment for you.
565
1599219
1752
เรามาทำการทดลองทางความคิดกัน
26:40
Suppose you're sitting in a room,
566
1600971
1710
สมมุติว่าคุณนั่งอยู่ในห้อง
26:42
there's a box on the table.
567
1602681
1668
มีกล่องอยู่บนโต๊ะ
26:44
You believe that in that box is something that,
568
1604349
3003
คุณเชื่อว่าในกล่องนั้น มีบางอย่างที่
26:47
there's a very strong chance it's something absolutely glorious
569
1607394
2961
มีโอกาสสูงที่มันจะ รุ่งโรจน์โชติช่วงชัชวาล
26:50
that's going to give beautiful gifts to your family and to everyone.
570
1610397
3920
มันจะให้ของขวัญล้ำค่าแก่ครอบครัวของคุณ และให้แก่ทุกคน
26:54
But there's actually also a one percent thing in the small print there
571
1614359
3629
แต่มีโอกาสหนึ่งเปอร์เซ็นต์ ที่จะเจอตัวอักษรพิมพ์บนกระดาษแผ่นเล็ก ๆ
ว่า “แพนโดรา” [กล่องแห่งหายนะตามตำนานกรีก]
26:58
that says: “Pandora.”
572
1618029
1877
26:59
And there's a chance
573
1619906
1669
และมีโอกาสที่
27:01
that this actually could unleash unimaginable evils on the world.
574
1621616
4088
สิ่งนี้จะสามารถปลดปล่อยความชั่วร้าย ที่ไม่อาจจินตนาการได้มาสู่โลก
27:06
Do you open that box?
575
1626538
1543
เปิดมั้ยครับ
27:08
GB: Well, so, absolutely not.
576
1628123
1460
เกร็ก: อืม ไม่เปิดอย่างแน่นอน
27:09
I think you don't do it that way.
577
1629624
1919
ผมไม่คิดว่านั่นเป็นวิธีที่ดี
เอาอย่างงี้ ผมจะเล่าเรื่องนึง ที่ผมไม่เคยเล่าที่ไหนมาก่อน
27:12
And honestly, like, I'll tell you a story that I haven't actually told before,
578
1632210
3796
27:16
which is that shortly after we started OpenAI,
579
1636006
2586
หลังจากที่เราเริ่มโอเพนเอไอได้ไม่นาน
27:18
I remember I was in Puerto Rico for an AI conference.
580
1638592
2711
ผมได้ไปร่วมงานสัมมนาด้านเอไอ ที่ประเทศเปอร์โตริโก้
27:21
I'm sitting in the hotel room just looking out over this wonderful water,
581
1641344
3462
ผมนั่งอยู่ที่ห้องพักในโรงแรม มองออกไปเห็นผืนน้ำอันสวยงาม
27:24
all these people having a good time.
582
1644806
1752
ผู้คนมีความสุข
คุณลองคิดถึงมันสักครู่
27:26
And you think about it for a moment,
583
1646558
1752
ถ้าคุณสามารถเลือก ให้เปิดกล่อง ที่เป็นไปได้มากว่าเป็นกล่องแพนโดรา
27:28
if you could choose for basically that Pandora’s box
584
1648310
4504
27:32
to be five years away
585
1652814
2711
ในอีก 5 ปี
27:35
or 500 years away,
586
1655567
1585
หรืออีก 500 ปี
27:37
which would you pick, right?
587
1657194
1501
คุณจะเลือกแบบไหน
27:38
On the one hand you're like, well, maybe for you personally,
588
1658737
2836
ในมุมหนึ่ง คุณอาจจะคิด ส่วนตัวของคุณเอง
27:41
it's better to have it be five years away.
589
1661573
2002
มันดีกว่าในอีก 5 ปี
27:43
But if it gets to be 500 years away and people get more time to get it right,
590
1663617
3628
แต่ถ้ามันถูกเปิดในอีก 500 ปี แล้วเรามีเวลาในการเตรียมให้มันถูก
27:47
which do you pick?
591
1667287
1168
คุณจะเลือกแบบไหน
27:48
And you know, I just really felt it in the moment.
592
1668496
2336
ผมรู้สึกได้เลยในตอนนั้น
27:50
I was like, of course you do the 500 years.
593
1670874
2002
แน่นอนอยู่แล้วว่า เราต้องเลือก 500 ปี
ผู้คนมากมาย อย่างพี่ชายของผม อยู่ในกองทัพในช่วงเวลานั้น
27:53
My brother was in the military at the time
594
1673293
2002
27:55
and like, he puts his life on the line in a much more real way
595
1675295
2961
เขาเสี่ยงชีวิตอยู่จริง ๆ
27:58
than any of us typing things in computers
596
1678256
2628
มากกว่าพวกเราที่กำลังทำงานกับคอมพิวเตอร์
28:00
and developing this technology at the time.
597
1680926
2585
และพัฒนาเทคโนโลยีนี้อยู่ในขณะนั้น
28:03
And so, yeah, I'm really sold on the you've got to approach this right.
598
1683511
4547
ใช่ครับ ผมเชื่อมาก ๆ ว่า เราจะต้องลุยไปกับมันอย่างถูกต้อง
28:08
But I don't think that's quite playing the field as it truly lies.
599
1688058
3628
แต่ผมว่านั่นยังไม่มองโลกตามความจริง
28:11
Like, if you look at the whole history of computing,
600
1691686
2670
เช่น ถ้าคุณลองดู ประวัติศาสตร์ทั้งหมดของคอมพิวเตอร์
28:14
I really mean it when I say that this is an industry-wide
601
1694397
4463
ผมเชื่ออย่างที่ผมพูดจริง ๆ ว่า นี่คือการเปลี่ยนแปลงทั่วทั้งอุตสาหกรรม
28:18
or even just almost like
602
1698902
1543
หรือเกือบจะเรียกได้ว่า
28:20
a human-development- of-technology-wide shift.
603
1700487
3336
การเปลี่ยนแปลงด้าน การพัฒนาเทคโนโลยีของมนุษย์
28:23
And the more that you sort of, don't put together the pieces
604
1703865
4088
แล้วยิ่งคุณไม่เอามาปะติดปะต่อกัน
28:27
that are there, right,
605
1707994
1293
ส่วนต่าง ๆ ที่เห็นอยู่
28:29
we're still making faster computers,
606
1709329
1752
เรายังคงสร้างคอมพิวเตอร์ที่เร็วขึ้น
28:31
we're still improving the algorithms, all of these things, they are happening.
607
1711081
3670
เรายังคงปรับปรุงอัลกอริทึม สิ่งเหล่านี้กำลังเกิดขึ้น
28:34
And if you don't put them together, you get an overhang,
608
1714793
2627
ถ้าคุณไม่เอามาปะติดปะต่อกัน แล้วมันเริ่มใหญ่เกินตัว
28:37
which means that if someone does,
609
1717420
1627
ซึ่งก็หมายถึงถ้าใครบางคนทำได้
28:39
or the moment that someone does manage to connect to the circuit,
610
1719089
3086
หรือมีคนจัดการเชื่อมต่อวงจรได้สำเร็จ
28:42
then you suddenly have this very powerful thing,
611
1722175
2252
ทันทีทันใด ใครบางคน จะมีสิ่งที่มีพลังอำนาจสูง
28:44
no one's had any time to adjust,
612
1724427
1544
แล้วไม่มีใครมีเวลาพอในการปรับตัว
ใครจะรู้ว่าคุณได้รับมาตรการ ความปลอดภัยแบบใด
28:46
who knows what kind of safety precautions you get.
613
1726012
2336
28:48
And so I think that one thing I take away
614
1728390
1918
ดังนั้น สิ่งหนึ่งที่ผมคิดได้คือ
28:50
is like, even you think about development of other sort of technologies,
615
1730308
3837
แม้กระทั่งตอนที่คุณคิด เกี่ยวกับการพัฒนาเทคโนโลยีประเภทอื่น ๆ
28:54
think about nuclear weapons,
616
1734187
1376
ลองคิดถึงอาวุธนิวเคลียร์
28:55
people talk about being like a zero to one,
617
1735563
2002
ผู้คนพูดถึงการสร้างสิ่งใหม่ขึ้นมา
28:57
sort of, change in what humans could do.
618
1737565
2628
เปลี่ยนแปลงสิ่งที่มนุษย์สามารถทำได้
29:00
But I actually think that if you look at capability,
619
1740235
2461
แต่ผมคิดว่าถ้าคุณดูที่ขีดความสามารถ
29:02
it's been quite smooth over time.
620
1742696
1585
มันค่อนข้างราบรื่นเมื่อเวลาผ่านไป
29:04
And so the history, I think, of every technology we've developed
621
1744281
3670
ผมคิดว่าประวัติศาสตร์ของ ทุกเทคโนโลยีที่เราพัฒนาขึ้น
29:07
has been, you've got to do it incrementally
622
1747993
2002
คุณต้องทำมันทีละน้อย
และคุณต้องหาวิธีจัดการมัน
29:10
and you've got to figure out how to manage it
623
1750036
2127
29:12
for each moment that you're increasing it.
624
1752163
2461
ในแต่ละช่วงเวลาที่คุณพัฒนามัน
29:14
CA: So what I'm hearing is that you ...
625
1754666
2252
คริส: สิ่งที่ผมได้ยินมา ...
29:16
the model you want us to have
626
1756918
1668
แผนการที่คุณอยากให้พวกเราทำ
29:18
is that we have birthed this extraordinary child
627
1758628
2795
คือการที่พวกเราได้ให้กำเนิด เด็กสุดพิเศษคนนี้
29:21
that may have superpowers
628
1761423
2544
ที่อาจมีอิทธิฤทธิ์
ที่จะพามนุษยชาติไปสู่สิ่งใหม่ ๆ
29:24
that take humanity to a whole new place.
629
1764009
2544
29:26
It is our collective responsibility to provide the guardrails
630
1766594
5005
เป็นความรับผิดชอบร่วมกันของเรา ในการเตรียมรั้วรอบขอบชิดที่เหมาะสม
29:31
for this child
631
1771641
1210
สำหรับเด็กคนนี้
29:32
to collectively teach it to be wise and not to tear us all down.
632
1772892
5047
เพื่อร่วมกันสอนมันให้ฉลาด และไม่กลับมาทำร้ายเรา
29:37
Is that basically the model?
633
1777939
1377
มันคือแผนนี้ใช่มั้ย
29:39
GB: I think it's true.
634
1779357
1168
เกร็ก: มันเป็นความจริง
29:40
And I think it's also important to say this may shift, right?
635
1780567
2878
และผมคิดว่ามันสำคัญเช่นกัน ที่จะบอกว่าสิ่งนี้อาจเปลี่ยนไป
29:43
We've got to take each step as we encounter it.
636
1783445
3253
เราต้องดำเนินการในแต่ละขั้นตอน ตามสิ่งที่เราพบเจอ
29:46
And I think it's incredibly important today
637
1786740
2002
และผมคิดว่ามันสำคัญมากในปัจจุบัน
29:48
that we all do get literate in this technology,
638
1788783
2878
ที่เราทุกคนจะต้องรู้เท่าทันเทคโนโลยีนี้
29:51
figure out how to provide the feedback,
639
1791661
1919
หาวิธีการแสดงความคิดเห็นติชม
29:53
decide what we want from it.
640
1793621
1377
ตัดสินใจว่าต้องการอะไรจากมัน
29:54
And my hope is that that will continue to be the best path,
641
1794998
3128
และผมหวังว่า นี่จะเป็นเส้นทางที่ดีที่สุดต่อไป
29:58
but it's so good we're honestly having this debate
642
1798168
2377
เป็นเรื่องที่ดีมากจริง ๆ นะ ที่เราได้ถกเถียงกัน
30:00
because we wouldn't otherwise if it weren't out there.
643
1800545
2628
เพราะเราคงไม่ได้ถกกัน หากมันไม่ได้ถูกปล่อยสู่สาธารณชน
30:03
CA: Greg Brockman, thank you so much for coming to TED and blowing our minds.
644
1803631
3629
คริส: เกร็ก บร็อคแมน ขอบคุณมากครับ ที่มางานเท็ด และทำให้เราตื่นตาตื่นใจ
30:07
(Applause)
645
1807302
1626
(เสียงปรบมือ)
เกี่ยวกับเว็บไซต์นี้

ไซต์นี้จะแนะนำคุณเกี่ยวกับวิดีโอ YouTube ที่เป็นประโยชน์สำหรับการเรียนรู้ภาษาอังกฤษ คุณจะได้เห็นบทเรียนภาษาอังกฤษที่สอนโดยอาจารย์ชั้นนำจากทั่วโลก ดับเบิลคลิกที่คำบรรยายภาษาอังกฤษที่แสดงในแต่ละหน้าของวิดีโอเพื่อเล่นวิดีโอจากที่นั่น คำบรรยายเลื่อนซิงค์กับการเล่นวิดีโอ หากคุณมีความคิดเห็นหรือคำขอใด ๆ โปรดติดต่อเราโดยใช้แบบฟอร์มการติดต่อนี้

https://forms.gle/WvT1wiN1qDtmnspy7