The Inside Story of ChatGPT’s Astonishing Potential | Greg Brockman | TED

1,805,277 views ・ 2023-04-20

TED


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video.

Translator: Lunouse Trịnh Reviewer: Gia Bảo Nguyễn
00:03
We started OpenAI seven years ago
0
3875
2503
Chúng tôi bắt đầu lập ra OpenAI vào bảy năm trước
00:06
because we felt like something really interesting was happening in AI
1
6378
3712
bởi chúng tôi thấy có gì đó khá thú vị đang diễn ra với AI
00:10
and we wanted to help steer it in a positive direction.
2
10131
3170
và chúng tôi muốn phát triển nó theo hướng tích cực.
00:15
It's honestly just really amazing to see
3
15220
2085
Kể từ lúc ấy thật sự thú vị khi được thấy
00:17
how far this whole field has come since then.
4
17347
3086
cả lĩnh vực này đã đi xa đến mức này.
00:20
And it's really gratifying to hear from people like Raymond
5
20433
3629
Và thật hài lòng khi được nghe từ những người như ông Raymond
00:24
who are using the technology we are building, and others,
6
24104
2836
người đang dùng công nghệ mà chúng tôi phát triển,
00:26
for so many wonderful things.
7
26982
2127
để làm những điều tuyệt vời.
00:29
We hear from people who are excited,
8
29150
2503
Chúng tôi không chỉ lắng nghe từ những người hứng thú
00:31
we hear from people who are concerned,
9
31653
1835
mà còn từ những ai đang quan ngại nữa,
00:33
we hear from people who feel both those emotions at once.
10
33530
2961
và cả những người đang trải nghiệm cả 2 loại cảm xúc ấy.
00:36
And honestly, that's how we feel.
11
36533
2252
Thật lòng, đó là điều mà chúng tôi cảm nhận được.
00:40
Above all, it feels like we're entering an historic period right now
12
40245
4087
Hơn thế nữa, cảm giác như ngay lúc này đây bọn tôi đang viết nên lịch sử
00:44
where we as a world are going to define a technology
13
44374
4421
1 thế giới mà ta đang dần định hình về 1 thứ công nghệ
00:48
that will be so important for our society going forward.
14
48795
3086
sẽ trở nên cực quan trọng cho sự phát triển của xã hội.
00:52
And I believe that we can manage this for good.
15
52924
2628
Và tôi tin là chúng tôi đủ sức hướng nó đến những điều tốt đẹp
00:56
So today, I want to show you the current state of that technology
16
56845
4171
Vậy nên hôm nay, tôi muốn cho mọi người thấy hiện trạng của công nghệ này
01:01
and some of the underlying design principles that we hold dear.
17
61016
3086
cũng như vài nguyên tắc thiết kế cơ bản mà chúng tôi nắm giữ.
01:09
So the first thing I'm going to show you
18
69983
1918
Thứ đầu tiên tôi muốn cho mọi người thấy
01:11
is what it's like to build a tool for an AI
19
71943
2086
đó là việc xây dựng công cụ cho AI khác với
01:14
rather than building it for a human.
20
74029
1876
việc xây dựng công cụ cho con người.
01:17
So we have a new DALL-E model, which generates images,
21
77574
3545
Bọn tôi có mô hình DALL-E tiên tiến để tạo ra hình ảnh,
01:21
and we are exposing it as an app for ChatGPT to use on your behalf.
22
81161
4045
và bọn tôi đang cơ cấu nó dưới dạng app nhằm để các bạn sử dụng ChatGPT tiện hơn.
01:25
And you can do things like ask, you know,
23
85248
2461
Và bạn có thể làm mấy thứ như hỏi nè, bạn biết mà,
01:27
suggest a nice post-TED meal and draw a picture of it.
24
87751
6631
đề xuất một bữa ăn sau bài TED này và vẽ hình nó ra luôn nhe
01:35
(Laughter)
25
95216
1419
(Cười)
01:38
Now you get all of the, sort of, ideation and creative back-and-forth
26
98303
4671
Giờ thì bạn sẽ có mọi thứ, phân mục, ý tưởng và cả sáng tạo qua lại
01:43
and taking care of the details for you that you get out of ChatGPT.
27
103016
4004
hãy lưu tâm đến các chi tiết mà bạn nhận được từ ChatGPT.
01:47
And here we go, it's not just the idea for the meal,
28
107062
2669
Và đây, đó không đơn thuần chỉ là ý tưởng cho bữa ăn,
01:49
but a very, very detailed spread.
29
109773
3587
mà còn là những cách thức cực, cực chi tiết
01:54
So let's see what we're going to get.
30
114110
2044
Giờ hãy xem chúng ta sẽ nhận được gì nhé.
01:56
But ChatGPT doesn't just generate images in this case --
31
116154
3795
Nhưng ChatGPT không chỉ tạo ra các hình ảnh trong trường hợp này --
01:59
sorry, it doesn't generate text, it also generates an image.
32
119991
2836
xin lỗi, không chỉ tạo văn bản, mà còn tạo hình ảnh.
02:02
And that is something that really expands the power
33
122827
2419
Và đó chính là thứ tạo ra bước đột phá
02:05
of what it can do on your behalf in terms of carrying out your intent.
34
125246
3504
trong việc nó có thể làm thay bạn lẫn hiện thực hóa những dự tính của bạn.
02:08
And I'll point out, this is all a live demo.
35
128750
2085
Tôi nói rõ luôn, đây là buổi demo trực tiếp.
02:10
This is all generated by the AI as we speak.
36
130835
2169
Tất cả đều do AI tạo ra như đã nói.
02:13
So I actually don't even know what we're going to see.
37
133046
2544
Nên tôi thật sự không biết chúng ta sẽ xem gì.
02:16
This looks wonderful.
38
136216
2294
Cái này trông tuyệt thật ha.
02:18
(Applause)
39
138510
3712
(Vỗ tay)
02:22
I'm getting hungry just looking at it.
40
142514
1877
Nhìn thôi cũng cảm thấy đói rồi.
02:24
Now we've extended ChatGPT with other tools too,
41
144724
2753
Giờ chúng ta đã mở rộng ChatGPT với các công cụ khác,
02:27
for example, memory.
42
147519
1168
như là, bộ nhớ.
02:28
You can say "save this for later."
43
148728
2795
Bạn có thể bảo nó là “lưu lại dùng sau.”
02:33
And the interesting thing about these tools
44
153233
2043
Và điều thú vị ở những công cụ này là
02:35
is they're very inspectable.
45
155318
1377
chúng rất dễ kiểm tra.
02:36
So you get this little pop up here that says "use the DALL-E app."
46
156695
3128
Bạn sẽ thấy 1 dòng chữ nhỏ ở đây ghi “dùng app Dall -E.”
02:39
And by the way, this is coming to you, all ChatGPT users, over upcoming months.
47
159823
3712
Tiện đây, tính năng này sẽ sớm ra mắt,
đến người dùng Chat vài tháng tới.
Bạn có thể xem chi tiết cách hoạt động và thấy điều mà nó thực sự làm
02:43
And you can look under the hood and see that what it actually did
48
163535
3086
02:46
was write a prompt just like a human could.
49
166621
2169
là viết ra câu hỏi y như con người vậy.
02:48
And so you sort of have this ability to inspect
50
168790
2628
Nên là bạn có thể phần nào đó kiểm tra
02:51
how the machine is using these tools,
51
171459
2086
cách mà cỗ máy đang dùng các công cụ trên,
02:53
which allows us to provide feedback to them.
52
173586
2086
điều này cho phép ta đưa ra phản hồi cho chúng.
02:55
Now it's saved for later,
53
175714
1209
Giờ nó đã được lưu rồi,
02:56
and let me show you what it's like to use that information
54
176965
2878
giờ để tôi cho bạn thấy cách nó sử dụng thông tin đó
02:59
and to integrate with other applications too.
55
179884
2503
để phối hợp tương tác với các ứng dụng khác.
03:02
You can say,
56
182387
2210
Bạn có thể ghi là,
03:04
“Now make a shopping list for the tasty thing
57
184639
5506
“Giờ hãy lên danh sách mua sắm vài thứ ngon ghẻ
03:10
I was suggesting earlier.”
58
190186
1835
mà tôi đã đề xuất khi nãy.”
03:12
And make it a little tricky for the AI.
59
192021
2128
Và để làm khó con AI một chút.
03:16
"And tweet it out for all the TED viewers out there."
60
196276
4337
“Nhớ đăng lên Twitter cho những người xem TED ở ngoài kia coi nhé.”
03:20
(Laughter)
61
200655
2252
(Cười)
03:22
So if you do make this wonderful, wonderful meal,
62
202949
2461
Nếu bạn là người đã soạn cái bữa ăn tuyệt vời kía
03:25
I definitely want to know how it tastes.
63
205410
2044
thì tôi rất muốn biết mùi vị của nó đấy.
03:28
But you can see that ChatGPT is selecting all these different tools
64
208496
3504
Nhưng bạn thấy đó ChatGPT đang tập hợp nhiều công cụ khác nhau
03:32
without me having to tell it explicitly which ones to use in any situation.
65
212000
4379
mà tôi không hề nói rõ cái nào nên dùng cho tình huống nào.
Và cái này, theo tôi, sẽ tạo ra
03:37
And this, I think, shows a new way of thinking about the user interface.
66
217088
3879
1 tư duy mới về cái mà ta gọi là giao diện người dùng
03:40
Like, we are so used to thinking of, well, we have these apps,
67
220967
3796
Kiểu như, chúng ta hay quen là, ừm, mình có các ứng dụng này,
03:44
we click between them, we copy/paste between them,
68
224763
2335
bấm vào, copy/paste chúng,
03:47
and usually it's a great experience within an app
69
227098
2294
và thường sử dụng ứng dụng đó rất sướng tay
03:49
as long as you kind of know the menus and know all the options.
70
229434
2961
một khi bạn thuộc thanh công cụ và hiểu tất cả tùy chọn.
03:52
Yes, I would like you to.
71
232395
1293
Vâng, mong bạn sẽ như vậy.
03:53
Yes, please.
72
233730
1126
Vâng, hãy như vậy.
03:54
Always good to be polite.
73
234898
1251
Tốt nhất là nên lịch sự.
03:56
(Laughter)
74
236149
2628
(Cười)
04:00
And by having this unified language interface on top of tools,
75
240361
5464
Và việc trang bị giao diện ngôn ngữ thống nhất này ở đầu các công cụ,
04:05
the AI is able to sort of take away all those details from you.
76
245867
4630
AI sẽ có thể phần nào hiểu được một cách chi tiết
tất cả những câu lệnh của bạn.
04:10
So you don't have to be the one
77
250538
1543
Cho nên bạn không cần phải
04:12
who spells out every single sort of little piece
78
252123
2294
đánh vần từng chữ hay chi tiết nhỏ
04:14
of what's supposed to happen.
79
254459
1543
về yêu cầu mà bạn muốn.
04:16
And as I said, this is a live demo,
80
256419
1710
Và như đã nói, đây là buổi demo trực tiếp,
04:18
so sometimes the unexpected will happen to us.
81
258129
3379
nên đôi lúc sẽ có vài thứ bất ngờ xảy đến đấy.
04:21
But let's take a look at the Instacart shopping list while we're at it.
82
261549
3420
Nhưng nhân tiện hãy nhìn vào danh sách mua sắm ở Instacart nào.
04:25
And you can see we sent a list of ingredients to Instacart.
83
265386
3254
Như bạn thấy, chúng tôi đã gửi danh sách nguyên liệu đến Instacart.
04:29
Here's everything you need.
84
269349
1543
Đây là những gì bạn cần.
04:30
And the thing that's really interesting
85
270892
1877
Và điều thú vị ở đây là
04:32
is that the traditional UI is still very valuable, right?
86
272811
2919
nó vẫn đang sử dụng giao diện người dùng truyền thống, đúng chứ?
04:35
If you look at this,
87
275772
1877
Nếu bạn nhìn vào đây,
04:37
you still can click through it and sort of modify the actual quantities.
88
277690
4296
bạn có thể bấm vào và sửa đổi số lượng sản phẩm hiện tại.
04:41
And that's something that I think shows
89
281986
1877
Và giao diện người dùng truyền thống
04:43
that they're not going away, traditional UIs.
90
283863
3253
là thứ mà tôi nghĩ rằng sẽ không bao giờ mất đi.
04:47
It's just we have a new, augmented way to build them.
91
287158
2795
Chỉ là chúng ta sẽ có hướng bổ sung mới để phát triển nó thôi.
04:49
And now we have a tweet that's been drafted for our review,
92
289994
2920
Giờ bọn tôi có 1 bài tweet nháp để dành cho buổi hôm nay,
04:52
which is also a very important thing.
93
292956
1793
cũng là 1 cái cực kỳ quan trọng.
04:54
We can click “run,” and there we are, we’re the manager, we’re able to inspect,
94
294749
3712
Bấm “chạy,” và đây, nếu là quản trị viên thì ta có thể kiểm tra ha,
04:58
we're able to change the work of the AI if we want to.
95
298461
2836
chúng ta có thể thay đổi hành động của AI nếu muốn.
05:02
And so after this talk, you will be able to access this yourself.
96
302924
5964
Và sau buổi diễn thuyết này, bạn sẽ có thể tự mình truy cập thử.
05:17
And there we go.
97
317647
1710
Và đây.
05:19
Cool.
98
319816
1126
Tuyệt vời.
05:22
Thank you, everyone.
99
322485
1168
Cảm ơn mọi người.
05:23
(Applause)
100
323653
3003
(Vỗ tay)
05:29
So we’ll cut back to the slides.
101
329367
1627
Giờ ta sẽ quay lại phần trình bày.
05:32
Now, the important thing about how we build this,
102
332954
3587
Rồi, điều quan trọng về việc bọn tôi phát triển thứ này,
05:36
it's not just about building these tools.
103
336583
2210
không đơn thuần chỉ là để phát triển các công cụ.
05:38
It's about teaching the AI how to use them.
104
338793
2252
Mà còn là dạy AI cách để sử dụng chúng.
05:41
Like, what do we even want it to do
105
341087
1710
kiểu, liệu ta muốn nó làm gì
05:42
when we ask these very high-level questions?
106
342839
2419
khi hỏi những câu hỏi lắc léo như vậy?
05:45
And to do this, we use an old idea.
107
345258
2669
Và để làm thế, chúng tôi đã áp dụng một ý tưởng cũ.
05:48
If you go back to Alan Turing's 1950 paper on the Turing test, he says,
108
348261
3337
Xem lại bài báo năm 1950 về bài kiểm tra Turing, Alan Turing nói,
05:51
you'll never program an answer to this.
109
351598
2043
bạn không thể lập trình đáp án cho việc này.
05:53
Instead, you can learn it.
110
353683
1627
Thay vào đó, bạn có thể học.
05:55
You could build a machine, like a human child,
111
355351
2169
Bạn có thể xây dựng cỗ máy như 1 đứa trẻ,
05:57
and then teach it through feedback.
112
357520
2127
và dạy nó thông qua việc nhận phản hồi.
05:59
Have a human teacher who provides rewards and punishments
113
359689
2711
Thầy giáo là con người sẽ trao thưởng hoặc trách phạt
06:02
as it tries things out and does things that are either good or bad.
114
362400
3212
tùy vào việc nó đang làm là tốt hay xấu.
Đó chính là cách chúng tôi huấn luyện ChatGPT.
06:06
And this is exactly how we train ChatGPT.
115
366237
2002
06:08
It's a two-step process.
116
368239
1168
Quá trình có hai bước.
06:09
First, we produce what Turing would have called a child machine
117
369449
3086
Đầu tiên, chúng tôi tạo ra một cỗ máy cái mà Turing gọi là em bé á
06:12
through an unsupervised learning process.
118
372535
1960
thông qua quá trình học không giám sát.
06:14
We just show it the whole world, the whole internet
119
374495
2461
Chỉ cho nó về toàn bộ thế giới và internet
06:16
and say, “Predict what comes next in text you’ve never seen before.”
120
376956
3212
và nói, “Dự đoán điều tiếp theo bằng những chữ mà mày chưa thấy bao giờ xem.”
06:20
And this process imbues it with all sorts of wonderful skills.
121
380168
3044
Và quá trình này sẽ thấm nhuần với tất cả các kĩ năng tuyệt vời.
06:23
For example, if you're shown a math problem,
122
383212
2086
Ví dụ, nếu đưa bạn một bài toán,
06:25
the only way to actually complete that math problem,
123
385298
2544
cách duy nhất để hoàn thành bài toán đó là,
06:27
to say what comes next,
124
387884
1334
nói xem nó ra cái gì,
06:29
that green nine up there,
125
389218
1293
số chín màu xanh ở trên,
06:30
is to actually solve the math problem.
126
390511
2294
đó chính là cách giải quyết bài toán.
06:34
But we actually have to do a second step, too,
127
394432
2169
Nhưng chúng ta cũng phải làm bước thứ hai,
06:36
which is to teach the AI what to do with those skills.
128
396601
2544
đó là dạy AI làm gì với những kĩ năng đó.
06:39
And for this, we provide feedback.
129
399187
1668
Và ở đây, ta đưa ra phản hồi.
06:40
We have the AI try out multiple things, give us multiple suggestions,
130
400855
3253
Ta để cho AI thử nghiệm nhiều thứ, đưa ra nhiều đề xuất,
06:44
and then a human rates them, says “This one’s better than that one.”
131
404150
3212
và sẽ có người đánh giá chúng, bảo, “Cái này tốt hơn cái kia.”
06:47
And this reinforces not just the specific thing that the AI said,
132
407362
3086
Điều này củng cố không chỉ những điều AI đã nói,
06:50
but very importantly, the whole process that the AI used to produce that answer.
133
410448
3795
mà quan trọng là toàn bộ quá trình mà AI đã dùng để tạo ra câu trả lời.
Và điều này cho phép AI cơ cấu.
06:54
And this allows it to generalize.
134
414243
1585
06:55
It allows it to teach, to sort of infer your intent
135
415828
2419
Cho phép AI dạy, suy luận ra mục đích của bạn
và áp dụng vào nhiều hoàn cảnh mà AI chưa từng thấy,
06:58
and apply it in scenarios that it hasn't seen before,
136
418247
2503
07:00
that it hasn't received feedback.
137
420750
1585
mà AI chưa từng nhận phản hồi.
07:02
Now, sometimes the things we have to teach the AI
138
422669
2460
Hiện nay, đôi lúc những điều chúng ta phải dạy AI
07:05
are not what you'd expect.
139
425171
1543
lại không như bạn dự đoán.
07:06
For example, when we first showed GPT-4 to Khan Academy,
140
426756
3086
Ví dụ, khi lần đầu tiên mang GPT-4 đến học viện Khan,
07:09
they said, "Wow, this is so great,
141
429884
1627
họ bảo, “Chà, cái này tuyệt quá,
07:11
We're going to be able to teach students wonderful things.
142
431552
2753
chúng tôi sẽ có thể dạy học sinh nhiều thứ hay ho đây.
07:14
Only one problem, it doesn't double-check students' math.
143
434347
3462
Có một vấn đề là, nó không hề kiểm tra lại bài toán của học sinh.
07:17
If there's some bad math in there,
144
437809
1626
Nếu có lỗi sai trong bài toán đó,
07:19
it will happily pretend that one plus one equals three and run with it."
145
439477
3462
nó sẽ vui vẻ giả vờ rằng một cộng một bằng ba và chấp nhận đáp án đó.”
07:23
So we had to collect some feedback data.
146
443523
2294
Nên chúng tôi đã phải tập hợp một vài dữ liệu phản hồi.
07:25
Sal Khan himself was very kind
147
445858
1544
Anh Sal Khan đã rất tốt bụng
07:27
and offered 20 hours of his own time to provide feedback to the machine
148
447443
3337
và dành 20 tiếng của mình để cung cấp phản hồi cho cái máy
07:30
alongside our team.
149
450780
1501
cùng với nhóm của chúng tôi.
07:32
And over the course of a couple of months we were able to teach the AI that,
150
452323
3587
Và xuyên suốt vài tháng trời chúng tôi đã có thể dạy cho AI rằng,
07:35
"Hey, you really should push back on humans
151
455910
2044
“Này, mày cần phải phản đối lại con người
07:37
in this specific kind of scenario."
152
457954
2044
trong loại hoàn cảnh này này.”
07:41
And we've actually made lots and lots of improvements to the models this way.
153
461416
4921
Và chúng tôi đã cải thiện rất rất nhiều cho mô hình bằng cách này.
07:46
And when you push that thumbs down in ChatGPT,
154
466379
2544
Và khi bạn phản đối lại ChatGPT,
07:48
that actually is kind of like sending up a bat signal to our team to say,
155
468965
3462
nó giống như là đang gửi tín hiệu cho đội ngũ của chúng tôi rằng,
07:52
“Here’s an area of weakness where you should gather feedback.”
156
472427
2919
“Đây là khía cạnh còn yếu mà mày cần tập hợp phản hồi này.”
07:55
And so when you do that,
157
475388
1168
Và khi bạn làm thế,
07:56
that's one way that we really listen to our users
158
476597
2294
đó là cách cho thấy chúng tôi biết lắng nghe
07:58
and make sure we're building something that's more useful for everyone.
159
478933
3378
và đảm bảo rằng chúng tôi đang phát triển một thứ hữu ích với mọi người.
08:02
Now, providing high-quality feedback is a hard thing.
160
482895
3754
Hiện giờ việc đưa ra phản hồi chất lượng cao là rất khó.
08:07
If you think about asking a kid to clean their room,
161
487025
2460
Nếu nghĩ về việc bắt một đứa trẻ dọn phòng của nó,
08:09
if all you're doing is inspecting the floor,
162
489485
2711
và nếu bạn chỉ kiểm tra sàn nhà,
08:12
you don't know if you're just teaching them to stuff all the toys in the closet.
163
492196
3796
bạn sẽ không biết liệu bạn có dạy chúng dồn tất cả đồ chơi vào tủ đồ không.
08:15
This is a nice DALL-E-generated image, by the way.
164
495992
2627
Đây là một bức ảnh đẹp do DALL-E tạo ra, tiện khoe luôn.
08:19
And the same sort of reasoning applies to AI.
165
499912
4713
Và lập luận tương tự cũng áp dụng cho AI.
08:24
As we move to harder tasks,
166
504667
1794
Khi ta giao những nhiệm vụ khó hơn,
08:26
we will have to scale our ability to provide high-quality feedback.
167
506502
3796
Ta sẽ phải cân nhắc khả năng đưa ra phản hồi chất lượng cao của mình.
08:30
But for this, the AI itself is happy to help.
168
510882
3879
Nhưng vì thế, chính AI lại rất sẵn lòng hỗ trợ.
08:34
It's happy to help us provide even better feedback
169
514761
2335
Nó vui vẻ giúp ta đưa ra phản hồi tốt hơn
08:37
and to scale our ability to supervise the machine as time goes on.
170
517138
3587
và khuyến khích ta nhằm tối ưu hóa nó theo thời gian
08:40
And let me show you what I mean.
171
520767
1543
Và để tôi cho các bạn thấy.
08:42
For example, you can ask GPT-4 a question like this,
172
522810
4546
Ví dụ, bạn có thể hỏi GPT-4 câu hỏi như thế này,
08:47
of how much time passed between these two foundational blogs
173
527356
3295
đã qua bao lâu kể từ lúc bạn học tự túc
từ 2 nền tảng blog kiến thức
08:50
on unsupervised learning
174
530693
1668
và từ phản hồi của con người.
08:52
and learning from human feedback.
175
532403
1794
08:54
And the model says two months passed.
176
534197
2460
Và nó sẽ nói rằng hai tháng đã trôi qua.
08:57
But is it true?
177
537075
1167
Nhưng có đúng không?
08:58
Like, these models are not 100-percent reliable,
178
538284
2252
Kiểu như, những mô hình này không đáng tin 100%,
09:00
although they’re getting better every time we provide some feedback.
179
540536
3921
mặc dù chúng đang dần tốt hơn mỗi khi chúng tôi đưa thêm phản hồi.
09:04
But we can actually use the AI to fact-check.
180
544457
3086
Nhưng chúng ta thật sự có thể dùng AI để kiểm tra sự thật.
09:07
And it can actually check its own work.
181
547543
1877
Và nó thật sự có thể tự kiểm tra kết quả.
09:09
You can say, fact-check this for me.
182
549462
1877
Nhập là, kiểm tra nhanh cái này dùm.
09:12
Now, in this case, I've actually given the AI a new tool.
183
552757
3670
Trong trường hợp này, tôi thật sự có thể cho AI một công cụ mới.
09:16
This one is a browsing tool
184
556427
1710
Cái này là công cụ tìm kiếm
09:18
where the model can issue search queries and click into web pages.
185
558137
3879
nơi mẫu thử có thể ra lệnh truy vấn tìm kiếm và bấm vào các trang web.
09:22
And it actually writes out its whole chain of thought as it does it.
186
562016
3253
Và nó cũng sẽ thật sự tự viết ra một chuỗi suy nghĩ.
09:25
It says, I’m just going to search for this and it actually does the search.
187
565269
3587
Nó nói, tôi sẽ thử tìm cái này và nó có tìm kiếm thật.
09:28
It then it finds the publication date and the search results.
188
568856
3128
Sau đó nó tìm ngày phát hành và kết quả tìm kiếm.
09:32
It then is issuing another search query.
189
572026
1919
Sau đó nó lại truy vấn tìm kiếm tiếp.
09:33
It's going to click into the blog post.
190
573945
1877
Nó sẽ bấm vào bài đăng trên blog.
09:35
And all of this you could do, but it’s a very tedious task.
191
575822
2877
Và bạn chỉ có thể làm nhiêu đó, quả là chán phèo luôn ha.
09:38
It's not a thing that humans really want to do.
192
578741
2211
Nó không phải việc mà con người muốn làm.
09:40
It's much more fun to be in the driver's seat,
193
580952
2169
Bạn sẽ thấy cái này vui nếu đang ngồi lái xe
09:43
to be in this manager's position where you can, if you want,
194
583162
2836
hay khi ở vị trí quản lý, có thể chứ, nếu bạn muốn,
09:45
triple-check the work.
195
585998
1210
kiểm đi kiểm lại 3 lần.
Và đưa ra dẫn chứng
09:47
And out come citations
196
587208
1501
09:48
so you can actually go
197
588709
1168
giờ bạn có thể yên tâm
09:49
and very easily verify any piece of this whole chain of reasoning.
198
589919
3754
cũng như dễ dàng xác minh bất kỳ phần nào của toàn bộ lập luận này.
09:53
And it actually turns out two months was wrong.
199
593673
2210
Và thực ra hai tháng là sai rồi.
09:55
Two months and one week,
200
595883
2169
Hai tháng và một tuần,
09:58
that was correct.
201
598094
1251
mới chính xác.
10:00
(Applause)
202
600888
3837
(Vỗ tay)
10:07
And we'll cut back to the side.
203
607645
1502
Giờ trở lại phần trình bày nè.
10:09
And so thing that's so interesting to me about this whole process
204
609147
3920
Và với tôi thứ thật sự thú vị trong cả quá trình này là
10:13
is that it’s this many-step collaboration between a human and an AI.
205
613067
3962
sự cộng tác nhiều lần giữa một con người và một AI.
10:17
Because a human, using this fact-checking tool
206
617029
2461
Bởi vì con người, sử dụng công cụ kiểm tra nhanh này
10:19
is doing it in order to produce data
207
619532
2210
nhằm tạo ra dữ liệu
10:21
for another AI to become more useful to a human.
208
621742
3170
cho 1 AI khác nhằm giúp nó hữu dụng hơn với con người.
10:25
And I think this really shows the shape of something
209
625454
2545
Và tôi nghĩ điều này đã định hình về 1 thứ
10:28
that we should expect to be much more common in the future,
210
628040
3087
mà chúng tôi kỳ vọng sẽ trở nên cực phổ biến trong tương lai,
10:31
where we have humans and machines kind of very carefully
211
631127
2711
khi mà chúng ta có con người và máy móc được thiết kế
10:33
and delicately designed in how they fit into a problem
212
633880
3503
rất cẩn trọng và tỉ mỉ ở cái cách chúng thích nghi với một vấn đề
10:37
and how we want to solve that problem.
213
637425
1918
và cái cách chúng ta muốn giải quyết nó.
10:39
We make sure that the humans are providing the management, the oversight,
214
639385
3462
Chúng tôi cam đoan rằng con người sẽ hỗ trợ quản lý, giám sát, phản hồi
10:42
the feedback,
215
642847
1168
và máy móc sẽ hoạt động theo hướng có thể dễ dàng kiểm tra và đáng tin.
10:44
and the machines are operating in a way that's inspectable
216
644015
2752
10:46
and trustworthy.
217
646809
1126
Và chúng ta có thể cùng nhau tạo ra nhiều máy móc đáng tin cậy hơn.
10:47
And together we're able to actually create even more trustworthy machines.
218
647977
3503
Và tôi nghĩ theo thời gian, nếu quá trình đi đúng hướng,
10:51
And I think that over time, if we get this process right,
219
651522
2711
ta sẽ có thể gỡ rối cả những vấn đề tưởng như bất khả thi
10:54
we will be able to solve impossible problems.
220
654233
2127
Và để bạn hiểu rõ về cái vấn đề gọi là bất khả thi mà tôi đang đề cập,
10:56
And to give you a sense of just how impossible I'm talking,
221
656360
3963
11:00
I think we're going to be able to rethink almost every aspect
222
660323
2878
tôi nghĩ chúng ta sẽ cần suy xét lại ở hầu hết khía cạnh
11:03
of how we interact with computers.
223
663242
2378
về cách mà chúng ta tương tác với máy tính.
11:05
For example, think about spreadsheets.
224
665620
2502
Ví dụ, hãy nghĩ tới những bảng tính.
11:08
They've been around in some form since, we'll say, 40 years ago with VisiCalc.
225
668122
4379
Chúng đã tồn tại dưới nhiều dạng kể từ 40 năm trước khi còn ở thời của ViciCalc.
11:12
I don't think they've really changed that much in that time.
226
672543
2878
Tôi không nghĩ chúng thật sự thay đổi quá nhiều kể từ đó.
11:16
And here is a specific spreadsheet of all the AI papers on the arXiv
227
676214
5922
Và đây là bảng tính cụ thể của tất cả các bài báo AI trên arXiv
11:22
for the past 30 years.
228
682178
1168
trong suốt 30 năm qua.
11:23
There's about 167,000 of them.
229
683346
1960
Có khoảng 167000 bài báo.
11:25
And you can see there the data right here.
230
685348
2878
Và bạn có thể thấy dữ liệu nằm ở đây.
11:28
But let me show you the ChatGPT take on how to analyze a data set like this.
231
688267
3837
Nhưng để tôi cho bạn thấy cách ChatGPT phân tích bộ dữ liệu kiểu này nhé.
11:37
So we can give ChatGPT access to yet another tool,
232
697318
3837
Chúng tôi cho ChatGPT truy cập vào một công cụ khác,
11:41
this one a Python interpreter,
233
701197
1460
là trình thông dịch Python,
11:42
so it’s able to run code, just like a data scientist would.
234
702657
4004
từ đó nó có thể chạy code, giống như một nhà khoa học dữ liệu.
11:46
And so you can just literally upload a file
235
706661
2335
Và bạn có thể chỉ cần đăng tải một tệp tin
11:48
and ask questions about it.
236
708996
1335
và đặt câu hỏi về nó.
11:50
And very helpfully, you know, it knows the name of the file and it's like,
237
710373
3545
Và rất hữu dụng, nó biết tên của tệp tin đó và nó kiểu,
11:53
"Oh, this is CSV," comma-separated value file,
238
713960
2419
“Ồ, đây là CSV,” một tệp tin được tách bằng dấu phẩy
11:56
"I'll parse it for you."
239
716420
1335
“Tôi sẽ phân tích nó.”
11:57
The only information here is the name of the file,
240
717755
2794
Thông tin duy nhất ở đây là tên của tệp tin,
12:00
the column names like you saw and then the actual data.
241
720591
3671
các tên cột như bạn đã thấy và sau đó là dữ liệu thực.
12:04
And from that it's able to infer what these columns actually mean.
242
724262
4504
Và từ đó nó có thể suy luận những cột này có nghĩa thật sự là gì.
12:08
Like, that semantic information wasn't in there.
243
728766
2294
Kiểu, thông tin ngữ nghĩa đó không có ở đây.
12:11
It has to sort of, put together its world knowledge of knowing that,
244
731102
3211
Nó phải kiểu, kết hợp toàn bộ tri thức thế giới để biết rằng,
12:14
“Oh yeah, arXiv is a site that people submit papers
245
734355
2502
“À, arXiv là một trang mà mọi người nộp bài báo
12:16
and therefore that's what these things are and that these are integer values
246
736857
3587
rằng đó là bản chất rằng đó là những giá trị số nguyên
suy ra nó chính là số các tác giả trong tờ báo,”
12:20
and so therefore it's a number of authors in the paper,"
247
740486
2628
kiểu vậy á hả, công việc của con người là vậy à,
12:23
like all of that, that’s work for a human to do,
248
743114
2252
và AI rất vui vẻ mà hỗ trợ họ.
12:25
and the AI is happy to help with it.
249
745408
1751
Giờ tôi không biết tôi cần hỏi gì nữa.
12:27
Now I don't even know what I want to ask.
250
747159
2002
May mắn là, bạn có thể hỏi cái máy này thử,
12:29
So fortunately, you can ask the machine,
251
749203
3003
12:32
"Can you make some exploratory graphs?"
252
752248
1877
“Bạn có thể tạo đồ thị thăm dò không?”
12:37
And once again, this is a super high-level instruction with lots of intent behind it.
253
757461
4004
Một lần nữa, lại là 1 câu hỏi có độ khó siêu cao với nhiều ý định đằng sau.
12:41
But I don't even know what I want.
254
761507
1668
Nhưng tôi không biết tôi muốn gì
Và AI sẽ phải đoán cái mà tôi đang đề cập tới.
12:43
And the AI kind of has to infer what I might be interested in.
255
763175
2920
Rồi nó sẽ đưa ra vài ý kiến hay ho, tôi nghĩ vậy.
12:46
And so it comes up with some good ideas, I think.
256
766137
2294
Một biểu đồ với số tác giả trên từng bài báo,
12:48
So a histogram of the number of authors per paper,
257
768472
2336
12:50
time series of papers per year, word cloud of the paper titles.
258
770850
2961
thời gian của bài báo theo năm, biểu đồ từ của tiêu đề báo.
12:53
All of that, I think, will be pretty interesting to see.
259
773853
2627
Nhưng thứ này, theo tôi, cũng khá thú vị đấy chứ.
Và điều tuyệt vời là, nó có thể làm được.
12:56
And the great thing is, it can actually do it.
260
776522
2169
12:58
Here we go, a nice bell curve.
261
778691
1460
Và đây, một đường cong tuyệt đẹp.
Bạn thấy đó, cột thứ 3 là cột phổ biến nhất
13:00
You see that three is kind of the most common.
262
780151
2169
Sau đó nó lại đưa ra các bài báo tiêu biểu theo từng năm.
13:02
It's going to then make this nice plot of the papers per year.
263
782320
5797
Hình như có điều gì đó khủng khiếp diễn ra vào 2023.
13:08
Something crazy is happening in 2023, though.
264
788117
2294
13:10
Looks like we were on an exponential and it dropped off the cliff.
265
790411
3128
Kiểu ta đang ở trên đỉnh xong cái tự nhiên ngã cái bịch vậy.
13:13
What could be going on there?
266
793539
1460
Là chuyện gì đây trời?
13:14
By the way, all this is Python code, you can inspect.
267
794999
2753
À mà mấy cái này đều là mã Python, bạn có thể kiểm chứng.
13:17
And then we'll see word cloud.
268
797752
1459
Và giờ đến biểu đồ từ nhe.
13:19
So you can see all these wonderful things that appear in these titles.
269
799253
3378
Bạn có thể thấy mấy cái sặc sỡ này trên tiêu đề của các bài báo.
Nhưng tôi cảm thấy rất buồn về năm 2023 này.
13:23
But I'm pretty unhappy about this 2023 thing.
270
803090
2127
Nó khiến năm này cứ kiểu u ám thế nào ấy.
13:25
It makes this year look really bad.
271
805634
1711
13:27
Of course, the problem is that the year is not over.
272
807345
2877
Dĩ nhiên, vấn đề là năm này vẫn chưa kết thúc.
13:30
So I'm going to push back on the machine.
273
810222
2878
Nên tôi sẽ phản đối cái máy.
13:33
[Waitttt that's not fair!!!
274
813142
1585
[Chờ đã, thấy sai sai!!!
13:34
2023 isn't over.
275
814727
1293
2023 đã kết thúc đâu.
Phần trăm số bài báo vào năm 2022 đã đăng trước ngày 13 tháng 4 là bao nhiêu]
13:38
What percentage of papers in 2022 were even posted by April 13?]
276
818481
5088
13:44
So April 13 was the cut-off date I believe.
277
824695
2294
Ngày 13 tháng 4 chính là điểm giao, tôi tin vậy
13:47
Can you use that to make a fair projection?
278
827656
4922
Bạn có thể dùng nó để đưa ra dự đoán tốt hơn không?
13:54
So we'll see, this is the kind of ambitious one.
279
834747
2294
Xem thử nhe, chứ thằng nhãi này hiếu thắng lắm.
13:57
(Laughter)
280
837083
1126
(Cười)
13:59
So you know,
281
839877
1251
Bạn biết đó,
14:01
again, I feel like there was more I wanted out of the machine here.
282
841128
3921
một lần nữa, tôi cảm thấy cái máy này cần cung cấp cấp thêm nhiều thông tin hơn.
14:05
I really wanted it to notice this thing,
283
845049
2502
Tôi rất muốn nó phát hiện điều này,
14:07
maybe it's a little bit of an overreach for it
284
847593
3128
có vẻ hơi quá giới hạn của nó
14:10
to have sort of, inferred magically that this is what I wanted.
285
850763
3378
khi phải suy luận về cái nhu cầu cực ảo diệu của tôi.
14:14
But I inject my intent,
286
854183
1627
Nhưng tôi có nói đến mục đích nhe,
14:15
I provide this additional piece of, you know, guidance.
287
855810
4754
tôi cung cấp thêm 1 số thông tin, kiểu như, hướng dẫn á.
14:20
And under the hood,
288
860564
1168
Và dựa vào đó,
14:21
the AI is just writing code again, so if you want to inspect what it's doing,
289
861774
3629
AI sẽ viết lại code, và nếu bạn muốn kiểm tra xem nó đang làm gì,
14:25
it's very possible.
290
865403
1251
thì được luôn nhe.
14:26
And now, it does the correct projection.
291
866654
3628
Và giờ nó đã dự đoán chính xác rồi này.
14:30
(Applause)
292
870282
5005
(Vỗ tay)
14:35
If you noticed, it even updates the title.
293
875287
2169
Nếu bạn để ý, nó còn cập nhật tiêu đề nữa.
14:37
I didn't ask for that, but it know what I want.
294
877498
2336
Tôi không hề yêu cầu, nhưng nó biết tôi muốn gì.
14:41
Now we'll cut back to the slide again.
295
881794
2544
Giờ thì nhìn lên cái slide trên màn hình nào.
14:45
This slide shows a parable of how I think we ...
296
885714
4880
Slide trên cho thấy 1 gợi ý về cái cách mà tôi nghĩ
14:51
A vision of how we may end up using this technology in the future.
297
891220
3212
Một góc nhìn về cách sử dụng công nghệ này trong tương lai.
14:54
A person brought his very sick dog to the vet,
298
894849
3712
Một người đã mang chú chó bị bệnh nặng đến thú y,
14:58
and the veterinarian made a bad call to say, “Let’s just wait and see.”
299
898561
3336
và bác sĩ thú y đã phạm sai lầm khi nói rằng, “Hãy cứ đợi mà xem.”
15:01
And the dog would not be here today had he listened.
300
901897
2795
Và chú chó sẽ chẳng sống đến hôm nay nếu anh ta làm theo lời bác sĩ.
15:05
In the meanwhile, he provided the blood test,
301
905401
2252
Trong lúc đó, anh ta kiểm tra máu,
15:07
like, the full medical records, to GPT-4,
302
907653
2586
kiểu, hồ sơ y tế đầy đủ hết, theo GPT-4,
15:10
which said, "I am not a vet, you need to talk to a professional,
303
910281
3170
nói, “tôi không phải cơ sở thú y, bạn cần nói chuyện với chuyên gia,
15:13
here are some hypotheses."
304
913492
1710
đây là một số giả thuyết.”
15:15
He brought that information to a second vet
305
915786
2127
Anh ấy đã đem thông tin đó đến trạm thú y thứ hai
15:17
who used it to save the dog's life.
306
917913
1835
họ đã dùng nó để cứu mạng chú chó.
15:21
Now, these systems, they're not perfect.
307
921292
2252
Hiện nay, những hệ thống này, không hề hoàn hảo.
15:23
You cannot overly rely on them.
308
923544
2336
Bạn không thể quá phụ thuộc vào chúng.
15:25
But this story, I think, shows
309
925880
3712
Nhưng qua câu chuyện này, thể hiện rằng
15:29
that a human with a medical professional
310
929592
3044
một người với chuyên môn y tế
15:32
and with ChatGPT as a brainstorming partner
311
932678
2461
có thể dùng ChatGPT như 1 đối tác động não
15:35
was able to achieve an outcome that would not have happened otherwise.
312
935181
3295
qua đó có thể đạt tới những thứ chưa từng có tiền lệ.
15:38
I think this is something we should all reflect on,
313
938476
2419
Tôi nghĩ đó là thứ mà chúng ta nên suy ngẫm
15:40
think about as we consider how to integrate these systems
314
940895
2711
rằng nên cân nhắc khi sáp nhập những hệ thống này vào đời sống.
15:43
into our world.
315
943606
1167
15:44
And one thing I believe really deeply,
316
944815
1835
Và một điều mà tôi rất tin tưởng,
đó là để AI chính xác hơn, sự giúp đỡ từ mọi người là cần thiết.
15:46
is that getting AI right is going to require participation from everyone.
317
946650
4338
15:50
And that's for deciding how we want it to slot in,
318
950988
2377
Đó là quyết định cách để áp dụng thực tiễn thứ này,
15:53
that's for setting the rules of the road,
319
953365
1961
đó là đặt ra những quy luật,
15:55
for what an AI will and won't do.
320
955367
2044
mà AI sẽ và không được vượt qua.
15:57
And if there's one thing to take away from this talk,
321
957453
2502
Và nếu có một điều để rút ra sau buổi nói chuyện này,
15:59
it's that this technology just looks different.
322
959997
2211
đó là công nghệ này rất khác biệt.
16:02
Just different from anything people had anticipated.
323
962208
2502
Rất khác so với những gì mà người ta từng dự kiến.
16:04
And so we all have to become literate.
324
964710
1835
Vậy nên chúng ta phải biết đọc viết.
16:06
And that's, honestly, one of the reasons we released ChatGPT.
325
966587
2961
Chính nó, là 1 trong những lí do mà bọn tôi tạo ra ChatGPT.
16:09
Together, I believe that we can achieve the OpenAI mission
326
969548
3128
Tôi tin rằng chúng ta có thể cùng nhau thực hiện sứ mệnh của OpenAI
16:12
of ensuring that artificial general intelligence
327
972718
2252
để đảm bảo rằng trí tuệ nhân tạo tổng hợp
16:14
benefits all of humanity.
328
974970
1877
mang đến lợi ích cho toàn nhân loại.
16:16
Thank you.
329
976847
1168
Cảm ơn.
16:18
(Applause)
330
978057
6965
(Vỗ tay)
16:33
(Applause ends)
331
993322
1168
(Kết thúc vỗ tay)
16:34
Chris Anderson: Greg.
332
994532
1334
Chris Anderson: Greg.
16:36
Wow.
333
996242
1167
Chà.
16:37
I mean ...
334
997868
1126
Ý tôi là ...
16:39
I suspect that within every mind out here
335
999662
3753
Tôi nghĩ là tất cả bộ não của các thính giả ở đây
16:43
there's a feeling of reeling.
336
1003457
2503
hầu như sẽ thấy choáng váng chứ hả.
16:46
Like, I suspect that a very large number of people viewing this,
337
1006001
3379
Kiểu, tôi nghi là có phần lớn người xem cái này,
16:49
you look at that and you think, “Oh my goodness,
338
1009421
2419
sẽ nhìn và nghĩ, “Ôi lạy chúa trên cao,
16:51
pretty much every single thing about the way I work, I need to rethink."
339
1011882
3462
tôi cần phải xem xét lại toàn bộ cách tôi làm việc.”
Kiểu như, sẽ có những tính năng mới được tạo ra.
16:55
Like, there's just new possibilities there.
340
1015386
2002
Đúng không mọi người?
16:57
Am I right?
341
1017388
1168
16:58
Who thinks that they're having to rethink the way that we do things?
342
1018597
3337
Có ai đang nghĩ mình sẽ phải xem lại cách mà mình làm việc không?
17:01
Yeah, I mean, it's amazing,
343
1021976
1543
Phải, theo tôi, nó rất tuyệt,
17:03
but it's also really scary.
344
1023561
2002
nhưng mà cũng rất đáng sợ nữa.
17:05
So let's talk, Greg, let's talk.
345
1025604
1585
Nên nói chuyện tí nào, Greg, nói chuyện tí.
17:08
I mean, I guess my first question actually is just
346
1028524
2377
Thì là, câu hỏi đầu tiên của tôi là
thế quái nào mà anh làm được vậy?
17:10
how the hell have you done this?
347
1030901
1585
17:12
(Laughter)
348
1032486
1251
(Cười)
17:13
OpenAI has a few hundred employees.
349
1033737
2962
OpenAi có vài trăm nhân viên.
17:16
Google has thousands of employees working on artificial intelligence.
350
1036740
4755
Google thì có vài ngàn nhân viên làm về lĩnh vực trí tuệ nhân tạo.
17:21
Why is it you who's come up with this technology
351
1041996
3503
Lí do nào khiến anh lại nghĩ ra được một thứ công nghệ
17:25
that shocked the world?
352
1045541
1168
gây sửng sốt như thế này?
17:26
Greg Brockman: I mean, the truth is,
353
1046709
1751
Ừ thì, sự thật là,
chúng tôi xây trên vai những gã khổng lồ, thật vậy
17:28
we're all building on shoulders of giants, right, there's no question.
354
1048502
3295
Nếu để ý sẽ thấy sự tiến bộ của máy tính, thuật toán, dữ liệu,
17:31
If you look at the compute progress,
355
1051797
1752
những thứ này đều thuộc chuyên nghành.
17:33
the algorithmic progress, the data progress,
356
1053549
2085
Nhưng tôi nghĩ với OpenAI,
17:35
all of those are really industry-wide.
357
1055634
1835
chúng tôi từ đầu đã đưa ra rất nhiều lựa chọn có cân nhắc.
17:37
But I think within OpenAI,
358
1057469
1252
17:38
we made a lot of very deliberate choices from the early days.
359
1058762
2878
Và lựa chọn đầu tiên đó là đối diện với thực tế.
17:41
And the first one was just to confront reality as it lays.
360
1061640
2711
Và chúng tôi cũng suy nghĩ rất nhiều như là:
17:44
And that we just thought really hard about like:
361
1064393
2294
Cần phải làm gì để đưa nó phát triển đây?
17:46
What is it going to take to make progress here?
362
1066687
2210
17:48
We tried a lot of things that didn't work, so you only see the things that did.
363
1068939
3754
Chúng tôi thất bại rất nhiều, và chỉ có cái này là thành công.
Và tôi nghĩ điều quan trọng nhất chính là tạo ra 1 đội với những con người
17:52
And I think that the most important thing has been to get teams of people
364
1072693
3462
tưởng chừng rất khác nhau nhưng rồi lại có thể làm việc cùng nhau.
17:56
who are very different from each other to work together harmoniously.
365
1076196
3254
17:59
CA: Can we have the water, by the way, just brought here?
366
1079450
2711
CA: Cho chúng tôi chai nước với, để đây nè?
Tôi nghĩ chúng ta sẽ cần, vì chủ đề này tốn nhiều nước bọt lắm.
18:02
I think we're going to need it, it's a dry-mouth topic.
367
1082202
3170
18:06
But isn't there something also just about the fact
368
1086665
2795
Nhưng mà chẳng phải sự thật là
18:09
that you saw something in these language models
369
1089501
4755
anh đã thấy gì đó ở trong các mô hình ngôn ngữ này
18:14
that meant that if you continue to invest in them and grow them,
370
1094256
3921
rằng nếu anh tiếp tục đầu tư và phát triển chúng
18:18
that something at some point might emerge?
371
1098218
3129
tới một lúc nào đó 1 thứ đột phá sẽ được tạo ra đúng chứ?
18:21
GB: Yes.
372
1101847
1126
GB: Đúng.
18:23
And I think that, I mean, honestly,
373
1103015
2836
Và tôi nghĩ, thật ra thì,
18:25
I think the story there is pretty illustrative, right?
374
1105893
2544
tôi nghĩ là câu chuyện khá là truyền cảm hứng đấy chứ?
18:28
I think that high level, deep learning,
375
1108437
2002
Tôi nghĩ việc học lên cao, chuyên sâu,
ai cũng biết bọn tôi dang dự định xây
18:30
like we always knew that was what we wanted to be,
376
1110481
2335
một phòng thí nghiệm chuyên sâu, vậy thì làm cách nào?
18:32
was a deep learning lab, and exactly how to do it?
377
1112858
2419
Lúc mới ban đầu thì bọn tôi đâu có biết.
18:35
I think that in the early days, we didn't know.
378
1115277
2211
Chúng tôi thử đủ thứ,
18:37
We tried a lot of things,
379
1117529
1210
và có 1 người khi đó đang huấn luyện cho 1 mô hình
18:38
and one person was working on training a model
380
1118739
2336
18:41
to predict the next character in Amazon reviews,
381
1121075
2877
để dự đoán chữ cái tiếp theo trong bài đánh giá trên Amazon,
18:43
and he got a result where -- this is a syntactic process,
382
1123994
4755
và kết quả mà anh ta nhận là -- cú pháp được xử lí,
18:48
you expect, you know, the model will predict where the commas go,
383
1128749
3086
bạn biết đó, mô hình đoán được cả chỗ đặt dấu phẩy luôn
18:51
where the nouns and verbs are.
384
1131835
1627
chỗ nào đặt danh và động từ.
18:53
But he actually got a state-of-the-art sentiment analysis classifier out of it.
385
1133504
4337
Anh ta thực sự đã có được bộ phân loại phân tích tâm lý hiện đại nhất từ nó.
18:57
This model could tell you if a review was positive or negative.
386
1137883
2961
Mô hình này có thể cho bạn biết đó là đánh giá tốt hay xấu.
19:00
I mean, today we are just like, come on, anyone can do that.
387
1140886
3378
Ý tôi là, giờ thì ai cũng kiểu, thôi nào, ai cũng làm được mà.
19:04
But this was the first time that you saw this emergence,
388
1144306
3087
Nhưng đây là lần đầu bạn chứng kiến điều này,
19:07
this sort of semantics that emerged from this underlying syntactic process.
389
1147434
5005
một loại ngữ nghĩa đã xuất hiện từ quá trình của cú pháp trên.
Đó là lúc cả bọn nhận ra, phải phát triển cái này,
19:12
And there we knew, you've got to scale this thing,
390
1152481
2336
19:14
you've got to see where it goes.
391
1154858
1544
phải xem nó đi tới đâu.
CA: Vậy điều này đã giải thích cho
19:16
CA: So I think this helps explain
392
1156402
1626
19:18
the riddle that baffles everyone looking at this,
393
1158028
2544
những băn khoăn của mọi người khi thấy thứ này
19:20
because these things are described as prediction machines.
394
1160572
2753
bởi ban đầu chúng được mô tả là những cỗ máy dự đoán mà.
19:23
And yet, what we're seeing out of them feels ...
395
1163367
2669
Và những gì chúng ta đang thấy đây mang lại cảm giác ...
19:26
it just feels impossible that that could come from a prediction machine.
396
1166036
3420
hơi khá khó tin khi tất cả chỉ bắt đầu từ một cỗ máy dự đoán.
19:29
Just the stuff you showed us just now.
397
1169456
2378
Chính là cái anh vừa cho chúng tôi xem.
19:31
And the key idea of emergence is that when you get more of a thing,
398
1171875
3838
Và điểm mấu chốt ở đây là khi bạn phát hiện thêm thứ gì đó,
19:35
suddenly different things emerge.
399
1175754
1585
thì cả đống thứ khác cũng hiện ra.
19:37
It happens all the time, ant colonies, single ants run around,
400
1177339
3045
Nó giống như là, có 1 bầy kiến, một con kiến chạy quanh,
khi bạn đem đủ số kiến lại với nhau,
19:40
when you bring enough of them together,
401
1180384
1877
bạn sẽ có 1 bầy kiến với những cá thế có biểu hiện, tính cách khác nhau.
19:42
you get these ant colonies that show completely emergent, different behavior.
402
1182302
3629
19:45
Or a city where a few houses together, it's just houses together.
403
1185973
3086
Hay một đô thi với vài căn nhà liền kề, thì chả có gì đặc biệt.
Nhưng khi bạn tăng số căn nhà lên,
19:49
But as you grow the number of houses,
404
1189059
1794
19:50
things emerge, like suburbs and cultural centers and traffic jams.
405
1190894
4588
thì sẽ có thêm những thứ như ngoại ô, trung tâm văn hóa rồi cả tắc đường.
Anh có thể kể cho tôi về 1 trường hợp mà khi anh khám phá ra cái gì đó
19:57
Give me one moment for you when you saw just something pop
406
1197276
3211
20:00
that just blew your mind
407
1200529
1668
khiến anh bất ngờ
mà anh không nghĩ là nó sẽ tới.
20:02
that you just did not see coming.
408
1202197
1627
20:03
GB: Yeah, well,
409
1203824
1209
GB: Vâng, thì,
20:05
so you can try this in ChatGPT, if you add 40-digit numbers --
410
1205075
3462
bạn có thể thử trên ChatGPT, nếu bạn thêm vào 40 ký tự số
20:08
CA: 40-digit?
411
1208537
1168
CA: 40 ký tự số?
20:09
GB: 40-digit numbers, the model will do it,
412
1209705
2169
40 ký tự số, máy sẽ làm điều đó,
20:11
which means it's really learned an internal circuit for how to do it.
413
1211915
3254
có nghĩa là nó đã học về mạch trong để biết mình phải làm gì.
20:15
And the really interesting thing is actually,
414
1215210
2127
Và điều thật sự thú vị đó là,
20:17
if you have it add like a 40-digit number plus a 35-digit number,
415
1217337
3212
Nếu bạn yêu cầu thêm 40 kí tự số cộng 35 kí tự số,
20:20
it'll often get it wrong.
416
1220591
1710
kết quả thường sẽ sai liền.
20:22
And so you can see that it's really learning the process,
417
1222676
2795
Và bạn thấy đó nó sẽ học từ chính quá trình đó
20:25
but it hasn't fully generalized, right?
418
1225471
1876
chỉ là chưa khái quát được hết, vậy á?
20:27
It's like you can't memorize the 40-digit addition table,
419
1227389
2711
Kiểu như bạn đâu thể nhớ hết bảng 40 kí tự số thêm vào,
20:30
that's more atoms than there are in the universe.
420
1230100
2294
nó nhiều hơn số nguyên tử có trong vũ trụ cơ mà
20:32
So it had to have learned something general,
421
1232394
2086
Vậy nên nó phải được học khái quát,
20:34
but that it hasn't really fully yet learned that,
422
1234480
2377
nhưng mà kiểu nó học chưa tới ấy,
20:36
Oh, I can sort of generalize this to adding arbitrary numbers
423
1236899
2961
À tôi có thể tổng hợp cái này để thêm vài số tùy ý
với độ dài tùy ý.
20:39
of arbitrary lengths.
424
1239902
1167
20:41
CA: So what's happened here
425
1241111
1335
CA: Vậy vấn đề ở đây là
20:42
is that you've allowed it to scale up
426
1242488
1793
anh cho phép nó mở rộng
20:44
and look at an incredible number of pieces of text.
427
1244281
2419
và xem xét đến những mảnh kí tự dồi dào khác.
20:46
And it is learning things
428
1246742
1209
Và nó cứ thế học những thứ
20:47
that you didn't know that it was going to be capable of learning.
429
1247951
3379
mà anh thậm chí không biết là nó có tiếp thu nổi hay không.
20:51
GB Well, yeah, and it’s more nuanced, too.
430
1251371
2002
GB: Ừ, phải, và nó cũng tinh vi hơn chứ.
20:53
So one science that we’re starting to really get good at
431
1253415
2878
Nên là bọn tôi đang cố phát triển khoa học đến 1 trình độ
20:56
is predicting some of these emergent capabilities.
432
1256335
2586
dự đoán được cả những khả năng có thể xảy ra luôn.
20:58
And to do that actually,
433
1258962
1335
Và để làm được điều đó,
21:00
one of the things I think is very undersung in this field
434
1260339
2711
thứ mà tôi nghĩ đang bị đánh giá thấp trong lĩnh vực này
là chất lượng kỹ thuật.
21:03
is sort of engineering quality.
435
1263050
1501
21:04
Like, we had to rebuild our entire stack.
436
1264551
2044
Ta cần phải xây dựng lại toàn bộ hệ thống cơ.
21:06
When you think about building a rocket,
437
1266637
1877
Khi bạn nghĩ về việc phóng 1 cái tên lửa,
21:08
every tolerance has to be incredibly tiny.
438
1268555
2211
thì toàn bộ dung sai phải cực kỳ nhỏ.
21:10
Same is true in machine learning.
439
1270766
1626
Tương tự như lúc cái máy học.
21:12
You have to get every single piece of the stack engineered properly,
440
1272434
3212
Bạn phải đảm bảo từng mảnh kiến thức được lập trình chuẩn xác,
21:15
and then you can start doing these predictions.
441
1275646
2210
thì sau đó nó mới có thể bắt đầu dự đoán
21:17
There are all these incredibly smooth scaling curves.
442
1277856
2503
Chúng là thứ được sắp xếp theo 1 đường cong mịn màng.
Chúng cho bạn nhận thức cơ bản về trí tuệ.
21:20
They tell you something deeply fundamental about intelligence.
443
1280359
2919
Nếu bạn đọc bài blog về GPT-4 của bọn tôi,
21:23
If you look at our GPT-4 blog post,
444
1283320
1710
bạn có thể thấy những đường cong ấy.
21:25
you can see all of these curves in there.
445
1285030
1960
21:26
And now we're starting to be able to predict.
446
1286990
2127
Và giờ chúng tôi có thể bắt đầu dự đoán rồi đấy.
Chúng tôi có thể dự đoán, ví dụ, hiệu xuất các vấn đề về lập trình.
21:29
So we were able to predict, for example, the performance on coding problems.
447
1289117
3713
21:32
We basically look at some models
448
1292871
1585
Chúng tôi cũng có xem qua vài mô hình mẫu
21:34
that are 10,000 times or 1,000 times smaller.
449
1294456
2461
có kích thước nhỏ hơn 10.000 hoặc 1.000 lần.
21:36
And so there's something about this that is actually smooth scaling,
450
1296959
3211
Và quá trình của chúng tôi phần nào diễn ra khá mượt mà,
mặc dù tất cả vẫn còn khá sơ khai.
21:40
even though it's still early days.
451
1300170
2044
21:42
CA: So here is, one of the big fears then,
452
1302756
2544
CA: Vậy hóa ra, một trong những nỗi sợ lớn của anh,
21:45
that arises from this.
453
1305300
1252
là từ đây mà ra.
21:46
If it’s fundamental to what’s happening here,
454
1306593
2127
Nếu nó là nền tảng cho những gì đang diễn ra,
21:48
that as you scale up,
455
1308720
1210
thì khi anh mở rộng quy mô,
21:49
things emerge that
456
1309930
2419
nhiều vấn đề sẽ xảy ra
21:52
you can maybe predict in some level of confidence,
457
1312349
4171
có lẽ anh đã dự đoán được phần nào với sự tự tin nhất định,
21:56
but it's capable of surprising you.
458
1316562
2544
nhưng nó lại cứ thế khiến anh bất ngờ.
22:00
Why isn't there just a huge risk of something truly terrible emerging?
459
1320816
4463
Sao anh không nghĩ là quá trình đó sẽ tạo tiền đề cho 1 thứ kinh khủng trỗi dậy?
22:05
GB: Well, I think all of these are questions of degree
460
1325320
2545
À, tôi nghĩ vấn đề của những câu hỏi đó nằm ở trình độ
22:07
and scale and timing.
461
1327865
1209
quy mô và thời gian.
Và tôi nghĩ mọi người đều bỏ lỡ một thứ
22:09
And I think one thing people miss, too,
462
1329116
1877
22:10
is sort of the integration with the world is also this incredibly emergent,
463
1330993
3587
phần nào đó sự cộng hưởng với thế giới cũng có thể xem là 1 thành công,
22:14
sort of, very powerful thing too.
464
1334621
1585
và kiểu, nó cũng rất tối tân.
Và đó là một trong những lí do mà ta nghĩ là rất quan trọng để phát triển từ từ.
22:16
And so that's one of the reasons that we think it's so important
465
1336248
3045
22:19
to deploy incrementally.
466
1339293
1167
Và chắc ai cũng nhận ra, nếu bạn chú ý nãy giờ,
22:20
And so I think that what we kind of see right now, if you look at this talk,
467
1340502
3629
tôi hay nhấn mạnh vào việc cung cấp phản hồi chất lượng cao.
22:24
a lot of what I focus on is providing really high-quality feedback.
468
1344131
3170
Hiện tại, nghĩa vụ của bọn tôi là gì, bạn kiểm tra được mà, đúng chứ?
22:27
Today, the tasks that we do, you can inspect them, right?
469
1347301
2711
Không khó khi nhìn vào 1 bài toán và kiểu không, không, không,
22:30
It's very easy to look at that math problem and be like, no, no, no,
470
1350012
3211
này máy, câu trả lời đúng là bảy.
22:33
machine, seven was the correct answer.
471
1353265
1835
Nhưng còn việc tóm tắt sách thì sao, kiểu, nó khó đánh giá lắm.
22:35
But even summarizing a book, like, that's a hard thing to supervise.
472
1355100
3212
Kiểu, sao anh biết được bài tóm tắt đủ tốt?
22:38
Like, how do you know if this book summary is any good?
473
1358312
2586
Anh phải đọc hết cuốn sách cơ.
22:40
You have to read the whole book.
474
1360939
1543
Nhưng có ai muốn vậy đâu.
22:42
No one wants to do that.
475
1362482
1168
(Cười)
22:43
(Laughter)
476
1363692
1293
22:44
And so I think that the important thing will be that we take this step by step.
477
1364985
4296
Vậy nên tôi nghĩ điều quan trọng là chúng ta cần từ từ thực hiện nó.
22:49
And that we say, OK, as we move on to book summaries,
478
1369323
2544
Và từ đó, ta thấy Ok, thì mới nói tới tóm tắt sách được,
22:51
we have to supervise this task properly.
479
1371867
1960
ta cần giám sát việc này cẩn thận.
22:53
We have to build up a track record with these machines
480
1373827
2586
Ta cần phải lập hồ sơ theo dõi với những cái máy này,
22:56
that they're able to actually carry out our intent.
481
1376413
2586
đảm bảo chúng triển khai tốt các dự định của ta.
22:59
And I think we're going to have to produce even better, more efficient,
482
1379041
3336
Tôi tin rằng ta sẽ cơ cấu để khiến nó tốt hơn, hiệu quả hơn,
23:02
more reliable ways of scaling this,
483
1382419
1710
đáng tin cậy hơn nhằm phát triển quy mô,
23:04
sort of like making the machine be aligned with you.
484
1384129
2878
kiểu như tạo ra một cỗ máy được kết nối với con người.
CA: Lát nữa chúng ta sẽ được nghe,
23:07
CA: So we're going to hear later in this session,
485
1387049
2294
về nhận định của những nhà phê bình,
23:09
there are critics who say that,
486
1389343
1543
23:10
you know, there's no real understanding inside,
487
1390928
4587
bạn biết không, cái máy thật ra chẳng hiểu gì cả,
23:15
the system is going to always --
488
1395557
1627
hệ thống sẽ luôn luôn --
23:17
we're never going to know that it's not generating errors,
489
1397225
3212
chúng ta không bao giờ biết rằng kiến thức của nó có sai lệch không,
23:20
that it doesn't have common sense and so forth.
490
1400479
2210
rằng nó không có trực giác, v...v
23:22
Is it your belief, Greg, that it is true at any one moment,
491
1402689
4088
Nhận định của anh thế nào, Greg, liệu điều đó có đúng ở 1 vài thời điểm,
23:26
but that the expansion of the scale and the human feedback
492
1406818
3629
bởi việc mở rộng quy mô và cung cấp phản hồi từ con người
23:30
that you talked about is basically going to take it on that journey
493
1410489
4963
mà anh đề cập là thứ sẽ đi theo xuyên suốt cả lộ trình
23:35
of actually getting to things like truth and wisdom and so forth,
494
1415494
3837
nhằm hướng đến những phạm trù về sự thực và trí tuệ, v...v,
23:39
with a high degree of confidence.
495
1419331
1627
với một sự tự tin nhất định.
23:40
Can you be sure of that?
496
1420999
1335
Anh có dám chắc về nó không?
23:42
GB: Yeah, well, I think that the OpenAI, I mean, the short answer is yes,
497
1422334
3462
GB: Có, tôi nghĩ OpenAI, ý tôi là, ngắn gọn là có đó,
23:45
I believe that is where we're headed.
498
1425796
1793
tôi tin đó là cái chúng tôi hướng tới.
23:47
And I think that the OpenAI approach here has always been just like,
499
1427631
3211
Và tôi nghĩ mục tiêu trước giờ của OpenAI vẫn luôn là vậy,
nó rành rành trước mặt anh luôn, đúng chứ?
23:50
let reality hit you in the face, right?
500
1430842
1877
Kiểu lĩnh vực này vốn đầy rẫy những lời thất hứa
23:52
It's like this field is the field of broken promises,
501
1432719
2503
với đầy những gã chuyên gia lúc thì nói X, lúc thì hứa Y.
23:55
of all these experts saying X is going to happen, Y is how it works.
502
1435263
3212
Ai cũng nói mạng lưới thần kinh sẽ không hoạt động quá 70 năm.
23:58
People have been saying neural nets aren't going to work for 70 years.
503
1438475
3337
Thật ra là nó chưa đúng.
24:01
They haven't been right yet.
504
1441812
1376
Nó có thể sẽ đúng tầm 70 năm cộng 1
24:03
They might be right maybe 70 years plus one
505
1443188
2044
hoặc đai loại vậy, đó là thứ bạn cần.
24:05
or something like that is what you need.
506
1445232
1918
Nhưng mục tiêu của bọn tôi vẫn luôn là,
24:07
But I think that our approach has always been,
507
1447192
2169
bạn phải đẩy thứ công nghệ này đến cực hạn
24:09
you've got to push to the limits of this technology
508
1449361
2419
để thấy cách nó hoạt động,
bởi nó có thể nói cho bạn biết, ồ, hóa ra đây là cách để phát triển mô hình mới.
24:11
to really see it in action,
509
1451822
1293
24:13
because that tells you then, oh, here's how we can move on to a new paradigm.
510
1453115
3670
Và bọn tôi vẫn chưa khai thác hết tiềm năng đâu.
24:16
And we just haven't exhausted the fruit here.
511
1456785
2127
CA: Ý tôi là, lập trường của anh đang gây tranh cãi,
24:18
CA: I mean, it's quite a controversial stance you've taken,
512
1458954
2794
rằng ta phải phô bày mọi thứ với công chúng
24:21
that the right way to do this is to put it out there in public
513
1461748
2920
24:24
and then harness all this, you know,
514
1464710
1751
và sau đó khai thác tất cả,
thay vì chỉ có nhóm anh cho phản hồi thôi,
24:26
instead of just your team giving feedback,
515
1466461
2002
24:28
the world is now giving feedback.
516
1468463
2461
thì giờ cả thế giới sẽ cho phản hồi.
24:30
But ...
517
1470924
1168
Nhưng ...
24:33
If, you know, bad things are going to emerge,
518
1473135
3753
kiểu, anh biết mà, khi vấn đề xấu xảy đến,
24:36
it is out there.
519
1476930
1168
thì là chuyện của chung rồi.
24:38
So, you know, the original story that I heard on OpenAI
520
1478140
2919
Anh biết không, trước tôi cũng có nghe chuyện về OpenAI
lúc thành lập vốn là 1 cty phi lợi nhuận,
24:41
when you were founded as a nonprofit,
521
1481101
1793
24:42
well you were there as the great sort of check on the big companies
522
1482894
4463
anh ở đó và đóng vai trò là nhà kiểm định lên các công ty lớn
24:47
doing their unknown, possibly evil thing with AI.
523
1487399
3837
làm những chuyện mờ ám, xấu xa liên quan tới AI.
24:51
And you were going to build models that sort of, you know,
524
1491278
4755
Và anh sắp sửa tạo ra những mô hình kiểu, anh biết đó.
phần nào có khả năng tính toán
24:56
somehow held them accountable
525
1496033
1418
24:57
and was capable of slowing the field down, if need be.
526
1497492
4380
và đủ sức hạn chế cả lĩnh vực, nếu cần.
25:01
Or at least that's kind of what I heard.
527
1501872
1960
Hoặc ít nhất đó là những gì tôi nghe được.
25:03
And yet, what's happened, arguably, is the opposite.
528
1503832
2461
Để rồi, những gì xảy ra, đang chứng minh điều ngược lại
25:06
That your release of GPT, especially ChatGPT,
529
1506334
5673
Khi anh công khai GPT, đặt biệt là ChatGPT,
nó đã gây chấn động lớn tới giới công nghệ
25:12
sent such shockwaves through the tech world
530
1512049
2002
25:14
that now Google and Meta and so forth are all scrambling to catch up.
531
1514051
3795
mà giờ đây Google, Meta và các cty khác đang chạy đua để bắt kịp.
25:17
And some of their criticisms have been,
532
1517888
2085
Một số lời chỉ trích của họ là,
25:20
you are forcing us to put this out here without proper guardrails or we die.
533
1520015
4963
Anh buộc ta phải công khai mà không có biện pháp đúng đắng, ta sẽ chết cho xem.
25:25
You know, how do you, like,
534
1525020
2794
Anh biết đó, làm thế nào mà anh, kiểu,
25:27
make the case that what you have done is responsible here and not reckless.
535
1527814
3754
chịu trách nhiệm và không phớt lờ trước những gì mà anh đã làm.
25:31
GB: Yeah, we think about these questions all the time.
536
1531568
3128
GB: Vâng, đó là câu hỏi mà bọn tôi luôn trăn trở.
25:34
Like, seriously all the time.
537
1534738
1418
Hầu như mọi lúc luôn ấy.
25:36
And I don't think we're always going to get it right.
538
1536198
2711
Và tôi không nghĩ lúc nào chúng tôi cũng làm đúng.
25:38
But one thing I think has been incredibly important,
539
1538909
2460
Nhưng có một điều tôi nghĩ là rất quan trọng,
25:41
from the very beginning, when we were thinking
540
1541411
2169
lúc bắt đầu, bọn tôi nghĩ
việc phát triển trí tuệ nhân tạo tổng quát,
25:43
about how to build artificial general intelligence,
541
1543580
2419
sẽ mang lại lợi ích cho toàn nhân loại,
25:45
actually have it benefit all of humanity,
542
1545999
2002
nhưng, làm thế nào đây, vấn đề đấy?
25:48
like, how are you supposed to do that, right?
543
1548001
2127
Và kế hoạch ban đầu là, phát triển nó trong bí mật,
25:50
And that default plan of being, well, you build in secret,
544
1550170
2711
bạn có 1 thứ công nghệ tối tân,
25:52
you get this super powerful thing,
545
1552923
1626
và khi cảm thấy mọi thứ an toàn thì bạn để nó “triển”,
25:54
and then you figure out the safety of it and then you push “go,”
546
1554549
3003
và bạn mong là nó sẽ đúng.
25:57
and you hope you got it right.
547
1557552
1460
Tôi cũng không biết triển khai ra sao nữa.
25:59
I don't know how to execute that plan.
548
1559012
1835
Có thể ai đó sẽ biết.
26:00
Maybe someone else does.
549
1560889
1168
Với tôi, điều đó không ổn, tôi thấy thế.
26:02
But for me, that was always terrifying, it didn't feel right.
550
1562099
2877
Nên tôi nghĩ rằng cách tiếp cận khác này
26:04
And so I think that this alternative approach
551
1564976
2128
là con đường duy nhất mà tôi thấy,
26:07
is the only other path that I see,
552
1567104
2043
26:09
which is that you do let reality hit you in the face.
553
1569147
2503
bạn sẽ để thực tế đập vào mặt mình.
26:11
And I think you do give people time to give input.
554
1571691
2336
Và mọi người vẫn có thể đưa thông tin vào.
bạn có thể, trước khi những cỗ máy được hoàn thiện,
26:14
You do have, before these machines are perfect,
555
1574027
2211
26:16
before they are super powerful, that you actually have the ability
556
1576279
3128
trước khi chúng lớn mạnh, bạn vẫn có đủ khả năng
để thấy chúng vận hành.
26:19
to see them in action.
557
1579407
1168
26:20
And we've seen it from GPT-3, right?
558
1580617
1752
Và chúng ta đã thấy ở GPT-3 rồi ha?
GPT-3, chúng tôi e rằng
26:22
GPT-3, we really were afraid
559
1582369
1376
26:23
that the number one thing people were going to do with it
560
1583745
2711
điều duy nhất mọi người sẽ làm với nó sẽ là
tạo thông tin sai lệch, cố đề xuất nó lên.
26:26
was generate misinformation, try to tip elections.
561
1586456
2336
26:28
Instead, the number one thing was generating Viagra spam.
562
1588834
2711
Thay vì đẩy những mục đó vào spam như Viagra.
26:31
(Laughter)
563
1591545
3169
(Cười)
CA: thư rác Viagram thì ghê đó, nhưng có cái còn kinh khủng hơn.
26:36
CA: So Viagra spam is bad, but there are things that are much worse.
564
1596007
3212
Tôi có thí nghiệm này cho anh đây.
26:39
Here's a thought experiment for you.
565
1599219
1752
26:40
Suppose you're sitting in a room,
566
1600971
1710
Giả sử anh đang ngồi trong phòng,
26:42
there's a box on the table.
567
1602681
1668
có một cái hộp trên bàn.
26:44
You believe that in that box is something that,
568
1604349
3003
Anh tin là trong chiếc hộp có thứ gì đó,
26:47
there's a very strong chance it's something absolutely glorious
569
1607394
2961
có khả năng rất cao nó là thứ gì đó rất thú vị
26:50
that's going to give beautiful gifts to your family and to everyone.
570
1610397
3920
mà anh có thể dùng làm quà cho gia đình và mọi người.
26:54
But there's actually also a one percent thing in the small print there
571
1614359
3629
Nhưng có 1% trong chiếc hộp đó sẽ là 1 mảnh giấy nhỏ
26:58
that says: “Pandora.”
572
1618029
1877
ghi là: “Pandora.”
26:59
And there's a chance
573
1619906
1669
Và có khả năng
27:01
that this actually could unleash unimaginable evils on the world.
574
1621616
4088
nó thật sự có thể giải phóng những thứ xấu xa đến khó tin ra bên ngoài.
27:06
Do you open that box?
575
1626538
1543
Anh có mở cái hộp không?
27:08
GB: Well, so, absolutely not.
576
1628123
1460
GB: Ừ, thì, chắc là không.
27:09
I think you don't do it that way.
577
1629624
1919
Tôi nghĩ chả ai làm thế cả.
Và thành thật mà nói, tôi sẽ kể anh nghe 1 câu chuyện bí mật,
27:12
And honestly, like, I'll tell you a story that I haven't actually told before,
578
1632210
3796
rằng không lâu sau khi thành lập OpenAI,
27:16
which is that shortly after we started OpenAI,
579
1636006
2586
27:18
I remember I was in Puerto Rico for an AI conference.
580
1638592
2711
tôi lúc đó đang ở Puerto Rico để dự họp báo về AI
27:21
I'm sitting in the hotel room just looking out over this wonderful water,
581
1641344
3462
Tôi đang ngồi trong phòng khách sạn nhìn ra phía đài phun nước
27:24
all these people having a good time.
582
1644806
1752
còn mọi người thì đang vui vẻ.
Và anh hãy nghĩ mà xem,
27:26
And you think about it for a moment,
583
1646558
1752
Nếu anh về cơ bản có thể lựa chọn cái hộp Pandora đó
27:28
if you could choose for basically that Pandora’s box
584
1648310
4504
27:32
to be five years away
585
1652814
2711
trong 5 năm tới
27:35
or 500 years away,
586
1655567
1585
hoặc 500 năm tới,
27:37
which would you pick, right?
587
1657194
1501
thì anh chọn cái nào?
27:38
On the one hand you're like, well, maybe for you personally,
588
1658737
2836
Một mặt anh sẽ kiểu, ừm, có lẽ là theo anh,
27:41
it's better to have it be five years away.
589
1661573
2002
thì chắc là chọn 5 năm sẽ ổn hơn.
27:43
But if it gets to be 500 years away and people get more time to get it right,
590
1663617
3628
Nhưng nếu là 500 năm sau và con người có thêm thời gian để chỉnh sửa,
thì anh sẽ chọn cái nào?
27:47
which do you pick?
591
1667287
1168
27:48
And you know, I just really felt it in the moment.
592
1668496
2336
Anh biết không, tôi nhận thấy là trong khoảng khắc.
27:50
I was like, of course you do the 500 years.
593
1670874
2002
Tôi kiểu, di nhiên là anh chọn 500 rồi.
27:53
My brother was in the military at the time
594
1673293
2002
Anh trai của tôi hồi đấy ở trong quân đội
27:55
and like, he puts his life on the line in a much more real way
595
1675295
2961
và kiểu, ảnh mạo hiểm mạng sống theo cách thiết thực hơn nhiều
27:58
than any of us typing things in computers
596
1678256
2628
so với những người đang bấm máy
28:00
and developing this technology at the time.
597
1680926
2585
và phát triển công nghệ như chúng ta vào lúc này.
28:03
And so, yeah, I'm really sold on the you've got to approach this right.
598
1683511
4547
Nên là, dĩ nhiên, tôi khá vui vì cách tiếp cận của anh đã đúng
28:08
But I don't think that's quite playing the field as it truly lies.
599
1688058
3628
Nhưng tôi không nghĩ đó là ý hay để triển khai cuộc chơi này.
28:11
Like, if you look at the whole history of computing,
600
1691686
2670
Kiểu, nếu anh nhìn vào toàn bộ lịch sử của máy tính,
28:14
I really mean it when I say that this is an industry-wide
601
1694397
4463
Tôi thật sự cho rằng đây là sự thay đổi với qui mô toàn ngành
28:18
or even just almost like
602
1698902
1543
hoặc thậm chí hầu như là
28:20
a human-development- of-technology-wide shift.
603
1700487
3336
toàn bộ sự phát triển công nghệ của loài người.
28:23
And the more that you sort of, don't put together the pieces
604
1703865
4088
Và trong lúc sắp xếp, đừng chỉ cứ đặt từng mảnh có sẵn
28:27
that are there, right,
605
1707994
1293
lại với nhau, đúng chứ,
28:29
we're still making faster computers,
606
1709329
1752
Ta đang tạo những cái máy tính nhanh hơn,
28:31
we're still improving the algorithms, all of these things, they are happening.
607
1711081
3670
ta đang phát triển các thuật toán, tất cả thứ đó, chúng đang xảy ra.
28:34
And if you don't put them together, you get an overhang,
608
1714793
2627
Và nếu không ráp chúng lại, anh sẽ bị nhô,
Nghĩa là nếu có ai đó đến,
28:37
which means that if someone does,
609
1717420
1627
hoặc lúc có ai đó xoay sở để kết nối với mạch,
28:39
or the moment that someone does manage to connect to the circuit,
610
1719089
3086
rồi bạn bỗng có được 1 thứ cực kì tối tân.
28:42
then you suddenly have this very powerful thing,
611
1722175
2252
không ai có thời gian điều chỉnh,
28:44
no one's had any time to adjust,
612
1724427
1544
ai mà biết nó có được cảnh báo an toàn không cơ chứ.
28:46
who knows what kind of safety precautions you get.
613
1726012
2336
28:48
And so I think that one thing I take away
614
1728390
1918
Vậy nên, có 1 điều mà tôi rút ra được
28:50
is like, even you think about development of other sort of technologies,
615
1730308
3837
đó là, mỗi khi bạn nghĩ về sức phát triển của 1 thứ công nghệ nào đó,
28:54
think about nuclear weapons,
616
1734187
1376
hãy nghĩ tới vũ khí hạt nhân,
28:55
people talk about being like a zero to one,
617
1735563
2002
Con người bảo đó là quá trình đi từ số 0 tới cực đại,
28:57
sort of, change in what humans could do.
618
1737565
2628
mỗi khi đề cập tới sự phát triển.
29:00
But I actually think that if you look at capability,
619
1740235
2461
Nhưng thật ra tôi nghĩ nếu ta nhìn vào tính khả thi,
29:02
it's been quite smooth over time.
620
1742696
1585
nó luôn diễn ra rất mạch lạc.
29:04
And so the history, I think, of every technology we've developed
621
1744281
3670
Ý tôi là nhìn vào lịch sử, về mọi công nghệ mà ta từng phát triển
29:07
has been, you've got to do it incrementally
622
1747993
2002
nó luôn kiểu, bạn phải làm từng bước một
và bạn phải tìm ra cách xoay sở
29:10
and you've got to figure out how to manage it
623
1750036
2127
mỗi lúc mà anh nâng tầm nó.
29:12
for each moment that you're increasing it.
624
1752163
2461
29:14
CA: So what I'm hearing is that you ...
625
1754666
2252
CA: Vậy anh đang nói là anh ...
29:16
the model you want us to have
626
1756918
1668
cái khuôn mẫu mà anh đang mong đợi
29:18
is that we have birthed this extraordinary child
627
1758628
2795
đó là ta đã sinh ra 1 đứa trẻ phi thường
29:21
that may have superpowers
628
1761423
2544
rằng nó có siêu năng lực
29:24
that take humanity to a whole new place.
629
1764009
2544
đủ để đưa loài người sang trang mới.
29:26
It is our collective responsibility to provide the guardrails
630
1766594
5005
Đó là trách nhiệm của chúng ta nhằm tạo ra 1 rào chắn
29:31
for this child
631
1771641
1210
cho đứa con này
29:32
to collectively teach it to be wise and not to tear us all down.
632
1772892
5047
cùng nhau dạy nó sự rộng lượng để nó không phản lại ta.
29:37
Is that basically the model?
633
1777939
1377
Đó là mô hình mà anh nói hả?
29:39
GB: I think it's true.
634
1779357
1168
GB: Tôi nghĩ đúng vậy.
29:40
And I think it's also important to say this may shift, right?
635
1780567
2878
Và điều quan trọng là nó có thể thay đổi, đúng chứ?
29:43
We've got to take each step as we encounter it.
636
1783445
3253
Ta cần đi từng bước 1 khi phát hiện ra điều này.
29:46
And I think it's incredibly important today
637
1786740
2002
Và tôi nghĩ điều quan trọng hôm nay
29:48
that we all do get literate in this technology,
638
1788783
2878
đó là ta đều đọc viết dùng đến công nghệ này,
29:51
figure out how to provide the feedback,
639
1791661
1919
tìm ra cách để cung cấp phản hồi,
biết được ta cần gì từ nó.
29:53
decide what we want from it.
640
1793621
1377
29:54
And my hope is that that will continue to be the best path,
641
1794998
3128
Và tôi cũng hy vọng nó sẽ vẫn là con đường tốt nhất,
mà thú thật tôi thấy khá vui khi có cuộc tranh luận này
29:58
but it's so good we're honestly having this debate
642
1798168
2377
30:00
because we wouldn't otherwise if it weren't out there.
643
1800545
2628
bởi nó giúp bọn tôi ngộ ra nhiều thứ hơn là ngồi 1 chỗ.
30:03
CA: Greg Brockman, thank you so much for coming to TED and blowing our minds.
644
1803631
3629
CA: Greg Brockman, cảm ơn rất nhiều vì đã tham gia TED và thông não bọn tôi.
30:07
(Applause)
645
1807302
1626
(Vỗ tay)
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7