Should we fear chatbots? ⏲️ 6 Minute English

130,813 views ・ 2023-07-06

BBC Learning English


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video. Phụ đề được dịch là máy dịch.

00:07
Hello. This is 6 Minute English
0
7680
1600
Xin chào. Đây là 6 Minute English
00:09
from BBC Learning English.
1
9280
1720
từ BBC Learning English.
00:11
I'm Neil.
2
11000
760
00:11
And I'm Rob.
3
11760
1720
Tôi là Neil.
Và tôi là Rob.
00:13
Now, I'm sure most of us have interacted with a chatbot.
4
13480
4160
Bây giờ, tôi chắc chắn rằng hầu hết chúng ta đã tương tác với một chatbot.
00:17
These are bits of computer technology that respond to text with text
5
17640
4920
Đây là những phần của công nghệ máy tính phản hồi văn bản bằng văn bản
00:22
or respond to your voice.
6
22560
2040
hoặc phản hồi giọng nói của bạn.
00:24
You ask it a question and usually it comes up
7
24600
3400
Bạn hỏi nó một câu hỏi và nó thường đưa ra
00:28
with an answer.
8
28000
1200
câu trả lời.
00:29
Yes, it's almost like talking to another human.
9
29200
2480
Vâng, nó gần giống như nói chuyện với một người khác.
00:31
But of course, it's not.
10
31680
1760
Nhưng tất nhiên, không phải vậy.
00:33
It's just a clever piece of technology.
11
33440
2640
Nó chỉ là một mảnh công nghệ thông minh.
00:36
It's becoming more sophisticated, more advanced and complex,
12
36080
3720
Nó ngày càng tinh vi hơn, tiên tiến hơn và phức tạp hơn,
00:39
but could they replace real human interaction altogether?
13
39800
3200
nhưng liệu chúng có thể thay thế hoàn toàn sự tương tác thực sự của con người không?
00:43
We'll discuss that more in a moment and find out if chatbots
14
43000
3560
Chúng ta sẽ thảo luận thêm về vấn đề đó trong giây lát và tìm hiểu xem liệu chatbot có
00:46
really think for themselves. But first,
15
46560
3120
thực sự tự suy nghĩ hay không. Nhưng trước tiên,
00:49
I have a question for you, Rob. The first computer program that allowed
16
49680
4000
tôi có một câu hỏi dành cho bạn, Rob. Chương trình máy tính đầu tiên cho phép
00:53
some kind of plausible conversation between humans and machines
17
53680
4400
một số cuộc trò chuyện hợp lý giữa con người và máy móc
00:58
was invented in 1966.
18
58080
2840
được phát minh vào năm 1966.
01:00
But what was it called?
19
60920
1760
Nhưng nó được gọi là gì?
01:02
Was it a) Alexa.
20
62680
2360
Có phải a) Alexa.
01:05
b) Eliza, or c) Parry? Well, it's not Alexa,
21
65040
5040
b) Eliza, hay c) Parry? Chà, không phải Alexa,
01:10
that's too new, so I'll guess
22
70080
2080
nó quá mới, vì vậy tôi đoán
01:12
c) Parry.
23
72160
1160
c) Parry.
01:13
I'll reveal the answer at the end of the programme.
24
73320
3480
Tôi sẽ tiết lộ câu trả lời ở cuối chương trình.
01:16
Now, the old chatbots of the 1960s and 70s were quite basic.
25
76800
5400
Bây giờ, các chatbot cũ của những năm 1960 và 70 khá cơ bản.
01:22
But more recently, the technology is able to predict the next word that is
26
82200
5600
Nhưng gần đây hơn, công nghệ này có thể dự đoán từ tiếp theo có
01:27
likely to be used in a sentence and it learns words and sentence structures.
27
87800
4800
khả năng được sử dụng trong một câu và nó sẽ học các từ và cấu trúc câu.
01:32
It's clever stuff.
28
92600
1360
Đó là công cụ thông minh.
01:33
I've experienced using them when talking to my bank
29
93960
2760
Tôi đã có kinh nghiệm sử dụng chúng khi nói chuyện với ngân hàng của mình
01:36
or when I have problems trying to book a ticket on a website.
30
96720
3320
hoặc khi tôi gặp sự cố khi đặt vé trên một trang web.
01:40
I no longer phone a human,
31
100040
2480
Tôi không còn gọi điện cho con người nữa, thay vào đó
01:42
I speak to a virtual assistant instead.
32
102520
2840
tôi nói chuyện với một trợ lý ảo.
01:45
Probably the most well known chatbot at the moment
33
105360
2880
Có lẽ chatbot nổi tiếng nhất hiện nay
01:48
is ChatGTP.
34
108240
1640
là ChatGTP.
01:49
It is. The claim is that it's able to answer
35
109880
2920
Nó là. Yêu cầu là nó có thể trả lời
01:52
anything you ask it.
36
112800
1680
bất cứ điều gì bạn yêu cầu nó.
01:54
This includes writing
37
114480
1280
Điều này bao gồm cả việc viết
01:55
students' essays.
38
115760
1680
bài luận của học sinh.
01:57
Now, this is something that was discussed on the BBC
39
117440
2600
Bây giờ, đây là điều đã được thảo luận trong
02:00
Radio 4 programme, Word of Mouth.
40
120040
2520
chương trình Word of Mouth của BBC Radio 4.
02:02
Emily M Bender,
41
122560
1640
Emily M Bender,
02:04
Professor of Computational Linguistics at the University
42
124200
3320
Giáo sư Ngôn ngữ học Tính toán tại Đại học
02:07
of Washington, explained why it's dangerous to always trust
43
127520
3760
Washington, đã giải thích lý do tại sao việc luôn tin tưởng
02:11
what a chatbot is telling us.
44
131280
2160
những gì một chatbot nói với chúng ta là rất nguy hiểm.
02:13
We tend to react to grammatical, fluent, coherent seeming text
45
133440
5280
Chúng tôi có xu hướng phản ứng với văn bản có vẻ đúng ngữ pháp, trôi chảy, mạch lạc
02:18
as authoritative and reliable and valuable and
46
138720
4720
là có thẩm quyền, đáng tin cậy và có giá trị và
02:23
we need to be on guard against that because what is coming out of ChatGTP
47
143440
2680
chúng tôi cần đề phòng điều đó bởi vì những gì đến từ ChatGTP
02:26
is none of that.
48
146120
1400
không phải là điều đó.
02:27
So, Professor Bender says that well written text, that is coherent -
49
147520
4320
Vì vậy, Giáo sư Bender nói rằng văn bản được viết tốt, mạch lạc -
02:31
that means it's clear, carefully considered and sensible -
50
151840
3440
có nghĩa là nó rõ ràng, được cân nhắc cẩn thận và hợp lý -
02:35
makes us think what we are reading is reliable and authoritative.
51
155280
4240
khiến chúng ta nghĩ rằng những gì chúng ta đang đọc là đáng tin cậy và có thẩm quyền.
02:39
So it's respected, accurate and important sounding.
52
159520
3600
Vì vậy, nó được tôn trọng, chính xác và âm thanh quan trọng.
02:43
Yes, chatbots might appear to write in this way. But really,
53
163120
3920
Có, chatbot có thể viết theo cách này. Nhưng thực sự,
02:47
they are just predicting one word after another based on what they have learnt.
54
167040
5040
họ chỉ đang dự đoán hết từ này đến từ khác dựa trên những gì họ đã học được.
02:52
We should therefore be on guard - be careful
55
172080
3040
Do đó, chúng ta nên cảnh giác - cẩn thận
02:55
and alert about the accuracy of what we are being told.
56
175120
3880
và cảnh giác về tính chính xác của những gì chúng ta đang được nói.
02:59
One concern is that chatbots - a form of artificial intelligence - work
57
179000
4800
Một mối quan tâm là chatbot - một dạng trí tuệ nhân tạo - hoạt động
03:03
a bit like a human brain in the way it can learn and process information.
58
183800
4640
hơi giống bộ não con người theo cách nó có thể học và xử lý thông tin.
03:08
They are able to learn from experience. Something called deep learning.
59
188440
4680
Họ có thể học hỏi từ kinh nghiệm. Một cái gì đó gọi là học sâu.
03:13
A cognitive psychologist and computer scientist called Geoffrey Hinton,
60
193120
4120
Một nhà tâm lý học nhận thức và nhà khoa học máy tính tên là Geoffrey Hinton,
03:17
recently said he feared that chatbots could soon overtake the level
61
197240
4120
gần đây cho biết ông sợ rằng chatbot có thể sớm vượt qua mức độ
03:21
of information that a human brain holds. That is a bit scary isn't it?
62
201360
5160
thông tin mà bộ não con người nắm giữ. Đó là một chút đáng sợ phải không?
03:26
But for now, chatbots can be useful for practical information,
63
206560
4000
Nhưng hiện tại, chatbot có thể hữu ích cho thông tin thực tế,
03:30
but sometimes we start to believe they are human
64
210560
2680
nhưng đôi khi chúng ta bắt đầu tin rằng chúng là con người
03:33
and we interact with them in a human like way.
65
213240
2920
và chúng ta tương tác với chúng theo cách giống như con người.
03:36
This can make us believe them even more.
66
216160
2520
Điều này có thể khiến chúng ta tin tưởng họ hơn nữa.
03:38
Professor Emma Bender,
67
218680
1160
Giáo sư Emma Bender,
03:39
speaking on the BBC's Word of Mouth
68
219840
1880
phát biểu trong chương trình Word of Mouth của BBC
03:41
programme, explains why we might feel like that.
69
221720
3560
, giải thích tại sao chúng ta có thể cảm thấy như vậy.
03:45
I think what's going on there is, the kinds of answers
70
225280
3160
Tôi nghĩ những gì đang diễn ra ở đó, các loại câu trả lời
03:48
you get depend on the questions
71
228440
2360
bạn nhận được tùy thuộc vào câu hỏi
03:50
you put in, because it's doing likely next word, likely next word.
72
230800
3360
bạn đặt ra, bởi vì nó có khả năng xảy ra từ tiếp theo, có thể là từ tiếp theo.
03:54
And so, if as the human interacting with this machine
73
234160
3360
Và vì vậy, nếu con người tương tác với cỗ máy này
03:57
and you start asking questions about how do you feel, you know, chatbot?
74
237520
4120
và bạn bắt đầu đặt câu hỏi về cảm giác của mình, bạn biết đấy, chatbot?
04:01
And, what do you think of this?
75
241640
2120
Và, bạn nghĩ gì về điều này?
04:03
What are your goals?
76
243760
1200
Mục tiêu của bạn là gì?
04:04
You can provoke it to say things that sound like what a sentient
77
244960
3400
Bạn có thể kích động nó nói những điều nghe giống như những gì một thực thể có tri giác
04:08
entity would say. We are really primed to imagine a mind behind language
78
248360
4960
sẽ nói. Chúng tôi thực sự sẵn sàng tưởng tượng ra một bộ óc đằng sau ngôn ngữ
04:13
whenever we encounter language.
79
253320
1840
bất cứ khi nào chúng tôi gặp ngôn ngữ.
04:15
And so we really have to account for that when
80
255160
1880
Và vì vậy chúng tôi thực sự phải tính đến điều đó khi
04:17
we're making decisions about these.
81
257040
2240
chúng tôi đưa ra quyết định về những điều này.
04:19
So, although a chatbot might sound human,
82
259480
2960
Vì vậy, mặc dù một chatbot nghe có vẻ giống con người, nhưng
04:22
we really just ask it
83
262440
1280
chúng tôi thực sự chỉ hỏi nó
04:23
things to get a reaction. We provoke it.
84
263720
2720
để nhận được phản hồi. Chúng tôi khiêu khích nó.
04:26
And it answers only with words
85
266440
1800
Và nó chỉ trả lời bằng những từ mà
04:28
it has learned to use before.
86
268240
2080
nó đã học cách sử dụng trước đây.
04:30
Not because it has come up with a clever answer,
87
270320
2960
Không phải vì nó đã đưa ra một câu trả lời thông minh,
04:33
but it does sound like a sentient entity. Sentient describes a living  
88
273280
5000
mà nó nghe giống như một thực thể có tri giác . Sentient mô tả một
04:38
thing that experiences feelings. As Professor Bender says we imagine  
89
278280
4880
vật sống trải nghiệm cảm xúc. Như Giáo sư Bender nói, chúng ta hình dung
04:43
that when something speaks there is a mind behind it. But sorry Neil,
90
283160
4760
rằng khi một điều gì đó cất lên thì có một ý nghĩ đằng sau nó. Nhưng xin lỗi Neil,
04:47
they are not your friend.
91
287920
1280
họ không phải là bạn của bạn.
04:49
They're just machines.
92
289200
1160
Chúng chỉ là máy móc.
04:50
Yes, it's strange then
93
290360
1240
Vâng, thật lạ khi
04:51
that we sometimes give chatbots names. Alexa, Siri, and earlier
94
291600
4920
đôi khi chúng ta đặt tên cho chatbot. Alexa, Siri và trước đó
04:56
I asked you what the name was for their first ever chatbot?
95
296520
3840
tôi đã hỏi bạn tên của chatbot đầu tiên của họ là gì?
05:00
And I guessed it was Parry. Was I right?
96
300360
2760
Và tôi đoán đó là Parry. Tôi có đúng không?
05:03
You guessed wrong, I'm afraid.
97
303120
2000
Bạn đoán sai, tôi sợ.
05:05
Parry was an early form of chatbot from 1972.
98
305120
3840
Parry là một dạng chatbot sơ khai từ năm 1972.
05:08
But the correct answer was Eliza.
99
308960
2960
Nhưng câu trả lời chính xác là Eliza.
05:11
It was considered to be the first chatterbot, as it was called then,
100
311920
3960
Nó được coi là chatbot đầu tiên , như cách gọi của nó khi đó,
05:15
and was developed by Joseph Weizenbaum at Massachusetts Institute of Technology.
101
315880
5480
và được phát triển bởi Joseph Weizenbaum tại Viện Công nghệ Massachusetts.
05:21
Fascinating stuff.
102
321360
1320
Công cụ hấp dẫn.
05:22
OK, now let's recap some of the vocabulary
103
322680
2480
OK, bây giờ chúng ta hãy tóm tắt lại một số từ vựng mà
05:25
we highlighted in this programme, starting with sophisticated,
104
325160
4080
chúng tôi đã đánh dấu trong chương trình này, bắt đầu bằng từ phức tạp,
05:29
which can describe technology that is advanced and complex.
105
329240
4120
có thể mô tả công nghệ tiên tiến và phức tạp.
05:33
Something that is coherent, is clear carefully considered and sensible.
106
333360
4520
Một cái gì đó mạch lạc, rõ ràng được xem xét cẩn thận và hợp lý.
05:37
Authoritative means respected accurate and important sounding.
107
337880
4600
Có thẩm quyền có nghĩa là tôn trọng âm thanh chính xác và quan trọng.
05:42
When you are on guard
108
342480
1400
Khi bạn đề phòng,
05:43
you must be careful and alert about something.
109
343880
2400
bạn phải cẩn thận và cảnh giác về điều gì đó.
05:46
It could be the accuracy of what you see or hear or just being aware
110
346280
4560
Đó có thể là sự chính xác của những gì bạn nhìn thấy hoặc nghe thấy hoặc chỉ là nhận thức
05:50
of the dangers around you. To provoke means to do something
111
350840
3560
được những mối nguy hiểm xung quanh bạn. Khiêu khích có nghĩa là làm điều gì đó
05:54
that causes a reaction from someone.
112
354400
2480
gây ra phản ứng từ ai đó.
05:56
Sentient describes something that experiences feelings.
113
356880
3840
Sentient mô tả một cái gì đó trải nghiệm cảm giác.
06:00
So it's something that is living. Once again
114
360720
2680
Vì vậy, nó là một cái gì đó đang sống. Một lần nữa
06:03
our six minutes are up. Goodbye.
115
363400
2320
sáu phút của chúng tôi đã hết. Tạm biệt.
06:05
Bye bye for now.
116
365720
1520
Tạm biệt nhé.
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7