Can AI have a mind of its own? ⏲️ 6 Minute English

247,111 views ・ 2023-01-26

BBC Learning English


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video. Phụ đề được dịch là máy dịch.

00:08
Hello. This is 6 Minute English from
0
8520
2220
Xin chào. Đây là 6 Minute English từ
00:10
BBC Learning English. I’m Sam.
1
10740
1680
BBC Learning English. Tôi là Sam.
00:12
And I’m Neil.
2
12420
840
Và tôi là Neil.
00:13
In the autumn of 2021, something
3
13260
2520
Vào mùa thu năm 2021, một điều
00:15
strange happened at the Google
4
15780
1920
kỳ lạ đã xảy ra tại
00:17
headquarters in California’s Silicon
5
17700
2460
trụ sở chính của Google ở ​​Thung lũng Silicon của California
00:20
Valley. A software engineer called,
6
20160
2100
. Một kỹ sư phần mềm tên là
00:22
Blake Lemoine, was working on the
7
22260
2460
Blake Lemoine đang làm việc trong
00:24
artificial intelligence project, ‘Language
8
24720
2340
dự án trí tuệ nhân tạo, '
00:27
Models for Dialogue Applications’, or
9
27060
2700
Mô hình ngôn ngữ cho các ứng dụng đối thoại',
00:29
LaMDA for short. LaMDA is a
10
29760
2940
viết tắt là LaMDA. LaMDA là một
00:32
chatbot – a computer programme
11
32700
1860
chatbot – một chương trình máy tính
00:34
designed to have conversations with
12
34560
2040
được thiết kế để trò chuyện với
00:36
humans over the internet.
13
36600
1080
con người qua internet.
00:37
After months talking with LaMDA
14
37680
2820
Sau nhiều tháng nói chuyện với LaMDA
00:40
on topics ranging from movies to
15
40500
2280
về các chủ đề từ phim ảnh đến
00:42
the meaning of life, Blake came to
16
42780
2220
ý nghĩa cuộc sống, Blake đã đưa ra
00:45
a surprising conclusion: the chatbot
17
45000
2700
một kết luận đáng ngạc nhiên: chatbot
00:47
was an intelligent person with wishes
18
47700
2640
là một người thông minh với những mong muốn
00:50
and rights that should be respected.
19
50340
2160
và quyền cần được tôn trọng.
00:52
For Blake, LaMDA was a Google
20
52500
2640
Đối với Blake, LaMDA là một
00:55
employee, not a machine.
21
55140
1380
nhân viên của Google, không phải một cỗ máy.
00:56
He also called it his ‘friend’.
22
56520
2160
Anh ấy cũng gọi nó là 'bạn' của mình.
00:58
Google quickly reassigned Blake from
23
58680
2580
Google nhanh chóng chỉ định lại Blake khỏi
01:01
the project, announcing that his ideas
24
61260
1860
dự án, thông báo rằng ý tưởng của anh
01:03
were not supported by the evidence.
25
63120
2220
ấy không được chứng minh bằng chứng.
01:05
But what exactly was going on?
26
65340
2700
Nhưng chính xác thì chuyện gì đang xảy ra?
01:08
In this programme, we’ll be
27
68040
1860
Trong chương trình này, chúng ta sẽ
01:09
discussing whether artificial intelligence
28
69900
2160
thảo luận liệu trí tuệ nhân tạo
01:12
is capable of consciousness. We’ll hear
29
72060
3000
có khả năng nhận thức hay không. Chúng ta sẽ
01:15
from one expert who thinks AI is not as
30
75060
3000
nghe một chuyên gia cho rằng AI không
01:18
intelligent as we sometimes think,
31
78060
1560
thông minh như đôi khi chúng ta nghĩ,
01:19
and as usual, we’ll be learning some
32
79620
2460
và như thường lệ, chúng ta cũng sẽ học một số
01:22
new vocabulary as well.
33
82080
1320
từ vựng mới.
01:23
But before that, I have a question for
34
83400
2100
Nhưng trước đó, tôi có một câu hỏi cho
01:25
you, Neil. What happened to Blake Lemoine
35
85500
2280
bạn, Neil. Điều gì đã xảy ra với Blake Lemoine
01:27
is strangely similar to the 2013 Hollywood
36
87780
2940
giống một cách kỳ lạ với bộ phim Hollywood năm 2013
01:30
movie, Her, starring Joaquin Phoenix as
37
90720
3420
, Her, với sự tham gia của Joaquin Phoenix trong vai
01:34
a lonely writer who talks with his
38
94140
1860
một nhà văn cô đơn nói chuyện với máy tính của mình
01:36
computer, voiced by Scarlett Johansson.
39
96000
2280
, do Scarlett Johansson lồng tiếng.
01:38
But what happens at the end
40
98280
1860
Nhưng điều gì xảy ra ở
01:40
of the movie? Is it:
41
100140
1380
cuối phim? Có phải là:
01:41
a) the computer comes to life?
42
101520
1860
a) máy tính đi vào cuộc sống?
01:43
b) the computer dreams about the writer? or,
43
103380
3360
b) máy tính mơ về nhà văn? hoặc,
01:46
c) the writer falls in love with the computer?
44
106740
2040
c) nhà văn yêu máy tính?
01:48
... c) the writer falls in love with the computer.
45
108780
3420
... c) nhà văn say mê chiếc máy tính.
01:52
OK, Neil, I’ll reveal the answer at the end
46
112200
2700
OK, Neil, tôi sẽ tiết lộ câu trả lời ở phần cuối
01:54
of the programme. Although Hollywood is
47
114900
2460
của chương trình. Mặc dù Hollywood có rất
01:57
full of movies about robots coming to life,
48
117360
2340
nhiều bộ phim về robot sắp ra đời,
01:59
Emily Bender, a professor of linguistics and
49
119700
3240
Emily Bender, giáo sư ngôn ngữ học và
02:02
computing at the University of Washington,
50
122940
2100
máy tính tại Đại học Washington, cho
02:05
thinks AI isn’t that smart. She thinks the
51
125040
4440
rằng AI không thông minh đến thế. Cô ấy cho rằng những
02:09
words we use to talk about technology,
52
129480
1800
từ chúng ta sử dụng để nói về công nghệ, những
02:11
phrases like ‘machine learning’, give a
53
131280
3300
cụm từ như 'máy học',
02:14
false impression about what
54
134580
1620
tạo ấn tượng sai về những gì
02:16
computers can and can’t do.
55
136200
1740
máy tính có thể và không thể làm.
02:17
Here is Professor Bender discussing
56
137940
2400
Đây là Giáo sư Bender thảo luận về
02:20
another misleading phrase, ‘speech
57
140340
2340
một cụm từ gây hiểu lầm khác, '
02:22
recognition’, with BBC World Service
58
142680
2460
nhận dạng giọng nói', với chương trình Dịch vụ Thế giới của
02:25
programme, The Inquiry:
59
145140
1440
BBC, Cuộc điều tra:
02:27
If you talk about ‘automatic speech
60
147360
2220
Nếu bạn nói về 'nhận dạng giọng nói tự động
02:29
recognition’, the term ‘recognition’
61
149580
1920
', thuật ngữ 'nhận dạng'
02:31
suggests that there's something
62
151500
2100
gợi ý rằng có điều gì đó thuộc
02:33
cognitive going on, where I think a
63
153600
2160
về nhận thức đang diễn ra, nơi tôi nghĩ là
02:35
better term would be automatic transcription.
64
155760
2100
thuật ngữ tốt hơn sẽ là sao chép tự động.
02:37
That just describes the input-output
65
157860
1980
Điều đó chỉ mô tả mối quan hệ đầu vào-đầu
02:39
relation, and not any theory or wishful
66
159840
3660
ra, chứ không phải bất kỳ lý thuyết hay mơ tưởng nào
02:43
thinking about what the computer is
67
163500
2280
về những gì máy tính đang
02:45
doing to be able to achieve that.
68
165780
1440
làm để có thể đạt được điều đó.
02:47
Using words like ‘recognition’ in relation
69
167220
3360
Việc sử dụng những từ như 'nhận biết' liên quan
02:50
to computers gives the idea that
70
170580
2100
đến máy tính mang lại ý tưởng rằng
02:52
something cognitive is happening – something
71
172680
2760
một điều gì đó thuộc về nhận thức đang xảy ra - một điều gì đó
02:55
related to the mental processes of
72
175440
2340
liên quan đến các quá trình
02:57
thinking, knowing, learning and understanding.
73
177780
2760
suy nghĩ, biết, học và hiểu trong trí óc.
03:00
But thinking and knowing are human,
74
180540
2700
Nhưng suy nghĩ và hiểu biết là hoạt động của con người,
03:03
not machine, activities. Professor Benders
75
183240
3060
không phải máy móc. Giáo sư Benders
03:06
says that talking about them in connection
76
186300
2040
nói rằng nói về chúng liên
03:08
with computers is wishful thinking -
77
188340
3570
quan đến máy tính là điều viển vông -
03:11
something which is unlikely to happen.
78
191910
2310
điều khó có thể xảy ra.
03:14
The problem with using words in this
79
194220
2220
Vấn đề với việc sử dụng các từ
03:16
way is that it reinforces what
80
196440
2100
theo cách này là nó củng cố cái mà
03:18
Professor Bender calls, technical
81
198540
2160
Giáo sư Bender gọi là
03:20
bias – the assumption that the computer
82
200700
2520
khuynh hướng kỹ thuật – giả định rằng máy
03:23
is always right. When we encounter
83
203220
2520
tính luôn đúng. Khi chúng ta bắt gặp
03:25
language that sounds natural, but is
84
205740
1680
ngôn ngữ nghe có vẻ tự nhiên nhưng được
03:27
coming from a computer, humans
85
207420
2280
phát ra từ máy tính, con người
03:29
can’t help but imagine a mind behind
86
209700
2460
không thể không tưởng tượng ra một bộ óc đằng sau
03:32
the language, even when there isn’t one.
87
212160
2220
ngôn ngữ đó, ngay cả khi không có ngôn ngữ đó.
03:34
In other words, we anthropomorphise
88
214380
2160
Nói cách khác, chúng tôi nhân hóa
03:36
computers – we treat them as if they
89
216540
2520
máy tính – chúng tôi đối xử với chúng như thể chúng
03:39
were human. Here’s Professor Bender
90
219060
2220
là con người. Đây là Giáo sư Bender
03:41
again, discussing this idea with
91
221280
2220
một lần nữa, thảo luận về ý tưởng này với
03:43
Charmaine Cozier, presenter of BBC
92
223500
2700
Charmaine Cozier, người dẫn chương trình Điều tra của BBC
03:46
World Service’s, the Inquiry.
93
226200
1620
World Service.
03:48
So ‘ism’ means system, ‘anthro’ or ‘anthropo’
94
228420
3660
Vì vậy, 'ism' có nghĩa là hệ thống, 'anthro' hoặc 'anthropo'
03:52
means human, and ‘morph’ means shape...
95
232080
3000
có nghĩa là con người, và 'morph' có nghĩa là hình dạng...
03:55
And so this is a system that puts the
96
235080
3000
Và đây là một hệ thống đặt
03:58
shape of a human on something, and
97
238080
2160
hình dạng của con người lên một thứ gì đó, và
04:00
in this case the something is a computer.
98
240240
1260
trong trường hợp này, thứ đó là một máy vi tính.
04:01
We anthropomorphise animals all the time,
99
241500
3180
Chúng ta luôn nhân hóa động vật,
04:04
but we also anthropomorphise action figures,
100
244680
3060
nhưng chúng ta cũng nhân hóa các nhân vật hành động,
04:07
or dolls, or companies when we talk about
101
247740
2880
búp bê hoặc công ty khi chúng ta nói về
04:10
companies having intentions and so on.
102
250620
2040
các công ty có ý định, v.v.
04:12
We very much are in the habit of seeing
103
252660
2880
Chúng ta rất có thói quen nhìn thấy
04:15
ourselves in the world around us.
104
255540
1620
chính mình trong thế giới xung quanh.
04:17
And while we’re busy seeing ourselves
105
257160
2220
Và trong khi chúng ta đang bận nhìn nhận bản thân
04:19
by assigning human traits to things that
106
259380
2100
bằng cách gán những đặc điểm của con người cho những
04:21
are not, we risk being blindsided.
107
261480
2520
thứ không có, chúng ta có nguy cơ bị mù quáng.
04:24
The more fluent that text is, the more
108
264000
2400
Văn bản đó càng trôi chảy, càng có
04:26
different topics it can converse on, the
109
266400
2700
nhiều chủ đề khác nhau thì
04:29
more chances there are to get taken in.
110
269100
1920
càng có nhiều cơ hội được tiếp cận.
04:31
If we treat computers as if they could think,
111
271860
2760
Nếu chúng ta coi máy tính như thể chúng có thể suy nghĩ,
04:34
we might get blindsided, or
112
274620
2520
chúng ta có thể bị mù hoặc
04:37
unpleasantly surprised. Artificial intelligence
113
277140
3180
ngạc nhiên một cách khó chịu. Trí tuệ nhân tạo
04:40
works by finding patterns in massive
114
280320
2220
hoạt động bằng cách tìm các mẫu trong
04:42
amounts of data, so it can seem like
115
282540
2520
lượng dữ liệu khổng lồ, vì vậy có vẻ như
04:45
we’re talking with a human, instead
116
285060
1860
chúng ta đang nói chuyện với con người, thay
04:46
of a machine doing data analysis.
117
286920
2220
vì máy thực hiện phân tích dữ liệu.
04:49
As a result, we get taken in – we’re tricked
118
289140
4020
Kết quả là chúng ta bị lừa - chúng ta bị lừa
04:53
or deceived into thinking we’re dealing
119
293160
1920
hoặc bị lừa khi nghĩ rằng chúng ta đang giao dịch
04:55
with a human, or with something intelligent.
120
295080
3003
với một con người hoặc một thứ gì đó thông minh.
04:58
Powerful AI can make machines appear conscious,
121
298083
3318
Trí tuệ nhân tạo mạnh mẽ có thể khiến máy móc có vẻ như có ý thức,
05:01
but even tech giants like Google are years
122
301401
2945
nhưng ngay cả những gã khổng lồ công nghệ như Google cũng phải mất nhiều năm
05:04
away from building computers that can
123
304346
2407
nữa mới có thể tạo ra những chiếc máy tính có thể
05:06
dream or fall in love. Speaking of which,
124
306753
2355
mơ mộng hoặc yêu đương. Nhắc mới nhớ,
05:09
Sam, what was the answer to your question?
125
309108
2671
Sam, câu trả lời cho câu hỏi của bạn là gì?
05:11
I asked what happened in the 2013 movie, Her.
126
311779
2752
Tôi hỏi chuyện gì đã xảy ra trong bộ phim năm 2013, Her.
05:14
Neil thought that the main character
127
314531
1900
Neil nghĩ rằng nhân vật
05:16
falls in love with his computer, which
128
316431
2248
chính phải lòng chiếc máy tính của mình, đó
05:18
was the correct answer!
129
318679
1361
là câu trả lời chính xác!
05:20
OK. Right, it’s time to recap the vocabulary
130
320880
2640
VÂNG. Đúng vậy, đã đến lúc tóm tắt lại từ vựng
05:23
we’ve learned from this programme about AI,
131
323520
2340
mà chúng ta đã học được từ chương trình này về AI,
05:25
including chatbots - computer programmes
132
325860
3180
bao gồm cả chatbot - chương trình máy tính
05:29
designed to interact with
133
329040
1380
được thiết kế để tương tác với
05:30
humans over the internet.
134
330420
1560
con người qua internet.
05:31
The adjective cognitive describes
135
331980
2640
Tính từ nhận thức mô tả
05:34
anything connected with the mental
136
334620
1860
bất cứ điều gì liên quan đến các
05:36
processes of knowing,
137
336480
1320
quá trình nhận biết,
05:37
learning and understanding.
138
337800
1380
học hỏi và hiểu biết.
05:39
Wishful thinking means thinking that
139
339180
2640
Mơ tưởng có nghĩa là nghĩ rằng
05:41
something which is very unlikely to happen
140
341820
2100
một điều gì đó rất khó xảy ra
05:43
might happen one day in the future.
141
343920
2040
có thể xảy ra vào một ngày nào đó trong tương lai.
05:45
To anthropomorphise an object means
142
345960
2400
Nhân hóa một đồ vật có nghĩa là
05:48
to treat it as if it were human,
143
348360
1500
đối xử với nó như thể nó là con người,
05:49
even though it’s not.
144
349860
1200
mặc dù thực tế không phải vậy.
05:51
When you’re blindsided, you’re
145
351060
2520
Khi bạn bị che mắt, bạn sẽ
05:53
surprised in a negative way.
146
353580
1500
ngạc nhiên theo cách tiêu cực.
05:55
And finally, to get taken in by someone means
147
355080
2880
Và cuối cùng, bị ai đó thu hút có
05:57
to be deceived or tricked by them.
148
357960
1860
nghĩa là bị họ lừa dối hoặc lừa gạt.
05:59
My computer tells me that our six minutes
149
359820
2640
Máy tính của tôi nói với tôi rằng sáu phút của chúng ta đã
06:02
are up! Join us again soon, for now
150
362460
2580
hết! Hãy sớm tham gia cùng chúng tôi, bây
06:05
it’s goodbye from us.
151
365040
1140
giờ là lời tạm biệt từ chúng tôi.
06:06
Bye!
152
366180
500
Từ biệt!
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7