Will robots out-think humans? 6 Minute English

79,217 views ・ 2018-01-25

BBC Learning English


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video. Phụ đề được dịch là máy dịch.

00:07
Dan: Hello and welcome to 6 Minute English.
0
7300
1640
Dan: Xin chào và chào mừng đến với 6 Minute English.
00:08
I'm Dan and joining me today is Neil. Hi Neil.
1
8940
2519
Tôi là Dan và tham gia cùng tôi hôm nay là Neil. Xin chào Neil.
00:11
Neil: Hi Dan. What’s with the protective
2
11459
2321
Neil: Chào Dan. Có chuyện gì với đồ bảo hộ
00:13
gear and helmet?
3
13780
929
và mũ bảo hiểm vậy?
00:14
Dan: I’m just getting ready for the inevitable
4
14709
2676
Dan: Tôi vừa chuẩn bị sẵn sàng cho sự trỗi dậy không thể tránh khỏi
00:17
rise of the machines. That’s the takeover
5
17385
2385
của máy móc. Đó là sự tiếp
00:19
of the world by artificial intelligence, or
6
19770
3486
quản thế giới bằng trí tuệ nhân tạo hay còn gọi là
00:23
AI, which some people predict will happen.
7
23256
3404
AI, điều mà một số người dự đoán sẽ xảy ra.
00:26
Neil: Inevitable means cannot be avoided or
8
26660
2615
Neil: Có nghĩa là không thể tránh khỏi hoặc không thể
00:29
stopped. Rise of the machines? What do you mean?
9
29275
3555
dừng lại. Sự trỗi dậy của máy móc? Ý anh là gì?
00:32
Dan: It’s our topic in this 6 Minute English.
10
32830
2138
Dan: Đó là chủ đề của chúng ta trong 6 phút tiếng Anh này.
00:34
We’ll be talking about that, giving you
11
34968
1852
Chúng tôi sẽ nói về điều đó, cung cấp cho bạn
00:36
six related pieces of vocabulary and, of course,
12
36820
3055
sáu phần từ vựng liên quan và tất nhiên,
00:39
our regular quiz question.
13
39875
1655
câu hỏi đố vui thông thường của chúng tôi.
00:41
Neil: That’s the first thing you’ve said
14
41530
1907
Neil: Đó là điều đầu tiên bạn nói
00:43
that makes any sense. What’s the question?
15
43437
2003
có ý nghĩa. Câu hỏi là gì?
00:45
Dan: The word ‘robot’ as we use it today
16
45440
3218
Dan: Từ 'người máy' mà chúng ta sử dụng ngày nay
00:48
was first used in a 1920’s Czech play ‘Rossum’s
17
48658
3782
lần đầu tiên được sử dụng trong một vở kịch của Séc năm 1920 'Rossum's
00:52
Universal Robots’. But before this, what
18
52440
3356
Universal Robots'. Nhưng trước đó,
00:55
was its original meaning? a) forced labour
19
55796
3524
ý nghĩa ban đầu của nó là gì? a) lao động cưỡng bức
00:59
b) metal man c) heartless thing
20
59320
3640
b) người đàn ông kim loại c) thứ nhẫn tâm
01:02
Neil: I will go for a) forced labour
21
62960
3250
Neil: Tôi sẽ tham gia a) lao động cưỡng bức
01:06
Dan: We’ll find out if you were right or
22
66210
2335
Dan: Chúng tôi sẽ tìm hiểu xem bạn đúng hay
01:08
not later in the show.
23
68545
1285
sai ở phần sau của chương trình.
01:09
Neil: OK Dan. Tell me what’s going on.
24
69830
2310
Neil: Được rồi Dan. Hãy nói cho tôi biết việc gì đang xảy ra.
01:12
Dan: I saw a news article written by BBC technology
25
72140
3431
Dan: Tôi đã xem một bài báo được viết bởi phóng viên công nghệ BBC
01:15
correspondent Rory Cellan-Jones about the
26
75571
2759
Rory Cellan-Jones về
01:18
recent CES technology show in Las Vegas. He
27
78330
3865
triển lãm công nghệ CES gần đây ở Las Vegas. Anh ấy đã
01:22
interviewed David Hanson, founder of Hanson
28
82195
3865
phỏng vấn David Hanson, người sáng lập Hanson
01:26
Robotics, who said it was his ambition to
29
86060
3660
Robotics, người cho biết tham vọng của anh ấy là
01:29
achieve an AI that can beat humans at any
30
89720
3660
đạt được một AI có thể đánh bại con người ở bất kỳ
01:33
intellectual task.
31
93380
1500
nhiệm vụ trí tuệ nào.
01:34
Neil: Surely it’s a good thing! Better AI
32
94880
2655
Neil: Chắc chắn đó là một điều tốt! Trí tuệ nhân tạo
01:37
and robotics could take over many of the jobs
33
97535
2915
và rô-bốt tốt hơn có thể đảm nhận nhiều công việc
01:40
that we don’t want to do, or that are so
34
100450
2466
mà chúng ta không muốn làm hoặc những công việc rất
01:42
important to get 100% right… like air traffic
35
102916
2774
quan trọng để hoàn thành đúng 100%… như
01:45
control. We’d never have another plane crash.
36
105690
2566
kiểm soát không lưu. Chúng tôi sẽ không bao giờ có một vụ tai nạn máy bay khác.
01:48
It would be infallible because it would be
37
108256
2394
Nó sẽ không thể sai lầm bởi vì nó sẽ
01:50
so clever.
38
110650
1190
rất thông minh.
01:51
Dan: Infallible means never failing. And that’s
39
111840
2767
Dan: Không thể sai lầm có nghĩa là không bao giờ thất bại. Và đó là
01:54
what bothers me. What happens when its intelligence
40
114607
3003
điều làm phiền tôi. Điều gì xảy ra khi trí thông minh của nó
01:57
surpasses ours? Why should it do what
41
117610
2774
vượt qua chúng ta? Tại sao nó nên làm những gì
02:00
we want it to do?
42
120384
1275
chúng ta muốn nó làm?
02:01
Neil: To surpass something is to do or be
43
121659
2076
Neil: Vượt qua điều gì đó là làm hoặc trở
02:03
better than it. Dan, you’ve been watching
44
123735
2075
nên tốt hơn nó. Dan, bạn đã xem
02:05
too many movies. Robots fighting humanity
45
125810
2971
quá nhiều phim. Robot chiến đấu với loài người
02:08
is a popular theme. Guess what… humanity
46
128781
2899
là một chủ đề phổ biến. Đoán xem… nhân loại
02:11
often wins. And besides, we would programme
47
131680
2498
thường chiến thắng. Và bên cạnh đó, chúng tôi sẽ lập trình
02:14
the computer to be benevolent.
48
134178
1742
máy tính trở nên nhân từ.
02:15
Dan: Benevolent means kind and helpful. But
49
135920
2805
Dan: Nhân nghĩa có nghĩa là tử tế và hữu ích.
02:18
that’s just it, once the intelligence becomes
50
138725
2935
Nhưng chỉ có vậy thôi, một khi trí thông minh trở nên có
02:21
sentient, or able to think for itself, who
51
141660
2781
tri giác, hoặc có thể tự suy nghĩ, thì ai
02:24
knows what it will do. We humans are not exactly
52
144441
3179
biết nó sẽ làm gì. Con người chúng ta không thực
02:27
perfect, you know. What happens if it decides
53
147620
2602
sự hoàn hảo, bạn biết đấy. Điều gì xảy ra nếu nó quyết định
02:30
that it is better than us and wants us out
54
150222
2428
rằng nó tốt hơn chúng ta và muốn chúng ta
02:32
of the way?
55
152650
1000
tránh đường?
02:33
Neil: Don’t worry. Asimov thought of that.
56
153650
2524
Neil: Đừng lo lắng. Asimov nghĩ về điều đó.
02:36
Isaac Asimov was an American science fiction
57
156174
2645
Isaac Asimov là một nhà văn khoa học viễn
02:38
writer who, among other things, wrote about
58
158819
2747
tưởng người Mỹ, trong số những thứ khác, ông đã viết về người
02:41
robots. He came up with three laws that every
59
161566
2874
máy. Anh ấy đã đưa ra ba luật mà mọi
02:44
robot would have to follow to stop it from
60
164440
2624
robot sẽ phải tuân theo để ngăn nó
02:47
acting against humanity. So we’re safe!
61
167064
2436
hành động chống lại loài người. Vì vậy, chúng tôi an toàn!
02:49
Dan: I’m not so sure. A sentient robot could
62
169500
2933
Dan: Tôi không chắc lắm. Một rô-bốt có tri giác có thể
02:52
make up its own mind about how to interpret
63
172433
2867
tự quyết định về cách diễn
02:55
the laws. For example, imagine if we created
64
175300
3284
giải luật. Ví dụ, hãy tưởng tượng nếu chúng ta tạo ra
02:58
an AI system to protect all of humanity.
65
178584
2985
một hệ thống AI để bảo vệ toàn nhân loại.
03:01
Neil: Well, that’s great! No more war. No
66
181569
2195
Neil: Chà, thật tuyệt! Không còn chiến tranh nữa. Không
03:03
more murder. No more fighting.
67
183764
1606
giết người nữa. Không đánh nhau nữa.
03:05
Dan: Do you really think that humans can stop
68
185370
2694
Dan: Bạn có thực sự nghĩ rằng con người có thể ngừng
03:08
fighting? What if the AI decides that the
69
188064
2455
chiến đấu? Điều gì sẽ xảy ra nếu AI quyết định rằng
03:10
only way to stop us from hurting ourselves
70
190519
3286
cách duy nhất để ngăn chúng ta làm tổn thương chính mình
03:13
and each other is to control everything we
71
193805
3285
và người khác là kiểm soát mọi thứ chúng ta
03:17
do, so it takes over to protect us. Then we
72
197090
3507
làm, vì vậy nó sẽ đảm nhận vai trò bảo vệ chúng ta. Sau đó, chúng ta
03:20
would lose our freedom to a thing that we
73
200597
3343
sẽ mất tự do vào tay một thứ mà chúng ta
03:23
created that is infallible and more intelligent
74
203940
3377
đã tạo ra không thể sai lầm và thông minh
03:27
than we are! That’s the end, Neil!
75
207317
2443
hơn chúng ta! Đó là kết thúc, Neil!
03:29
Neil: I think that’s a little far-fetched,
76
209760
2216
Neil: Tôi nghĩ điều đó hơi xa vời,
03:31
which means difficult to believe. I’m sure
77
211976
2215
có nghĩa là khó tin. Tôi chắc rằng
03:34
others don’t think that way.
78
214191
1539
những người khác không nghĩ như vậy.
03:35
Dan: OK. Let’s hear what the Learning English
79
215730
2523
Đan: Được. Hãy nghe nhóm Học tiếng Anh
03:38
team say when I ask them if they are worried
80
218253
2467
nói gì khi tôi hỏi họ liệu họ có lo lắng
03:40
that AI and robots could take over the world.
81
220720
3519
rằng trí tuệ nhân tạo và người máy có thể chiếm lĩnh thế giới không.
03:44
Phil: Well, it’s possible, but unlikely.
82
224240
3580
Phil: Chà, có thể, nhưng không chắc.
03:47
There will come a point where our technology
83
227820
1880
Sẽ đến một thời điểm mà công nghệ của chúng ta
03:49
will be limited – probably before real AI
84
229700
3125
sẽ bị hạn chế – có thể là trước khi đạt được AI thực sự
03:52
is achieved.
85
232825
1935
.
03:54
Sam: Never in a million years. First of all
86
234760
2360
Sam: Không bao giờ trong một triệu năm. Trước hết,
03:57
we’d programme them so that they couldn’t,
87
237124
3306
chúng tôi sẽ lập trình chúng để chúng không thể,
04:00
and secondly we’d beat them anyway. Haven’t
88
240430
3632
và thứ hai, chúng tôi sẽ đánh bại chúng bằng mọi cách. Bạn
04:04
you ever seen a movie?
89
244062
1858
chưa bao giờ xem một bộ phim?
04:05
Kee: I totally think it could happen. We
90
245920
2371
Kee: Tôi hoàn toàn nghĩ rằng nó có thể xảy ra. Chúng ta
04:08
only have to make a robot that’s smart enough
91
248291
2668
chỉ cần tạo ra một robot đủ thông minh
04:10
to start thinking for itself. After that,
92
250959
2605
để bắt đầu tự suy nghĩ. Sau đó,
04:13
who knows what it might do.
93
253564
2796
ai biết nó có thể làm gì.
04:16
Neil: A mixed bag of opinions there, Dan.
94
256360
1796
Neil: Có nhiều ý kiến ​​trái chiều ở đó, Dan.
04:18
It seems you aren’t alone.
95
258156
1823
Có vẻ như bạn không đơn độc.
04:19
Dan: Nope. But I don’t exactly have an army
96
259979
2459
Đan: Không. Nhưng chính xác thì tôi cũng không có một đội
04:22
of support either. I guess we’ll just have
97
262438
2402
quân hỗ trợ nào. Tôi đoán chúng ta sẽ
04:24
to wait and see.
98
264840
1000
phải chờ xem.
04:25
Neil: Speak for yourself. I’ve waited long
99
265840
1949
Neil: Nói cho chính mình. Tôi đã đợi
04:27
enough – for our quiz question that is.
100
267789
1810
đủ lâu rồi - đó là câu hỏi đố vui của chúng ta.
04:29
Dan: Oh yeah! I asked you what the original
101
269599
2496
Đan: Ồ vâng! Tôi đã hỏi bạn nghĩa gốc
04:32
meaning of the word ‘robot’ was before
102
272095
2205
của từ 'robot' là gì trước khi
04:34
it was used in its modern form. a) forced
103
274300
3633
nó được sử dụng ở dạng hiện đại. a)
04:37
labour b) metal man c) heartless thing
104
277933
3367
lao động cưỡng bức b) người thợ kim loại c) thứ nhẫn tâm
04:41
Neil: And I said a) forced labour
105
281300
1709
Neil: Và tôi đã nói a) lao động cưỡng bức
04:43
Dan: And you were… right!
106
283009
1971
Dan: Và bạn đã… đúng!
04:44
Neil: Shall we take a look at the vocabulary then?
107
284980
2580
Neil: Vậy chúng ta sẽ xem qua từ vựng chứ?
04:47
Dan: OK. First we had inevitable. If something
108
287569
3450
Đan: Được. Đầu tiên chúng tôi đã không thể tránh khỏi. Nếu một cái gì đó
04:51
is inevitable then it cannot be avoided or
109
291019
3150
là không thể tránh khỏi thì nó không thể tránh hoặc
04:54
stopped. Can you think of something inevitable, Neil?
110
294169
2571
dừng lại. Bạn có thể nghĩ về một cái gì đó không thể tránh khỏi, Neil?
04:56
Neil: It is inevitable that one day the Sun
111
296749
3005
Neil: Không thể tránh khỏi một ngày nào đó Mặt trời
04:59
will stop burning. Then we had infallible,
112
299754
2936
sẽ ngừng cháy. Sau đó, chúng tôi đã không thể sai lầm,
05:02
which means never failing. Give us an example, Dan.
113
302690
3050
có nghĩa là không bao giờ thất bại. Hãy cho chúng tôi một ví dụ, Dan.
05:05
Dan: The vaccine for small pox is infallible.
114
305740
2332
Dan: Vắc xin phòng bệnh thủy đậu là không thể sai lầm.
05:08
The natural spread of that disease has been
115
308072
2228
Sự lây lan tự nhiên của căn bệnh đó đã
05:10
completely stopped. After that was surpasses.
116
310300
3470
hoàn toàn chấm dứt. Sau đó là vượt qua.
05:13
If something surpasses something else then
117
313770
3239
Nếu một cái gì đó vượt qua một cái gì đó khác thì
05:17
it becomes better than it.
118
317009
1711
nó trở nên tốt hơn nó.
05:18
Neil: Many parents across the world hope that
119
318720
2275
Neil: Nhiều bậc cha mẹ trên khắp thế giới hy vọng rằng
05:20
their children will surpass them in wealth,
120
320995
2174
con cái họ sẽ vượt qua họ về sự giàu có,
05:23
status or achievement. After that we heard
121
323169
2662
địa vị hoặc thành tích. Sau đó, chúng tôi nghe
05:25
benevolent, which means kind and helpful.
122
325831
2599
từ nhân từ, có nghĩa là tử tế và hữu ích.
05:28
Name a person famous for being benevolent, Dan.
123
328430
3019
Kể tên một người nổi tiếng là nhân từ, Dan.
05:31
Dan: Father Christmas is a benevolent character.
124
331449
3216
Dan: Ông già Noel là một nhân vật nhân từ.
05:34
After that we heard sentient. If something
125
334665
2814
Sau đó chúng tôi nghe thấy chúng sinh. Nếu một cái gì đó
05:37
is sentient, it is able to think for itself.
126
337479
2720
có tri giác, nó có thể tự suy nghĩ.
05:40
Neil: Indeed. Many people wonder about the
127
340200
2340
Neil: Thật vậy. Nhiều người thắc mắc về
05:42
possibility of sentient life on other planets.
128
342620
3060
khả năng tồn tại sự sống có tri giác trên các hành tinh khác.
05:45
Finally we heard far-fetched, which means
129
345680
2176
Cuối cùng chúng tôi nghe nói xa vời, có nghĩa là
05:47
difficult to believe. Like that far-fetched
130
347856
2283
khó tin. Giống như câu chuyện xa vời
05:50
story you told me the other day about being
131
350139
1932
mà bạn đã nói với tôi ngày hôm trước về việc đến
05:52
late because of a dragon, Dan.
132
352071
1348
muộn vì một con rồng, Dan.
05:53
Dan: I swear it was real! It had big sharp
133
353419
2480
Dan: Tôi thề đó là sự thật! Nó có
05:55
teeth and everything!
134
355899
1240
hàm răng sắc nhọn và mọi thứ!
05:57
Neil: Yeah, yeah, yeah. And that’s the end
135
357139
1938
Neil: Vâng, vâng, vâng. Và đó là phần cuối
05:59
of this 6 Minute English. Don’t forget to
136
359077
1892
của 6 Minute English này. Đừng quên
06:00
check out our Facebook, Twitter, and YouTube
137
360969
2171
xem các trang Facebook, Twitter và YouTube của chúng tôi
06:03
pages. See you next time!
138
363140
1640
. Hẹn gặp lại bạn lần sau!
06:04
Dan: Bye!
139
364780
640
Đan: Tạm biệt!
06:05
Neil: Bye.
140
365420
860
Neil: Tạm biệt.
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7