BOX SET: 6 Minute English - 'Artificial intelligence' English mega-class! 30 minutes of new vocab!

6,365 views ・ 2025-01-19

BBC Learning English


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video. Phụ đề được dịch là máy dịch.

00:00
6 Minute English.
0
760
1720
Tiếng Anh 6 phút.
00:02
From BBC Learning English.
1
2600
2640
Trích từ BBC Learning English.
00:05
Hello. This is 6 Minute English from BBC Learning English. I'm Neil.
2
5840
3920
Xin chào. Đây là chương trình 6 Minute English của BBC Learning English. Tôi là Neil.
00:09
And I'm Rob.
3
9880
1200
Và tôi là Rob.
00:11
Now, I'm sure most of us have interacted with a chatbot.
4
11200
4360
Tôi chắc rằng hầu hết chúng ta đều đã từng tương tác với chatbot.
00:15
These are bits of computer technology
5
15680
2320
Đây là những phần của công nghệ máy tính
00:18
that respond to text with text or respond to your voice.
6
18120
4600
có khả năng phản hồi văn bản bằng văn bản hoặc phản hồi giọng nói của bạn.
00:22
You ask it a question and usually it comes up with an answer.
7
22840
3960
Bạn hỏi nó một câu hỏi và thường nó sẽ đưa ra câu trả lời.
00:26
Yes, it's almost like talking to another human, but of course it's not,
8
26920
4480
Đúng vậy, nó gần giống như việc nói chuyện với một người khác, nhưng tất nhiên là không phải vậy,
00:31
it's just a clever piece of technology.
9
31520
2560
nó chỉ là một sản phẩm công nghệ thông minh mà thôi.
00:34
It is becoming more 'sophisticated' — more 'advanced and complex' —
10
34200
3640
Nó đang trở nên "tinh vi" hơn - "nâng cao và phức tạp" hơn -
00:37
but could they replace real human interaction altogether?
11
37960
3200
nhưng liệu chúng có thể thay thế hoàn toàn tương tác thực tế của con người hay không?
00:41
We'll discuss that more in a moment
12
41280
2040
Chúng ta sẽ thảo luận thêm về vấn đề này sau
00:43
and find out if chatbots really think for themselves.
13
43440
3680
và tìm hiểu xem liệu chatbot có thực sự tự suy nghĩ hay không.
00:47
But first I have a question for you, Rob.
14
47240
2440
Nhưng trước tiên tôi có một câu hỏi dành cho anh, Rob.
00:49
The first computer program that allowed some kind of plausible conversation
15
49800
4440
Chương trình máy tính đầu tiên cho phép con người và máy móc trò chuyện một cách hợp lý
00:54
between humans and machines was invented in 1966, but what was it called?
16
54360
6440
được phát minh vào năm 1966, nhưng nó được gọi là gì?
01:00
Was it a) Alexa? b) ELIZA? Or c) PARRY?
17
60920
6120
Có phải là a) Alexa không? b) ELIZA? Hoặc c) PHẢN ĐỐI?
01:07
Ah, well, it's not Alexa, that's too new, so I'll guess c) PARRY.
18
67160
4280
À, được thôi, không phải Alexa đâu, nó mới quá, nên tôi đoán c) PARRY.
01:11
I'll reveal the answer at the end of the programme.
19
71560
3200
Tôi sẽ tiết lộ câu trả lời vào cuối chương trình.
01:14
Now, the old chatbots of the 1960s and '70s were quite basic,
20
74880
5440
Hiện nay, các chatbot cũ của những năm 1960 và 1970 khá cơ bản,
01:20
but more recently, the technology is able to predict the next word
21
80440
4640
nhưng gần đây, công nghệ này có thể dự đoán từ tiếp theo
01:25
that is likely to be used in a sentence,
22
85200
2200
có khả năng được sử dụng trong câu
01:27
and it learns words and sentence structures.
23
87520
2840
và học các từ cũng như cấu trúc câu.
01:30
Mm, it's clever stuff.
24
90480
1480
Ừm, đúng là thông minh.
01:32
I've experienced using them when talking to my bank,
25
92080
2800
Tôi đã có kinh nghiệm sử dụng chúng khi nói chuyện với ngân hàng
01:35
or when I have problems trying to book a ticket on a website.
26
95000
3080
hoặc khi gặp sự cố khi đặt vé trên trang web.
01:38
I no longer phone a human, I speak to a virtual assistant instead.
27
98200
5160
Tôi không còn gọi điện cho người thật nữa mà thay vào đó là nói chuyện với trợ lý ảo.
01:43
Probably the most well-known chatbot at the moment is ChatGPT..
28
103480
4560
Có lẽ chatbot nổi tiếng nhất hiện nay là ChatGPT.
01:48
It is. The claim is that it's able to answer anything you ask it.
29
108160
4400
Đúng vậy. Người ta cho rằng nó có thể trả lời bất cứ câu hỏi nào bạn hỏi.
01:52
This includes writing students' essays.
30
112680
2760
Điều này bao gồm việc viết bài luận cho học sinh.
01:55
Now, this is something that was discussed
31
115560
1760
Đây là chủ đề đã được thảo luận
01:57
on the BBC Radio 4 programme, Word of Mouth.
32
117440
3040
trên chương trình Word of Mouth của đài BBC Radio 4.
02:00
Emily M Bender, Professor of Computational Linguistics
33
120600
4280
Emily M Bender, Giáo sư Ngôn ngữ học tính toán
02:05
at the University of Washington,
34
125000
1680
tại Đại học Washington,
02:06
explained why it's dangerous to always trust what a chatbot is telling us.
35
126800
4720
đã giải thích lý do tại sao việc luôn tin tưởng vào những gì chatbot nói với chúng ta lại là điều nguy hiểm.
02:11
We tend to react to grammatical, fluent, coherent-seeming text
36
131640
5120
Chúng ta có xu hướng phản ứng với văn bản có ngữ pháp, trôi chảy, mạch lạc
02:16
as authoritative and reliable and valuable and we need to be on guard against that,
37
136880
6040
như là có thẩm quyền, đáng tin cậy và có giá trị và chúng ta cần phải cảnh giác với điều đó,
02:23
because what's coming out of ChatGPT is none of that.
38
143040
2520
bởi vì những gì xuất phát từ ChatGPT không hề như vậy.
02:25
So, Professor Bender says that well-written text that is 'coherent' —
39
145680
4200
Vì vậy, Giáo sư Bender cho rằng một văn bản viết tốt, "mạch lạc" -
02:30
that means it's 'clear, carefully considered and sensible' —
40
150000
3440
nghĩa là "rõ ràng, được cân nhắc kỹ lưỡng và hợp lý" -
02:33
makes us think what we are reading is reliable and 'authoritative'.
41
153560
4040
khiến chúng ta nghĩ rằng những gì chúng ta đang đọc là đáng tin cậy và "có thẩm quyền".
02:37
So it's 'respected, accurate and important sounding'.
42
157720
3440
Vì vậy, nó có âm thanh 'được tôn trọng, chính xác và quan trọng'.
02:41
Yes, chatbots might appear to write in this way,
43
161280
3000
Đúng, chatbot có thể viết theo cách này,
02:44
but really, they are just predicting one word after another,
44
164400
3560
nhưng thực chất chúng chỉ dự đoán từng từ một
02:48
based on what they have learnt.
45
168080
2040
dựa trên những gì chúng đã học được.
02:50
We should, therefore, be 'on guard' — be 'careful and alert' —
46
170240
3720
Do đó, chúng ta nên "cảnh giác" - "cẩn thận và cảnh giác" -
02:54
about the accuracy of what we are being told.
47
174080
3000
về tính chính xác của những gì chúng ta được nghe.
02:57
One concern is that chatbots — a form of artificial intelligence —
48
177200
4240
Một mối lo ngại là chatbot - một dạng trí tuệ nhân tạo -
03:01
work a bit like a human brain in the way it can learn and process information.
49
181560
4920
hoạt động giống như bộ não con người ở cách nó có thể học và xử lý thông tin.
03:06
They are able to learn from experience, something called deep learning.
50
186600
4360
Họ có khả năng học hỏi từ kinh nghiệm, cái này gọi là học sâu.
03:11
A cognitive psychologist and computer scientist called Geoffrey Hinton
51
191080
4200
Một nhà tâm lý học nhận thức và nhà khoa học máy tính tên là Geoffrey Hinton
03:15
recently said he feared that chatbots could soon overtake
52
195400
3680
gần đây đã nói rằng ông lo ngại rằng chatbot có thể sớm vượt qua
03:19
the level of information that a human brain holds.
53
199200
3400
mức độ thông tin mà bộ não con người nắm giữ.
03:22
That's a bit scary, isn't it?
54
202720
1440
Có vẻ hơi đáng sợ phải không?
03:24
Mm, but for now, chatbots can be useful for practical information,
55
204280
4360
Ừm, nhưng hiện tại, chatbot có thể hữu ích trong việc cung cấp thông tin thực tế,
03:28
but sometimes we start to believe they are human
56
208760
2680
nhưng đôi khi chúng ta bắt đầu tin rằng chúng là con người
03:31
and we interact with them in a human-like way.
57
211560
2680
và chúng ta tương tác với chúng theo cách giống con người.
03:34
This can make us believe them even more.
58
214360
2400
Điều này có thể khiến chúng ta tin họ nhiều hơn.
03:36
Professor Emma Bender, speaking on the BBC's Word of Mouth programme,
59
216880
3520
Giáo sư Emma Bender, phát biểu trên chương trình Word of Mouth của BBC,
03:40
explains why we might feel like that.
60
220520
2760
giải thích lý do tại sao chúng ta có thể cảm thấy như vậy.
03:43
I think what's going on there is the kinds of answers you get
61
223400
4160
Tôi nghĩ những gì đang diễn ra ở đó là loại câu trả lời bạn nhận được
03:47
depend on the questions you put in,
62
227680
2040
phụ thuộc vào những câu hỏi bạn đưa ra,
03:49
because it's doing likely next word, likely next word,
63
229840
2520
bởi vì nó có khả năng thực hiện từ tiếp theo, có khả năng thực hiện từ tiếp theo,
03:52
and so if, as the human interacting with this machine,
64
232480
3280
và vì vậy, với tư cách là con người tương tác với cỗ máy này,
03:55
you start asking it questions about how do you feel, you know, Chatbot?
65
235880
4280
bạn bắt đầu đặt câu hỏi cho nó về Bạn cảm thấy thế nào, bạn biết đấy, Chatbot? Bạn cảm thấy thế nào, bạn biết đấy, Chatbot?
04:00
And "What do you think of this?" And, "What are your goals?"
66
240280
2840
Và "Bạn nghĩ gì về điều này?" Và, "Mục tiêu của bạn là gì?"
04:03
You can provoke it to say things
67
243240
1720
Bạn có thể kích thích nó nói những điều
04:05
that sound like what a sentient entity would say.
68
245080
2960
giống như lời một thực thể có tri giác sẽ nói.
04:08
We are really primed to imagine a mind behind language
69
248160
3320
Chúng ta thực sự có xu hướng tưởng tượng ra một tâm trí đằng sau ngôn ngữ
04:11
whenever we encounter language
70
251600
1600
bất cứ khi nào chúng ta tiếp xúc với ngôn ngữ
04:13
and so we really have to account for that when we're making decisions about these.
71
253320
3680
và vì vậy chúng ta thực sự phải tính đến điều đó khi đưa ra quyết định về ngôn ngữ.
04:17
So, although a chatbot might sound human,
72
257840
2560
Vì vậy, mặc dù chatbot có thể nghe giống con người, nhưng
04:20
we really just ask it things to get a reaction — we 'provoke' it —
73
260520
3840
thực ra chúng ta chỉ yêu cầu nó phản ứng — chúng ta "kích động" nó —
04:24
and it answers only with words it's learned to use before,
74
264480
4040
và nó chỉ trả lời bằng những từ mà nó đã học cách sử dụng trước đó,
04:28
not because it has come up with a clever answer.
75
268640
2720
chứ không phải vì nó đưa ra được câu trả lời thông minh.
04:31
But it does sound like a sentient entity —
76
271480
2600
Nhưng nó nghe giống như một thực thể có tri giác —
04:34
'sentient' describes 'a living thing that experiences feelings'.
77
274200
4440
"có tri giác" dùng để chỉ "một sinh vật sống có cảm xúc".
04:38
As Professor Bender says,
78
278760
1640
Như Giáo sư Bender nói,
04:40
we imagine that when something speaks, there is a mind behind it.
79
280520
4080
chúng ta tưởng tượng rằng khi một điều gì đó nói, thì có một tâm trí đằng sau nó.
04:44
But sorry, Neil, they are not your friend, they're just machines!
80
284720
4000
Nhưng xin lỗi nhé Neil, chúng không phải bạn của anh, chúng chỉ là máy móc thôi!
04:48
Yes, it's strange then that we sometimes give chatbots names.
81
288840
3240
Vâng, thật kỳ lạ khi đôi khi chúng ta đặt tên cho chatbot.
04:52
Alexa, Siri, and earlier I asked you what the name was for the first ever chatbot.
82
292200
5920
Alexa, Siri và trước đó tôi đã hỏi bạn tên của chatbot đầu tiên là gì.
04:58
And I guessed it was PARRY. Was I right?
83
298240
2880
Và tôi đoán đó là PARRY. Tôi có đúng không?
05:01
You guessed wrong, I'm afraid.
84
301240
2040
Tôi e là bạn đã đoán sai rồi.
05:03
PARRY was an early form of chatbot from 1972, but the correct answer was ELIZA.
85
303400
6400
PARRY là dạng chatbot đầu tiên ra đời vào năm 1972, nhưng câu trả lời đúng là ELIZA.
05:09
It was considered to be the first 'chatterbot' — as it was called then —
86
309920
4000
Người ta coi đây là 'chatterbot' đầu tiên - theo cách gọi thời đó -
05:14
and was developed by Joseph Weizenbaum at Massachusetts Institute of Technology.
87
314040
5640
và được phát triển bởi Joseph Weizenbaum tại Học viện Công nghệ Massachusetts.
05:19
Fascinating stuff.
88
319800
1040
Thật là thú vị.
05:20
OK, now let's recap some of the vocabulary we highlighted in this programme.
89
320960
4360
Được rồi, bây giờ chúng ta hãy tóm tắt lại một số từ vựng đã nêu trong chương trình này.
05:25
Starting with 'sophisticated',
90
325440
2000
Bắt đầu bằng từ “tinh vi”,
05:27
which can describe technology that is 'advanced and complex'.
91
327560
3880
có thể mô tả công nghệ “tiên tiến và phức tạp”.
05:31
Something that is 'coherent' is 'clear, carefully considered and sensible'.
92
331560
4320
Một điều gì đó "có tính mạch lạc" là "rõ ràng, được cân nhắc kỹ lưỡng và hợp lý".
05:36
'Authoritative' means 'respected, accurate and important sounding'.
93
336000
4480
'Có thẩm quyền' có nghĩa là 'được tôn trọng, chính xác và nghe có vẻ quan trọng'.
05:40
When you are 'on guard' you must be 'careful and alert' about something —
94
340600
3760
Khi bạn "cảnh giác", bạn phải "cẩn thận và cảnh giác" về một điều gì đó —
05:44
it could be accuracy of what you see or hear,
95
344480
3320
có thể là độ chính xác của những gì bạn nhìn thấy hoặc nghe thấy,
05:47
or just being aware of the dangers around you.
96
347920
2640
hoặc chỉ đơn giản là nhận thức được những nguy hiểm xung quanh bạn.
05:50
To 'provoke' means to 'do something that causes a reaction from someone'.
97
350680
4160
"Khiêu khích" có nghĩa là "làm điều gì đó khiến ai đó phản ứng".
05:54
'Sentient' describes 'something that experiences feelings' —
98
354960
3680
'Có tri giác' mô tả 'một thứ gì đó có cảm xúc' —
05:58
so it's 'something that is living'.
99
358760
2120
vì vậy nó có nghĩa là 'một thứ gì đó đang sống'.
06:01
Once again, our six minutes are up. Goodbye.
100
361000
2640
Một lần nữa, sáu phút của chúng ta lại hết. Tạm biệt.
06:03
Bye for now.
101
363760
1000
Tạm biệt nhé.
06:05
6 Minute English.
102
365680
1520
Tiếng Anh 6 phút.
06:07
From BBC Learning English.
103
367320
2400
Trích từ BBC Learning English.
06:10
Hello. This is 6 Minute English from BBC Learning English.
104
370600
3240
Xin chào. Đây là chương trình 6 Minute English của BBC Learning English.
06:13
— I'm Sam. — And I'm Neil.
105
373960
1240
— Tôi là Sam. — Còn tôi là Neil.
06:15
In the autumn of 2021, something strange happened
106
375320
3640
Vào mùa thu năm 2021, một điều kỳ lạ đã xảy ra
06:19
at the Google headquarters in California's Silicon Valley.
107
379080
3440
tại trụ sở chính của Google ở ​​Thung lũng Silicon, California.
06:22
A software engineer called Blake Lemoine
108
382640
2720
Một kỹ sư phần mềm tên là Blake Lemoine
06:25
was working on the artificial intelligence project
109
385480
2840
đang làm việc cho dự án trí tuệ nhân tạo mang
06:28
Language Models for Dialogue Applications, or LaMDA for short.
110
388440
5080
tên Mô hình ngôn ngữ cho ứng dụng đối thoại, hay gọi tắt là LaMDA.
06:33
LaMDA is a 'chatbot' — a 'computer programme
111
393640
2880
LaMDA là một 'chatbot' — một 'chương trình máy tính
06:36
'designed to have conversations with humans over the internet'.
112
396640
3360
' được thiết kế để trò chuyện với con người qua Internet.
06:40
After months talking with LaMDA
113
400120
2280
Sau nhiều tháng trò chuyện với LaMDA
06:42
on topics ranging from movies to the meaning of life,
114
402520
3360
về nhiều chủ đề, từ phim ảnh đến ý nghĩa cuộc sống,
06:46
Blake came to a surprising conclusion —
115
406000
2640
Blake đã đi đến một kết luận đáng ngạc nhiên —
06:48
the chatbot was an intelligent person
116
408760
2720
chatbot là một người thông minh,
06:51
with wishes and rights that should be respected.
117
411600
3040
có những mong muốn và quyền lợi cần được tôn trọng.
06:54
For Blake, LaMDA was a Google employee, not a machine.
118
414760
3960
Đối với Blake, LaMDA là một nhân viên của Google chứ không phải là một cỗ máy.
06:58
He also called it his friend.
119
418840
1880
Ông cũng gọi nó là bạn của mình.
07:00
Google quickly reassigned Blake from the project,
120
420840
2880
Google nhanh chóng điều chuyển Blake khỏi dự án,
07:03
announcing that his ideas were not supported by the evidence.
121
423840
3760
thông báo rằng ý tưởng của ông không có bằng chứng chứng minh.
07:07
But what exactly was going on?
122
427720
2440
Nhưng chính xác thì chuyện gì đang xảy ra?
07:10
In this programme, we'll be discussing whether artificial intelligence
123
430280
3720
Trong chương trình này, chúng ta sẽ thảo luận về việc liệu trí tuệ nhân tạo
07:14
is capable of consciousness.
124
434120
2160
có khả năng có ý thức hay không.
07:16
We'll hear from one expert
125
436400
1480
Chúng ta sẽ lắng nghe một chuyên gia
07:18
who thinks AI is not as intelligent as we sometimes think
126
438000
3600
cho rằng AI không thông minh như chúng ta vẫn nghĩ
07:21
and, as usual, we'll be learning some new vocabulary as well.
127
441720
3800
và như thường lệ, chúng ta cũng sẽ học được một số thuật ngữ mới.
07:25
But before that, I have a question for you, Neil.
128
445640
2480
Nhưng trước đó, tôi có một câu hỏi dành cho anh, Neil.
07:28
What happened to Blake Lemoine
129
448240
1400
Những gì xảy ra với Blake Lemoine
07:29
is strangely similar to the 2013 Hollywood movie, Her,
130
449760
4200
có nét tương đồng kỳ lạ với bộ phim Hollywood năm 2013, Her,
07:34
starring Joaquin Phoenix as a lonely writer who talks with his computer,
131
454080
4400
với sự tham gia của Joaquin Phoenix trong vai một nhà văn cô đơn, người thường nói chuyện với máy tính,
07:38
voiced by Scarlett Johansson.
132
458600
1840
do Scarlett Johansson lồng tiếng.
07:40
But what happens at the end of the movie?
133
460560
2280
Nhưng chuyện gì xảy ra vào cuối phim?
07:42
Is it a) The computer comes to life?
134
462960
2520
a) Máy tính hoạt động phải không?
07:45
b) The computer dreams about the writer?
135
465600
2480
b) Máy tính mơ về nhà văn?
07:48
Or c) The writer falls in love with the computer?
136
468200
2800
Hoặc c) Người viết phải lòng máy tính?
07:51
C) The writer falls in love with the computer.
137
471120
3240
C) Tác giả phải lòng máy tính.
07:54
OK, Neil, I'll reveal the answer at the end of the programme.
138
474480
3360
Được thôi, Neil, tôi sẽ tiết lộ câu trả lời vào cuối chương trình.
07:57
Although Hollywood is full of movies about robots coming to life,
139
477960
3760
Mặc dù Hollywood có rất nhiều bộ phim về robot sống động,
08:01
Emily Bender, Professor of Linguistics and Computing at the University of Washington,
140
481840
5440
Emily Bender, Giáo sư Ngôn ngữ học và Máy tính tại Đại học Washington,
08:07
thinks AI isn't that smart.
141
487400
2640
cho rằng AI không thông minh đến vậy.
08:10
She thinks the words we use to talk about technology —
142
490160
3240
Bà cho rằng những từ ngữ chúng ta dùng để nói về công nghệ —
08:13
phrases like 'machine learning' —
143
493520
2120
những cụm từ như 'học máy' —
08:15
give a false impression about what computers can and can't do.
144
495760
4440
tạo ra ấn tượng sai lầm về những gì máy tính có thể và không thể làm.
08:20
Here is Professor Bender discussing another misleading phrase —
145
500320
3520
Dưới đây là Giáo sư Bender thảo luận về một cụm từ gây hiểu lầm khác —
08:23
'speech recognition' — with BBC World Service programme The Inquiry.
146
503960
5120
'nhận dạng giọng nói' — với chương trình The Inquiry của BBC World Service.
08:29
If you talk about 'automatic speech recognition',
147
509200
3000
Nếu bạn nói về 'nhận dạng giọng nói tự động',
08:32
the term 'recognition' suggests that there's something cognitive going on,
148
512320
4680
thuật ngữ 'nhận dạng' gợi ý rằng có điều gì đó liên quan đến nhận thức đang diễn ra,
08:37
where I think a better term would be automatic transcription.
149
517120
2840
trong khi tôi nghĩ thuật ngữ phù hợp hơn sẽ là phiên âm tự động.
08:40
That just describes the input-output relation,
150
520080
2400
Điều đó chỉ mô tả mối quan hệ đầu vào-đầu ra,
08:42
and not any theory or wishful thinking
151
522600
3480
chứ không phải bất kỳ lý thuyết hay suy nghĩ mơ hồ nào
08:46
about what the computer is doing to be able to achieve that.
152
526200
3360
về những gì máy tính sẽ làm để có thể đạt được điều đó.
08:49
Using words like 'recognition' in relation to computers
153
529680
3720
Việc sử dụng những từ như 'nhận dạng' liên quan đến máy tính
08:53
gives the idea that something 'cognitive' is happening —
154
533520
3160
gợi ra ý tưởng rằng có điều gì đó 'nhận thức' đang diễn ra —
08:56
something 'related to the mental processes
155
536800
2680
điều gì đó 'liên quan đến các quá trình tinh thần
08:59
'of thinking, knowing, learning and understanding'.
156
539600
3120
' của suy nghĩ, biết, học và hiểu'.
09:02
But thinking and knowing are human, not machine, activities.
157
542840
4480
Nhưng suy nghĩ và hiểu biết là hoạt động của con người chứ không phải của máy móc.
09:07
Professor Benders says that talking about them in connection with computers
158
547440
4160
Giáo sư Benders cho rằng việc nói về chúng liên quan đến máy tính
09:11
is 'wishful thinking' — 'something which is unlikely to happen'.
159
551720
4720
là "điều viển vông" - "điều không có khả năng xảy ra".
09:16
The problem with using words in this way
160
556560
2120
Vấn đề khi sử dụng từ ngữ theo cách này
09:18
is that it reinforces what Professor Bender calls 'technical bias' —
161
558800
4760
là nó củng cố cái mà Giáo sư Bender gọi là "thiên kiến ​​kỹ thuật" -
09:23
'the assumption that the computer is always right'.
162
563680
2920
"giả định rằng máy tính luôn đúng".
09:26
When we encounter language that sounds natural, but is coming from a computer,
163
566720
4120
Khi chúng ta gặp ngôn ngữ nghe có vẻ tự nhiên nhưng lại phát ra từ máy tính,
09:30
humans can't help but imagine a mind behind the language,
164
570960
3760
con người không thể không tưởng tượng ra một trí tuệ ẩn sau ngôn ngữ đó,
09:34
even when there isn't one.
165
574840
1520
ngay cả khi thực tế không hề có trí tuệ đó.
09:36
In other words, we 'anthropomorphise' computers —
166
576480
2960
Nói cách khác, chúng ta "nhân cách hóa" máy tính -
09:39
we 'treat them as if they were human'.
167
579560
2320
chúng ta "đối xử với chúng như thể chúng là con người".
09:42
Here's Professor Bender again, discussing this idea with Charmaine Cozier,
168
582000
4600
Đây lại là Giáo sư Bender, đang thảo luận ý tưởng này với Charmaine Cozier,
09:46
the presenter of BBC World Service's The Inquiry.
169
586720
3520
người dẫn chương trình The Inquiry của BBC World Service.
09:50
So 'ism' means system, 'anthro' or 'anthropo' means human,
170
590360
4800
Vì vậy, "ism" có nghĩa là hệ thống, "anthro" hoặc "anthropo" có nghĩa là con người,
09:55
and 'morph' means shape.
171
595280
1800
và "morph" có nghĩa là hình dạng.
09:57
And so this is a system that puts the shape of a human on something,
172
597200
4760
Và đây là một hệ thống đặt hình dạng con người lên một vật thể,
10:02
and, in this case, the something is a computer.
173
602080
1680
và trong trường hợp này, vật thể đó chính là máy tính.
10:03
We anthropomorphise animals all the time,
174
603880
2920
Chúng ta luôn nhân cách hóa động vật,
10:06
but we also anthropomorphise action figures, or dolls,
175
606920
3840
nhưng chúng ta cũng nhân cách hóa các nhân vật hành động, búp bê
10:10
or companies when we talk about companies having intentions and so on.
176
610880
3880
hoặc công ty khi chúng ta nói về các công ty có ý định, v.v.
10:14
We very much are in the habit of seeing ourselves in the world around us.
177
614880
4480
Chúng ta có thói quen nhìn nhận bản thân mình trong thế giới xung quanh.
10:19
And while we're busy seeing ourselves
178
619480
1920
Và trong khi chúng ta bận rộn nhìn nhận bản thân
10:21
by assigning human traits to things that are not, we risk being blindsided.
179
621520
4760
bằng cách gán ghép những đặc điểm của con người vào những thứ không phải vậy, chúng ta có nguy cơ bị bất ngờ.
10:26
The more fluent that text is, the more different topics it can converse on,
180
626400
3880
Văn bản càng trôi chảy, càng có thể trao đổi về nhiều chủ đề khác nhau, thì
10:30
the more chances there are to get taken in.
181
630400
2720
càng có nhiều cơ hội bị lừa.
10:34
If we treat computers as if they could think,
182
634040
2600
Nếu chúng ta coi máy tính như thể chúng có thể suy nghĩ,
10:36
we might get 'blindsided', or 'unpleasantly surprised'.
183
636760
4160
chúng ta có thể bị "bất ngờ" hoặc "bất ngờ một cách khó chịu".
10:41
Artificial intelligence works by finding patterns in massive amounts of data,
184
641040
4560
Trí tuệ nhân tạo hoạt động bằng cách tìm ra các mẫu hình trong khối lượng dữ liệu khổng lồ,
10:45
so it can seem like we're talking with a human,
185
645720
2520
do đó có vẻ như chúng ta đang nói chuyện với con người
10:48
instead of a machine doing data analysis.
186
648360
3000
thay vì một cỗ máy đang phân tích dữ liệu.
10:51
As a result, we 'get taken in' — we're 'tricked or deceived'
187
651480
4240
Kết quả là, chúng ta "bị lừa" - chúng ta "bị lừa hoặc bị lừa gạt"
10:55
into thinking we're dealing with a human, or with something intelligent.
188
655840
3640
khi nghĩ rằng chúng ta đang giao tiếp với con người hoặc một sinh vật thông minh.
10:59
Powerful AI can make machines appear conscious,
189
659600
3760
Trí tuệ nhân tạo mạnh mẽ có thể khiến máy móc có vẻ như có ý thức,
11:03
but even tech giants like Google
190
663480
2320
nhưng ngay cả những gã khổng lồ công nghệ như Google
11:05
are years away from building computers that can dream or fall in love.
191
665920
4480
cũng phải mất nhiều năm nữa mới có thể chế tạo được những chiếc máy tính có thể mơ ước hoặc biết yêu.
11:10
Speaking of which, Sam, what was the answer to your question?
192
670520
3160
Nói về điều đó, Sam, câu trả lời cho câu hỏi của bạn là gì?
11:13
I asked what happened in the 2013 movie, Her.
193
673800
3240
Tôi hỏi chuyện gì đã xảy ra trong bộ phim Her năm 2013.
11:17
Neil thought that the main character falls in love with his computer,
194
677160
3080
Neil nghĩ rằng nhân vật chính phải lòng chiếc máy tính của mình
11:20
— which was the correct answer! — OK.
195
680360
2760
— đó là câu trả lời đúng! - ĐƯỢC RỒI.
11:23
Right, it's time to recap the vocabulary we've learned from this programme
196
683240
3640
Đúng vậy, đã đến lúc tóm tắt lại các từ vựng mà chúng ta đã học được từ chương trình này
11:27
about AI, including 'chatbots' —
197
687000
2720
về AI, bao gồm 'chatbot' -
11:29
'computer programmes designed to interact with humans over the internet'.
198
689840
4080
'chương trình máy tính được thiết kế để tương tác với con người qua internet'.
11:34
The adjective 'cognitive' describes anything connected
199
694040
3440
Tính từ 'nhận thức' mô tả bất cứ điều gì liên quan
11:37
with 'the mental processes of knowing, learning and understanding'.
200
697600
3680
đến 'các quá trình tinh thần về nhận thức, học tập và hiểu biết'.
11:41
'Wishful thinking' means 'thinking that something which is very unlikely to happen
201
701400
4720
'Ước mơ' có nghĩa là 'nghĩ rằng điều gì đó rất khó xảy ra
11:46
'might happen one day in the future'.
202
706240
2040
'có thể xảy ra một ngày nào đó trong tương lai'.
11:48
To 'anthropomorphise' an object
203
708400
1440
'Nhân cách hóa' một vật thể có
11:49
means 'to treat it as if it were human, even though it's not'.
204
709960
3440
nghĩa là 'xử lý nó như thể nó là con người, mặc dù nó không phải vậy'.
11:53
When you're 'blindsided', you're 'surprised in a negative way'.
205
713520
3640
Khi bạn bị "bất ngờ", bạn sẽ "bị bất ngờ theo hướng tiêu cực".
11:57
And finally, to 'get taken in' by someone means to be 'deceived or tricked' by them.
206
717280
4760
Và cuối cùng, "bị ai đó lừa gạt" có nghĩa là bị họ "lừa dối hoặc lừa gạt".
12:02
My computer tells me that our six minutes are up!
207
722160
2920
Máy tính của tôi báo rằng sáu phút của chúng ta đã hết!
12:05
Join us again soon, for now it's goodbye from us.
208
725200
2960
Hãy sớm quay lại với chúng tôi, bây giờ chúng tôi xin tạm biệt.
12:08
Bye!
209
728280
1360
Tạm biệt!
12:09
6 Minute English.
210
729760
1560
Tiếng Anh 6 phút.
12:11
From BBC Learning English.
211
731440
2400
Trích từ BBC Learning English.
12:14
Hello, I'm Rob. Welcome to 6 Minute English and with me in the studio is Neil.
212
734640
4520
Xin chào, tôi là Rob. Chào mừng đến với 6 Minute English và Neil là người đồng hành cùng tôi trong phòng thu.
12:19
— Hello, Rob. — Hello.
213
739280
1720
— Xin chào, Rob. - Xin chào.
12:21
Feeling clever today, Neil?
214
741120
1520
Hôm nay bạn có thấy mình thông minh không, Neil?
12:22
I am feeling quite bright and clever, yes!
215
742760
2240
Tôi cảm thấy khá thông minh và sáng suốt, đúng vậy!
12:25
That's good to hear.
216
745120
1000
Thật vui khi được nghe điều đó.
12:26
Well, 'you'll need your wits about you' —
217
746240
1640
Vâng, 'bạn sẽ cần trí thông minh của mình' -
12:28
meaning 'you'll need to think very quickly' in this programme,
218
748000
2760
nghĩa là 'bạn sẽ cần phải suy nghĩ rất nhanh' trong chương trình này,
12:30
because we're talking about intelligence,
219
750880
2480
bởi vì chúng ta đang nói về trí thông minh,
12:33
or to be more accurate, artificial intelligence,
220
753480
3280
hay nói chính xác hơn là trí tuệ nhân tạo,
12:36
and we'll learn some vocabulary related to the topic,
221
756880
3040
và chúng ta sẽ học một số từ vựng liên quan đến chủ đề
12:40
so that you can have your own discussion about it.
222
760040
2720
để bạn có thể tự thảo luận về chủ đề đó. một số từ vựng liên quan đến chủ đề để bạn có thể tự thảo luận về chủ đề đó.
12:42
Neil, now, you know who Professor Stephen Hawking is, right?
223
762880
3120
Neil, anh biết Giáo sư Stephen Hawking là ai rồi phải không?
12:46
Well, of course! Yes.
224
766120
1240
Vâng, tất nhiên rồi! Đúng.
12:47
Many people say that he's a 'genius' —
225
767480
2320
Nhiều người nói rằng ông là một "thiên tài" -
12:49
in other words, he is 'very, very intelligent'.
226
769920
3080
nói cách khác, ông "rất, rất thông minh".
12:53
Professor Hawking is one of the most famous scientists in the world
227
773120
3480
Giáo sư Hawking là một trong những nhà khoa học nổi tiếng nhất thế giới
12:56
and people remember him for his brilliance
228
776720
1960
và mọi người nhớ đến ông vì sự thông minh
12:58
and also because he communicates using a synthetic voice generated by a computer —
229
778800
5560
và cũng vì ông giao tiếp bằng giọng nói tổng hợp do máy tính tạo ra —
13:04
'synthetic' means it's 'made from something non-natural'.
230
784480
3120
'tổng hợp' có nghĩa là 'được tạo ra từ thứ gì đó không tự nhiên'.
13:07
'Artificial' is similar in meaning —
231
787720
2040
'Nhân tạo' có nghĩa tương tự -
13:09
we use it when something is 'man-made to look or behave like something natural'.
232
789880
4720
chúng ta sử dụng từ này khi thứ gì đó 'do con người tạo ra trông giống hoặc hoạt động giống như thứ gì đó tự nhiên'.
13:14
Well, Professor Hawking has said recently
233
794720
2360
Vâng, Giáo sư Hawking gần đây đã nói
13:17
that efforts to create thinking machines are a threat to our existence.
234
797200
4440
rằng những nỗ lực tạo ra những cỗ máy biết suy nghĩ là mối đe dọa đối với sự tồn tại của chúng ta.
13:21
A 'threat' means 'something which can put us in danger'.
235
801760
3240
'Mối đe dọa' có nghĩa là 'điều gì đó có thể khiến chúng ta gặp nguy hiểm'.
13:25
Now, can you imagine that, Neil?!
236
805120
1360
Giờ thì, Neil, anh có thể tưởng tượng được không?!
13:26
Well, there's no denying that good things
237
806600
2080
Vâng, không thể phủ nhận rằng những điều tốt đẹp
13:28
can come from the creation of artificial intelligence.
238
808800
2640
có thể đến từ sự sáng tạo của trí tuệ nhân tạo.
13:31
Computers which can think for themselves
239
811560
1920
Máy tính có khả năng tự suy nghĩ
13:33
might be able to find solutions to problems we haven't been able to solve.
240
813600
4320
có thể tìm ra giải pháp cho những vấn đề mà chúng ta chưa thể giải quyết.
13:38
But technology is developing quickly and maybe we should consider the consequences.
241
818040
4680
Nhưng công nghệ đang phát triển nhanh chóng và có lẽ chúng ta nên cân nhắc đến hậu quả.
13:42
Some of these very clever robots are already surpassing us, Rob.
242
822840
4440
Một số robot rất thông minh này đã vượt trội hơn chúng ta rồi, Rob ạ.
13:47
'To surpass' means 'to have abilities superior to our own'.
243
827400
4000
'Vượt qua' có nghĩa là 'có khả năng vượt trội hơn bản thân mình'.
13:51
Yes. Maybe you can remember the headlines when a supercomputer
244
831520
3280
Đúng. Có lẽ bạn còn nhớ những tiêu đề trên báo khi một siêu máy tính
13:54
defeated the World Chess Champion, Gary Kasparov, to everyone's astonishment.
245
834920
4960
đánh bại Nhà vô địch cờ vua thế giới Gary Kasparov, khiến mọi người kinh ngạc. Lúc
14:00
It was in 1997. What was the computer called though, Neil?
246
840000
3440
đó là năm 1997. Nhưng máy tính đó tên là gì vậy Neil?
14:03
Was it a) Red Menace? b) Deep Blue? Or c) Silver Surfer?
247
843560
6040
Đó có phải là a) Mối đe dọa đỏ không? b) Màu xanh đậm? Hoặc c) Silver Surfer?
14:09
Erm, I don't know.
248
849720
2200
Ờ, tôi không biết.
14:12
I think c) is probably not right. Erm...
249
852040
2360
Tôi nghĩ c) có lẽ không đúng. Ờ...
14:16
I think Deep Blue. That's b) Deep Blue.
250
856000
2160
Tôi nghĩ là Deep Blue. Đó là b) Xanh đậm.
14:18
OK. Well, you'll know if you got the answer right at the end of the programme.
251
858280
3680
ĐƯỢC RỒI. Vâng, bạn sẽ biết nếu bạn trả lời đúng vào cuối chương trình.
14:22
Well, our theme is artificial intelligence
252
862080
2240
Vâng, chủ đề của chúng ta là trí tuệ nhân tạo
14:24
and when we talk about this, we have to mention the movies.
253
864440
2840
và khi nói về chủ đề này, chúng ta phải nhắc đến phim ảnh.
14:27
Mm, many science fiction movies have explored the idea
254
867400
3240
Ừm, nhiều bộ phim khoa học viễn tưởng đã khai thác ý tưởng
14:30
of bad computers who want to harm us.
255
870760
2440
về những chiếc máy tính xấu xa muốn làm hại chúng ta.
14:33
One example is 2001: A Space Odyssey.
256
873320
3440
Một ví dụ là 2001: A Space Odyssey.
14:36
Yes, a good film.
257
876880
1000
Vâng, một bộ phim hay.
14:38
And another is The Terminator, a movie in which actor Arnold Schwarzenegger
258
878000
4000
Và một bộ phim khác là The Terminator, một bộ phim mà nam diễn viên Arnold Schwarzenegger
14:42
played an android from the future.
259
882120
2240
vào vai một người máy đến từ tương lai.
14:44
An 'android' is 'a robot that looks like a human'. Have you watched that one, Neil?
260
884480
3640
'Android' là 'một con robot trông giống con người'. Neil, anh đã xem phim đó chưa?
14:48
Yes, I have and that android is not very friendly.
261
888240
3480
Có, tôi đã làm vậy và hệ điều hành Android đó không thân thiện lắm.
14:51
No, it's not!
262
891840
1000
Không, không phải vậy!
14:52
In many movies and books about robots that think,
263
892960
2920
Trong nhiều bộ phim và sách về robot có suy nghĩ,
14:56
the robots end up rebelling against their creators.
264
896000
3200
robot thường nổi loạn chống lại người tạo ra chúng.
14:59
But some experts say the risk posed by artificial intelligence
265
899320
3480
Nhưng một số chuyên gia cho rằng rủi ro do trí tuệ nhân tạo gây ra
15:02
is not that computers attack us because they hate us.
266
902920
3320
không phải là máy tính tấn công chúng ta vì chúng ghét chúng ta.
15:06
Their problem is related to their efficiency.
267
906360
2800
Vấn đề của họ liên quan đến hiệu quả công việc.
15:09
What do you mean?
268
909280
1000
Ý anh là gì?
15:10
Well, let's listen to what philosopher Nick Bostrom has to say.
269
910400
3920
Vâng, chúng ta hãy lắng nghe triết gia Nick Bostrom nói gì.
15:14
He's the founder of the Future of Humanity Institute at Oxford University.
270
914440
4880
Ông là người sáng lập Viện Tương lai Nhân loại tại Đại học Oxford.
15:19
He uses three words when describing what's inside the mind of a thinking computer.
271
919440
5800
Ông sử dụng ba từ khi mô tả những gì bên trong bộ não của một máy tính biết suy nghĩ.
15:25
This phrase means 'to meet their objectives'. What's the phrase he uses?
272
925360
4640
Cụm từ này có nghĩa là 'đạt được mục tiêu của họ'. Câu anh ấy dùng là gì?
15:30
The bulk of the risk is not in machines being evil or hating humans,
273
930680
5120
Phần lớn rủi ro không phải là máy móc trở nên độc ác hay ghét con người,
15:35
but rather that they are indifferent to humans
274
935920
2320
mà là chúng thờ ơ với con người
15:38
and that, in pursuit of their own goals, we humans would suffer as a side effect.
275
938360
4360
và khi theo đuổi mục tiêu của riêng mình, con người sẽ phải chịu hậu quả.
15:42
Suppose you had a super intelligent AI
276
942840
1800
Giả sử bạn có một AI siêu thông minh
15:44
whose only goal was to make as many paperclips as possible.
277
944760
3240
chỉ có mục tiêu duy nhất là tạo ra càng nhiều kẹp giấy càng tốt.
15:48
Human bodies consist of atoms
278
948120
2280
Cơ thể con người được cấu thành từ các nguyên tử
15:50
and those atoms could be used to make a lot of really nice paperclips.
279
950520
4360
và những nguyên tử đó có thể được dùng để làm ra rất nhiều chiếc kẹp giấy đẹp mắt.
15:55
If you want paperclips, it turns out that in the pursuit of this,
280
955000
3080
Nếu bạn muốn có kẹp giấy, thì hóa ra khi theo đuổi mục đích này,
15:58
you would have instrumental reasons to do things that would be harmful to humanity.
281
958200
3320
bạn sẽ có lý do chính đáng để làm những việc có hại cho nhân loại.
16:02
A world in which humans become paperclips — wow, that's scary!
282
962360
4640
Một thế giới mà con người trở thành những chiếc kẹp giấy — thật đáng sợ!
16:07
But the phrase which means 'meet their objectives' is to 'pursue their goals'.
283
967120
4520
Nhưng cụm từ có nghĩa là "đạt được mục tiêu" chính là "theo đuổi mục tiêu".
16:11
Yes, it is.
284
971760
1000
Có, đúng vậy.
16:12
So the academic explains that if you're a computer
285
972880
3280
Vì vậy, vị học giả giải thích rằng nếu bạn là một chiếc máy tính
16:16
responsible for producing paperclips, you will pursue your objective at any cost.
286
976280
5800
có nhiệm vụ sản xuất kẹp giấy, bạn sẽ theo đuổi mục tiêu của mình bằng mọi giá.
16:22
And even use atoms from human bodies to turn them into paperclips!
287
982200
4440
Và thậm chí sử dụng các nguyên tử từ cơ thể con người để biến chúng thành kẹp giấy!
16:26
— Now that's a horror story, Rob. — Mm.
288
986760
2040
— Đúng là chuyện kinh dị, Rob ạ. — Ừm.
16:28
If Stephen Hawking is worried, I think I might be too!
289
988920
3120
Nếu Stephen Hawking lo lắng thì tôi nghĩ tôi cũng vậy!
16:32
How can we be sure that artificial intelligence —
290
992160
2880
Làm sao chúng ta có thể chắc chắn rằng trí tuệ nhân tạo -
16:35
be either a device or software — will have a moral compass?
291
995160
4000
dù là thiết bị hay phần mềm - sẽ có la bàn đạo đức?
16:39
Ah, a good expression — a 'moral compass' —
292
999280
2000
À, một cách diễn đạt hay - một 'la bàn đạo đức' -
16:41
in other words, 'an understanding of what is right and what is wrong'.
293
1001400
3960
hay nói cách khác, là 'sự hiểu biết về điều gì đúng và điều gì sai'.
16:45
Artificial intelligence is an interesting topic, Rob.
294
1005480
2560
Trí tuệ nhân tạo là một chủ đề thú vị, Rob.
16:48
I hope we can chat about it again in the future.
295
1008160
2400
Tôi hy vọng chúng ta có thể trò chuyện về vấn đề này lần nữa trong tương lai.
16:50
But now I'm looking at the clock and we're running out of time, I'm afraid,
296
1010680
2880
Nhưng bây giờ tôi nhìn đồng hồ và tôi e rằng thời gian sắp hết rồi,
16:53
and I'd like to know if I got the answer to the quiz question right?
297
1013680
3320
tôi muốn biết liệu tôi có trả lời đúng câu hỏi trắc nghiệm không?
16:57
Well, my question was about a supercomputer
298
1017120
3000
Vâng, câu hỏi của tôi là về siêu máy tính
17:00
which defeated the World Chess Champion, Gary Kasparov, in 1997.
299
1020240
4320
đã đánh bại Nhà vô địch cờ vua thế giới Gary Kasparov vào năm 1997.
17:04
What was the machine's name? Was it Red Menace, Deep Blue or Silver Surfer?
300
1024680
4920
Tên của cỗ máy đó là gì? Đó có phải là Red Menace, Deep Blue hay Silver Surfer không?
17:09
And I think it's Deep Blue.
301
1029720
2880
Và tôi nghĩ đó là Deep Blue.
17:12
Well, it sounds like you are more intelligent than a computer,
302
1032720
2880
Vâng, có vẻ như bạn thông minh hơn máy tính
17:15
because you got the answer right.
303
1035720
1800
vì bạn đã trả lời đúng.
17:17
Yes, it was Deep Blue.
304
1037640
1240
Đúng vậy, đó chính là Deep Blue.
17:19
The 1997 match was actually the second one between Kasparov and Deep Blue,
305
1039000
4680
Trận đấu năm 1997 thực chất là trận đấu thứ hai giữa Kasparov và Deep Blue,
17:23
a supercomputer designed by the company IBM
306
1043800
3000
một siêu máy tính do công ty IBM thiết kế
17:26
and it was specialised in chess-playing.
307
1046920
2400
và chuyên dùng để chơi cờ vua.
17:29
Well, I think I might challenge Deep Blue to a game!
308
1049440
2840
Được thôi, tôi nghĩ tôi có thể thách đấu Deep Blue một trận!
17:32
Obviously, I'm a bit, I'm a bit of a genius myself.
309
1052400
2600
Rõ ràng là tôi cũng có chút gì đó giống như một thiên tài vậy.
17:35
Very good! Good to hear!
310
1055120
1600
Rất tốt! Thật vui khi được nghe điều đó!
17:36
Anyway, we've just got time to remember
311
1056840
1600
Dù sao thì chúng ta cũng có thời gian để nhớ lại
17:38
some of the words and expressions that we've used today. Neil?
312
1058560
3080
một số từ và thành ngữ đã sử dụng hôm nay. Neil à?
17:41
They were...
313
1061760
1000
Họ là...
17:42
you'll need your wits about you,
314
1062880
3680
bạn sẽ cần đến trí thông minh của mình,
17:46
artificial,
315
1066680
2560
nhân tạo,
17:49
genius,
316
1069360
2600
thiên tài,
17:52
synthetic,
317
1072080
2040
tổng hợp,
17:54
threat,
318
1074240
1760
mối đe dọa,
17:56
to surpass,
319
1076120
2600
để vượt qua,
17:58
to pursue their goals,
320
1078840
3120
để theo đuổi mục tiêu của họ,
18:02
moral compass.
321
1082080
1320
la bàn đạo đức.
18:03
Thank you. Well, that's it for this programme.
322
1083520
2280
Cảm ơn. Vâng, chương trình này đến đây là hết.
18:05
Do visit BBC Learning English dot com to find more 6 Minute English programmes.
323
1085920
4720
Hãy truy cập trang BBC Learning English dot com để tìm thêm các chương trình tiếng Anh 6 phút.
18:10
— Until next time, goodbye! — Goodbye!
324
1090760
1880
— Hẹn gặp lại lần sau, tạm biệt! - Tạm biệt!
18:13
6 Minute English.
325
1093640
1440
Tiếng Anh 6 phút.
18:15
From BBC Learning English.
326
1095200
2280
Trích từ BBC Learning English.
18:18
Hello. This is 6 Minute English. I'm Rob. And joining me to do this is Sam.
327
1098600
4480
Xin chào. Đây là chương trình tiếng Anh 6 phút. Tôi là Rob. Và người cùng làm việc này với tôi là Sam.
18:23
Hello.
328
1103200
1000
Xin chào.
18:24
In this programme, we're talking about robots.
329
1104320
3040
Trong chương trình này, chúng ta sẽ nói về robot.
18:27
Robots can perform many tasks,
330
1107480
2000
Robot có thể thực hiện nhiều nhiệm vụ,
18:29
but they're now being introduced in social care to operate as carers,
331
1109600
4560
nhưng hiện nay chúng đang được đưa vào dịch vụ chăm sóc xã hội để hoạt động như người chăm sóc,
18:34
to look after the sick and elderly.
332
1114280
2120
trông nom người bệnh và người già.
18:36
We'll be discussing the positive and negative issues around this,
333
1116520
3680
Chúng ta sẽ thảo luận về những vấn đề tích cực và tiêu cực xung quanh vấn đề này,
18:40
but first, let's set you a question to answer, Sam. Are you ready for this?
334
1120320
3720
nhưng trước tiên, hãy đặt cho anh một câu hỏi để trả lời, Sam. Bạn đã sẵn sàng chưa? Bắn
18:44
Fire away!
335
1124160
1120
đi!
18:45
Do you know in which year was the first commercial robot built?
336
1125400
3880
Bạn có biết robot thương mại đầu tiên được chế tạo vào năm nào không?
18:49
Was it in a) 1944? b) 1954? Or c) 1964?
337
1129400
7280
Có phải là vào năm a) 1944 không? b) 1954? Hoặc c) 1964?
18:56
They're not a brand-new invention, so I'll go for 1954.
338
1136800
5440
Chúng không phải là một phát minh hoàn toàn mới, vì vậy tôi sẽ chọn năm 1954.
19:02
OK, well, I'll tell you if you're right or wrong at the end of the programme.
339
1142360
4520
Được thôi, tôi sẽ cho bạn biết bạn đúng hay sai vào cuối chương trình.
19:07
So, let's talk more about robots,
340
1147000
1920
Vậy, chúng ta hãy nói thêm về robot,
19:09
and specifically ones that are designed to care for people.
341
1149040
3720
đặc biệt là những robot được thiết kế để chăm sóc con người.
19:12
Traditionally, it's humans working as nurses or carers
342
1152880
3480
Theo truyền thống, con người làm y tá hoặc người chăm sóc là những người
19:16
who take care of elderly people —
343
1156480
2200
chăm sóc người già —
19:18
those people who are too old or too unwell to look after themselves.
344
1158800
3800
những người quá già hoặc quá yếu để tự chăm sóc bản thân.
19:22
But finding enough carers to look after people is a problem —
345
1162720
4360
Nhưng việc tìm đủ người chăm sóc là một vấn đề —
19:27
there are more people needing care than there are people who can help.
346
1167200
4120
số người cần được chăm sóc nhiều hơn số người có thể giúp đỡ.
19:31
And recently in the UK, the government announced a £34 million fund
347
1171440
5560
Và gần đây tại Anh, chính phủ đã công bố quỹ trị giá 34 triệu bảng Anh
19:37
to help develop robots to look after us in our later years.
348
1177120
4520
để giúp phát triển robot có thể chăm sóc chúng ta trong những năm cuối đời.
19:41
Well, robot carers are being developed,
349
1181760
2440
Vâng, người máy chăm sóc đang được phát triển,
19:44
but can they really learn enough empathy to take care of the elderly and unwell?
350
1184320
4560
nhưng liệu chúng có thực sự học được đủ sự đồng cảm để chăm sóc người già và người bệnh không?
19:49
'Empathy' is 'the ability to understand how someone feels
351
1189000
3680
'Sự đồng cảm' là 'khả năng hiểu được cảm giác của ai đó
19:52
'by imagining what it would be like to be in that person's situation'.
352
1192800
4240
' bằng cách tưởng tượng xem nếu ở trong hoàn cảnh của người đó thì sẽ như thế nào'.
19:57
Well, let's hear about one of those new robots now, called Pepper.
353
1197160
4680
Vâng, bây giờ chúng ta hãy cùng nghe về một trong những chú robot mới đó, có tên là Pepper.
20:01
Abbey Hearn-Nagaf is a research assistant at the University of Bedfordshire.
354
1201960
5080
Abbey Hearn-Nagaf là trợ lý nghiên cứu tại Đại học Bedfordshire.
20:07
She spoke to BBC Radio 4's You and Yours programme
355
1207160
3880
Bà đã trả lời chương trình You and Yours của BBC Radio 4
20:11
and explained how Pepper is first introduced to someone in a care home.
356
1211160
4600
và giải thích về lần đầu tiên Pepper được giới thiệu với một người nào đó trong viện dưỡng lão.
20:15
We just bring the robot to their room
357
1215880
2200
Chúng tôi chỉ mang robot đến phòng của chúng
20:18
and we talk about what Pepper can't do, which is important,
358
1218200
2640
và nói về những gì Pepper không thể làm, điều này rất quan trọng,
20:20
so it can't provide physical assistance in any way.
359
1220960
2720
vì nó không thể hỗ trợ vật lý theo bất kỳ cách nào.
20:23
It does have hands, it can wave.
360
1223800
2160
Nó có tay và có thể vẫy.
20:26
When you ask for privacy, it does turn around
361
1226080
2000
Khi bạn yêu cầu sự riêng tư, nó sẽ quay lại
20:28
and sort of cover its eyes with its hands, but that's the most it does.
362
1228200
3000
và lấy tay che mắt, nhưng đó là tất cả những gì nó làm.
20:31
It doesn't grip anything, it doesn't move anything,
363
1231320
2160
Nó không bám vào bất cứ thứ gì, không di chuyển bất cứ thứ gì,
20:33
because we're more interested to see how it works as a companion,
364
1233600
3480
bởi vì chúng ta quan tâm hơn đến cách nó hoạt động như một người bạn đồng hành,
20:37
having something there to talk to, to converse with, to interact with.
365
1237200
4080
có thứ gì đó để nói chuyện, để trò chuyện, để tương tác.
20:41
So, Abbey described how the robot is introduced to someone.
366
1241400
4240
Vì vậy, Abbey đã mô tả cách robot được giới thiệu với mọi người.
20:45
She was keen to point out that this robot has 'limitations' — 'things it can't do'.
367
1245760
6120
Bà muốn chỉ ra rằng con robot này có "hạn chế" - "những điều nó không thể làm".
20:52
It can wave or turn round when a person needs 'privacy' — 'to be private' —
368
1252000
5040
Nó có thể vẫy hoặc quay lại khi một người cần "sự riêng tư" — "được riêng tư" —
20:57
but it can't provide 'physical assistance'.
369
1257160
3280
nhưng nó không thể cung cấp "sự hỗ trợ về mặt vật lý".
21:00
This means it can't help someone by 'touching or feeling' them.
370
1260560
4440
Điều này có nghĩa là nó không thể giúp ai đó bằng cách 'chạm vào hoặc cảm nhận' họ.
21:05
But that's OK, Abbey says.
371
1265120
1680
Nhưng không sao cả, Abbey nói.
21:06
This robot is designed to be a 'companion' —
372
1266920
3080
Con robot này được thiết kế để trở thành một "người bạn đồng hành" —
21:10
'someone who is with you to keep you company' —
373
1270120
2320
"một người luôn ở bên cạnh để bầu bạn" —
21:12
a friend, in other words, that you can converse or talk with.
374
1272560
3480
nói cách khác, một người bạn mà bạn có thể trò chuyện hoặc tâm sự.
21:16
Well, having a companion is a good way to stop people getting lonely,
375
1276160
4400
Vâng, có bạn đồng hành là một cách tốt để mọi người không cảm thấy cô đơn,
21:20
but surely a human is better for that?
376
1280680
2960
nhưng chắc chắn một người bạn đồng hành sẽ tốt hơn cho việc đó?
21:23
Surely they understand you better than a robot ever can?
377
1283760
3680
Chắc chắn chúng hiểu bạn hơn cả robot phải không?
21:27
Well, innovation means that robots are becoming cleverer all the time.
378
1287560
4640
Vâng, sự đổi mới có nghĩa là robot ngày càng trở nên thông minh hơn.
21:32
And, as we've mentioned, in the UK alone there is a growing elderly population
379
1292320
4720
Và như chúng tôi đã đề cập, chỉ riêng tại Vương quốc Anh, dân số người cao tuổi đang ngày càng tăng
21:37
and more than 100,000 care assistant vacancies.
380
1297160
3360
và có hơn 100.000 việc làm trợ lý chăm sóc đang thiếu hụt.
21:40
Who's going to do all the work?
381
1300640
1800
Ai sẽ làm hết mọi việc?
21:42
I think we should hear from Dr Sarah Woodin,
382
1302560
2640
Tôi nghĩ chúng ta nên lắng nghe Tiến sĩ Sarah Woodin,
21:45
a health researcher in independent living from Leeds University,
383
1305320
4040
một nhà nghiên cứu sức khỏe về cuộc sống tự lập đến từ Đại học Leeds,
21:49
who also spoke to the BBC's You and Yours programme.
384
1309480
3960
người cũng đã phát biểu trên chương trình You and Yours của BBC.
21:53
She seems more realistic about the introduction of robot carers.
385
1313560
5120
Cô ấy có vẻ thực tế hơn về việc đưa người máy vào làm người chăm sóc.
21:59
I think there are problems if we consider robots as replacement for people.
386
1319200
4600
Tôi nghĩ sẽ có vấn đề nếu chúng ta coi robot là sự thay thế cho con người.
22:03
We know that money is tight — if robots become mass-produced,
387
1323920
4680
Chúng ta biết rằng tiền bạc đang eo hẹp - nếu robot được sản xuất hàng loạt,
22:08
there could be large institutions where people might be housed
388
1328720
4200
có thể sẽ có những tổ chức lớn nơi mọi người có thể được đưa đến ở
22:13
and abandoned to robots.
389
1333040
2800
và bị bỏ lại cho robot.
22:15
I do think questions of ethics
390
1335960
1480
Tôi nghĩ rằng các vấn đề về đạo đức cũng
22:17
need to come into the growth and jobs agenda as well,
391
1337560
3600
cần được đưa vào chương trình nghị sự về tăng trưởng và việc làm ,
22:21
because, sometimes, they're treated very separately.
392
1341280
2440
bởi vì đôi khi, chúng được xử lý rất riêng biệt.
22:23
OK, so Sarah Woodin suggests that when money is 'tight' —
393
1343840
3440
Được thôi, Sarah Woodin cho rằng khi tiền bạc "thắt chặt" -
22:27
meaning there is 'only just enough' —
394
1347400
1680
nghĩa là "chỉ đủ tiền" - thì
22:29
making robots in large quantities — or mass-produced —
395
1349200
3320
việc sản xuất robot với số lượng lớn - hoặc sản xuất hàng loạt -
22:32
might be a cheaper option than using humans.
396
1352640
2720
có thể là lựa chọn rẻ hơn so với sử dụng con người.
22:35
And she says people might be abandoned to robots.
397
1355480
3160
Và bà cho rằng con người có thể bị bỏ rơi bởi robot.
22:38
Yes, 'abandoned' means 'left alone in a place, usually forever'.
398
1358760
5840
Đúng vậy, "bị bỏ rơi" có nghĩa là "bị bỏ lại một mình ở một nơi nào đó, thường là mãi mãi".
22:44
So she says it might be possible that someone ends up being forgotten
399
1364720
4360
Vì vậy, bà cho rằng có thể có người sẽ bị lãng quên
22:49
and only having a robot to care for them. So is this right, ethically?
400
1369200
5640
và chỉ có một con robot chăm sóc họ. Vậy điều này có đúng về mặt đạo đức không?
22:54
Yes, well, she mentions 'ethics' — that's 'what is morally right' —
401
1374960
3920
Vâng, bà ấy có đề cập đến "đạo đức" - tức là "điều đúng đắn về mặt đạo đức" -
22:59
and that needs to be considered as part of the jobs agenda.
402
1379000
3440
và điều đó cần được xem xét như một phần của chương trình nghị sự về việc làm.
23:02
So, we shouldn't just consider what job vacancies need filling,
403
1382560
3160
Vì vậy, chúng ta không chỉ nên xem xét cần tuyển dụng những vị trí nào
23:05
but who and how it should be done.
404
1385840
2360
mà còn phải xem xét cần tuyển ai và tuyển như thế nào.
23:08
And earlier I asked you, Sam,
405
1388320
1400
Và trước đó tôi đã hỏi bạn, Sam,
23:09
did you know in which year was the first commercial robot built? And you said?
406
1389840
4440
bạn có biết robot thương mại đầu tiên được chế tạo vào năm nào không? Và bạn nói?
23:14
I said 1954.
407
1394400
1640
Tôi đã nói là năm 1954.
23:16
Well, you didn't need a robot to help you there because you are right.
408
1396160
3320
Vâng, bạn không cần một con robot để giúp bạn ở đó vì bạn nói đúng.
23:19
— Ah, yay! — Well done!
409
1399600
1760
— Ồ, tuyệt quá! - Làm tốt!
23:21
Now let's do something a robot can't do yet,
410
1401480
2720
Bây giờ chúng ta hãy làm điều mà robot chưa thể làm được,
23:24
and that's recap the vocabulary we've highlighted today, starting with empathy.
411
1404320
5280
đó là tóm tắt lại vốn từ vựng mà chúng ta đã nêu bật ngày hôm nay, bắt đầu với sự đồng cảm.
23:29
'Empathy' is 'the ability to understand how someone feels
412
1409720
3440
'Sự đồng cảm' là 'khả năng hiểu được cảm xúc của người khác
23:33
by imagining what it would be like to be in that person's situation'.
413
1413280
3920
bằng cách tưởng tượng xem hoàn cảnh của người đó sẽ như thế nào'.
23:37
'Physical assistance' describes 'helping someone by touching them'.
414
1417320
4280
'Hỗ trợ vật lý' mô tả 'giúp đỡ ai đó bằng cách chạm vào họ'.
23:41
We also mentioned a 'companion' —
415
1421720
1920
Chúng tôi cũng đã đề cập đến một "người bạn đồng hành" —
23:43
that's 'someone who is with you and keeps you company'.
416
1423760
2680
đó là "người ở bên bạn và bầu bạn với bạn".
23:46
Our next word was 'tight' — in the context of money,
417
1426560
3280
Từ tiếp theo của chúng ta là "thắt chặt" — trong bối cảnh về tiền bạc,
23:49
when money is tight, it means there's 'not enough'.
418
1429960
3120
khi tiền bạc thắt chặt, điều đó có nghĩa là "không đủ".
23:53
'Abandoned' means 'left alone in a place, usually forever'.
419
1433200
3400
'Bị bỏ rơi' có nghĩa là 'bị bỏ lại một mình ở một nơi nào đó, thường là mãi mãi'.
23:56
And finally, we discussed the word 'ethics' —
420
1436720
2440
Và cuối cùng, chúng ta đã thảo luận về từ "đạo đức" -
23:59
we hear a lot about business ethics or medical ethics —
421
1439280
3760
chúng ta thường nghe nói đến đạo đức kinh doanh hoặc đạo đức y khoa -
24:03
and it means 'the study of what is morally right'.
422
1443160
3280
và nó có nghĩa là "nghiên cứu về điều gì là đúng về mặt đạo đức".
24:06
OK, thank you, Sam.
423
1446560
1560
Được rồi, cảm ơn Sam.
24:08
Well, we've managed to get through 6 Minute English without the aid of a robot.
424
1448240
4520
Vâng, chúng tôi đã hoàn thành được chương trình 6 Minute English mà không cần sự trợ giúp của robot.
24:12
That's all for now, but please join us again soon. Goodbye!
425
1452880
2920
Vậy là hết, nhưng hãy sớm tham gia cùng chúng tôi nhé. Tạm biệt!
24:15
Bye-bye, everyone!
426
1455920
1000
Tạm biệt mọi người!
24:17
6 Minute English.
427
1457720
1680
Tiếng Anh 6 phút.
24:19
From BBC Learning English.
428
1459520
2480
Trích từ BBC Learning English.
24:22
Hello. This is 6 Minute English from BBC Learning English. I'm Phil.
429
1462840
3800
Xin chào. Đây là chương trình 6 Minute English của BBC Learning English. Tôi là Phil.
24:26
And I'm Georgie.
430
1466760
1240
Và tôi là Georgie.
24:28
Animal testing is when living animals are used in scientific research
431
1468120
4320
Thử nghiệm trên động vật là khi động vật sống được sử dụng trong nghiên cứu khoa học
24:32
to find out how effective a new medicine is, or how safe a product is for humans.
432
1472560
5880
để tìm hiểu mức độ hiệu quả của một loại thuốc mới hoặc mức độ an toàn của một sản phẩm đối với con người.
24:38
Scientists in favour of it argue that animal testing
433
1478560
3360
Các nhà khoa học ủng hộ lập luận rằng thử nghiệm trên động vật sẽ
24:42
shows whether medicines are safe or dangerous for humans,
434
1482040
3840
cho thấy thuốc có an toàn hay nguy hiểm cho con người
24:46
and has saved many lives.
435
1486000
1760
và đã cứu được nhiều sinh mạng.
24:47
But animal rights campaigners say it's cruel,
436
1487880
2720
Nhưng những người vận động vì quyền động vật cho rằng việc này rất tàn ác
24:50
and also ineffective because animals and humans are so different.
437
1490720
4800
và không hiệu quả vì động vật và con người rất khác nhau.
24:55
Under British law, medicines must be tested on two different types of animals,
438
1495640
5800
Theo luật pháp Anh, thuốc phải được thử nghiệm trên hai loại động vật khác nhau,
25:01
usually starting with rats, mice or guinea pigs.
439
1501560
4280
thường bắt đầu bằng chuột cống, chuột nhắt hoặc chuột lang.
25:05
And in everyday English, the term 'human guinea pig'
440
1505960
3680
Trong tiếng Anh hàng ngày, thuật ngữ 'human guinea pig'
25:09
can be used to mean 'the first people to have something tested on them'.
441
1509760
4600
có thể được dùng để chỉ 'những người đầu tiên được thử nghiệm điều gì đó trên người'.
25:14
But now, groups both for and against animal testing are thinking again,
442
1514480
4960
Nhưng hiện nay, cả những nhóm ủng hộ và phản đối thử nghiệm trên động vật đều đang suy nghĩ lại,
25:19
thanks to a recent development in the debate — AI.
443
1519560
3640
nhờ vào một bước tiến gần đây trong cuộc tranh luận — AI.
25:23
In this programme, we'll be hearing how artificial intelligence
444
1523320
3160
Trong chương trình này, chúng ta sẽ được nghe về cách trí tuệ nhân tạo
25:26
could help reduce the need for scientific testing on animals.
445
1526600
3960
có thể giúp giảm nhu cầu thử nghiệm khoa học trên động vật.
25:30
But first, I have a question for you, Georgie.
446
1530680
3400
Nhưng trước tiên, tôi có một câu hỏi dành cho cô, Georgie.
25:34
There's one commonly used medicine in particular
447
1534200
2880
Có một loại thuốc thường được sử dụng
25:37
which is harmful for animals but safe for humans, but what?
448
1537200
5040
có hại cho động vật nhưng an toàn cho con người, nhưng đó là loại thuốc gì?
25:43
Is it a) Antibiotics?
449
1543240
3280
Có phải là a) Thuốc kháng sinh không?
25:46
b) Aspirin?
450
1546640
2080
b) Aspirin?
25:48
Or c) Paracetamol?
451
1548840
2480
Hoặc c) Paracetamol?
25:51
Hmm, I guess it's aspirin.
452
1551440
2880
Ừm, tôi đoán là thuốc aspirin.
25:54
OK, Georgie, I'll reveal the answer at the end of the programme.
453
1554440
4080
Được thôi, Georgie, tôi sẽ tiết lộ câu trả lời vào cuối chương trình.
25:58
Christine Ro is a science journalist who's interested in the animal testing debate.
454
1558640
5360
Christine Ro là một nhà báo khoa học quan tâm đến cuộc tranh luận về thử nghiệm trên động vật.
26:04
Here, she explains to BBC World Service programme Tech Life
455
1564120
4600
Bà giải thích với chương trình Tech Life của BBC World Service về
26:08
some of the limitations of testing medicines on animals.
456
1568840
3640
một số hạn chế của việc thử nghiệm thuốc trên động vật.
26:12
Of course, you can't necessarily predict from a mouse or a dog
457
1572600
2640
Tất nhiên, bạn không nhất thiết có thể dự đoán được
26:15
what's going to happen in a human, and there have been a number of cases
458
1575360
3760
điều gì sẽ xảy ra ở một con chuột hay một con chó đối với con người, và đã có một số trường hợp
26:19
where substances that have proven to be toxic in animals
459
1579240
3320
các chất được chứng minh là độc hại ở động vật lại được
26:22
have been proven to be safe in humans, and vice versa.
460
1582680
3200
chứng minh là an toàn ở người. và ngược lại. và ngược lại.
26:27
There are also, of course, animal welfare limitations to animal testing.
461
1587200
4040
Tất nhiên, cũng có những hạn chế về phúc lợi động vật khi thử nghiệm trên động vật.
26:31
Most people, I think, if they had the choice,
462
1591360
2280
Tôi nghĩ rằng hầu hết mọi người, nếu có quyền lựa chọn,
26:33
would want their substances to be used on as few animals or no animals as possible,
463
1593760
5160
sẽ muốn sử dụng chất của họ trên càng ít động vật hoặc không sử dụng trên động vật càng tốt,
26:39
while still ensuring safety.
464
1599040
1840
nhưng vẫn đảm bảo an toàn.
26:41
Now, that's been a really difficult needle to thread,
465
1601000
2280
Hiện tại, đây thực sự là một vấn đề khó giải quyết,
26:43
but AI might help to make that more possible.
466
1603400
2440
nhưng AI có thể giúp biến điều đó thành hiện thực.
26:45
Christine says that medicines which are safe for animals
467
1605960
3280
Christine cho biết những loại thuốc an toàn với động vật
26:49
might not be safe for humans.
468
1609360
2320
có thể không an toàn với con người.
26:51
But the opposite is also true —
469
1611800
1760
Nhưng điều ngược lại cũng đúng -
26:53
what's safe for humans might not be safe for animals.
470
1613680
3760
những gì an toàn cho con người có thể không an toàn cho động vật.
26:57
Christine uses the phrase 'vice versa'
471
1617560
2600
Christine sử dụng cụm từ 'ngược lại'
27:00
to show that 'the opposite' of what she says is also true.
472
1620280
3920
để chỉ ra rằng 'điều ngược lại' trong lời cô ấy nói cũng đúng.
27:05
Christine also uses the idiom to 'thread the needle'
473
1625320
3200
Christine cũng sử dụng thành ngữ 'xỏ kim'
27:08
to describe 'a task which requires a lot of skill and precision,
474
1628640
3800
để mô tả 'một nhiệm vụ đòi hỏi nhiều kỹ năng và độ chính xác,
27:12
'especially one involving a conflict'.
475
1632560
3480
'đặc biệt là nhiệm vụ liên quan đến xung đột'.
27:16
Yes, medical animal testing may save human lives,
476
1636160
4400
Đúng, thử nghiệm y tế trên động vật có thể cứu sống con người,
27:20
but many people see it as cruel and distressing for the animal —
477
1640680
3920
nhưng nhiều người cho rằng đây là hành động tàn ác và gây đau khổ cho động vật —
27:24
it's a difficult needle to thread.
478
1644720
2840
đây là việc khó khăn.
27:27
But now, the challenge of threading that needle has got a little easier
479
1647680
3760
Nhưng hiện nay, thách thức trong việc luồn kim đó đã trở nên dễ dàng hơn một chút
27:31
because of artificial intelligence.
480
1651560
2080
nhờ trí tuệ nhân tạo.
27:33
Predicting how likely a new medicine is to harm humans
481
1653760
3680
Việc dự đoán khả năng một loại thuốc mới gây hại cho con người
27:37
involves analysing the results of thousands of experiments.
482
1657560
3960
liên quan đến việc phân tích kết quả của hàng nghìn thí nghiệm.
27:41
And one thing AI is really good at is analysing mountains and mountains of data.
483
1661640
6280
Và một điều AI thực sự giỏi là phân tích hàng núi dữ liệu.
27:48
Here's Christine Ro again, speaking with BBC World Service's Tech Life.
484
1668040
4440
Đây lại là Christine Ro, đang trò chuyện với Tech Life của BBC World Service.
27:52
So, AI isn't the whole picture, of course,
485
1672600
1880
Vì vậy, AI tất nhiên không phải là toàn bộ bức tranh,
27:54
but it's an increasingly important part of the picture and one reason for that
486
1674600
4240
nhưng nó là một phần ngày càng quan trọng của bức tranh và một lý do cho điều đó
27:58
is that there is a huge amount of toxicology data to wade through
487
1678960
3320
là có một lượng lớn dữ liệu về độc chất học cần phải xem xét
28:02
when it comes to determining chemical safety, and, on top of that,
488
1682400
3720
khi xác định mức độ an toàn của hóa chất và, trên hết, còn
28:06
there's the staggering number of chemicals being invented all of the time.
489
1686240
4120
có một số lượng lớn các loại hóa chất được phát minh ra liên tục. trên hết, còn có một số lượng lớn các loại hóa chất được phát minh ra liên tục.
28:10
AI helps scientists wade through huge amounts of data.
490
1690480
4280
AI giúp các nhà khoa học xử lý lượng dữ liệu khổng lồ.
28:14
If you 'wade through' something,
491
1694880
2200
Nếu bạn "lội qua" một cái gì đó,
28:17
you 'spend a lot of time and effort doing something boring or difficult,
492
1697200
4920
bạn "dành nhiều thời gian và công sức để làm một việc nhàm chán hoặc khó khăn",
28:22
'especially reading a lot of information'.
493
1702240
2960
"đặc biệt là đọc nhiều thông tin".
28:25
AI can process huge amounts of data,
494
1705320
2600
AI có thể xử lý lượng dữ liệu khổng lồ
28:28
and what's more, that amount keeps growing as new chemicals are invented.
495
1708040
5360
và hơn thế nữa, lượng dữ liệu đó sẽ tiếp tục tăng lên khi các hóa chất mới được phát minh.
28:33
Christine uses the phrase 'on top of that', meaning 'in addition to something'.
496
1713520
4960
Christine sử dụng cụm từ 'on the top of that', có nghĩa là 'thêm vào cái gì đó'.
28:38
Often this extra thing is negative.
497
1718600
2440
Thông thường, điều này mang tính tiêu cực.
28:41
She means there's already so much data to understand
498
1721160
3360
Ý cô ấy là đã có rất nhiều dữ liệu để hiểu
28:44
and additionally, there's even more to be understood about these new chemicals.
499
1724640
5000
và ngoài ra, còn có nhiều điều hơn nữa cần phải hiểu về những hóa chất mới này.
28:49
Of course, the good news is that with AI, testing on animals could one day stop,
500
1729760
6160
Tất nhiên, tin tốt là với AI, việc thử nghiệm trên động vật một ngày nào đó có thể dừng lại,
28:56
although Christine warns that AI is not the 'whole picture',
501
1736040
3840
mặc dù Christine cảnh báo rằng AI không phải là "bức tranh toàn cảnh",
29:00
it's not 'a complete description of something
502
1740000
2120
nó không phải là "mô tả đầy đủ về một cái gì đó
29:02
'which includes all the relevant information'.
503
1742240
2920
'bao gồm tất cả các thông tin có liên quan'.
29:05
Nevertheless, the news is a step forward
504
1745280
2640
Tuy nhiên, tin tức này là một bước tiến
29:08
for both animal welfare and for modern medicine.
505
1748040
4040
cho cả phúc lợi động vật và y học hiện đại.
29:12
Speaking of which, what was the answer to your question, Phil?
506
1752200
3720
Nói về điều đó, câu trả lời cho câu hỏi của anh là gì, Phil?
29:16
What is a commonly used medicine which is safe for humans, but harmful to animals?
507
1756040
5200
Loại thuốc nào thường được sử dụng an toàn cho con người nhưng lại gây hại cho động vật?
29:21
I guessed it was aspirin.
508
1761360
1920
Tôi đoán đó là thuốc aspirin.
29:23
Which was the correct answer!
509
1763400
3080
Đâu là câu trả lời đúng?
29:26
Right, let's recap the vocabulary we've discussed,
510
1766600
3640
Được rồi, chúng ta hãy tóm tắt lại các từ vựng mà chúng ta đã thảo luận,
29:30
starting with 'human guinea pigs'
511
1770360
2600
bắt đầu với 'human guinea rats'
29:33
meaning 'the first people to have something new tested on them'.
512
1773080
3880
có nghĩa là 'những người đầu tiên được thử nghiệm điều gì đó mới trên người'.
29:37
The phrase 'vice versa' is used to indicate
513
1777080
2560
Cụm từ 'ngược lại' được dùng để chỉ
29:39
that 'the opposite of what you have just said is also true'.
514
1779760
4280
rằng 'điều ngược lại với điều bạn vừa nói cũng đúng'.
29:44
To 'thread the needle'
515
1784160
1320
Từ 'xỏ kim'
29:45
describes 'a task which requires extreme skill and precision to do successfully'.
516
1785600
6120
mô tả 'một nhiệm vụ đòi hỏi kỹ năng và độ chính xác cực cao để thực hiện thành công'.
29:51
The 'whole picture' means 'a complete description of something
517
1791840
3360
'Bức tranh toàn cảnh' có nghĩa là ' mô tả đầy đủ về một cái gì đó
29:55
'which includes all the relevant information and opinions about it'.
518
1795320
4440
' bao gồm tất cả thông tin và ý kiến ​​có liên quan về nó'.
29:59
If you 'wade through' something,
519
1799880
2000
Nếu bạn "lội qua" một cái gì đó,
30:02
you 'spend a lot of time and effort doing something boring or difficult,
520
1802000
4840
bạn "dành nhiều thời gian và công sức để làm một việc nhàm chán hoặc khó khăn",
30:06
'especially reading a lot of information'.
521
1806960
2800
"đặc biệt là đọc nhiều thông tin".
30:09
And finally, the phrase 'on top of something'
522
1809880
2960
Và cuối cùng, cụm từ "on top of something"
30:12
means 'in addition to something', and that extra thing is often negative.
523
1812960
5000
có nghĩa là "thêm vào thứ gì đó", và thứ thêm vào đó thường mang nghĩa tiêu cực.
30:18
That's all for this week. Goodbye for now!
524
1818080
2080
Vậy là hết tuần này. Tạm biệt nhé!
30:20
Bye!
525
1820280
1360
Tạm biệt!
30:21
6 Minute English.
526
1821760
1320
Tiếng Anh 6 phút.
30:23
From BBC Learning English.
527
1823200
2800
Trích từ BBC Learning English.
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7