BOX SET: 6 Minute English - 'Artificial intelligence' English mega-class! 30 minutes of new vocab!

6,365 views ・ 2025-01-19

BBC Learning English


아래 영문자막을 더블클릭하시면 영상이 재생됩니다. 번역된 자막은 기계 번역됩니다.

00:00
6 Minute English.
0
760
1720
6분 영어.
00:02
From BBC Learning English.
1
2600
2640
BBC Learning English에서 발췌.
00:05
Hello. This is 6 Minute English from BBC Learning English. I'm Neil.
2
5840
3920
안녕하세요. 이것은 BBC Learning English의 6 Minute English입니다. 저는 닐이에요.
00:09
And I'm Rob.
3
9880
1200
저는 롭이에요.
00:11
Now, I'm sure most of us have interacted with a chatbot.
4
11200
4360
이제 우리 대부분이 챗봇과 상호작용을 해본 적이 있을 거라고 확신합니다.
00:15
These are bits of computer technology
5
15680
2320
이는
00:18
that respond to text with text or respond to your voice.
6
18120
4600
텍스트에 텍스트로 반응하거나 음성에 반응하는 컴퓨터 기술의 일종입니다.
00:22
You ask it a question and usually it comes up with an answer.
7
22840
3960
질문을 하면 대개 대답이 나옵니다.
00:26
Yes, it's almost like talking to another human, but of course it's not,
8
26920
4480
그렇습니다. 다른 사람과 대화하는 것과 거의 비슷 하지만 물론 그렇지 않습니다.
00:31
it's just a clever piece of technology.
9
31520
2560
그저 똑똑한 기술일 뿐입니다. 인공지능은 점점
00:34
It is becoming more 'sophisticated' — more 'advanced and complex' —
10
34200
3640
더 '정교해지고', 더욱 '고급화되고 복잡해지고' 있지만, 인공지능이
00:37
but could they replace real human interaction altogether?
11
37960
3200
실제 인간의 상호작용을 완전히 대체할 수 있을까요?
00:41
We'll discuss that more in a moment
12
41280
2040
이에 대해서는 잠시 후에 더 자세히 논의하고
00:43
and find out if chatbots really think for themselves.
13
43440
3680
, 챗봇이 실제로 스스로 생각하는지 알아보겠습니다.
00:47
But first I have a question for you, Rob.
14
47240
2440
하지만 먼저 질문이 하나 있어요, 롭. 인간과 기계가
00:49
The first computer program that allowed some kind of plausible conversation
15
49800
4440
어떤 식으로든 대화할 수 있게 해주는 최초의 컴퓨터 프로그램은
00:54
between humans and machines was invented in 1966, but what was it called?
16
54360
6440
1966년에 발명되었지만, 그 이름은 무엇이었을까?
01:00
Was it a) Alexa? b) ELIZA? Or c) PARRY?
17
60920
6120
a) 알렉사였나요? b) 엘리자? 아니면 c) 패리?
01:07
Ah, well, it's not Alexa, that's too new, so I'll guess c) PARRY.
18
67160
4280
아, 글쎄요, 알렉사는 아니고요. 너무 새롭잖아요. 그러니까 제 추측은 c) PARRY예요.
01:11
I'll reveal the answer at the end of the programme.
19
71560
3200
정답은 프로그램이 끝나면 공개하겠습니다.
01:14
Now, the old chatbots of the 1960s and '70s were quite basic,
20
74880
5440
1960 ~70년대에 사용되던 챗봇은 매우 기초적이었지만,
01:20
but more recently, the technology is able to predict the next word
21
80440
4640
최근의 챗봇 기술은
01:25
that is likely to be used in a sentence,
22
85200
2200
문장에서 사용될 가능성이 높은 다음 단어를 예측
01:27
and it learns words and sentence structures.
23
87520
2840
하고 단어 와 문장 구조를 학습할 수 있습니다.
01:30
Mm, it's clever stuff.
24
90480
1480
음, 정말 똑똑한 것 같아요.
01:32
I've experienced using them when talking to my bank,
25
92080
2800
저는 은행과 통화할 때나
01:35
or when I have problems trying to book a ticket on a website.
26
95000
3080
웹사이트에서 항공권을 예약할 때 문제가 있을 때 이를 사용해 본 적이 있습니다.
01:38
I no longer phone a human, I speak to a virtual assistant instead.
27
98200
5160
더 이상 사람에게 전화하지 않고, 대신 가상 비서와 통화합니다.
01:43
Probably the most well-known chatbot at the moment is ChatGPT..
28
103480
4560
아마 현재 가장 잘 알려진 챗봇은 ChatGPT일 것입니다. 바로
01:48
It is. The claim is that it's able to answer anything you ask it.
29
108160
4400
그것입니다. 이는 당신이 묻는 모든 것에 대답할 수 있다는 주장입니다.
01:52
This includes writing students' essays.
30
112680
2760
여기에는 학생들의 에세이 쓰기도 포함됩니다.
01:55
Now, this is something that was discussed
31
115560
1760
이건
01:57
on the BBC Radio 4 programme, Word of Mouth.
32
117440
3040
BBC Radio 4 프로그램인 ' Word of Mouth'에서 논의되었던 내용입니다.
02:00
Emily M Bender, Professor of Computational Linguistics
33
120600
4280
02:05
at the University of Washington,
34
125000
1680
워싱턴 대학의 계산언어학 교수인 에밀리 M 벤더는 챗봇이 하는 말을
02:06
explained why it's dangerous to always trust what a chatbot is telling us.
35
126800
4720
항상 믿는 것이 위험한 이유를 설명했습니다 .
02:11
We tend to react to grammatical, fluent, coherent-seeming text
36
131640
5120
우리는 문법적이고 유창하며, 일관성 있는 것처럼 보이는 텍스트를
02:16
as authoritative and reliable and valuable and we need to be on guard against that,
37
136880
6040
권위 있고, 믿을 수 있고, 가치 있는 것으로 여기는 경향이 있으며 이에 대해 경계해야 합니다.
02:23
because what's coming out of ChatGPT is none of that.
38
143040
2520
ChatGPT에서 나오는 내용은 그런 것이 전혀 아니기 때문입니다.
02:25
So, Professor Bender says that well-written text that is 'coherent' —
39
145680
4200
벤더 교수는 '일관성 있고' 잘 쓰여진 텍스트,
02:30
that means it's 'clear, carefully considered and sensible' —
40
150000
3440
즉 '명확하고, 신중하게 고려되었고, 합리적'인 텍스트는
02:33
makes us think what we are reading is reliable and 'authoritative'.
41
153560
4040
우리가 읽는 내용이 믿을 만하고 '권위 있는' 것으로 생각하게 만든다고 말합니다.
02:37
So it's 'respected, accurate and important sounding'.
42
157720
3440
그러니까 ‘존경심이 들고 정확 하고 중요한 말’인 거죠.
02:41
Yes, chatbots might appear to write in this way,
43
161280
3000
그렇습니다. 챗봇은 이런 방식으로 글을 쓰는 것처럼 보일 수 있지만
02:44
but really, they are just predicting one word after another,
44
164400
3560
실제로는
02:48
based on what they have learnt.
45
168080
2040
스스로 학습한 내용을 토대로 단어를 하나하나 예측할 뿐입니다.
02:50
We should, therefore, be 'on guard' — be 'careful and alert' —
46
170240
3720
그러므로 우리는 우리에게 전해지는 내용의 정확성에 대해 '경계'하고 ' 조심하고 경계'해야 합니다
02:54
about the accuracy of what we are being told.
47
174080
3000
.
02:57
One concern is that chatbots — a form of artificial intelligence —
48
177200
4240
한 가지 우려 사항은 챗봇( 인공 지능의 한 형태)이 정보를 학습하고 처리하는
03:01
work a bit like a human brain in the way it can learn and process information.
49
181560
4920
방식이 인간의 뇌와 다소 비슷하다는 것입니다 .
03:06
They are able to learn from experience, something called deep learning.
50
186600
4360
그들은 경험으로부터 학습할 수 있는데, 이것을 심층 학습이라고 부릅니다.
03:11
A cognitive psychologist and computer scientist called Geoffrey Hinton
51
191080
4200
인지 심리학자이자 컴퓨터 과학자인 제프리 힌튼은
03:15
recently said he feared that chatbots could soon overtake
52
195400
3680
최근 챗봇이 곧
03:19
the level of information that a human brain holds.
53
199200
3400
인간의 뇌가 보유한 정보 수준을 추월할 수 있다고 우려를 표명했습니다.
03:22
That's a bit scary, isn't it?
54
202720
1440
좀 무섭죠?
03:24
Mm, but for now, chatbots can be useful for practical information,
55
204280
4360
음, 하지만 지금으로서는 챗봇이 실질적인 정보를 제공하는 데 유용할 수 있지만,
03:28
but sometimes we start to believe they are human
56
208760
2680
때때로 우리는 챗봇을 인간이라고 믿기 시작
03:31
and we interact with them in a human-like way.
57
211560
2680
하고 인간과 같은 방식으로 상호작용을 하게 됩니다.
03:34
This can make us believe them even more.
58
214360
2400
이로 인해 우리는 그들의 말을 더욱 믿게 됩니다. BBC의 입소문 프로그램
03:36
Professor Emma Bender, speaking on the BBC's Word of Mouth programme,
59
216880
3520
에 출연한 에마 벤더 교수는
03:40
explains why we might feel like that.
60
220520
2760
우리가 왜 그런 기분을 느끼는지 설명합니다.
03:43
I think what's going on there is the kinds of answers you get
61
223400
4160
제 생각에는 거기서 일어나는 일은
03:47
depend on the questions you put in,
62
227680
2040
질문에 따라 얻는 답변의 종류가 달라진다는 것입니다.
03:49
because it's doing likely next word, likely next word,
63
229840
2520
왜냐하면 그것은 다음 단어, 다음 단어와 같은 작업을 하기 때문입니다. 따라서
03:52
and so if, as the human interacting with this machine,
64
232480
3280
이 기계와 상호 작용하는 사람으로서
03:55
you start asking it questions about how do you feel, you know, Chatbot?
65
235880
4280
당신이 기계에 다음과 같은 질문을 하기 시작하면 챗봇, 어떤 기분이야?
04:00
And "What do you think of this?" And, "What are your goals?"
66
240280
2840
그리고 "이게 어때요?" 그리고, "당신의 목표는 무엇인가요?" 마치 의식이 있는 존재가 말할 법한
04:03
You can provoke it to say things
67
243240
1720
말을 하도록 자극할 수 있습니다
04:05
that sound like what a sentient entity would say.
68
245080
2960
.
04:08
We are really primed to imagine a mind behind language
69
248160
3320
우리는 언어를 접할 때마다 언어 뒤에 어떤 정신이 존재한다고 상상하는 경향이 있으므로
04:11
whenever we encounter language
70
251600
1600
04:13
and so we really have to account for that when we're making decisions about these.
71
253320
3680
언어에 대한 결정을 내릴 때 그 점을 고려해야 합니다.
04:17
So, although a chatbot might sound human,
72
257840
2560
그래서, 챗봇이 사람처럼 들리더라도,
04:20
we really just ask it things to get a reaction — we 'provoke' it —
73
260520
3840
사실 우리는 그저 반응을 얻기 위해 질문을 던질 뿐입니다. 즉, 우리가 챗봇을 '도발'하는 것이죠.
04:24
and it answers only with words it's learned to use before,
74
264480
4040
그리고 챗봇은 똑똑한 답을 생각해 냈기 때문이 아니라, 이전에 학습한 단어로만 대답합니다
04:28
not because it has come up with a clever answer.
75
268640
2720
.
04:31
But it does sound like a sentient entity —
76
271480
2600
하지만 그것은 의식이 있는 존재처럼 들립니다.
04:34
'sentient' describes 'a living thing that experiences feelings'.
77
274200
4440
'의식이 있는'이라는 말은 ' 감정을 경험하는 생명체'를 설명합니다.
04:38
As Professor Bender says,
78
278760
1640
벤더 교수가 말했듯이,
04:40
we imagine that when something speaks, there is a mind behind it.
79
280520
4080
우리는 무언가가 말할 때 그 말 뒤에 마음이 있다고 생각합니다.
04:44
But sorry, Neil, they are not your friend, they're just machines!
80
284720
4000
하지만 미안해요, 닐. 그들은 당신 친구가 아니라 그냥 기계일 뿐이에요!
04:48
Yes, it's strange then that we sometimes give chatbots names.
81
288840
3240
그렇죠. 가끔 채팅봇에 이름을 붙이는 건 이상한 일이죠.
04:52
Alexa, Siri, and earlier I asked you what the name was for the first ever chatbot.
82
292200
5920
알렉사, 시리, 그리고 앞서 말씀드린 것처럼 최초의 챗봇의 이름이 뭐냐고 물으셨죠.
04:58
And I guessed it was PARRY. Was I right?
83
298240
2880
그리고 나는 그것이 파리라고 추측했습니다. 내 말이 옳았나요?
05:01
You guessed wrong, I'm afraid.
84
301240
2040
제 추측은 틀렸습니다.
05:03
PARRY was an early form of chatbot from 1972, but the correct answer was ELIZA.
85
303400
6400
PARRY는 1972년 출시된 초기 형태의 챗봇이었지만 정답은 ELIZA였습니다.
05:09
It was considered to be the first 'chatterbot' — as it was called then —
86
309920
4000
이는 최초의 '채터봇'으로 여겨졌는데, 당시에는 이렇게 불렸습니다. 매사추세츠 공과대학의
05:14
and was developed by Joseph Weizenbaum at Massachusetts Institute of Technology.
87
314040
5640
조셉 바이젠바움이 개발했습니다 .
05:19
Fascinating stuff.
88
319800
1040
흥미로운 내용이네요.
05:20
OK, now let's recap some of the vocabulary we highlighted in this programme.
89
320960
4360
좋습니다. 이제 이 프로그램에서 강조한 일부 어휘를 다시 살펴보겠습니다 .
05:25
Starting with 'sophisticated',
90
325440
2000
'정교한'으로 시작하면,
05:27
which can describe technology that is 'advanced and complex'.
91
327560
3880
이는 '첨단이고 복잡한' 기술을 설명할 수 있습니다.
05:31
Something that is 'coherent' is 'clear, carefully considered and sensible'.
92
331560
4320
'일관성 있는' 것은 '명확하고, 신중하게 고려되었고, 합리적'입니다.
05:36
'Authoritative' means 'respected, accurate and important sounding'.
93
336000
4480
'권위 있는'은 '존경받고, 정확하고, 중요하게 들리는' 것을 뜻합니다.
05:40
When you are 'on guard' you must be 'careful and alert' about something —
94
340600
3760
'경계'하고 있을 때는 무언가에 대해 '조심하고 경계'해야 합니다. 이는
05:44
it could be accuracy of what you see or hear,
95
344480
3320
보는 것, 듣는 것에 대한 정확성을 의미할 수도 있고
05:47
or just being aware of the dangers around you.
96
347920
2640
, 주변의 위험을 인지하는 것일 수도 있습니다.
05:50
To 'provoke' means to 'do something that causes a reaction from someone'.
97
350680
4160
'도발하다'는 ' 누군가의 반응을 유발하는 행동을 하다'는 뜻입니다.
05:54
'Sentient' describes 'something that experiences feelings' —
98
354960
3680
'감각적'이라는 단어는 ' 감정을 경험하는 무언가'를 설명합니다.
05:58
so it's 'something that is living'.
99
358760
2120
즉, '살아있는 무언가'라는 뜻입니다.
06:01
Once again, our six minutes are up. Goodbye.
100
361000
2640
다시 한번, 6분이 끝났습니다. 안녕히 가세요.
06:03
Bye for now.
101
363760
1000
이제 안녕.
06:05
6 Minute English.
102
365680
1520
6분 영어.
06:07
From BBC Learning English.
103
367320
2400
BBC Learning English에서 발췌.
06:10
Hello. This is 6 Minute English from BBC Learning English.
104
370600
3240
안녕하세요. 이것은 BBC Learning English의 6 Minute English입니다.
06:13
— I'm Sam. — And I'm Neil.
105
373960
1240
— 저는 샘이에요. — 그리고 저는 닐이에요.
06:15
In the autumn of 2021, something strange happened
106
375320
3640
2021년 가을, 캘리포니아 실리콘 밸리에 있는 구글 본사에서 이상한 일이 일어났습니다
06:19
at the Google headquarters in California's Silicon Valley.
107
379080
3440
.
06:22
A software engineer called Blake Lemoine
108
382640
2720
블레이크 르모인이라는 소프트웨어 엔지니어는
06:25
was working on the artificial intelligence project
109
385480
2840
06:28
Language Models for Dialogue Applications, or LaMDA for short.
110
388440
5080
대화 애플리케이션을 위한 언어 모델, 줄여서 LaMDA라는 인공지능 프로젝트를 진행하고 있었습니다.
06:33
LaMDA is a 'chatbot' — a 'computer programme
111
393640
2880
LaMDA는 '챗봇'입니다. '챗봇'은 '
06:36
'designed to have conversations with humans over the internet'.
112
396640
3360
인터넷을 통해 사람과 대화하도록 설계된 컴퓨터 프로그램'입니다. 블레이크는
06:40
After months talking with LaMDA
113
400120
2280
06:42
on topics ranging from movies to the meaning of life,
114
402520
3360
영화부터 삶의 의미까지 다양한 주제에 대해 LaMDA와 수개월간 대화를 나눈 끝에 놀라운 결론
06:46
Blake came to a surprising conclusion —
115
406000
2640
에 도달했습니다.
06:48
the chatbot was an intelligent person
116
408760
2720
챗봇은 존중받아야 할
06:51
with wishes and rights that should be respected.
117
411600
3040
희망과 권리를 가진 지적인 사람이라는 것입니다 .
06:54
For Blake, LaMDA was a Google employee, not a machine.
118
414760
3960
블레이크에게 LaMDA는 기계가 아닌 구글 직원이었습니다 .
06:58
He also called it his friend.
119
418840
1880
그는 그것을 자신의 친구라고도 불렀습니다.
07:00
Google quickly reassigned Blake from the project,
120
420840
2880
구글은 블레이크의
07:03
announcing that his ideas were not supported by the evidence.
121
423840
3760
아이디어가 증거에 의해 뒷받침되지 않는다고 발표하면서 그를 프로젝트에서 재빨리 다른 자리로 옮겼습니다.
07:07
But what exactly was going on?
122
427720
2440
하지만 정확히 무슨 일이 일어나고 있었던 걸까?
07:10
In this programme, we'll be discussing whether artificial intelligence
123
430280
3720
이 프로그램에서는 인공지능이
07:14
is capable of consciousness.
124
434120
2160
의식을 가질 수 있는지 논의해 보겠습니다.
07:16
We'll hear from one expert
125
436400
1480
07:18
who thinks AI is not as intelligent as we sometimes think
126
438000
3600
AI가 우리가 생각하는 것만큼 지능적이지 않다고 생각하는 한 전문가의 의견을 들어보고
07:21
and, as usual, we'll be learning some new vocabulary as well.
127
441720
3800
, 평소처럼 몇 가지 새로운 어휘도 배울 것입니다.
07:25
But before that, I have a question for you, Neil.
128
445640
2480
하지만 그 전에, 닐 씨에게 질문이 있어요.
07:28
What happened to Blake Lemoine
129
448240
1400
블레이크 르무안에게 일어난 일은
07:29
is strangely similar to the 2013 Hollywood movie, Her,
130
449760
4200
2013년 할리우드 영화 '그녀'에서
07:34
starring Joaquin Phoenix as a lonely writer who talks with his computer,
131
454080
4400
호아킨 피닉스가 스칼렛 요한슨이 목소리를 맡은 컴퓨터와 대화하는 외로운 작가 역을 맡은 것과 이상하게도 비슷합니다
07:38
voiced by Scarlett Johansson.
132
458600
1840
.
07:40
But what happens at the end of the movie?
133
460560
2280
하지만 영화의 끝에서는 무슨 일이 일어날까?
07:42
Is it a) The computer comes to life?
134
462960
2520
a) 컴퓨터가 살아나는 건가요?
07:45
b) The computer dreams about the writer?
135
465600
2480
b) 컴퓨터가 작가에 대해 꿈을 꾼다?
07:48
Or c) The writer falls in love with the computer?
136
468200
2800
아니면 c) 작가가 컴퓨터와 사랑에 빠지는 걸까 ?
07:51
C) The writer falls in love with the computer.
137
471120
3240
C) 작가는 컴퓨터에 반하게 된다 .
07:54
OK, Neil, I'll reveal the answer at the end of the programme.
138
474480
3360
좋아요, 닐. 정답은 프로그램이 끝나면 알려드리겠습니다.
07:57
Although Hollywood is full of movies about robots coming to life,
139
477960
3760
헐리우드에는 로봇이 살아나는 영화가 넘쳐나지만 워싱턴 대학의
08:01
Emily Bender, Professor of Linguistics and Computing at the University of Washington,
140
481840
5440
언어학 및 컴퓨팅 교수인 에밀리 벤더는
08:07
thinks AI isn't that smart.
141
487400
2640
AI가 그렇게 똑똑하지 않다고 생각합니다.
08:10
She thinks the words we use to talk about technology —
142
490160
3240
그녀는 '머신 러닝'과 같은 기술에 대해 이야기할 때 사용하는 단어가
08:13
phrases like 'machine learning' —
143
493520
2120
08:15
give a false impression about what computers can and can't do.
144
495760
4440
컴퓨터가 무엇을 할 수 있고 무엇을 할 수 없는지에 대해 잘못된 인상을 준다고 생각합니다. BBC 월드 서비스 프로그램인 The Inquiry에서
08:20
Here is Professor Bender discussing another misleading phrase —
145
500320
3520
벤더 교수가 또 다른 오해의 소지가 있는 문구인
08:23
'speech recognition' — with BBC World Service programme The Inquiry.
146
503960
5120
'음성 인식'에 대해 논의하는 모습입니다 .
08:29
If you talk about 'automatic speech recognition',
147
509200
3000
'자동 음성 인식'에 대해 이야기할 때,
08:32
the term 'recognition' suggests that there's something cognitive going on,
148
512320
4680
'인식'이라는 용어는 인지적인 어떤 일이 일어나고 있다는 것을 암시하는데,
08:37
where I think a better term would be automatic transcription.
149
517120
2840
제 생각에는 자동 필사라는 용어가 더 나은 것 같습니다 .
08:40
That just describes the input-output relation,
150
520080
2400
이는 단지 입출력 관계를 설명한 것일 뿐,
08:42
and not any theory or wishful thinking
151
522600
3480
08:46
about what the computer is doing to be able to achieve that.
152
526200
3360
컴퓨터가 그 관계를 달성하기 위해 무엇을 하는지에 대한 이론이나 희망적 사고가 아닙니다. 컴퓨터와 관련하여
08:49
Using words like 'recognition' in relation to computers
153
529680
3720
'인식'과 같은 단어를 사용하면
08:53
gives the idea that something 'cognitive' is happening —
154
533520
3160
'인지적'인 일이 일어나고 있다는 생각을 줍니다. 즉, '
08:56
something 'related to the mental processes
155
536800
2680
08:59
'of thinking, knowing, learning and understanding'.
156
539600
3120
생각, 지식, 학습 , 이해의 정신적 과정과 관련된' 일이죠.
09:02
But thinking and knowing are human, not machine, activities.
157
542840
4480
하지만 생각하고 아는 것은 인간의 활동이지 기계의 활동이 아닙니다.
09:07
Professor Benders says that talking about them in connection with computers
158
547440
4160
벤더스 교수는 컴퓨터와 관련하여 이를 언급하는
09:11
is 'wishful thinking' — 'something which is unlikely to happen'.
159
551720
4720
것은 '희망적 사고', 즉 '일어날 가능성이 낮은 일'이라고 말한다.
09:16
The problem with using words in this way
160
556560
2120
이런 방식으로 단어를 사용하는 데 있어서 문제점은
09:18
is that it reinforces what Professor Bender calls 'technical bias' —
161
558800
4760
벤더 교수가 말하는 '기술적 편향', 즉
09:23
'the assumption that the computer is always right'.
162
563680
2920
' 컴퓨터가 항상 옳다는 가정'을 강화한다는 것입니다.
09:26
When we encounter language that sounds natural, but is coming from a computer,
163
566720
4120
우리가 자연스럽게 들리는 언어를 접할 때 , 실제로 컴퓨터가 말하는 언어에 정신이 개입하지 않더라도,
09:30
humans can't help but imagine a mind behind the language,
164
570960
3760
사람들은 그 언어 뒤에 정신이 개입되어 있다고 생각하지 않을 수 없습니다
09:34
even when there isn't one.
165
574840
1520
.
09:36
In other words, we 'anthropomorphise' computers —
166
576480
2960
달리 말하면, 우리는 컴퓨터를 '의인화'합니다
09:39
we 'treat them as if they were human'.
167
579560
2320
. 즉, '컴퓨터를 마치 인간인 것처럼 대합니다.' BBC 월드 서비스의 The Inquiry 진행자, 샤메인 코지어와 이 아이디어에 대한
09:42
Here's Professor Bender again, discussing this idea with Charmaine Cozier,
168
582000
4600
논의를 다시 한 번 들려주는 벤더 교수의 모습입니다
09:46
the presenter of BBC World Service's The Inquiry.
169
586720
3520
.
09:50
So 'ism' means system, 'anthro' or 'anthropo' means human,
170
590360
4800
따라서 'ism'은 체계를 의미하고, 'anthro' 또는 'anthropo'는 인간을 의미하며,
09:55
and 'morph' means shape.
171
595280
1800
'morph'는 모양을 의미합니다.
09:57
And so this is a system that puts the shape of a human on something,
172
597200
4760
그래서 이것은 인간의 형상을 무언가에 부여하는 시스템이고
10:02
and, in this case, the something is a computer.
173
602080
1680
, 이 경우 그 무언가는 컴퓨터입니다.
10:03
We anthropomorphise animals all the time,
174
603880
2920
우리는 늘 동물을 의인화
10:06
but we also anthropomorphise action figures, or dolls,
175
606920
3840
하지만, 기업의 의도 등에 대해 말할 때 액션 피규어나 인형,
10:10
or companies when we talk about companies having intentions and so on.
176
610880
3880
기업도 의인화합니다 .
10:14
We very much are in the habit of seeing ourselves in the world around us.
177
614880
4480
우리는 우리 자신을 주변 세상에서 보는 습관이 있습니다.
10:19
And while we're busy seeing ourselves
178
619480
1920
그리고 우리가
10:21
by assigning human traits to things that are not, we risk being blindsided.
179
621520
4760
인간적인 특성을 실제가 아닌 것에 부여함으로써 우리 자신을 바라보는 데 바쁜 동안 , 우리는 갑작스럽게 당할 위험이 있습니다.
10:26
The more fluent that text is, the more different topics it can converse on,
180
626400
3880
텍스트가 더 유창할수록, 대화할 수 있는 주제가 더 다양해지고,
10:30
the more chances there are to get taken in.
181
630400
2720
속아넘어갈 가능성도 더 커집니다.
10:34
If we treat computers as if they could think,
182
634040
2600
컴퓨터를 생각할 수 있는 것처럼 대하면,
10:36
we might get 'blindsided', or 'unpleasantly surprised'.
183
636760
4160
우리는 '깜짝 놀랄' 수도 있고, '불쾌하게 놀랄' 수도 있습니다.
10:41
Artificial intelligence works by finding patterns in massive amounts of data,
184
641040
4560
인공지능은 엄청난 양의 데이터에서 패턴을 찾아내는 방식으로 작동하므로,
10:45
so it can seem like we're talking with a human,
185
645720
2520
10:48
instead of a machine doing data analysis.
186
648360
3000
데이터 분석을 하는 기계가 아니라 사람과 대화하는 것처럼 느껴질 수 있습니다.
10:51
As a result, we 'get taken in' — we're 'tricked or deceived'
187
651480
4240
그 결과, 우리는 '속아넘어갑니다'. 우리는
10:55
into thinking we're dealing with a human, or with something intelligent.
188
655840
3640
자신이 인간 이나 지적인 존재와 상대하고 있다고 생각하도록 '속거나 기만당합니다'.
10:59
Powerful AI can make machines appear conscious,
189
659600
3760
강력한 AI는 기계에 의식이 있는 것처럼 보이게 할 수 있지만,
11:03
but even tech giants like Google
190
663480
2320
구글과 같은 거대 기술 기업조차도
11:05
are years away from building computers that can dream or fall in love.
191
665920
4480
꿈을 꾸거나 사랑에 빠질 수 있는 컴퓨터를 개발하는 데는 몇 년이 걸릴 것입니다.
11:10
Speaking of which, Sam, what was the answer to your question?
192
670520
3160
그런데, 샘, 당신의 질문에 대한 대답은 뭐였어?
11:13
I asked what happened in the 2013 movie, Her.
193
673800
3240
저는 2013년 영화 Her에서 무슨 일이 일어났는지 물었습니다 .
11:17
Neil thought that the main character falls in love with his computer,
194
677160
3080
닐은 주인공이 자신의 컴퓨터와 사랑에 빠진다고 생각했는데,
11:20
— which was the correct answer! — OK.
195
680360
2760
정답이었습니다! - 좋아요.
11:23
Right, it's time to recap the vocabulary we've learned from this programme
196
683240
3640
그렇습니다. 이제 이 프로그램에서 배운
11:27
about AI, including 'chatbots' —
197
687000
2720
AI에 대한 어휘를 다시 살펴볼 시간입니다. 여기에는 '챗봇'도 포함되는데,
11:29
'computer programmes designed to interact with humans over the internet'.
198
689840
4080
'챗봇은 인터넷을 통해 인간과 상호작용하도록 설계된 컴퓨터 프로그램 '입니다.
11:34
The adjective 'cognitive' describes anything connected
199
694040
3440
형용사 '인지'는
11:37
with 'the mental processes of knowing, learning and understanding'.
200
697600
3680
'알고, 배우고, 이해하는 정신적 과정'과 관련된 모든 것을 설명합니다.
11:41
'Wishful thinking' means 'thinking that something which is very unlikely to happen
201
701400
4720
'희망적 사고'는 ' 일어날 가능성이 매우 낮은 일이
11:46
'might happen one day in the future'.
202
706240
2040
'어느 날 미래에 일어날지도 모른다고 생각하는 것'을 의미합니다.
11:48
To 'anthropomorphise' an object
203
708400
1440
사물을 '의인화'한다는 것은
11:49
means 'to treat it as if it were human, even though it's not'.
204
709960
3440
'사물이 인간과 다름에도 불구하고 마치 인간인 것처럼 취급하는 것'을 의미합니다 .
11:53
When you're 'blindsided', you're 'surprised in a negative way'.
205
713520
3640
'갑작스러운 상황에 처했다'는 것은 '부정적인 방식으로 놀랐다'는 뜻입니다.
11:57
And finally, to 'get taken in' by someone means to be 'deceived or tricked' by them.
206
717280
4760
그리고 마지막으로, 누군가에게 '속는다'는 것은 그들에게 '속거나 속는다'는 것을 의미합니다.
12:02
My computer tells me that our six minutes are up!
207
722160
2920
제 컴퓨터에 6분이 다 되었다고 나와요!
12:05
Join us again soon, for now it's goodbye from us.
208
725200
2960
곧 다시 만나요. 이제 우리는 작별인사를 하게 될 거예요.
12:08
Bye!
209
728280
1360
안녕!
12:09
6 Minute English.
210
729760
1560
6분 영어.
12:11
From BBC Learning English.
211
731440
2400
BBC Learning English에서 발췌.
12:14
Hello, I'm Rob. Welcome to 6 Minute English and with me in the studio is Neil.
212
734640
4520
안녕하세요, 저는 롭입니다. 6 Minute English에 오신 것을 환영합니다. 스튜디오에는 닐이 함께합니다.
12:19
— Hello, Rob. — Hello.
213
739280
1720
— 안녕, 롭. - 안녕하세요.
12:21
Feeling clever today, Neil?
214
741120
1520
오늘은 기분이 좋아, 닐?
12:22
I am feeling quite bright and clever, yes!
215
742760
2240
저는 꽤 똑똑하고 똑똑하다고 느껴요!
12:25
That's good to hear.
216
745120
1000
그거 좋은 소식이네요.
12:26
Well, 'you'll need your wits about you' —
217
746240
1640
글쎄요, 이 프로그램에서 '당신은 당신의 재치가 필요할 것입니다'는
12:28
meaning 'you'll need to think very quickly' in this programme,
218
748000
2760
말은 '당신은 매우 빠르게 생각해야 합니다 '라는 뜻입니다.
12:30
because we're talking about intelligence,
219
750880
2480
왜냐하면 우리는 지능,
12:33
or to be more accurate, artificial intelligence,
220
753480
3280
혹은 더 정확히 말해서 인공 지능에 대해 이야기하고 있기 때문입니다.
12:36
and we'll learn some vocabulary related to the topic,
221
756880
3040
그리고 우리는 다음을 배울 것입니다. 주제와 관련된 어휘를 몇 가지 알아두면 ,
12:40
so that you can have your own discussion about it.
222
760040
2720
주제에 관해 스스로 토론할 수 있습니다.
12:42
Neil, now, you know who Professor Stephen Hawking is, right?
223
762880
3120
닐, 스티븐 호킹 교수가 누군지 알고 있죠?
12:46
Well, of course! Yes.
224
766120
1240
물론이죠! 예.
12:47
Many people say that he's a 'genius' —
225
767480
2320
많은 사람들은 그를 '천재'라고 말합니다.
12:49
in other words, he is 'very, very intelligent'.
226
769920
3080
다시 말해, 그는 '매우, 매우 똑똑하다'는 뜻입니다.
12:53
Professor Hawking is one of the most famous scientists in the world
227
773120
3480
호킹 교수는 세계에서 가장 유명한 과학자 중 한 명이며,
12:56
and people remember him for his brilliance
228
776720
1960
사람들은 그의 뛰어난 능력
12:58
and also because he communicates using a synthetic voice generated by a computer —
229
778800
5560
과 컴퓨터로 생성한 합성 음성을 사용하여 소통한다는 사실로 그를 기억합니다.
13:04
'synthetic' means it's 'made from something non-natural'.
230
784480
3120
'합성'은 '자연스럽지 않은 것으로 만들어졌다 '는 뜻입니다.
13:07
'Artificial' is similar in meaning —
231
787720
2040
'인공'이라는 단어는 의미적으로 비슷합니다.
13:09
we use it when something is 'man-made to look or behave like something natural'.
232
789880
4720
우리는 무언가가 '자연스러운 것처럼 보이거나 행동하도록 인공적으로 만들어졌다'고 말할 때 이 단어를 사용합니다 .
13:14
Well, Professor Hawking has said recently
233
794720
2360
호킹 교수는 최근
13:17
that efforts to create thinking machines are a threat to our existence.
234
797200
4440
생각하는 기계를 만들려는 노력이 우리 존재에 위협이 된다고 말했습니다.
13:21
A 'threat' means 'something which can put us in danger'.
235
801760
3240
'위협'은 '우리를 위험에 빠뜨릴 수 있는 것'을 의미합니다.
13:25
Now, can you imagine that, Neil?!
236
805120
1360
이제, 그걸 상상해 보세요, 닐?!
13:26
Well, there's no denying that good things
237
806600
2080
글쎄요, 인공지능의 창조로 인해 좋은 결과가 나올 수 있다는 사실은 부인할 수 없습니다
13:28
can come from the creation of artificial intelligence.
238
808800
2640
.
13:31
Computers which can think for themselves
239
811560
1920
스스로 생각할 수 있는 컴퓨터는
13:33
might be able to find solutions to problems we haven't been able to solve.
240
813600
4320
우리가 풀지 못한 문제에 대한 해결책을 찾을 수도 있을 것이다.
13:38
But technology is developing quickly and maybe we should consider the consequences.
241
818040
4680
하지만 기술은 빠르게 발전하고 있고, 어쩌면 우리는 그에 따른 결과를 고려해야 할지도 모릅니다.
13:42
Some of these very clever robots are already surpassing us, Rob.
242
822840
4440
이런 매우 똑똑한 로봇 중 일부는 이미 우리를 앞지르고 있어요, 롭.
13:47
'To surpass' means 'to have abilities superior to our own'.
243
827400
4000
'능가하다'는 '우리 자신의 능력보다 뛰어난 능력을 가지고 있다'는 뜻입니다.
13:51
Yes. Maybe you can remember the headlines when a supercomputer
244
831520
3280
예. 아마도 여러분은 슈퍼컴퓨터가
13:54
defeated the World Chess Champion, Gary Kasparov, to everyone's astonishment.
245
834920
4960
세계 체스 챔피언인 가리 카스파로프를 물리쳐 모두를 놀라게 했을 때의 헤드라인을 기억하실 겁니다.
14:00
It was in 1997. What was the computer called though, Neil?
246
840000
3440
1997년이었어요. 그 컴퓨터 이름이 뭐였죠, 닐?
14:03
Was it a) Red Menace? b) Deep Blue? Or c) Silver Surfer?
247
843560
6040
a) 레드 메니스였나요? b) 딥 블루? 아니면 c) 실버 서퍼?
14:09
Erm, I don't know.
248
849720
2200
음, 모르겠어요.
14:12
I think c) is probably not right. Erm...
249
852040
2360
저는 c)가 아마 옳지 않다고 생각합니다. 음...
14:16
I think Deep Blue. That's b) Deep Blue.
250
856000
2160
저는 딥 블루라고 생각해요. b) 딥 블루예요.
14:18
OK. Well, you'll know if you got the answer right at the end of the programme.
251
858280
3680
좋아요. 글쎄요, 프로그램을 마치면 정답을 맞혔는지 알 수 있을 거예요 .
14:22
Well, our theme is artificial intelligence
252
862080
2240
글쎄요, 우리의 주제는 인공지능
14:24
and when we talk about this, we have to mention the movies.
253
864440
2840
이고, 인공지능에 대해 이야기할 때는 영화를 언급하지 않을 수 없죠.
14:27
Mm, many science fiction movies have explored the idea
254
867400
3240
음, 많은 공상과학 영화에서는
14:30
of bad computers who want to harm us.
255
870760
2440
우리에게 해를 끼치고 싶어하는 나쁜 컴퓨터라는 개념을 탐구했습니다.
14:33
One example is 2001: A Space Odyssey.
256
873320
3440
한 가지 예로는 2001: 스페이스 오디세이가 있다.
14:36
Yes, a good film.
257
876880
1000
네, 좋은 영화예요.
14:38
And another is The Terminator, a movie in which actor Arnold Schwarzenegger
258
878000
4000
또 다른 하나는 배우 아놀드 슈워제네거가
14:42
played an android from the future.
259
882120
2240
미래에서 온 안드로이드를 연기한 영화인 터미네이터입니다.
14:44
An 'android' is 'a robot that looks like a human'. Have you watched that one, Neil?
260
884480
3640
'안드로이드'는 '인간처럼 생긴 로봇 '입니다. 닐, 그거 봤어?
14:48
Yes, I have and that android is not very friendly.
261
888240
3480
네, 그렇습니다. 그 안드로이드는 그다지 친절하지 않습니다.
14:51
No, it's not!
262
891840
1000
아니, 그렇지 않아요! 생각하는 로봇을 다룬
14:52
In many movies and books about robots that think,
263
892960
2920
많은 영화와 책에서 ,
14:56
the robots end up rebelling against their creators.
264
896000
3200
로봇은 결국 자신의 창조자에게 반항한다.
14:59
But some experts say the risk posed by artificial intelligence
265
899320
3480
하지만 일부 전문가들은 인공지능으로 인해 발생하는 위험은
15:02
is not that computers attack us because they hate us.
266
902920
3320
컴퓨터가 우리를 싫어해서 공격하는 것이 아니라고 말한다 .
15:06
Their problem is related to their efficiency.
267
906360
2800
그들의 문제는 효율성과 관련이 있습니다.
15:09
What do you mean?
268
909280
1000
무슨 뜻이에요?
15:10
Well, let's listen to what philosopher Nick Bostrom has to say.
269
910400
3920
그럼, 철학자 닉 보스트롬의 말을 들어보겠습니다.
15:14
He's the founder of the Future of Humanity Institute at Oxford University.
270
914440
4880
그는 옥스퍼드 대학의 인류 미래 연구소의 설립자입니다.
15:19
He uses three words when describing what's inside the mind of a thinking computer.
271
919440
5800
그는 생각하는 컴퓨터의 머릿속에 무엇이 있는지 설명할 때 세 가지 단어를 사용합니다 .
15:25
This phrase means 'to meet their objectives'. What's the phrase he uses?
272
925360
4640
이 문구는 ' 목표를 달성한다'는 뜻입니다. 그는 어떤 표현을 사용했나요?
15:30
The bulk of the risk is not in machines being evil or hating humans,
273
930680
5120
위험의 대부분은 기계가 사악하거나 인간을 미워하는 데서 비롯되는 것이
15:35
but rather that they are indifferent to humans
274
935920
2320
아니라, 기계가 인간에게 무관심
15:38
and that, in pursuit of their own goals, we humans would suffer as a side effect.
275
938360
4360
하여 자신의 목표를 추구하는 과정에서 우리 인간이 부작용으로 고통을 겪을 수 있다는 데에서 비롯됩니다. 가능한 한 많은 종이 클립을 만드는 것만을 목표로 하는
15:42
Suppose you had a super intelligent AI
276
942840
1800
매우 지능적인 AI가 있다고 가정해보자
15:44
whose only goal was to make as many paperclips as possible.
277
944760
3240
.
15:48
Human bodies consist of atoms
278
948120
2280
인체는 원자로 이루어져 있으며
15:50
and those atoms could be used to make a lot of really nice paperclips.
279
950520
4360
, 이 원자를 사용하여 정말 멋진 종이 클립을 만들 수 있습니다.
15:55
If you want paperclips, it turns out that in the pursuit of this,
280
955000
3080
만약 당신이 종이 클립을 원한다면, 그것을 추구하는 과정에서
15:58
you would have instrumental reasons to do things that would be harmful to humanity.
281
958200
3320
인류에게 해로운 일을 할 수 있는 도구적 이유가 생길 것입니다.
16:02
A world in which humans become paperclips — wow, that's scary!
282
962360
4640
인간이 종이 클립으로 변하는 세상, 와, 무섭네요!
16:07
But the phrase which means 'meet their objectives' is to 'pursue their goals'.
283
967120
4520
하지만 '목표를 달성한다'는 뜻의 문구는 '목표를 추구한다'는 뜻입니다.
16:11
Yes, it is.
284
971760
1000
네, 그렇습니다.
16:12
So the academic explains that if you're a computer
285
972880
3280
그래서 학자는 만약 당신이
16:16
responsible for producing paperclips, you will pursue your objective at any cost.
286
976280
5800
종이 클립을 생산하는 컴퓨터라면, 당신은 무슨 희생을 치르더라도 자신의 목표를 추구할 것이라고 설명합니다.
16:22
And even use atoms from human bodies to turn them into paperclips!
287
982200
4440
심지어 인체의 원자를 사용해 종이 클립을 만들기도 했습니다!
16:26
— Now that's a horror story, Rob. — Mm.
288
986760
2040
— 정말 무서운 이야기네요, 롭. - Mm.
16:28
If Stephen Hawking is worried, I think I might be too!
289
988920
3120
스티븐 호킹이 걱정한다면, 나도 그럴 것 같아!
16:32
How can we be sure that artificial intelligence —
290
992160
2880
인공 지능(
16:35
be either a device or software — will have a moral compass?
291
995160
4000
장치이든 소프트웨어이든)이 도덕적 나침반을 가질 것이라고 어떻게 확신할 수 있을까?
16:39
Ah, a good expression — a 'moral compass' —
292
999280
2000
아, 좋은 표현이네요. '도덕적 나침반'이에요.
16:41
in other words, 'an understanding of what is right and what is wrong'.
293
1001400
3960
다른 말로 하면 ' 옳고 그른 것에 대한 이해'라는 뜻이에요.
16:45
Artificial intelligence is an interesting topic, Rob.
294
1005480
2560
인공지능은 흥미로운 주제네요, 롭. 나중에
16:48
I hope we can chat about it again in the future.
295
1008160
2400
이 주제에 대해 다시 이야기할 수 있었으면 좋겠습니다 .
16:50
But now I'm looking at the clock and we're running out of time, I'm afraid,
296
1010680
2880
하지만 지금 시계를 보니 시간이 부족하다는 생각이 들고,
16:53
and I'd like to know if I got the answer to the quiz question right?
297
1013680
3320
제가 퀴즈 문제의 답을 맞게 했는지 알고 싶습니다.
16:57
Well, my question was about a supercomputer
298
1017120
3000
음, 제 질문은 1997년에 세계 체스 챔피언인 가리 카스파로프를 물리친 슈퍼컴퓨터에 대한 것이었습니다.
17:00
which defeated the World Chess Champion, Gary Kasparov, in 1997.
299
1020240
4320
17:04
What was the machine's name? Was it Red Menace, Deep Blue or Silver Surfer?
300
1024680
4920
그 기계의 이름은 무엇이었나요? 레드 메니스, 딥 블루, 아니면 실버 서퍼였나요?
17:09
And I think it's Deep Blue.
301
1029720
2880
저는 그것이 딥 블루라고 생각해요.
17:12
Well, it sounds like you are more intelligent than a computer,
302
1032720
2880
글쎄요, 당신이 컴퓨터보다 더 똑똑한 것 같네요.
17:15
because you got the answer right.
303
1035720
1800
정답을 맞혔으니까요.
17:17
Yes, it was Deep Blue.
304
1037640
1240
그렇습니다. 딥 블루였습니다.
17:19
The 1997 match was actually the second one between Kasparov and Deep Blue,
305
1039000
4680
1997년 경기는 실제로 카스파로프와
17:23
a supercomputer designed by the company IBM
306
1043800
3000
IBM이 설계한 슈퍼컴퓨터인 딥블루 간의 두 번째 경기였으며,
17:26
and it was specialised in chess-playing.
307
1046920
2400
딥블루는 체스 플레이에 특화되어 있었습니다.
17:29
Well, I think I might challenge Deep Blue to a game!
308
1049440
2840
음, 딥 블루에게 게임 도전을 해볼까 생각 중이에요 !
17:32
Obviously, I'm a bit, I'm a bit of a genius myself.
309
1052400
2600
물론, 저는 약간 천재예요.
17:35
Very good! Good to hear!
310
1055120
1600
매우 좋은! 좋은 소식이네요!
17:36
Anyway, we've just got time to remember
311
1056840
1600
어쨌든,
17:38
some of the words and expressions that we've used today. Neil?
312
1058560
3080
오늘 우리가 사용한 단어와 표현 중 일부를 기억해 볼 시간이 생겼습니다. 닐?
17:41
They were...
313
1061760
1000
그들은...
17:42
you'll need your wits about you,
314
1062880
3680
당신에게는 지혜가 필요할 겁니다.
17:46
artificial,
315
1066680
2560
인공적이고,
17:49
genius,
316
1069360
2600
천재적이며,
17:52
synthetic,
317
1072080
2040
합성적이고,
17:54
threat,
318
1074240
1760
위협적이며,
17:56
to surpass,
319
1076120
2600
17:58
to pursue their goals,
320
1078840
3120
목표를 추구하고, 앞서나가려면
18:02
moral compass.
321
1082080
1320
도덕적 나침반이 필요합니다.
18:03
Thank you. Well, that's it for this programme.
322
1083520
2280
감사합니다. 글쎄, 이 프로그램은 여기까지입니다.
18:05
Do visit BBC Learning English dot com to find more 6 Minute English programmes.
323
1085920
4720
더 많은 6분 영어 프로그램을 찾으려면 BBC Learning English dot com을 방문하세요.
18:10
— Until next time, goodbye! — Goodbye!
324
1090760
1880
— 다음 시간에 만나요, 안녕! - 안녕히 가세요!
18:13
6 Minute English.
325
1093640
1440
6분 영어.
18:15
From BBC Learning English.
326
1095200
2280
BBC Learning English에서 발췌.
18:18
Hello. This is 6 Minute English. I'm Rob. And joining me to do this is Sam.
327
1098600
4480
안녕하세요. 6분 영어 수업입니다. 저는 롭이에요. 샘도 저와 함께 이 일을 하게 됐어요.
18:23
Hello.
328
1103200
1000
안녕하세요.
18:24
In this programme, we're talking about robots.
329
1104320
3040
이 프로그램에서는 로봇에 대해 이야기해 보겠습니다.
18:27
Robots can perform many tasks,
330
1107480
2000
로봇은 여러 가지 일을 할 수 있지만,
18:29
but they're now being introduced in social care to operate as carers,
331
1109600
4560
이제는 사회 복지 분야에 도입되어 간병인 역할을 하거나
18:34
to look after the sick and elderly.
332
1114280
2120
병자와 노인을 돌보게 됩니다.
18:36
We'll be discussing the positive and negative issues around this,
333
1116520
3680
우리는 이 문제의 긍정적, 부정적 측면을 논의할 것입니다.
18:40
but first, let's set you a question to answer, Sam. Are you ready for this?
334
1120320
3720
하지만 먼저 샘에게 답할 질문을 하나 드리겠습니다. 준비되셨나요?
18:44
Fire away!
335
1124160
1120
총을 쏘세요!
18:45
Do you know in which year was the first commercial robot built?
336
1125400
3880
최초의 상업용 로봇이 만들어진 해는 언제인지 아시나요?
18:49
Was it in a) 1944? b) 1954? Or c) 1964?
337
1129400
7280
a) 1944년이었나요? b) 1954년? 아니면 c) 1964년?
18:56
They're not a brand-new invention, so I'll go for 1954.
338
1136800
5440
그건 아주 새로운 발명품은 아니므 로 1954년으로 하겠습니다.
19:02
OK, well, I'll tell you if you're right or wrong at the end of the programme.
339
1142360
4520
좋아요, 글쎄요, 프로그램이 끝나면 여러분이 옳았는지 그르렀는지 말씀드리겠습니다.
19:07
So, let's talk more about robots,
340
1147000
1920
그러면 로봇에 대해,
19:09
and specifically ones that are designed to care for people.
341
1149040
3720
특히 사람을 돌보도록 설계된 로봇에 대해 더 자세히 알아보겠습니다.
19:12
Traditionally, it's humans working as nurses or carers
342
1152880
3480
전통적으로 노인을 돌보는 일은 인간이 간호사나 보호자로 일하는 것입니다. 노인이란
19:16
who take care of elderly people —
343
1156480
2200
19:18
those people who are too old or too unwell to look after themselves.
344
1158800
3800
나이가 너무 많 거나 건강이 나빠서 스스로를 돌볼 수 없는 사람을 말합니다.
19:22
But finding enough carers to look after people is a problem —
345
1162720
4360
하지만 사람들을 돌볼 충분한 보호자를 찾는 것이 문제다.
19:27
there are more people needing care than there are people who can help.
346
1167200
4120
도움을 줄 수 있는 사람보다 돌봄이 필요한 사람이 더 많기 때문이다.
19:31
And recently in the UK, the government announced a £34 million fund
347
1171440
5560
그리고 최근 영국에서는 정부가
19:37
to help develop robots to look after us in our later years.
348
1177120
4520
우리의 노년을 돌볼 로봇을 개발하는 데 도움이 되는 3,400만 파운드 규모의 기금을 발표했습니다 .
19:41
Well, robot carers are being developed,
349
1181760
2440
로봇 간병인이 개발되고 있지만,
19:44
but can they really learn enough empathy to take care of the elderly and unwell?
350
1184320
4560
실제로 노약자와 질병 환자를 돌볼 만큼 공감 능력을 배울 수 있을까요?
19:49
'Empathy' is 'the ability to understand how someone feels
351
1189000
3680
'공감'은 ' 상대방의 상황이
19:52
'by imagining what it would be like to be in that person's situation'.
352
1192800
4240
어떨지 상상하여 그 사람의 감정을 이해하는 능력'입니다.
19:57
Well, let's hear about one of those new robots now, called Pepper.
353
1197160
4680
그럼, 이제 새로운 로봇 중 하나인 페퍼에 대해 들어보겠습니다 .
20:01
Abbey Hearn-Nagaf is a research assistant at the University of Bedfordshire.
354
1201960
5080
애비 헌-나가프는 베드포드셔 대학교의 연구 조수입니다.
20:07
She spoke to BBC Radio 4's You and Yours programme
355
1207160
3880
그녀는 BBC Radio 4의 You and Yours 프로그램
20:11
and explained how Pepper is first introduced to someone in a care home.
356
1211160
4600
과 인터뷰를 통해 페퍼가 어떻게 처음으로 요양원의 누군가에게 소개되는지 설명했습니다.
20:15
We just bring the robot to their room
357
1215880
2200
저희는 로봇을 그들의 방으로 데려와서
20:18
and we talk about what Pepper can't do, which is important,
358
1218200
2640
페퍼가 할 수 없는 일에 대해 이야기합니다. 이 부분이 중요한데, 페퍼가 어떤 식으로든
20:20
so it can't provide physical assistance in any way.
359
1220960
2720
신체적 지원을 제공할 수 없다는 것입니다 .
20:23
It does have hands, it can wave.
360
1223800
2160
손이 있어서 흔들 수도 있어요.
20:26
When you ask for privacy, it does turn around
361
1226080
2000
당신이 프라이버시를 요구하면, 돌아서서
20:28
and sort of cover its eyes with its hands, but that's the most it does.
362
1228200
3000
손으로 눈을 가립니다. 하지만 그게 그 이상 할 수 있는 일이에요.
20:31
It doesn't grip anything, it doesn't move anything,
363
1231320
2160
그것은 아무것도 잡지 못하고, 아무것도 움직이지 못합니다.
20:33
because we're more interested to see how it works as a companion,
364
1233600
3480
왜냐하면 우리는 그것이 동반자로서 어떻게 기능하는지,
20:37
having something there to talk to, to converse with, to interact with.
365
1237200
4080
대화할 대상, 대화할 대상, 상호작용할 대상을 갖는지에 더 관심이 있기 때문입니다 .
20:41
So, Abbey described how the robot is introduced to someone.
366
1241400
4240
그래서 애비는 로봇이 어떻게 다른 사람에게 소개되는지 설명했습니다.
20:45
She was keen to point out that this robot has 'limitations' — 'things it can't do'.
367
1245760
6120
그녀는 이 로봇이 '제한', 즉 '할 수 없는 일'을 가지고 있다는 점을 지적하고 싶어했습니다.
20:52
It can wave or turn round when a person needs 'privacy' — 'to be private' —
368
1252000
5040
사람이 '개인 정보 보호'를 원할 때 손을 흔들거나 돌아설 수는 있지만
20:57
but it can't provide 'physical assistance'.
369
1257160
3280
'신체적 지원'을 제공할 수는 없습니다.
21:00
This means it can't help someone by 'touching or feeling' them.
370
1260560
4440
즉, 누군가를 '만지거나 느끼는 것'만으로는 도움을 줄 수 없다는 뜻입니다.
21:05
But that's OK, Abbey says.
371
1265120
1680
하지만 괜찮다고 애비는 말합니다.
21:06
This robot is designed to be a 'companion' —
372
1266920
3080
이 로봇은 '동반자', 즉
21:10
'someone who is with you to keep you company' —
373
1270120
2320
'당신과 함께 있어주는 사람 '
21:12
a friend, in other words, that you can converse or talk with.
374
1272560
3480
, 다시 말해 대화를 나눌 수 있는 친구로서 디자인되었습니다.
21:16
Well, having a companion is a good way to stop people getting lonely,
375
1276160
4400
글쎄요, 동반자가 있으면 사람들이 외로움을 덜 느낄 수 있지만,
21:20
but surely a human is better for that?
376
1280680
2960
인간이 더 나을 수도 있지 않을까요?
21:23
Surely they understand you better than a robot ever can?
377
1283760
3680
분명 그들은 로봇보다 당신을 더 잘 이해할 수 있을 거예요.
21:27
Well, innovation means that robots are becoming cleverer all the time.
378
1287560
4640
혁신이란 로봇이 점점 더 똑똑해지고 있다는 것을 뜻합니다.
21:32
And, as we've mentioned, in the UK alone there is a growing elderly population
379
1292320
4720
그리고 앞서 언급했듯이 영국에서만 노인 인구가 증가하고 있으며,
21:37
and more than 100,000 care assistant vacancies.
380
1297160
3360
간병 보조원 공석이 10만 개가 넘습니다.
21:40
Who's going to do all the work?
381
1300640
1800
누가 모든 일을 다 할 건가요?
21:42
I think we should hear from Dr Sarah Woodin,
382
1302560
2640
21:45
a health researcher in independent living from Leeds University,
383
1305320
4040
리즈 대학의 독립생활 분야 건강 연구자이자
21:49
who also spoke to the BBC's You and Yours programme.
384
1309480
3960
BBC의 You and Yours 프로그램에서 연설한 사라 우딘 박사의 이야기를 들어보는 게 좋을 것 같습니다.
21:53
She seems more realistic about the introduction of robot carers.
385
1313560
5120
그녀는 로봇 간병인의 도입에 대해 더 현실적인 것 같습니다. 로봇을 사람을 대체하는 것으로
21:59
I think there are problems if we consider robots as replacement for people.
386
1319200
4600
생각하면 문제가 있다고 생각합니다 .
22:03
We know that money is tight — if robots become mass-produced,
387
1323920
4680
우리는 자금이 부족하다는 걸 알고 있습니다. 로봇이 대량 생산되면
22:08
there could be large institutions where people might be housed
388
1328720
4200
사람들을 수용
22:13
and abandoned to robots.
389
1333040
2800
하고 로봇에게 버려질 수 있는 대규모 시설이 생길 수 있습니다.
22:15
I do think questions of ethics
390
1335960
1480
저는 윤리 문제도
22:17
need to come into the growth and jobs agenda as well,
391
1337560
3600
성장과 일자리 의제에 포함되어야 한다고 생각합니다 .
22:21
because, sometimes, they're treated very separately.
392
1341280
2440
때로는 이 두 가지가 매우 별도로 다루어지기도 하거든요.
22:23
OK, so Sarah Woodin suggests that when money is 'tight' —
393
1343840
3440
네, 사라 우딘은 자금이 '부족'할 때,
22:27
meaning there is 'only just enough' —
394
1347400
1680
즉 '딱 필요한 만큼만' 있을 때
22:29
making robots in large quantities — or mass-produced —
395
1349200
3320
로봇을 대량으로 만드는 것, 즉 대량 생산하는 것이
22:32
might be a cheaper option than using humans.
396
1352640
2720
인간을 사용하는 것보다 더 저렴한 옵션이 될 수 있다고 제안합니다.
22:35
And she says people might be abandoned to robots.
397
1355480
3160
그녀는 사람들이 로봇에게 버려질 수도 있다고 말합니다.
22:38
Yes, 'abandoned' means 'left alone in a place, usually forever'.
398
1358760
5840
네, '버려지다'는 말은 '한 장소에 영원히 홀로 남겨지다'는 뜻이에요.
22:44
So she says it might be possible that someone ends up being forgotten
399
1364720
4360
그래서 그녀는 누군가가 잊혀지고
22:49
and only having a robot to care for them. So is this right, ethically?
400
1369200
5640
로봇에게만 보살핌을 받게 될 가능성이 있다고 말합니다. 그러면 이것이 윤리적으로 옳은 일일까요?
22:54
Yes, well, she mentions 'ethics' — that's 'what is morally right' —
401
1374960
3920
네, 그녀는 '윤리'에 대해 언급했습니다. 즉, '도덕적으로 옳은 것'이고,
22:59
and that needs to be considered as part of the jobs agenda.
402
1379000
3440
그것이 일자리 의제의 일부로 고려되어야 한다는 것입니다.
23:02
So, we shouldn't just consider what job vacancies need filling,
403
1382560
3160
그러므로 우리는 단지 어떤 일자리 공석을 채워야 하는지 고려하는 것이 아니라,
23:05
but who and how it should be done.
404
1385840
2360
누가, 어떻게 채워야 하는지도 고려해야 합니다.
23:08
And earlier I asked you, Sam,
405
1388320
1400
그리고 앞서 제가 물었었죠, 샘,
23:09
did you know in which year was the first commercial robot built? And you said?
406
1389840
4440
최초의 상업용 로봇이 만들어진 해가 언제인지 아십니까? 그리고 당신은 말했어요?
23:14
I said 1954.
407
1394400
1640
저는 1954년이라고 말했습니다.
23:16
Well, you didn't need a robot to help you there because you are right.
408
1396160
3320
글쎄요, 그 말은 옳기 때문에 로봇의 도움이 필요하지 않았습니다 .
23:19
— Ah, yay! — Well done!
409
1399600
1760
— 아, 좋아! - 잘하셨어요!
23:21
Now let's do something a robot can't do yet,
410
1401480
2720
이제 로봇이 아직 할 수 없는 일을 해봅시다. 오늘 강조
23:24
and that's recap the vocabulary we've highlighted today, starting with empathy.
411
1404320
5280
했던 어휘를 다시 한번 요약해 보죠. 공감부터 시작해 볼까요.
23:29
'Empathy' is 'the ability to understand how someone feels
412
1409720
3440
'공감'은 ' 상대방의 상황이
23:33
by imagining what it would be like to be in that person's situation'.
413
1413280
3920
어떨지 상상하여 그 사람의 감정을 이해하는 능력'입니다.
23:37
'Physical assistance' describes 'helping someone by touching them'.
414
1417320
4280
'물리적 지원'은 '누군가를 만져서 돕는 것'을 의미합니다.
23:41
We also mentioned a 'companion' —
415
1421720
1920
우리는 또한 '동반자'에 대해서도 언급했습니다.
23:43
that's 'someone who is with you and keeps you company'.
416
1423760
2680
즉, '당신과 함께 있고 , 당신과 동행하는 사람'을 뜻합니다.
23:46
Our next word was 'tight' — in the context of money,
417
1426560
3280
그 다음 단어는 '꽉'입니다. 돈과 관련해서
23:49
when money is tight, it means there's 'not enough'.
418
1429960
3120
돈이 촉박하다는 것은 '충분하지 않다'는 뜻입니다.
23:53
'Abandoned' means 'left alone in a place, usually forever'.
419
1433200
3400
'버려지다'는 '한 장소에 영원히 홀로 남겨지다'는 뜻입니다.
23:56
And finally, we discussed the word 'ethics' —
420
1436720
2440
마지막으로, 우리는 '윤리'라는 단어에 대해 논의했습니다.
23:59
we hear a lot about business ethics or medical ethics —
421
1439280
3760
우리는 사업 윤리나 의료 윤리에 관해 많이 듣습니다.
24:03
and it means 'the study of what is morally right'.
422
1443160
3280
이는 '도덕적으로 옳은 것이 무엇인지에 대한 연구'를 의미합니다.
24:06
OK, thank you, Sam.
423
1446560
1560
알겠습니다. 고맙습니다, 샘.
24:08
Well, we've managed to get through 6 Minute English without the aid of a robot.
424
1448240
4520
글쎄요, 우리는 로봇의 도움 없이 6분 영어 학습을 마칠 수 있었습니다.
24:12
That's all for now, but please join us again soon. Goodbye!
425
1452880
2920
이제는 마치겠습니다. 곧 다시 만나요. 안녕히 가세요!
24:15
Bye-bye, everyone!
426
1455920
1000
안녕하세요 여러분!
24:17
6 Minute English.
427
1457720
1680
6분 영어.
24:19
From BBC Learning English.
428
1459520
2480
BBC Learning English에서 발췌.
24:22
Hello. This is 6 Minute English from BBC Learning English. I'm Phil.
429
1462840
3800
안녕하세요. 이것은 BBC Learning English의 6 Minute English입니다. 저는 필이에요.
24:26
And I'm Georgie.
430
1466760
1240
저는 조지예요.
24:28
Animal testing is when living animals are used in scientific research
431
1468120
4320
동물실험이란, 과학연구에 살아있는 동물을 활용하여
24:32
to find out how effective a new medicine is, or how safe a product is for humans.
432
1472560
5880
새로운 약의 효과 나 제품이 인간에게 얼마나 안전한지 알아내는 것을 말합니다. 동물실험을
24:38
Scientists in favour of it argue that animal testing
433
1478560
3360
지지하는 과학자들은 동물실험이
24:42
shows whether medicines are safe or dangerous for humans,
434
1482040
3840
약물이 인간에게 안전한지 위험한지를 보여주는 좋은 사례이며,
24:46
and has saved many lives.
435
1486000
1760
많은 생명을 구했다고 주장한다.
24:47
But animal rights campaigners say it's cruel,
436
1487880
2720
하지만 동물 권리 운동가들은 이것이 잔인할 뿐만 아니라,
24:50
and also ineffective because animals and humans are so different.
437
1490720
4800
동물 과 인간이 너무 다르기 때문에 효과가 없다고 주장합니다.
24:55
Under British law, medicines must be tested on two different types of animals,
438
1495640
5800
영국의 법에 따르면, 의약품은
25:01
usually starting with rats, mice or guinea pigs.
439
1501560
4280
보통 쥐, 생쥐 또는 기니피그부터 시작하여 두 가지 다른 동물을 대상으로 테스트를 거쳐야 합니다 .
25:05
And in everyday English, the term 'human guinea pig'
440
1505960
3680
그리고 일상 영어에서 '인간 기니피그'라는 단어는
25:09
can be used to mean 'the first people to have something tested on them'.
441
1509760
4600
'무언가를 실험하는 최초의 사람'을 뜻하는 데 사용될 수 있습니다 .
25:14
But now, groups both for and against animal testing are thinking again,
442
1514480
4960
하지만 이제 동물 실험에 대한 찬반 양측 모두
25:19
thanks to a recent development in the debate — AI.
443
1519560
3640
논쟁에서 최근 일어난 사건인 AI 덕분에 다시 생각하기 시작했습니다.
25:23
In this programme, we'll be hearing how artificial intelligence
444
1523320
3160
이 프로그램에서는 인공지능이 동물에 대한 과학적 실험의
25:26
could help reduce the need for scientific testing on animals.
445
1526600
3960
필요성을 줄이는 데 어떻게 도움이 될 수 있는지 알아보겠습니다 .
25:30
But first, I have a question for you, Georgie.
446
1530680
3400
하지만 먼저 조지, 당신에게 질문이 있어요 .
25:34
There's one commonly used medicine in particular
447
1534200
2880
특히
25:37
which is harmful for animals but safe for humans, but what?
448
1537200
5040
동물에게는 해롭지 만 인간에게는 안전한 약이 한 가지 널리 사용됩니다. 하지만 무슨 약일까요?
25:43
Is it a) Antibiotics?
449
1543240
3280
a) 항생제인가요?
25:46
b) Aspirin?
450
1546640
2080
b) 아스피린?
25:48
Or c) Paracetamol?
451
1548840
2480
아니면 c) 파라세타몰?
25:51
Hmm, I guess it's aspirin.
452
1551440
2880
음, 아스피린인 것 같아요.
25:54
OK, Georgie, I'll reveal the answer at the end of the programme.
453
1554440
4080
좋아요, 조지, 프로그램이 끝나면 답을 알려드릴게요 .
25:58
Christine Ro is a science journalist who's interested in the animal testing debate.
454
1558640
5360
크리스틴 로는 동물 실험 논쟁에 관심이 있는 과학 저널리스트입니다.
26:04
Here, she explains to BBC World Service programme Tech Life
455
1564120
4600
여기에서 그녀는 BBC 월드 서비스 프로그램 Tech Life에서
26:08
some of the limitations of testing medicines on animals.
456
1568840
3640
동물을 대상으로 한 약물 테스트의 한계 중 일부를 설명했습니다.
26:12
Of course, you can't necessarily predict from a mouse or a dog
457
1572600
2640
물론 쥐나 개에게서
26:15
what's going to happen in a human, and there have been a number of cases
458
1575360
3760
무슨 일이 일어날지 반드시 예측할 수는 없으며
26:19
where substances that have proven to be toxic in animals
459
1579240
3320
동물에게 독성이 있는 것으로 입증된 물질이
26:22
have been proven to be safe in humans, and vice versa.
460
1582680
3200
인간에게는 안전하다는 것이 입증된 사례도 많이 있습니다. 그리고 그 반대도 마찬가지다.
26:27
There are also, of course, animal welfare limitations to animal testing.
461
1587200
4040
물론, 동물실험에는 동물복지 측면의 제한도 있습니다.
26:31
Most people, I think, if they had the choice,
462
1591360
2280
저는 대부분의 사람들이 선택권이 있다면
26:33
would want their substances to be used on as few animals or no animals as possible,
463
1593760
5160
자신의 약물이 가능한 한 적은 동물에게 사용되거나 전혀 사용되지 않기를 바랄 것이라고 생각하면서도,
26:39
while still ensuring safety.
464
1599040
1840
그러면서도 안전성을 보장하고 싶어할 것이라고 생각합니다.
26:41
Now, that's been a really difficult needle to thread,
465
1601000
2280
이는 정말 어려운 일이지만 ,
26:43
but AI might help to make that more possible.
466
1603400
2440
AI가 이를 더 가능하게 만드는 데 도움이 될 수도 있습니다.
26:45
Christine says that medicines which are safe for animals
467
1605960
3280
크리스틴은 동물에게 안전한 약이
26:49
might not be safe for humans.
468
1609360
2320
인간에게는 안전하지 않을 수도 있다고 말합니다.
26:51
But the opposite is also true —
469
1611800
1760
하지만 그 반대도 사실입니다.
26:53
what's safe for humans might not be safe for animals.
470
1613680
3760
인간에게 안전한 것이 동물에게는 안전하지 않을 수도 있습니다.
26:57
Christine uses the phrase 'vice versa'
471
1617560
2600
크리스틴은 '반대'라는 표현을 사용하여
27:00
to show that 'the opposite' of what she says is also true.
472
1620280
3920
그녀가 말하는 것의 '반대'도 사실임을 보여줍니다.
27:05
Christine also uses the idiom to 'thread the needle'
473
1625320
3200
크리스틴은 또한 '바늘에 실을 꿰다'라는 관용어를 사용하여
27:08
to describe 'a task which requires a lot of skill and precision,
474
1628640
3800
27:12
'especially one involving a conflict'.
475
1632560
3480
'특히 갈등과 관련된 일이라면 많은 기술과 정밀성이 필요한 작업'을 설명합니다.
27:16
Yes, medical animal testing may save human lives,
476
1636160
4400
그렇습니다. 의료적 동물실험이 인간의 생명을 구할 수도 있지만,
27:20
but many people see it as cruel and distressing for the animal —
477
1640680
3920
많은 사람들은 그것이 동물에게 잔인하고 고통스러운 일이라고 생각합니다.
27:24
it's a difficult needle to thread.
478
1644720
2840
바늘에 꿰는 게 어려운 일이죠.
27:27
But now, the challenge of threading that needle has got a little easier
479
1647680
3760
하지만 이제 인공지능 덕분에 바늘에 실을 꿰는 일이 조금 더 쉬워졌습니다
27:31
because of artificial intelligence.
480
1651560
2080
.
27:33
Predicting how likely a new medicine is to harm humans
481
1653760
3680
새로운 약이 인간에게 해를 끼칠 가능성을 예측하려면 수천 가지 실험
27:37
involves analysing the results of thousands of experiments.
482
1657560
3960
결과를 분석해야 합니다 .
27:41
And one thing AI is really good at is analysing mountains and mountains of data.
483
1661640
6280
그리고 AI가 정말 잘하는 것 중 하나는 엄청난 양의 데이터를 분석하는 것입니다.
27:48
Here's Christine Ro again, speaking with BBC World Service's Tech Life.
484
1668040
4440
BBC World Service의 Tech Life에서 크리스틴 로가 다시 인터뷰를 진행했습니다.
27:52
So, AI isn't the whole picture, of course,
485
1672600
1880
따라서 AI가 전체 그림은 아니지만 그림의
27:54
but it's an increasingly important part of the picture and one reason for that
486
1674600
4240
점점 더 중요한 부분이 되고 있으며 그 이유 중 하나는 화학 물질의 안전을 결정할 때
27:58
is that there is a huge amount of toxicology data to wade through
487
1678960
3320
살펴봐야 할 독성학 데이터가 엄청나게 많기 때문입니다.
28:02
when it comes to determining chemical safety, and, on top of that,
488
1682400
3720
그에 더해, 늘
28:06
there's the staggering number of chemicals being invented all of the time.
489
1686240
4120
엄청난 수의 화학물질이 발명되고 있습니다.
28:10
AI helps scientists wade through huge amounts of data.
490
1690480
4280
AI는 과학자들이 엄청난 양의 데이터를 처리하는 데 도움이 됩니다 .
28:14
If you 'wade through' something,
491
1694880
2200
무언가를 '파헤친다'는 것은 '지루하거나 어려운 일을 하는 데
28:17
you 'spend a lot of time and effort doing something boring or difficult,
492
1697200
4920
많은 시간과 노력을 쏟는다'는 의미이며 ,
28:22
'especially reading a lot of information'.
493
1702240
2960
'특히 많은 정보를 읽는다'는 의미입니다.
28:25
AI can process huge amounts of data,
494
1705320
2600
AI는 엄청난 양의 데이터를 처리할 수
28:28
and what's more, that amount keeps growing as new chemicals are invented.
495
1708040
5360
있으며, 더 중요한 것은 새로운 화학 물질이 발명됨에 따라 그 양은 계속 증가하고 있다는 것입니다.
28:33
Christine uses the phrase 'on top of that', meaning 'in addition to something'.
496
1713520
4960
크리스틴은 ' 무언가에 더하여'라는 뜻의 'on top of that'이라는 표현을 사용합니다.
28:38
Often this extra thing is negative.
497
1718600
2440
이런 추가적인 것은 종종 부정적이다.
28:41
She means there's already so much data to understand
498
1721160
3360
그녀는 이미 이해해야 할 데이터가 너무 많고
28:44
and additionally, there's even more to be understood about these new chemicals.
499
1724640
5000
, 게다가 이러한 새로운 화학물질에 대해 이해해야 할 것이 더 많다고 말했습니다.
28:49
Of course, the good news is that with AI, testing on animals could one day stop,
500
1729760
6160
물론 좋은 소식은 AI 덕분에 언젠가는 동물 실험이 중단될 수 있다는 것입니다.
28:56
although Christine warns that AI is not the 'whole picture',
501
1736040
3840
하지만 크리스틴은 AI가 '전체적인 그림'은 아니며, '
29:00
it's not 'a complete description of something
502
1740000
2120
29:02
'which includes all the relevant information'.
503
1742240
2920
모든 관련 정보를 포함한 완전한 설명'은 아니라고 경고합니다.
29:05
Nevertheless, the news is a step forward
504
1745280
2640
그럼에도 불구하고, 이 소식은
29:08
for both animal welfare and for modern medicine.
505
1748040
4040
동물 복지 와 현대 의학 모두에게 진전입니다.
29:12
Speaking of which, what was the answer to your question, Phil?
506
1752200
3720
그런데, 필, 당신의 질문에 대한 대답은 뭐였어?
29:16
What is a commonly used medicine which is safe for humans, but harmful to animals?
507
1756040
5200
인간에게는 안전하지만 동물에게는 해로운, 일반적으로 사용되는 약은 무엇입니까?
29:21
I guessed it was aspirin.
508
1761360
1920
나는 그것이 아스피린이라고 추측했다.
29:23
Which was the correct answer!
509
1763400
3080
정답은 바로 이거예요!
29:26
Right, let's recap the vocabulary we've discussed,
510
1766600
3640
그럼, 앞서 논의했던 어휘를 다시 한번 요약해 보죠.
29:30
starting with 'human guinea pigs'
511
1770360
2600
우선 '인간 기니피그'라는 단어는
29:33
meaning 'the first people to have something new tested on them'.
512
1773080
3880
' 새로운 것을 처음으로 실험한 사람'을 뜻합니다.
29:37
The phrase 'vice versa' is used to indicate
513
1777080
2560
'반대'라는 문구는
29:39
that 'the opposite of what you have just said is also true'.
514
1779760
4280
' 방금 말한 것의 반대도 사실이다'를 나타내는 데 사용됩니다.
29:44
To 'thread the needle'
515
1784160
1320
'바늘에 실을 꿰는 것'은
29:45
describes 'a task which requires extreme skill and precision to do successfully'.
516
1785600
6120
' 성공적으로 완료하려면 극도의 기술과 정밀성이 필요한 작업'을 설명합니다.
29:51
The 'whole picture' means 'a complete description of something
517
1791840
3360
'전체 그림'은 '
29:55
'which includes all the relevant information and opinions about it'.
518
1795320
4440
모든 관련 정보와 의견을 포함하는 완전한 설명'을 의미합니다.
29:59
If you 'wade through' something,
519
1799880
2000
무언가를 '파헤친다'는 것은 '지루하거나 어려운 일을 하는 데
30:02
you 'spend a lot of time and effort doing something boring or difficult,
520
1802000
4840
많은 시간과 노력을 쏟는다'는 의미이며 ,
30:06
'especially reading a lot of information'.
521
1806960
2800
'특히 많은 정보를 읽는다'는 의미입니다.
30:09
And finally, the phrase 'on top of something'
522
1809880
2960
그리고 마지막으로, '무언가의 위에'라는 문구는
30:12
means 'in addition to something', and that extra thing is often negative.
523
1812960
5000
'무언가에 더하여'를 의미하는데, 그 추가적인 것은 종종 부정적인 의미를 갖습니다.
30:18
That's all for this week. Goodbye for now!
524
1818080
2080
이번 주는 여기까지입니다. 이제 안녕!
30:20
Bye!
525
1820280
1360
안녕!
30:21
6 Minute English.
526
1821760
1320
6분 영어.
30:23
From BBC Learning English.
527
1823200
2800
BBC Learning English에서 발췌.
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7