BOX SET: 6 Minute English - Internet and Technology English mega-class! One hour of new vocabulary!
1,179,729 views ・ 2020-12-12
아래 영문자막을 더블클릭하시면 영상이 재생됩니다. 번역된 자막은 기계 번역됩니다.
00:06
Hello and welcome to 6 Minute English. I'm
Dan and joining me today is Neil. Hey Neil.
0
6720
4640
안녕하세요, 6분 영어에 오신 것을 환영합니다. 저는
Dan이고 오늘 함께한 사람은 Neil입니다. 안녕 닐.
00:11
Hello Dan. What’s on the agenda today?
1
11360
2160
안녕 댄. 오늘 의제는 무엇입니까?
00:13
Well, I’ll give you a clue. It’s something that
makes the world go round, but it doesn’t really
2
13520
4880
자, 제가 힌트를 드리겠습니다. 그것은
세상을 돌아가게 하는 것이지만 실제로는 존재하지 않습니다
00:18
exist. In fact, if we all stopped believing in
it, it would have no use at all! What is it?
3
18400
6800
. 사실, 우리 모두가 그것을 믿지 않는다면 아무
소용이 없을 것입니다! 뭐야?
00:25
I haven’t got a clue!
4
25200
1120
나는 단서가 없어!
00:27
Ok...how about this?
5
27280
2560
좋아...이건 어때?
00:31
Money!
6
31600
960
돈!
00:32
Yep! And not just any money, we’re
talking about crypto-currency.
7
32560
4960
네! 단순히 돈이 아니라
암호화폐에 대해 이야기하고 있습니다.
00:37
Currency is the money that’s being used
in a given country at a certain time.
8
37520
4560
통화는
특정 시간에 특정 국가에서 사용되는 돈입니다.
00:42
But what about the cryptopart?
9
42080
2000
그러나 cryptopart는 어떻습니까?
00:44
Well, crypto is a prefix meaning hidden
or secret – it comes from the word cryptic
10
44080
5520
음, crypto는 숨김 또는 비밀을 의미하는 접두사입니다
. 이것은 신비하거나 이해하기 어렵다는 의미의 cryptic이라는 단어에서 유래했습니다
00:49
which means mysterious or difficult to understand.
11
49600
3440
. 현재
00:53
You may have heard about the most popular
crypto-currency at the moment, the Bitcoin.
12
53040
5040
가장 인기 있는 암호화폐인 비트코인에 대해 들어 보셨을 것입니다
.
00:58
Well, I’ve certainly heard the name,
but I can’t say I know what it is.
13
58080
3680
글쎄요, 확실히 그 이름을 들어본 적은
있지만, 그게 뭔지 안다고는 말할 수 없습니다.
01:01
First our quiz question. When was the
Bitcoin crypto-currency first created?
14
61760
5920
먼저 퀴즈 질문입니다.
비트코인 암호화폐는 언제 처음 만들어졌나요?
01:07
a) 2004
15
67680
1600
a) 2004
01:09
b) 2009
16
69280
1600
b) 2009
01:10
c) 2013
17
70880
1920
c) 2013
01:12
Well, I think 2004 may have been
a little early, and I think 2013
18
72800
5040
음, 2004년은
조금 빨랐을 수도 있고 2013년은
01:17
could be a little late, so
the smart money’s on 2009.
19
77840
3840
조금 늦을 수도 있다고 생각합니다. 따라서
스마트 머니는 2009년에 있습니다.
01:21
We’ll see if you’re right later on in the
show. So…Bitcoin, what do you know about it?
20
81680
5680
쇼. 그래서…비트코인, 당신은 그것에 대해 무엇을 알고 있습니까?
01:27
Well, I know it’s a digital currency…so
presumably, you can use it online to buy things?
21
87360
5040
글쎄요, 그게 디지털 통화라는 건 알아요… 그럼
아마 온라인에서 물건을 살 때 사용할 수 있겠죠?
01:32
You are right on the money,
which means correct, both times.
22
92400
3760
당신은 돈에 대해 옳습니다.
즉, 두 번 모두 정확합니다.
01:36
Bitcoin is just like any other
currency except for two things.
23
96800
4320
비트코인은
두 가지를 제외하면 다른 통화와 같습니다.
01:41
First, it’s not printed by governments or
banks, which means that it’s not legal tender.
24
101120
6320
첫째, 정부나 은행에서 인쇄하지 않았으므로
법적 입찰이 아닙니다.
01:47
Legal tender means the official money
that can be used within a country.
25
107440
4240
법정화폐는 한
국가 내에서 사용할 수 있는 공식화폐를 의미합니다.
01:51
So that means we can’t use it to
pay taxes or settle debts, right?
26
111680
3520
즉, 세금을 납부하거나 부채를 청산하는 데 사용할 수 없다는 뜻입니다
. 그렇죠?
01:55
Exactly. Governments won’t recognise it as an
official currency, although it acts just like
27
115200
6080
정확히. 정부는
공식 통화로 같이 작동하지만 공식 통화로 인식하지 않습니다
02:01
one. You can use it to buy items from anyone
who will accept it, and its value fluctuates.
28
121280
6240
. 이를 수락하는 모든 사람에게서 항목을 구매하는 데 사용할 수
있으며 그 가치는 변동됩니다.
02:07
Fluctuates means changes in level or
amount. And what’s the second thing?
29
127520
4960
변동은 수준 또는 양의 변화를 의미합니다
. 그리고 두 번째는 무엇입니까?
02:12
Ah, the second thing is that bitcoin is a digital
currency, meaning that with the exception of a few
30
132480
6480
아, 두 번째는 비트코인이 디지털 통화라는 것입니다
. 즉, 몇 가지
02:18
tokens, it largely exists online only. You can’t
carry a load of bitcoins around in your pocket!
31
138960
7680
토큰을 제외하고는 대부분 온라인에서만 존재합니다.
주머니에 많은 양의 비트코인을 가지고 다닐 수 없습니다!
02:26
Well, that makes a nice… change!
32
146640
2720
글쎄, 그것은 좋은… 변화를 만듭니다!
02:29
Oh dear, Neil. Was that a money pun? Terrible!
33
149360
3360
오 이런, 닐. 돈장난이었나? 끔찍한!
02:33
So if it’s a digital only currency,
where do new ones come from?
34
153360
4400
그렇다면 디지털 전용 통화라면
새로운 통화는 어디에서 오는 것일까요?
02:37
Can’t I just say that I’ve got a
million of them and make myself rich!?
35
157760
3280
100만개 가지고 있다고 부자가 될 수는 없을까요!?
02:41
Well, no. You see, even though Bitcoin
is not regulated by a bank or government,
36
161040
5200
음 ... 아니. 비트코인은
은행이나 정부의 규제를 받지 않지만
02:46
it still has a process that stops people from
cheating. There are only two ways to get bitcoins.
37
166240
6080
사람들의 부정 행위를 막는 프로세스가 있습니다
. 비트코인을 얻는 방법은 두 가지뿐입니다. 누군가
02:52
You either trade them from
someone, or you go mining.
38
172320
3280
에게서 거래하거나
채굴을 하러 갑니다.
02:55
Oh wait, I've heard about this. This is when
you use your computer to run calculations which
39
175600
5680
오 잠깐만, 이것에 대해 들었습니다.
컴퓨터를 사용하여
03:01
verify other Bitcoin transactions. You get
rewarded for this ‘work’ by earning bitcoins.
40
181280
5920
다른 비트코인 거래를 확인하는 계산을 실행하는 경우입니다.
비트코인을 획득하여 이 '일'에 대한 보상을 받습니다.
03:07
Yep! It’s money for old rope, which
means it’s an easy way to earn money.
41
187200
4640
네! 낡은 로프를 위한 돈입니다.
즉, 돈을 벌 수 있는 쉬운 방법입니다.
03:11
Wow! I’m going to start mining immediately!
42
191840
2400
우와! 바로 채굴을 시작하겠습니다!
03:14
Well, you wouldn’t be the only one!
43
194240
1600
글쎄, 당신은 유일한 사람이 아닐 것입니다!
03:16
Bitcoin’s value has recently gone up quite a lot
and this has caused a lot of interest. In fact,
44
196640
6720
최근 비트코인의 가치가 상당히 상승하여
많은 관심을 불러일으켰습니다. 사실
03:23
one stock exchange in Chicago has begun
trading in Bitcoin futures contracts.
45
203360
5600
시카고의 한 증권 거래소에서
비트코인 선물 계약 거래를 시작했습니다.
03:28
A futures contract? What’s that?
46
208960
2080
선물 계약? 그게 뭐야?
03:31
I’ll let BBC correspondent
Rory Cellan-Jones explain that.
47
211040
4480
BBC 특파원
Rory Cellan-Jones가 설명하도록 하겠습니다.
03:35
A futures contract, a bet on where
the currency will be a month from now,
48
215520
4320
통화가 지금부터 한 달 후 어디에 있을지에 대한 내기인 선물 계약이
03:39
soared above 18,000 dollars. That means that
investors believe Bitcoin, which started the
49
219840
5360
18,000달러 이상으로 치솟았습니다. 즉,
투자자들은 1000달러 미만의 가치로 시작한 비트코인이 더
03:45
year worth under 1000 dollars will continue
to rise in value, albeit at a slower rate.
50
225200
6560
느린 속도이지만 계속해서 가치가 상승할 것이라고 믿는다는 의미입니다.
03:51
But at the big banks there’s still
plenty of scepticism about the currency.
51
231760
4080
그러나 대형 은행에는 여전히
통화에 대한 회의론이 많습니다.
03:56
Soared in this context means
increased very quickly. So,
52
236960
3680
이 문맥에서 급상승했다는 것은
매우 빠르게 증가했음을 의미합니다. 그래서
04:00
now big investors are betting on
the value of Bitcoin in the future.
53
240640
3920
이제 큰 투자자들은
미래의 비트코인 가치에 배팅하고 있습니다.
04:04
Yes. But he also mentioned that the banks
have a lot of scepticism. That's a doubt
54
244560
4960
예. 그러나 그는 또한 은행이
많은 회의론을 가지고 있다고 언급했습니다. 그것은
04:09
that something is real or true. In this
case, whether Bitcoin is reliable or not.
55
249520
5200
어떤 것이 진짜인지 진실인지에 대한 의심입니다. 이
경우 Bitcoin이 신뢰할 수 있는지 여부입니다.
04:14
Maybe it’s best I don’t get involved then.
After all, a fool and his money are soon parted.
56
254720
5200
그때는 관여하지 않는 것이 최선일지도 모릅니다.
결국, 바보와 그의 돈은 곧 헤어진다.
04:19
Well, you don’t have to be sceptical
about the answer to our quiz.
57
259920
3040
글쎄, 당신은
우리 퀴즈의 답에 대해 회의적일 필요가 없습니다.
04:22
We know that for a fact. I asked you when the
Bitcoin crypto-currency was first created.
58
262960
5360
우리는 사실을 알고 있습니다.
비트코인 암호화폐가 언제 처음 만들어졌는지 물었습니다.
04:28
a) 2004
59
268320
1200
a) 2004
04:29
b) 2009
60
269520
1360
b) 2009
04:30
c) 2013
61
270880
1520
c) 2013
04:32
And I said 2009.
62
272400
1760
그리고 나는 2009라고 말했습니다.
04:34
And you were right! Well done. Shall
we go over the vocabulary again?
63
274160
3920
그리고 당신이 옳았습니다! 잘하셨어요.
어휘를 다시 살펴볼까요?
04:38
First, we had currency. That’s the money being
used in a given country at a certain time.
64
278080
5200
첫째, 우리는 화폐를 가지고 있었습니다. 그것은
특정 시간에 특정 국가에서 사용되는 돈입니다.
04:43
Name three currencies and their countries, Dan.
65
283280
2480
세 가지 통화와 국가 이름을 Dan이라고 합니다.
04:45
Ok. Baht for Thailand. Rupee for India and
my favourite, Metical for Mozambique. Next
66
285760
7200
좋아요. 태국 바트. 인도는 루피,
모잠비크는 제가 가장 좋아하는 메티칼입니다. 다음으로
04:52
we had cryptic. Something which is cryptic
is mysterious or difficult to understand.
67
292960
5120
우리는 수수께끼를 냈습니다. 비밀스러운 것은
신비하거나 이해하기 어렵습니다.
04:58
For example, what do rich people need, poor
people have and if you eat it, you die?
68
298080
5520
예를 들어 부자에게 필요한 것은 무엇이고 가난한
사람에게는 무엇이 있으며 그것을 먹으면 죽는가?
05:04
A cryptic riddle indeed! I’ll
have to think about that.
69
304400
2560
참으로 불가사의한 수수께끼입니다! 생각해봐야
겠어요.
05:07
Then we had legal tender, that’s the official
money that can be used within a country.
70
307600
4560
그런 다음 한
국가 내에서 사용할 수 있는 공식 통화인 법정 통화가 있었습니다.
05:12
The Euro is legal tender within Spain,
but what was the legal tender before that?
71
312160
5600
유로는 스페인 내에서 법정화폐인데,
그 전에는 법정화폐가 무엇이었나요?
05:17
Wasn’t it the Peseta? Then we had
fluctuates. If something fluctuates,
72
317760
5600
페세타 아니었나요? 그런 다음
변동이 있었습니다. 무언가 변동하는 경우
05:23
it changes in amount or level.
The stock market fluctuates.
73
323360
4000
양이나 수준이 변경됩니다.
주식 시장은 변동합니다.
05:27
But my love for my family never does. Then we
had soared, which means increased very quickly.
74
327360
6560
그러나 가족에 대한 나의 사랑은 결코 그렇지 않습니다. 그런 다음
급상승했습니다. 즉, 매우 빠르게 증가했습니다.
05:33
It’s used with this meaning in the
context of money, prices and statistics.
75
333920
4320
돈, 가격, 통계의 맥락에서 이 의미로 사용됩니다.
05:38
Finally, we had scepticism. Scepticism is doubt
76
338240
3600
마지막으로 우리는 회의론을 가졌습니다. 회의주의는
05:41
that something is real or true. What sort
of things are people sceptical about, Neil?
77
341840
5120
무언가가 진짜인지 사실인지 의심하는 것입니다.
사람들이 어떤 것에 대해 회의적인가요, 닐?
05:47
Some people think that human activity hasn’t
caused climate change. They are sceptical.
78
347520
6240
어떤 사람들은 인간 활동이
기후 변화를 일으키지 않았다고 생각합니다. 그들은 회의적입니다.
05:53
And that brings us to the end of today’s 6 Minute
English. Don’t forget to check out our Youtube,
79
353760
5120
이것으로 오늘의 6분
영어가 끝났습니다. YouTube,
05:58
Facebook, Twitter and Instagram pages,
and we’ll see you next time. Goodbye.
80
358880
4640
Facebook, Twitter 및 Instagram 페이지를 확인하는 것을 잊지 마세요.
다음에 뵙겠습니다. 안녕히 가세요.
06:03
Goodbye
81
363520
2320
06:12
Hello and welcome to 6 Minute English. I'm Rob.
82
372240
3360
안녕하세요, 6분 영어에 오신 것을 환영합니다. 저는 롭입니다.
06:15
And I'm Dan.
83
375600
1280
그리고 저는 댄입니다.
06:16
Hey Dan. What’s the time?
84
376880
2000
헤이 댄. 지금 몇시야?
06:19
Time you got a new watch?
85
379680
1520
새 시계를 산 시간은?
06:21
Now I didn’t ask you that just for a
joke or a sarcastic comment now did I?
86
381840
4000
농담이나 비꼬는 말을 하려고 한 게 아니잖아요?
06:25
Well no, but look there’s a clock
over there, you are wearing a watch,
87
385840
4240
아니요, 하지만
저쪽에 시계가 있고, 시계를 차고 있고,
06:30
you have a smartphone and a computer, all of
which show the time. So why are you asking me?
88
390080
5840
스마트폰과 컴퓨터가 있고, 모두
시간을 표시합니다. 그래서 왜 나한테 묻는거야?
06:36
Dan! I was trying to introduce today’s topic
which is all about virtual assistants or bots.
89
396480
6400
단!
가상 비서 또는 봇에 관한 오늘의 주제를 소개하려고 했습니다.
06:42
You seemed to have forgotten the script.
90
402880
1760
당신은 대본을 잊은 것 같았습니다.
06:44
Oh yes, sorry. We’re talking
about software that you talk to
91
404640
4800
네, 죄송합니다. 우리는
당신이 말을
06:49
and that can talk back to you. Like Apple’s
Siri, Google’s Assistant, Amazon’s Alexa
92
409440
6160
하고 답을 할 수 있는 소프트웨어에 대해 이야기하고 있습니다. Apple의
Siri, Google의 Assistant, Amazon의 Alexa,
06:55
and Microsoft’s Cortana. It might be on your
phone or computer or even a speaker in your house.
93
415600
6800
Microsoft의 Cortana와 같습니다.
휴대전화나 컴퓨터 또는 집에 있는 스피커에 있을 수도 있습니다.
07:03
Now before we hear more about this
topic, here is today’s quiz question:
94
423120
4160
이제 이 주제에 대해 자세히 듣기 전에
오늘의 퀴즈 질문이 있습니다.
07:08
Do you know when was the first computer which
could recognise speech, launched? Was it in
95
428000
6080
음성을 인식할 수 있는 최초의 컴퓨터가 언제 출시되었는지 아십니까?
07:14
a) 1951
96
434080
1840
a) 1951
07:15
b) 1961
97
435920
1520
b) 1961
07:17
c) 1971
98
437440
1600
c) 1971
07:20
I have found my script, so I’ve seen the
answer but I have to say I was surprised.
99
440400
5680
내 대본을 찾아서
답을 봤지만 놀랐다고 해야 할까요.
07:26
Don't tell anybody, Dan, OK. We’ll give the answer
for the listeners at the end of the programme.
100
446080
4800
아무에게도 말하지마, 댄, 알았어.
프로그램이 끝날 때 청취자에게 답변을 드리겠습니다.
07:31
We’re going to hear now from Tom Hewitson, who
is a conversation designer, working in the field
101
451760
5760
이제 가상 비서
분야에서 일하고 있는 대화 디자이너인 Tom Hewitson이
07:37
of virtual assistants, talking on BBC Radio
4's Word of Mouth programme. He talks about
102
457520
6480
BBC 라디오
4의 입소문 프로그램에서 이야기하는 것을 들을 것입니다. 그는
07:44
the whole idea of virtual assistants and how they
are changing the way we interact with technology.
103
464000
5920
가상 비서의 전체 아이디어와 그것이
우리가 기술과 상호 작용하는 방식을 어떻게 변화시키고 있는지에 대해 이야기합니다.
07:50
How does he describe our existing
relationship with computers?
104
470640
3920
그는 우리와 컴퓨터의 기존 관계를 어떻게 설명합니까
?
07:55
It changes the way that we think about computers.
To date we’ve thought of them largely as
105
475360
6000
그것은 우리가 컴퓨터에 대해 생각하는 방식을 바꿉니다.
지금까지 우리는 그것들을 주로 도구로 생각했습니다
08:01
tools. They’re just an advanced version of a
calculator. They’re something you kind of use
106
481360
4640
. 계산기의 고급 버전일 뿐입니다
.
08:06
to get a specific thing done, whereas this is
kind of changing them more into like an agent.
107
486000
5120
특정 작업을 수행하기 위해 사용하는 일종의 도구인 반면, 이것은
대리인처럼 변화시키는 것입니다.
08:11
They’re an active participant in the interaction
and in guiding you to make the right decision.
108
491120
6960
그들은 상호 작용에 적극적으로 참여
하고 올바른 결정을 내리도록 안내합니다. 그때
08:18
How did he describe our existing
relationship with computers then?
109
498720
3280
그는 우리와 컴퓨터의 기존 관계를 어떻게 설명했습니까
?
08:22
He said that to date, which is an expression
which means 'up until this point in time',
110
502000
4560
그는
'이 시점까지'를 의미하는 표현인 현재까지
08:26
we have thought of them as advanced calculators.
111
506560
2480
우리는 그것들을 고급 계산기로 생각했다고 말했습니다.
08:29
Yes, that’s right, we use them
as a tool to get things done.
112
509040
4080
예, 맞습니다.
작업을 완료하기 위한 도구로 사용합니다.
08:33
But he says that modern technology is turning them
into an agent. This doesn’t mean a secret agent,
113
513120
5920
하지만 그는 현대 기술이 그들을
에이전트로 바꾸고 있다고 말합니다. 이것은 James Bond와 같은 비밀 요원을 의미하지 않습니다
08:39
like James Bond! In this sense an
agent is something that has agency
114
519040
5120
! 이런 의미에서
에이전트는 에이전시가 있는 것입니다.
08:44
and that means it has the ability to act
individually and make its own decisions.
115
524160
5040
즉,
개별적으로 행동하고 스스로 결정을 내릴 수 있는 능력이 있음을 의미합니다.
08:49
I’m not sure I’d like my phone to have agency. It
probably wouldn’t like being in my pocket all day.
116
529200
5600
내 전화에 대행사가 있기를 원하는지 잘 모르겠습니다.
하루 종일 내 주머니에 있는 것이 마음에 들지 않을 것입니다.
08:54
Who would Dan? But I’m not sure Hewitson
is suggesting our devices would become
117
534800
4800
댄은 누구일까요? 하지만 Hewitson이
우리의 기기가
08:59
that clever but he did say they could
become more active in our lives.
118
539600
4560
그렇게 영리해질 것이라고 제안했는지 확신할 수 없지만 그는 기기가
우리 삶에서 더 활발해질 수 있다고 말했습니다.
09:05
Maybe. I imagine, for example,
119
545120
2880
아마도. 예를 들어,
09:08
telling us if we are spending too
much time in fast food restaurants?
120
548000
3760
우리가
패스트푸드점에서 너무 많은 시간을 보내고 있는지 알려주는 것을 상상해 볼까요?
09:11
Maybe in your case Dan. Mine would be
telling me I spend too much time in the gym!
121
551760
5200
아마도 귀하의 경우 Dan. 나는
체육관에서 너무 많은 시간을 보낸다고 말할 것입니다!
09:16
Hewitson goes on to explain how the way we will
talk to our virtual assistants will develop.
122
556960
4880
Hewitson은 계속해서
가상 비서와 대화하는 방식이 어떻게 발전할지 설명합니다.
09:22
What does he say we don’t need to do?
123
562720
2240
그는 우리가 무엇을 할 필요가 없다고 말합니까?
09:25
We will develop our own kind of vernacular
for speaking with machines that will be
124
565520
4800
우리는 다른 사람과 대화하는 방식과 미묘하게 다른 기계와 대화하기 위한 자체 언어를 개발할 것입니다.
09:30
subtly different from how we
speak to other people because
125
570320
2960
09:33
as you rightly point out you don’t need to make
the machine like you don’t need to kind of make
126
573280
5120
09:38
random chit-chat that’s just filling the time.
It can be much more brusque and to the point.
127
578400
5840
시간을 채우는 잡담.
훨씬 더 잔인하고 요점이 될 수 있습니다.
09:44
A lot of what we say in human communication
128
584240
2560
우리가 인간 의사소통에서 말하는 많은 것은 우리가
09:46
is to do with our relationship
with the person we’re talking to.
129
586800
3200
대화하는 사람과의 관계와 관련이 있습니다.
09:50
We say things and talk about things that are maybe
not directly relevant to our point. With a digital
130
590000
6480
우리는
요점과 직접적인 관련이 없는 것을 말하고 이야기합니다. 디지털
09:56
virtual assistant, we don’t need to do that,
so we don’t need to make the machine like us.
131
596480
5440
가상 어시스턴트를 사용하면 그렇게 할 필요가 없으므로
기계를 우리처럼 만들 필요가 없습니다.
10:01
Hewitson said that we will develop our own
vernacular, this is a general word for a native
132
601920
5280
Hewitson은 우리 고유의 언어를 개발할 것이라고 말했습니다
. 이것은 모국어에 대한 일반적인 단어입니다
10:07
language. This vernacular will be a little bit
different from our everyday vernacular because,
133
607200
5680
. 이 언어는
10:12
as we said, we don’t need to maintain a social
relationship with the artificial assistant.
134
612880
5440
우리가 말했듯이 인공 비서와 사회적 관계를 유지할 필요가 없기 때문에 일상 언어와 약간 다를 것입니다
.
10:18
This means that we won’t need chit-chat.
Chit-chat is another expression for small talk:
135
618320
5280
이것은 잡담이 필요하지 않다는 것을 의미합니다.
잡담은 스몰 토크의 또 다른 표현입니다. 날씨에 대해 이야기하는 것과 같이
10:23
conversation topics which aren’t important
but are part of everyday social communication,
136
623600
5840
중요하지는 않지만
일상적인 소셜 커뮤니케이션의 일부인 대화 주제입니다
10:29
like talking about the weather.
137
629440
1600
.
10:31
And because we don’t need to be
friends with our virtual assistants,
138
631040
3120
그리고 우리는 가상 비서와 친구가 될 필요가 없기 때문에
10:34
we can be brusque and to the point. Both of
these mean being very direct and not very polite.
139
634160
6160
무뚝뚝하고 요점을 말할 수 있습니다.
이 두 가지 모두 매우 직설적이고 공손하지 않다는 것을 의미합니다.
10:40
Well, Dan, I don’t mean to be brusque but it is
time for the answer to this week’s quiz question.
140
640960
4640
음, 댄, 퉁명스럽게 말할 생각은 없지만
이번 주 퀴즈 질문에 답할 시간입니다.
10:45
Earlier I asked when was the first
computer which could recognise speech,
141
645600
4160
앞서
음성을 인식할 수 있는 최초의 컴퓨터가 언제
10:49
launched. The options were:
142
649760
1600
출시되었는지 물었습니다. 옵션은 다음과 같습니다.
10:51
a) 1951
143
651360
1520
a) 1951
10:52
b) 1961
144
652880
1680
b) 1961
10:54
c) 1971
145
654560
2080
c) 1971
10:56
Well actually the first computer which
could recognise speech was launched in 1961.
146
656640
5520
실제로
음성을 인식할 수 있는 최초의 컴퓨터는 1961년에 출시되었습니다.
11:03
It was called the IBM Shoebox and could
recognise 16 words and the numbers zero
147
663040
6640
그것은 IBM Shoebox라고 불렸고
16개의 단어와 0에서 9까지의 숫자를 인식할 수 있었습니다
11:09
to nine. That’s nearly as many as you!
148
669680
2480
. 그것은 거의 당신만큼 많습니다!
11:12
Cheeky! Right enough of this chit-chat.
Let’s recap today’s vocabulary.
149
672160
5360
건방진! 이 잡담으로 충분합니다.
오늘의 어휘를 정리해 보겠습니다.
11:17
Well, chit-chat was one of today’s
expressions. Meaning 'small talk',
150
677520
3840
음, 잡담은 오늘날의 표현 중 하나였습니다
. '잡담'을 의미
11:21
but we also had the expression to date.
That means ‘up until this moment in time’.
151
681360
5840
하지만, 지금까지의 표현도 있었습니다.
즉, '지금 이 순간까지'라는 뜻입니다.
11:27
Then we had the noun agent. This
refers to something that has agency.
152
687200
4960
그런 다음 우리는 명사 대리인을 가졌습니다. 이것은
선택 의지가 있는 것을 가리킵니다.
11:32
And that is the ability to think,
make decisions and act independently.
153
692160
4480
이것이 바로
독립적으로 생각하고 결정을 내리고 행동하는 능력입니다.
11:36
The next word is vernacular,
another word for language,
154
696640
3200
다음 단어는 특히 모국어에 대해 이야기할 때
언어에 대한 또 다른 단어인 모국어입니다
11:39
particularly when talking about a native language.
155
699840
2960
.
11:42
And finally, there was brusque meaning
'direct and not polite' and to the point,
156
702800
5680
그리고 마지막으로
'직접적이고 공손하지 않은'을 의미하는 무뚝뚝한 말과 요점까지
11:48
which also means 'direct and
without unnecessary information'.
157
708480
3200
'직접적이고
불필요한 정보 없이'를 의미하기도 합니다.
11:52
Hey Rob
158
712240
960
Hey Rob
11:53
Yes, what can I do for you Dan?
159
713200
2240
네, 무엇을 도와드릴까요 Dan?
11:55
End the programme.
160
715440
1120
프로그램을 종료합니다.
11:56
Certainly Dan. Well that’s all from us today,
be sure to check us out on all the usual places:
161
716560
5920
확실히 댄. 오늘은 여기까지입니다.
12:02
Facebook, Twitter, Instagram and YouTube,
162
722480
2560
Facebook, Twitter, Instagram 및 YouTube
12:05
and of course please don't forget our
website bbclearningenglish.com. Bye for now!
163
725040
4880
와 같은 모든 일반적인 장소에서 저희를 확인하세요. 물론 저희
웹사이트 bbclearningenglish.com도 잊지 마세요. 지금은 안녕!
12:09
Bye!
164
729920
200
안녕!
12:18
Hello. This is 6 Minute English
from BBC Learning English. I’m Neil.
165
738160
4000
안녕하세요.
BBC Learning English의 6분 영어입니다. 저는 닐입니다.
12:22
And I’m Sam. What’s the
matter, Neil? You sound upset.
166
742160
3440
그리고 저는 샘입니다. 무슨
일이야, 닐? 당신은 화가 소리.
12:26
Well, I am, Sam - I just spent
an hour working on my computer
167
746240
3760
음, 저는 Sam입니다.
한 시간 동안 컴퓨터 작업을 했는데
12:30
when it suddenly froze. I lost everything
and had to start all over again!
168
750000
4400
갑자기 컴퓨터가 멈췄습니다. 나는 모든 것을 잃었고 처음
부터 다시 시작해야 했습니다!
12:34
Agghh, that’s so frustrating - like pop-up
internet ads and buffering videos that never play!
169
754400
5680
아아, 팝업
인터넷 광고와 절대 재생되지 않는 버퍼링 동영상처럼 정말 답답합니다!
12:40
Modern computers and the internet have
revolutionised the way we live today,
170
760800
4160
최신 컴퓨터와 인터넷은
오늘날 우리가 사는 방식을 혁신하여
12:44
bringing us the world with a click of a button.
171
764960
2640
버튼 클릭 한 번으로 세상을 데려왔습니다.
12:47
But not everyone feels happy about
these technological developments.
172
767600
3280
그러나 모든 사람이
이러한 기술 발전에 만족하는 것은 아닙니다. 인터넷은
12:51
While potentially acting as a
force for good and progress,
173
771600
4080
선과 진보를 위한 힘의 역할을 할 수도 있지만, 증오와 잘못된 정보를
12:55
the internet also provides a way of spreading
hate and misinformation. And for some people,
174
775680
5920
퍼뜨리는 방법도 제공합니다
. 그리고 일부 사람들에게는
13:01
the World Wide Web remains a
mysterious and confusing place.
175
781600
4240
World Wide Web이
신비하고 혼란스러운 곳으로 남아 있습니다.
13:06
In this programme, we’ll hear about
a new academic subject called Web
176
786560
4000
이 프로그램에서는
웹 과학이라는 새로운 학문 주제에 대해 듣게 됩니다
13:10
Science. Web Science studies the
technology behind the internet.
177
790560
4480
. 웹 과학은
인터넷 이면의 기술을 연구합니다.
13:15
But from the human side, it’s
also interested in how people
178
795040
3200
그러나 인간적인 측면에서는
사람들이
13:18
interact with each other online. So we’ll
be asking whether studying Web Science
179
798240
4880
온라인에서 서로 상호 작용하는 방식에도 관심이 있습니다. 그래서 우리는
웹 과학을 공부하는 것이 미래에 인류를 위해
13:23
could make the internet better
for humanity in the future.
180
803120
3200
더 나은 인터넷을 만들 수 있는지 질문할 것입니다
.
13:26
But first it’s time for our quiz question. I
wonder what the pioneers of the internet would
181
806880
4800
하지만 먼저 퀴즈 질문을 할 시간입니다.
인터넷의 개척자들이
13:31
think about how it is used today. So the question
is, who invented the World Wide Web? Was it:
182
811680
5520
오늘날 인터넷이 어떻게 사용되는지에 대해 어떻게 생각하는지 궁금합니다. 그래서 질문은
누가 World Wide Web을 발명했느냐는 것입니다. 그것은:
13:37
a) Bill Gates,
183
817200
1760
a) Bill Gates,
13:38
b) Tim Berners-Lee, or
c) Steve Jobs
184
818960
2960
b) Tim Berners-Lee, 또는
c) Steve Jobs
13:42
Well, Bill Gates and Steve Jobs were the
brains behind Microsoft and Apple Mac,
185
822640
4640
음, Bill Gates와 Steve Jobs는
Microsoft와 Apple Mac의 두뇌였으므로
13:47
so I’m going to say c) Tim Berners-Lee.
186
827280
2960
c) Tim Berners-Lee라고 말할 것입니다.
13:50
OK, Sam, we’ll find out later. Now,
because of coronavirus the annual Web
187
830240
4880
좋아, 샘, 나중에 알게 될거야. 이제
코로나바이러스 때문에 연례 웹
13:55
Science conference was held online this year.
Its theme was ‘making the web human-centric’.
188
835120
5520
과학 컨퍼런스가 올해 온라인으로 열렸습니다.
주제는 '인간 중심의 웹 만들기'였습니다.
14:01
One of the conference’s key speakers, and
co-founder of the new discipline of Web Science,
189
841280
5600
회의의 주요 연사 중 한 명이자
웹 과학이라는 새로운 분야의 공동 창립자는
14:06
was Dame Wendy Hall. Here she is speaking
to BBC World Service’s Digital Planet:
190
846880
5360
Dame Wendy Hall이었습니다. 여기에서 그녀는
BBC World Service의 Digital Planet에서 다음과 같이 말합니다.
14:13
People think about the web as a technology
but actually it’s co-createdby society.
191
853440
4800
사람들은 웹을 하나의 기술로 생각
하지만 실제로는 사회가 공동으로 만든 것입니다.
14:18
We put the content on, we interact with the
technology, with the platforms, with the social
192
858240
4640
우리는 콘텐츠를 게시하고
기술, 플랫폼, 소셜
14:22
media networks to create it. What we study is how
that works as an ecosystem,this coming together
193
862880
6240
미디어 네트워크와 상호 작용하여 콘텐츠를 만듭니다. 우리가 연구하는 것은
그것이 생태계로 작동하는 방식입니다.
14:29
of people and technology, and it’s very
interdisciplinary, very socio-technical,
194
869120
4480
사람과 기술이 함께 오고, 매우
학문적이며 매우 사회 기술적이며
14:33
and of course these days a
lot of it is powered by AI.
195
873600
3280
요즘에는
많은 것이 AI에 의해 구동됩니다.
14:38
Web Science is not only interested in
the technology side of the internet.
196
878240
4080
Web Science는
인터넷의 기술 측면에만 관심이 있는 것이 아닙니다.
14:42
As a subject it’s very interdisciplinary
- involving two or more academic subjects
197
882320
5600
주제로서 그것은 매우 학제적입니다
- 두 개 이상의 학문적 주제
14:47
or areas of knowledge. Web Science
combines digital technology with
198
887920
4480
또는 지식 영역을 포함합니다. Web Science는
디지털 기술을
14:52
subjects ranging from psychology and
robotics to economics and sociology.
199
892400
4320
심리학 및
로봇 공학에서 경제 및 사회학에 이르는 주제와 결합합니다.
14:57
Exchanges between humans and the internet can
be seen in social media networks - websites,
200
897360
5440
인간과 인터넷 간의 교류는
웹사이트,
15:02
apps and computer programmes,
like Facebook and Instagram,
201
902800
3200
앱,
Facebook 및 Instagram과 같은 컴퓨터 프로그램과 같은 소셜 미디어 네트워크에서 볼 수 있습니다.
15:06
which allow people to use electronic devices
to communicate and share information.
202
906000
5360
이를 통해 사람들은 전자 기기를 사용하여
정보를 주고받고 공유할 수 있습니다.
15:11
This view of technology sees the internet as an
ecosystem – a complex pattern of relationships
203
911360
6000
기술에 대한 이러한 관점은 인터넷을 모든 생명체와 환경
15:17
and mutual influences that exists between
all living things and their environment.
204
917360
5360
사이에 존재하는 복잡한 관계 패턴과 상호 영향인 생태계로 간주합니다
.
15:22
One ongoing and topical example of
websites helpfully interacting with humans
205
922720
5360
인간과 유용하게 상호 작용하는 웹사이트의 지속적이고 시사적인 한 가지 예는
15:28
is the Covid contact tracing app.
206
928080
2880
코로나19 접촉자 추적 앱입니다. 코로나바이러스와 싸우기 위해
15:30
You might think the mobile phone app, which
tracks movements and contact between people
207
930960
4240
사람들 사이의 움직임과 접촉을 추적하는 휴대전화 앱이
15:35
to combat coronavirus, would be a useful
practical application of internet technology.
208
935200
4640
인터넷 기술의 유용한 실용적인 응용 프로그램이 될 것이라고 생각할 수도 있습니다.
15:40
But as Carly Kind, Director of the
Ada Lovelace Institute in Cambridge,
209
940480
4800
그러나
케임브리지의 Ada Lovelace Institute 소장인 Carly Kind가
15:45
explained to BBC World Service’s Digital
Planet, things are never that straightforward:
210
945280
5120
BBC World Service의 Digital Planet에 설명했듯이
상황은 결코 간단하지 않습니다.
15:52
Actually, there’s a lot of more fundamental
questions that haven’t been answered yet such as:
211
952000
3840
실제로 다음과 같이
아직 답변되지 않은 더 근본적인 질문이 많이 있습니다. 두 사람 사이의 접촉을
15:56
is Bluetooth even an adequate mechanism for
doing what it says on the tin, which is detecting
212
956400
5120
감지하는 주석에 적힌 대로 수행하기 위한 적절한 메커니즘
16:01
contact between two people? The trails so far
show that it’s not actually that great and so,
213
961520
5760
? 지금까지의 흔적은
실제로 그렇게 훌륭하지 않다는 것을 보여줍니다. 그래서
16:07
do we know for sure that these apps work
and they work in the way we want them to?
214
967280
3600
이러한 앱이 작동
하고 원하는 방식으로 작동하는지 확실히 알고 있습니까? 필요한
16:11
Do we get the public health
information that we need?
215
971520
3040
공중 보건 정보를 얻고 있습니까
?
16:16
Apps like this are designed to
support public health - services
216
976240
3840
이와 같은 앱은
공중 보건을 지원하도록 설계되었습니다. 즉,
16:20
to improve the standard of health
of a country’s general population.
217
980080
3840
한 국가의 일반 대중의 건강 수준을 개선하기 위한 서비스입니다.
16:23
But Carly thinks the mechanisms used must be
suitable and adequate – they must actually work or
218
983920
6640
그러나 Carly는 사용된 메커니즘이
적합하고 적절해야 한다고 생각합니다. 즉, 실제로 작동하거나
16:31
do what it says on the tin – an informal idiom
meaning work exactly as it is intended to.
219
991120
7680
통에 적힌 대로 해야 합니다. 이는
의도한 대로 정확히 작동한다는 의미의 비공식 관용구입니다.
16:38
To find this out, trials - tests
to discover how effective or
220
998800
4160
이를 알아보기 위해 시험(어떤 것이
얼마나 효과적이고 적합한지 알아보기 위한 테스트)이 일정
16:42
suitable something is - are
carried out over a period of time.
221
1002960
3680
기간에 걸쳐 수행됩니다. 애초에 인터넷이 발명되었을
16:46
The kind of trials which were carried out during
222
1006640
2400
때 행해진 시도들이죠
16:49
the invention of the internet
in the first place, right, Neil?
223
1009040
3440
, 닐?
16:54
Ah yes, the invention of the internet – or
to be more accurate, the World Wide Web. In
224
1014000
5040
네, 인터넷의 발명,
더 정확히 말하면 월드 와이드 웹입니다.
16:59
our quiz question I asked you who invented
the World Wide Web? What did you say, Sam?
225
1019040
4800
퀴즈 질문에서 World Wide Web을 누가 발명했는지 물었습니다.
뭐라고 했어, 샘?
17:04
I said b) Tim Berners-Lee.
226
1024960
2080
나는 b) Tim Berners-Lee라고 말했다.
17:08
Well, you’re a first class web scientist,
Sam, because that’s the correct answer!
227
1028560
4560
글쎄요, 당신은 일류 웹 과학자입니다,
샘. 그게 정답이니까요!
17:14
Great! In this programme, we’ve been hearing about
Web Science, a new interdisciplinary subject,
228
1034480
6240
엄청난! 이 프로그램에서 우리는
17:21
combining several areas of study, which
investigates the ecosystem of the internet – the
229
1041280
5520
17:26
complex pattern of interconnections
between humans and their environment.
230
1046800
5040
인간과 환경 사이의 복잡한 상호 연결 패턴인 인터넷 생태계를 조사하는 여러 연구 영역을 결합하는 새로운 학제간 주제인 웹 과학에 대해 들었습니다. 사람들이 전자 기기를 사용하여 인터넷에서 통신할 수 있게 해주는 Facebook과 같은
17:32
Social media networks –websites and apps,
like Facebook, which let people use electronic
231
1052400
5120
웹사이트 및 앱인 소셜 미디어 네트워크는
17:37
devices to communicate on the internet – show how
humans and technology can successfully interact.
232
1057520
5600
인간과 기술이 어떻게 성공적으로 상호 작용할 수 있는지 보여줍니다.
17:43
A new Covid contact tracing app is currently
undergoing trials – tests to see if it works
233
1063840
6000
새로운 코로나19 접촉자 추적 앱이 현재 효과적으로
작동하는지 확인하기 위한 테스트를 진행 중입니다
17:49
effectively. This will discover if it does what
it says on the tin – works as it’s supposed to.
234
1069840
6800
. 이렇게 하면
주석에 적힌 대로 작동하는지, 예상대로 작동하는지 확인할 수 있습니다.
17:57
If successful, by alerting people to
coronavirus risks the app will support
235
1077200
5120
성공하면 사람들에게
코로나바이러스 위험에 대해 경고함으로써 앱은
18:02
public health – services aimed at improving
the health of the general population.
236
1082320
5200
공중 보건(
일반 대중의 건강 개선을 목표로 하는 서비스)을 지원할 것입니다.
18:07
And that’s all from us for now.
237
1087520
1920
지금은 그게 전부입니다.
18:09
And we hope you’ll join us again soon
for more topical English vocabulary
238
1089440
3840
그리고 곧 6 Minute English에서
더 많은 주제별 영어 어휘를 위해 다시 저희와 함께 하시길 바랍니다
18:13
here at 6 Minute English. Bye for now!
239
1093280
2160
. 지금은 안녕!
18:15
Bye bye!
240
1095440
480
안녕!
18:23
Hello and welcome to 6 Minute
English. I'm Catherine.
241
1103040
3360
6 Minute English에 오신 것을 환영합니다
. 저는 캐서린입니다.
18:26
And hello, I'm Rob.
242
1106400
1200
안녕하세요, 저는 Rob입니다.
18:27
Today we have another technology topic.
243
1107600
2560
오늘 우리는 또 다른 기술 주제를 가지고 있습니다.
18:30
Oh good! I love technology. It makes things
easier, it’s fast and means I can have gadgets.
244
1110160
5840
오 좋네! 나는 기술을 좋아합니다. 그것은 일을
더 쉽게 만들고 빠르며 가젯을 가질 수 있다는 것을 의미합니다.
18:36
Do you think that technology can
actually do things better than humans?
245
1116000
4320
기술이
실제로 인간보다 일을 더 잘할 수 있다고 생각하시나요?
18:40
For some things, yes. I think cars that drive
themselves will be safer than humans but that
246
1120320
5680
어떤 것들은 그렇습니다. 스스로 운전하는 자동차는
사람보다 안전할 것이라고 생각하지만
18:46
will take away some of the pleasure of driving.
So I guess it depends on what you mean by better.
247
1126000
5520
운전의 즐거움을 어느 정도 앗아갈 것입니다.
그래서 나는 당신이 더 나은 의미에 달려 있다고 생각합니다.
18:51
Good point, Rob. And that actually
ties in very closely with today’s topic
248
1131520
4880
좋은 지적이야, 롭. 그리고 그것은 실제로
오늘의 주제인 기술 쇼비니즘과 매우 밀접하게 연결되어 있습니다
18:56
which is technochauvinism.
249
1136400
2160
.
18:59
What’s that?
250
1139120
960
그게 뭐야?
19:00
We’ll find out shortly, Rob, but before we do,
today’s quiz question. Artificial Intelligence,
251
1140080
6080
Rob, 곧 알게 되겠지만 그 전에
오늘의 퀴즈 질문입니다. 인공 지능
19:06
or A.I., is an area of computer science that
develops the ability of computers to learn
252
1146160
5760
또는 A.I.는
컴퓨터가 충돌 없이
19:11
to do things like solve problems or drive cars
without crashing. But in what decade was the term
253
1151920
7360
문제 해결 또는 자동차 운전과 같은 작업을 학습하는 능력을 개발하는 컴퓨터 과학 분야입니다
. 하지만
19:19
'Artificial Intelligence' coined? Was it:
a) the 1940s,
254
1159280
4800
'인공 지능'이라는 용어는 몇 십년에 만들어졌습니까?
a) 1940년대,
19:24
b) the 1950s or
c) the 1960s?
255
1164080
3520
b) 1950년대 또는
c) 1960년대였습니까?
19:28
I think it's quite a new expression
so I'll go for c) the 1960s.
256
1168240
4880
상당히 새로운 표현이라고 생각하므로
c) 1960년대로 하겠습니다.
19:33
Good luck with that, Rob, and we’ll give
you the answer later in the programme.
257
1173120
3360
행운을 빕니다, Rob.
프로그램 후반부에 답을 드리겠습니다.
19:37
Now, let's get back to our
topic of technochauvinism.
258
1177120
3680
이제
기술 쇼비니즘이라는 주제로 돌아가 보겠습니다.
19:40
I know what a chauvinist is. It’s someone
who thinks that their country or race or sex
259
1180800
5360
나는 쇼비니스트가 무엇인지 압니다.
자신의 국가나 인종, 성별이
19:46
is better than others. But how
does this relate to technology?
260
1186160
3520
다른 사람보다 낫다고 생각하는 사람입니다. 하지만
이것이 기술과 어떤 관련이 있을까요? 곧
19:49
We’re about to find out. Meredith Broussard is
Professor of Journalism at New York University
261
1189680
6160
알게 될 것입니다. Meredith Broussard는
New York University의 저널리즘 교수
19:55
and she’s written a book called
Artificial Unintelligence.
262
1195840
4160
이며
Artificial Unintelligence라는 책을 저술했습니다.
20:00
She appeared on the BBC Radio 4
programme More or Less to talk about it.
263
1200000
4800
그녀는
그것에 대해 이야기하기 위해 BBC 라디오 4 프로그램 More or Less에 출연했습니다. 주의
20:04
Listen carefully and find out her
definition of technochauvinism.
264
1204800
4080
깊게 듣고
기술 쇼비니즘에 대한 그녀의 정의를 찾아보세요.
20:09
Technochauvinism is the idea that technology is
always the highest and best solution. So somehow
265
1209600
7040
Technochauvinism은 기술이
항상 최고의 솔루션이라는 생각입니다. 그래서 어떻게든
20:16
over the past couple of decades we got into the
habit of thinking that doing something with a
266
1216640
7040
지난 수십 년 동안 우리는 컴퓨터
로 무언가를 하는 것이
20:23
computer is always the best and most objective
way to do something and that’s simply not true.
267
1223680
7200
항상 최선이고 가장 객관적인
방법이라고 생각하는 습관이 생겼습니다. 그것은 사실이 아닙니다.
20:30
Computers are not objective, they are
proxies for the people who make them.
268
1230880
4960
컴퓨터는 객관적이지 않으며 컴퓨터를
만드는 사람들을 대신합니다.
20:36
What is Meredith Broussard's
definition of technochauvinism?
269
1236640
4160
Meredith Broussard의
기술 쇼비니즘 정의는 무엇인가요?
20:40
It's this idea that using technology
is better than not using technology.
270
1240800
5040
기술을 사용하는 것이
기술을 사용하지 않는 것보다 낫다는 생각입니다.
20:45
She says that we have this idea that a computer is
objective. Something that is objective is neutral,
271
1245840
6800
그녀는 우리가 컴퓨터가 객관적이라는 생각을 가지고 있다고 말합니다
. 객관적인 것은 중립적이며
20:52
it doesn’t have an opinion, it’s
fair and it's unbiased – so it’s
272
1252640
3920
의견이 없고
공정하며 편견이 없습니다. 따라서
20:56
the opposite of being a chauvinist. But
Meredith Broussard says this is not true.
273
1256560
6000
우월주의와는 반대입니다. 그러나
Meredith Broussard는 이것이 사실이 아니라고 말합니다.
21:02
She argues that computers are not objective.
They are proxies for the people that make them.
274
1262560
6480
그녀는 컴퓨터가 객관적이지 않다고 주장합니다.
그것들은 그것들을 만드는 사람들을 위한 대리인입니다.
21:09
You might know the word proxy when you
are using your computer in one country
275
1269040
4160
한 국가에서 컴퓨터를 사용
21:13
and want to look at something that is
only available in a different country.
276
1273200
3680
하고
다른 국가에서만 사용할 수 있는 것을 보고 싶을 때 프록시라는 단어를 알고 있을 수 있습니다.
21:16
You can use a piece of software
called a proxy to do that.
277
1276880
3440
이를 위해 프록시라는 소프트웨어를 사용할 수 있습니다.
21:20
But a proxy is also a person or a thing that
carries out your wishes and your instructions
278
1280320
6560
그러나 대리인은 당신을 위해 당신의 바람과 지시를 수행하는 사람이나 사물이기도 합니다
21:26
for you. So computers are only as smart or as
objective as the people that programme them.
279
1286880
7120
. 따라서 컴퓨터는 컴퓨터를
프로그래밍하는 사람만큼 똑똑하거나 객관적입니다.
21:34
Computers are proxies for their programmers.
Broussard says that believing too much in
280
1294720
6240
컴퓨터는 프로그래머를 위한 프록시입니다.
Broussard는 인공 지능을 너무 많이 믿으면
21:40
Artificial Intelligence can make the
world worse. Let’s hear a bit more.
281
1300960
4720
세상이 더 나빠질 수 있다고 말합니다. 조금 더 들어보자.
21:45
This time find out what serious problems in
society does she think may be reflected in AI?
282
1305680
7520
이번에는 사회의 어떤 심각한 문제가
AI에 반영될 수 있다고 생각하는지 알아보세요.
21:54
It’s a nuanced problem. What we
have is data on the world as it is
283
1314160
4960
미묘한 문제입니다. 우리가
가지고 있는 것은 있는 그대로의 세상에 대한 데이터이고
21:59
and we have serious problems with
racism, sexism, classism, ageism,
284
1319120
5680
인종 차별, 성 차별, 계급 차별, 연령 차별과 같은 심각한 문제가
22:04
in the world right now so there is no such thing
as perfect data. We also have a problem inside the
285
1324800
6720
현재 세상에 있으므로
완벽한 데이터는 없습니다. 우리는 또한 기술 세계 내부에 문제가 있습니다.
22:11
tech world where the creators of algorithms do
not have sufficient awareness of social issues
286
1331520
8640
알고리즘 제작자가
사회 문제에 대한 충분한 인식을 갖지 못하여
22:20
such that they can make good technology that
gets us closer to a world as it should be.
287
1340160
6400
우리를 세상에 더 가깝게 만드는 좋은 기술을 만들 수 있습니다.
22:27
She said that society has problems with
racism, sexism, classism and ageism.
288
1347680
6000
그녀는 사회가
인종 차별, 성 차별, 계급 차별, 연령 차별에 문제가 있다고 말했습니다.
22:33
And she says it’s a nuanced problem. A nuanced
problem is not simple, but it does have small
289
1353680
6800
그리고 그녀는 그것이 미묘한 문제라고 말합니다. 미묘한
문제는 단순하지 않지만 찾아내기
22:40
and important areas which may be hard
to spot, but they need to be considered.
290
1360480
5040
어려울 수
있지만 고려해야 하는 작고 중요한 영역이 있습니다.
22:45
And she also talked about algorithms used
to program these technological systems.
291
1365520
5280
그리고 그녀는
이러한 기술 시스템을 프로그래밍하는 데 사용되는 알고리즘에 대해서도 이야기했습니다.
22:50
An algorithm is a set of instructions
that computers use to perform their tasks.
292
1370800
4880
알고리즘은
컴퓨터가 작업을 수행하는 데 사용하는 명령 집합입니다.
22:55
Essentially it’s the rules that they use
to come up with their answers and Broussard
293
1375680
4640
본질적으로 그들이
답을 찾기 위해 사용하는 규칙이며 Broussard는
23:00
believes that technology will reflect the
views of those who create the algorithms.
294
1380320
4640
기술이
알고리즘을 만드는 사람들의 견해를 반영할 것이라고 믿습니다.
23:04
Next time you're using a piece of software or your
favourite app you might find yourself wondering if
295
1384960
5120
다음 번에 소프트웨어나
좋아하는 앱을 사용할 때 이것이
23:10
it's a useful tool or does it contain these little
nuances that reflect the views of the developer.
296
1390080
7120
유용한 도구인지 또는
개발자의 관점을 반영하는 이러한 작은 뉘앙스가 포함되어 있는지 궁금할 수 있습니다.
23:17
Right, Catherine. How about the
answer to this week's question then?
297
1397200
3280
맞아, 캐서린.
그럼 이번 주 질문에 대한 답은 어때요? '인공 지능'이라는
23:20
I asked in which decade was the term
'Artificial Intelligence' coined.
298
1400480
4480
용어가 만들어진 10년이 언제인지 물었습니다
.
23:24
Was it the 40s, the 50s or the 60s?
299
1404960
2720
40년대였나, 50년대였나, 60년대였나?
23:27
And I said the 60s.
300
1407680
1200
그리고 나는 60년대라고 말했다.
23:28
But it was actually the 1950s. Never mind,
Rob. Let’s review today’s vocabulary.
301
1408880
5840
하지만 그때는 사실 1950년대였습니다. 신경쓰지 마세요,
롭. 오늘의 어휘를 복습해 봅시다.
23:34
Well, we had a chauvinist – that's
someone who believes their country,
302
1414720
4320
음, 우월주의자가 있었습니다. 그는
자신의 국가,
23:39
race or sex is better than any others.
303
1419040
2480
인종 또는 성별이 다른 누구보다 낫다고 믿는 사람이었습니다.
23:41
And this gives us technochauvinism,
304
1421520
2800
그리고 이것은 우리에게
23:44
the belief that a technological solution
is always a better solution to a problem.
305
1424320
5040
기술적 해결책이
항상 문제에 대한 더 나은 해결책이라는 믿음인 기술 쇼비니즘을 제공합니다.
23:49
Next - someone or something that is
objective is neutral, fair and balanced.
306
1429360
5680
다음 - 객관적인 사람이나 사물은
중립적이고 공정하며 균형이 잡혀 있습니다.
23:55
A proxy is a piece of software but also someone
who does something for you, on your behalf.
307
1435040
6800
프록시는 소프트웨어이지만 사용자를
대신하여 작업을 수행하는 사람이기도 합니다.
24:01
A nuanced problem is a subtle one, it’s
not a simple case of right or wrong,
308
1441840
5520
미묘한 문제는 미묘한 문제이며,
옳고 그름의 단순한 경우가 아닙니다.
24:07
in a nuanced problem there are small but
important things that you need to consider.
309
1447360
5360
미묘한 문제에는 작지만
고려해야 할 중요한 사항이 있습니다.
24:12
And an algorithm is a set of software
instructions for a computer system.
310
1452720
4320
그리고 알고리즘은
컴퓨터 시스템을 위한 일련의 소프트웨어 명령입니다.
24:17
Well, that’s all we have time
for today. Goodbye for now.
311
1457040
3360
그게 오늘 우리가 할 수 있는 시간의 전부입니다
. 지금은 안녕.
24:20
Bye bye!
312
1460400
400
안녕!
24:28
Hello, welcome to 6 Minute English. I'm Rob.
313
1468720
2720
안녕하세요 6분영어입니다. 저는 롭입니다.
24:31
And I'm Catherine.
314
1471440
1280
그리고 저는 캐서린입니다.
24:32
So, Catherine, how long do
you spend on your smartphone?
315
1472720
3520
캐서린,
스마트폰 사용 시간은 얼마나 되나요?
24:36
My smartphone? Not that long
really, only about 18 or 19 hours.
316
1476240
5600
내 스마트폰? 그렇게 길지는 않습니다
. 약 18시간에서 19시간 정도입니다.
24:42
No, sorry, I meant in a day, not in a week.
317
1482400
2720
아니요, 죄송합니다. 일주일이 아니라 하루를 의미했습니다.
24:45
Er, that's what I meant too, Rob – a day.
318
1485120
2320
어, 그게 내가 의미하는 바이기도 해, Rob – 하루.
24:48
Oh wow, so you’ve even got it right here…
319
1488080
3360
오 와우, 그래서 당신은 그것을 바로 여기에서 얻었군요…
24:51
…yep, got it now, Rob. Yes, I should
tell you that I suffer from FOMO.
320
1491440
4560
예, 제가
FOMO를 앓고 있다고 말해야 합니다.
24:56
FOMO?
321
1496800
1040
포모?
24:57
FOMO - Fear of Missing Out. Something cool or
interesting might be happening somewhere, Rob,
322
1497840
5600
FOMO - 놓치는 것에 대한 두려움. 멋지거나
흥미로운 일이 어딘가에서 일어나고 있을지도 몰라요, Rob, 저는
25:03
and I want to be sure I catch it,
so I have to keep checking my phone,
323
1503440
3920
그걸 잡았는지 확인하고 싶어요.
그래서 전화를 계속 확인해야 해요
25:07
to make sure, you know, I
don’t miss out on anything.
324
1507360
2880
.
25:10
So we could call you a phubber… Hello… I said,
325
1510880
4240
그래서 우리는 당신을 phubber라고 부를 수 있습니다… 안녕하세요…
25:15
so you’re a phubber? Someone who ignores other
people because you’d rather look at your phone.
326
1515120
5200
휴대전화 보기를 더 좋아해서 다른 사람을 무시하는 사람입니다.
25:21
Oh, yeah, that's right.
327
1521360
960
오, 그래, 맞아. 거기에
25:22
It sounds like you have a bit of a problem
there, Catherine. But you’re not the only one.
328
1522880
5120
약간의 문제가 있는 것 같습니다
, Catherine. 그러나 당신은 유일한 사람이 아닙니다.
25:28
According to one recent survey, half of teenagers
in the USA feel like they are addicted to their
329
1528000
5680
최근 한 설문 조사에 따르면 미국 청소년의 절반이 휴대전화
에 중독된 것처럼 느낍니다
25:33
mobile phones. If you are addicted to something,
you have a physical or mental need to keep on
330
1533680
5520
. 무언가에 중독되어 있다면 그것을
계속 해야 하는 신체적 또는 정신적 필요가 있습니다
25:39
doing it. You can’t stop doing it. You often hear
about people being addicted to drugs or alcohol,
331
1539200
6320
. 당신은 그것을 멈출 수 없습니다.
마약이나 알코올에 중독된 사람들에 대해 자주 듣게 되지만 휴대전화와 같은
25:45
but you can be addicted to other things too,
like mobile phones. So, Catherine, do you
332
1545520
5680
다른 것에도 중독될 수 있습니다
. 캐서린,
25:51
think you’re addicted to your phone? How long
could you go without it? Catherine? Catherine!
333
1551200
5520
휴대전화에 중독된 것 같나요?
그것 없이 얼마나 오래 갈 수 있나요? 캐서린? 캐서린!
25:58
Sorry, Rob, yes, well I think
if I went more than a minute,
334
1558800
3760
죄송합니다, 롭, 네, 글쎄요,
제가 1분 이상 갔다면,
26:02
I'd probably get sort of sweaty palms and
I think I'd start feeling a bit panicky.
335
1562560
3760
아마 손바닥에 땀이 나고
약간 패닉에 빠질 것 같아요.
26:06
Oh dear! Well, if I can
distract you for a few minutes,
336
1566320
5280
이런! 글쎄, 내가
몇 분 동안 당신의 주의를 분산시킬 수 있다면,
26:11
can we look at this topic in more detail
please? Let's start with a quiz question
337
1571600
4160
이 주제를 더 자세히 살펴봐도 될까요
? 먼저 퀴즈 질문부터 시작하겠습니다
26:15
first though. In what year did the term
‘smartphone’ first appear in print? Was it:
338
1575760
5440
.
'스마트폰'이라는 용어가 처음 인쇄된 연도는 언제입니까?
26:21
a) 1995
339
1581200
1680
a) 1995
26:22
b) 2000
c) 2005
340
1582880
3200
b) 2000
c) 2005
26:26
What do you think?
341
1586080
880
26:26
OK, you've got my full attention
now, Rob, and I think it’s 2000,
342
1586960
3840
어떻게 생각하세요?
알겠습니다. 이제 제가 모든 관심을 기울이고 있습니다
. Rob, 지금이 2000년인 것 같습니다.
26:30
but actually can I just have a quick
look on my phone to check the answer?
343
1590800
3120
하지만 실제로
답을 확인하기 위해 휴대전화를 잠깐 살펴봐도 될까요?
26:33
No, no, that would be cheating – for
you – maybe not for the listeners.
344
1593920
3600
아니요, 그건 부정 행위입니다 –
당신에게는 – 청취자에게는 그렇지 않을 수도 있습니다.
26:37
Spoilsport.
345
1597520
800
스포일스포츠.
26:39
Right, Jean Twenge is a psychologist who
has written about the damage she feels
346
1599280
5680
맞습니다. Jean Twenge는
26:44
smartphones are doing to society. She has
written that smartphones have probably led
347
1604960
5200
스마트폰이 사회에 미치는 피해에 대해 글을 쓴 심리학자입니다. 그녀는
스마트폰이 청소년
26:50
to an increase in mental health problems for
teenagers. We’re going to hear from her now,
348
1610160
4880
의 정신 건강 문제를 증가시켰을 것이라고 썼습니다
. 이제 그녀의 소식을 들을 것입니다.
26:55
speaking to the BBC. What does she say is
one of the dangers of using our phones?
349
1615040
4800
BBC와 이야기합니다. 그녀는
휴대전화 사용의 위험 중 하나가 무엇이라고 말하나요?
27:00
I think everybody’s had that experience
of reading their news feed too much,
350
1620480
4320
모든 사람이 자신
의 뉴스 피드를 너무 많이 읽고,
27:05
compulsively checking your phone if you’re
waiting for a text or getting really into
351
1625360
5600
문자를 기다리거나 소셜 미디어에 몰두할 때 강박적으로 휴대전화를 확인한
27:10
social media then kind of, looking up
and realising that an hour has passed.
352
1630960
4320
다음 위를 올려다보고
한 시간이 지났다는 것을 깨달은 경험이 있다고 생각합니다.
27:16
So what danger does she mention?
353
1636720
2400
그래서 그녀는 어떤 위험을 언급합니까?
27:19
Well, she said that we can get so involved in
our phones that we don’t notice the time passing
354
1639120
5360
글쎄요, 그녀는 우리가
시간 가는 줄 모를 정도로 스마트폰에 몰두할 수 있다고 말했습니다.
27:24
and when we finally look up, we
realise that maybe an hour has gone.
355
1644480
4160
그리고 마침내 위를 올려다보면
아마도 한 시간이 흘렀다는 것을 깨닫게 됩니다.
27:29
And I must say, I find that to be true for me,
especially when I'm watching videos online. They
356
1649360
5040
특히 온라인에서 동영상을 시청할 때 그렇습니다. 그들은 점점
27:34
pull you in with more and more videos and I’ve
spent ages just getting lost in video after video.
357
1654400
5280
더 많은 동영상으로 당신을 끌어들였고 저는
동영상을 계속해서 동영상에 빠져 헤매는 데 오랜 세월을 보냈습니다.
27:39
Well that's not a problem if
you're looking at our YouTube site,
358
1659680
2480
YouTube 사이트를 보고 있다면 문제가 되지 않습니다.
27:42
of course - there's lots to see there.
359
1662160
1520
물론 볼 것이 많습니다.
27:43
Yes, BBC Learning English, no problem.
You can watch as many as you like.
360
1663680
3280
예, BBC Learning English, 문제 없습니다.
원하는만큼 시청할 수 있습니다.
27:47
Well, she talks about checking our phones
compulsively. If you do something compulsively you
361
1667760
6000
그녀는 강박적으로 전화를 확인하는 것에 대해 이야기합니다
. 무언가를 강박적으로 하면
27:53
can’t really control it - it’s a feature of being
addicted to something, you feel you have to do it
362
1673760
4960
실제로 통제할 수 없습니다. 그것은
무언가에 중독되는 특징이며, 반복해서 해야 한다고 느끼게 됩니다
27:58
again and again. Some tech companies, though, are
now looking at building in timers to apps which
363
1678720
6080
. 그러나 일부 기술 회사는
현재 앱에
28:04
will warn us when we have spent too long on them.
Does Jean Twenge think this will be a good idea?
364
1684800
5200
너무 오래 사용했을 때 경고하는 타이머를 앱에 내장하는 것을 고려하고 있습니다.
Jean Twenge는 이것이 좋은 생각이라고 생각합니까?
28:10
It might mean that people look
at social media less frequently
365
1690960
2640
그것은 사람들이
소셜 미디어를 덜 자주 본다는 것을 의미할 수 있습니다. 그리고 사람들과 연락을 유지하는 것이
28:14
and that they do what it really should be used
for, which is to keep in touch with people but
366
1694240
6000
실제로 사용되어야 하는 일을 한다는 것을 의미할 수 있습니다.
28:20
then put it away and go see some of those
people in person or give them a phone call.
367
1700240
5040
부르다.
28:25
So, does she think it’s a good idea?
368
1705840
2320
그래서 그녀는 그것이 좋은 생각이라고 생각합니까?
28:28
Well, she doesn’t say so directly, but we
can guess from her answer that she does,
369
1708880
4720
글쎄요, 그녀는 그렇게 직접적으로 말하지는 않지만 그녀의
답변에서 짐작할 수 있습니다.
28:33
because she says these timers will make people
spend more time in face-to-face interaction,
370
1713600
6000
왜냐하면 그녀는 이러한 타이머가 사람들이
대면 상호 작용에 더 많은 시간을 할애하게 할 것이라고 말했기 때문입니다.
28:39
which a lot of people think would be a good thing.
371
1719600
2240
물건.
28:41
Yes, she said we should be using it for keeping in
touch with people - which means contacting people,
372
1721840
6160
예, 그녀는 우리가 사람들과 연락을 유지하기 위해 그것을 사용해야 한다고 말했습니다.
즉, 사람들과 연락하고,
28:48
communicating with them and also encouraging
us to do that communication in person. If you
373
1728000
5440
그들과 의사 소통하고, 직접
그 의사 소통을 하도록 격려하는 것을 의미합니다.
28:53
do something in person then you physically do it –
you go somewhere yourself or see someone yourself,
374
1733440
5840
어떤 일을 직접 하면 물리적으로 하는 것입니다.
직접 어딘가에 가거나 누군가를 직접 만나면
28:59
you don’t do it online or through your smartphone,
which nicely brings us back to our quiz question.
375
1739280
5840
온라인이나 스마트폰을 통해 하지 않습니다.
이는 다시 퀴즈 질문으로 돌아가게 합니다.
29:05
When was the term smartphone first used in print
- 1995, 2000 or 2005? What did you say, Catherine?
376
1745120
8160
1995년, 2000년 또는 2005년 중 언제부터 스마트폰이라는 용어가 인쇄물에 처음 사용되었습니까? 뭐라고 했어, 캐서린? 휴대전화에서 찾아보지
29:13
I think I said 2005, without
looking it up on my phone, Rob!
377
1753280
4720
않고 2005년이라고 말한 것 같아요
, Rob!
29:18
That's good to know, but maybe looking at your
phone would have helped because the answer was
378
1758000
4000
알아두면 좋겠지만
답이 1995년이었기 때문에 휴대전화를 보는 것이 도움이 되었을 것입니다
29:22
1995. But well done to anybody who did know that.
379
1762000
4240
.
29:26
Or well done to anyone who looked it up
on their phone and got the right answer.
380
1766240
3200
또는
휴대전화로 검색하여 정답을 찾은 모든 분들께 감사드립니다.
29:29
Mmm, right, before logging off
let’s review today’s vocabulary.
381
1769440
4480
음, 로그오프하기 전에
오늘의 어휘를 복습해 봅시다.
29:33
OK, we had FOMO, an acronym that means 'Fear of
Missing Out'. Something that I get quite a lot.
382
1773920
6400
좋아, 우리는 '누락에 대한 두려움'을 의미하는 약어인 FOMO를 가지고 있었다
. 내가 꽤 많이 얻는 것.
29:40
And that makes you also a phubber - people
who ignore the real people around them
383
1780320
4640
그리고 그것은 또한 당신을 푸버로 만듭니다. 즉,
29:44
because they are concentrating on their phones.
384
1784960
2240
휴대전화에 집중하기 때문에 주변의 실제 사람들을 무시하는 사람들입니다.
29:47
Yes, I do think I’m probably
addicted to my phone. I have a
385
1787200
3600
네, 아마
휴대전화에 중독된 것 같아요. 나는 그것을 가질
29:50
psychological and physical need to
have it. My smartphone is my drug.
386
1790800
4640
심리적, 신체적 필요가 있습니다
. 내 스마트폰은 내 약이다.
29:55
Wow, and you look at it compulsively.
You can’t stop looking at it,
387
1795440
3360
와우, 당신은 그것을 강박적으로 봅니다.
당신은 그것을 보는 것을 멈출 수 없습니다,
29:58
you do it again and again, don't you?
388
1798800
1840
당신은 그것을 계속해서 하고 있습니다, 그렇죠?
30:00
It's sadly true, Rob. To
keep in touch with someone
389
1800640
3280
슬프게도 사실이야, 롭.
누군가와 연락을 유지한다는
30:03
is to contact them and share your news regularly.
390
1803920
3280
것은 그들에게 정기적으로 연락하고 뉴스를 공유하는 것입니다.
30:07
And if you do that yourself
by actually meeting them,
391
1807200
3040
그리고
실제로 그들을 만나서 직접 한다면 직접 만나서
30:10
then you are doing it in person. And that
brings us to the end of today’s programme.
392
1810240
4640
하는 것입니다. 이것으로
오늘 프로그램을 마칩니다.
30:14
Don’t forget you can find us on the usual
social media platforms – Facebook, Twitter,
393
1814880
4800
일반적인
소셜 미디어 플랫폼(Facebook, Twitter,
30:19
Instagram and YouTube - and on our website
at bbclearningenglish.com. Bye for now.
394
1819680
5600
Instagram 및 YouTube)과 당사 웹사이트(
bbclearningenglish.com)에서 당사를 찾을 수 있다는 사실을 잊지 마십시오. 지금은 안녕.
30:25
Bye!
395
1825280
320
안녕!
30:33
Hello. This is 6 Minute English
from BBC Learning English. I’m Neil.
396
1833280
4160
안녕하세요.
BBC Learning English의 6분 영어입니다. 저는 닐입니다.
30:37
And I’m Georgina.
397
1837440
1280
그리고 저는 조지나입니다.
30:38
Now, Georgina, what do you know about AC DC?
398
1838720
3760
자, Georgina, AC DC에 대해 무엇을 알고 있습니까?
30:42
You mean the Australian rock’n’roll band?
399
1842480
2640
호주의 로큰롤 밴드를 말하는 건가요?
30:45
Well, their 1979 hit ‘Highway to
Hell’ stayed at No.1 for eleven weeks…
400
1845120
5520
글쎄요, 그들의 1979년 히트작 'Highway to
Hell'은 11주 동안 1위를 유지했습니다...
30:51
No, no, no - not that AC DC, Georgina!
I’m not talking rock music here,
401
1851200
4880
아니, 아니, 아니 - 그 AC DC가 아닙니다, Georgina!
저는 여기서 록 음악을 말하는 것이 아닙니다.
30:56
I’m talking electrical currents
– alternating current - AC,
402
1856080
4560
전류를 말하는 것입니다.
교류는 AC
31:00
and direct current - DC, the two
ways in which electricity flows.
403
1860640
4800
이고, 직류는
전기가 흐르는 두 가지 방식입니다.
31:05
Oh, I see. No, I don’t know
anything about that ACDC!
404
1865440
4560
알겠어요. 아니요, 저는
그 ACDC에 대해 아무것도 모릅니다!
31:10
Well, don’t worry because in
today’s programme we’ll be
405
1870000
2720
음, 걱정하지 마세요.
오늘 프로그램에서는 전기에
31:12
finding out some quirky facts about
electricity - how it differs across
406
1872720
4640
관한 몇 가지 기발한 사실, 즉 전기가 전 세계적으로
어떻게 다른지,
31:17
the world and why some countries have more
complicated electrical systems than others.
407
1877360
4920
일부 국가가
다른 국가보다 전기 시스템이 더 복잡한 이유를 알아볼 것이기 때문입니다.
31:22
Hmmm, I have noticed that when I
travel to another country I need a
408
1882280
4280
흠,
다른 나라를 여행할 때
31:26
converter plug to connect my laptop.
Is that something to do with AC DC?
409
1886560
5440
노트북을 연결하기 위해 변환기 플러그가 필요하다는 것을 알게 되었습니다.
AC DC와 관련이 있습니까?
31:32
Yes, it could be. Of course, electricity
itself doesn’t change from country to country.
410
1892000
5200
예, 그럴 수 있습니다. 물론 전기
자체는 나라마다 다르지 않습니다.
31:37
No. It’s an invisible, natural force
at work in everything from lightning
411
1897200
4080
아니요. 그것은
번개
31:41
storms to the electrical sparks firing our brains.
412
1901280
3680
폭풍에서 우리 뇌를 점화시키는 전기 스파크에 이르기까지 모든 것에서 작용하는 보이지 않는 자연적인 힘입니다.
31:44
But although it happens naturally, one scientist
was credited with discovering electricity.
413
1904960
5680
하지만 자연적으로 일어나는 일이지만 한 과학자가
전기를 발견한 공로를 인정받았습니다.
31:50
Who? That’s my quiz question – who
discovered electricity? Was it:
414
1910640
4640
WHO? 이것이 제 퀴즈 질문입니다.
전기를 발견한 사람은 누구인가요? 그것은:
31:55
a) Thomas Edison
415
1915280
1840
a) Thomas Edison
31:57
b) Alexander Graham Bell, or
c) Benjamin Franklin
416
1917120
4080
b) Alexander Graham Bell, 또는
c) Benjamin Franklin
32:02
I’m not a qualified electrician myself,
Neil, but I’ll say c) Benjamin Franklin.
417
1922000
5600
저도 자격을 갖춘 전기 기술자는 아니지만
Neil, 하지만 c) Benjamin Franklin이라고 하겠습니다.
32:07
OK. Well one person who definitely is a qualified
electrician is BBC presenter Gareth Mitchell. So
418
1927600
7280
좋아요. 확실히 자격을 갖춘
전기 기술자는 BBC 진행자 Gareth Mitchell입니다. 그래서
32:14
when BBC Radio 4’s ‘Science Stories’ sent
him to meet electricity expert Keith Bell,
419
1934880
5440
BBC Radio 4의 'Science Stories'에서
전기 전문가인 Keith Bell을 만나도록 그를 보냈을 때
32:20
the conversation was, shall we say, sparky.
420
1940320
2960
대화가 뜨거웠습니다.
32:24
Standard frequency in the US is 60 hertz,
actually I think in the US on the mainland
421
1944480
4320
미국의 표준 주파수는 60헤르츠입니다.
실제로 미국 본토의
32:28
US, main continent, there are
three different synchronous areas.
422
1948800
2960
미국, 주요 대륙에는
세 가지 동기 영역이 있다고 생각합니다.
32:32
So although it’s around 60 hertz, at any moment in
time these three different areas, because they’re
423
1952400
4160
따라서 약 60Hz이지만
이 세 영역은
32:36
not connected to each other, will be going at a
slightly different frequency. There are bigger
424
1956560
4320
서로 연결되어 있지 않기 때문에 언제든지
약간 다른 주파수로 진행됩니다.
32:40
differences elsewhere. So in Japan for example, I
think one of the main islands is at 60 hertz and
425
1960880
6000
다른 곳에는 더 큰 차이가 있습니다. 예를 들어 일본에서는
주요 섬 중 하나가 60Hz이고
32:46
the other half of Japan is at 50 hertz.
That’s a bit of a pickle!
426
1966880
3040
일본의 나머지 절반이 50Hz라고 생각합니다.
그것은 약간의 피클입니다!
32:51
Generally speaking, frequency
means how often something repeats.
427
1971360
4320
일반적으로 빈도는
어떤 것이 반복되는 빈도를 의미합니다.
32:55
In the case of electrical currents, frequency is
428
1975680
2880
전류의 경우 주파수는 전파가 양에서
32:58
the number of times an electrical wave
repeats a positive-to-negative cycle.
429
1978560
5040
음으로의 주기를 반복하는 횟수입니다.
33:03
It’s measured in hertz (Hz). In the US power is
at 60 hertz and in the UK it’s around 50 hertz.
430
1983600
7520
헤르츠(Hz) 단위로 측정됩니다. 미국 전력은
60Hz이고 영국에서는 약 50Hz입니다.
33:11
So the US and UK are not in the same synchronous
431
1991120
3520
따라서 미국과 영국은 같은 동기 지역에 있지 않습니다. 즉,
33:14
area – not occurring together at the same
time and rate, or in this case, frequency.
432
1994640
5680
같은
시간과 속도 또는 이 경우에는 주파수가 함께 발생하지 않습니다.
33:20
Which means that to safely use a
British electrical device in America,
433
2000320
4320
즉,
영국 전기기기를 미국에서 안전하게 사용하려면
33:25
I need to convert the power supply. If not
it won’t work or even worse, it could break.
434
2005200
5760
전원 공급 장치를 변환해야 합니다. 그렇지 않으면
작동하지 않거나 더 나빠지면 고장날 수 있습니다.
33:30
And a broken laptop could leave you
in a bit of a pickle – an informal
435
2010960
4080
그리고 고장난 노트북은 당신을
약간의 피클에 빠뜨릴 수 있습니다. 이는 명확한 답이
33:35
expression meaning a difficult situation with no
436
2015040
3040
없는 어려운 상황을 의미하는 비공식적인 표현입니다
33:38
obvious answer. Here’s Gareth and Keith
again talking about more differences.
437
2018080
4960
. Gareth와 Keith가
더 많은 차이점에 대해 다시 이야기합니다.
33:44
I’m pretty sure when I go to the United States,
my electric toothbrush doesn’t charge up
438
2024560
6560
미국에 가면
전동 칫솔이
33:51
at 60 hertz - 110 volts, but my laptop
still works. Maybe you have no comment,
439
2031120
5360
60Hz~110볼트로 충전되지 않지만 내 노트북은
여전히 작동합니다. 댓글이 없을 수도 있습니다
33:56
Keith, but I’m just saying…one of these
anomalies that I seem to have found.
440
2036480
4000
Keith, 하지만 제가 말하고자 하는 것은…
34:00
So, I’m not sure about the electric toothbrush
but I know a lot of our power supplies for
441
2040480
3920
전동칫솔에 대해서는 잘 모르겠지만 노트북 등의
많은 전원 공급
34:04
laptops and stuff are solid state, you know
- they’ve got electronics in that do all the
442
2044400
5200
장치가 솔리드 스테이트라는 것을 알고 있습니다.
34:09
conversion for you, so basically it ends up with
a DC supply into the machine itself. So there’s
443
2049600
5360
기계 자체에 DC 전원을 공급합니다. 그래서
34:14
a little converter in there and it’s designed so
it doesn’t care what frequency the AC input is.
444
2054960
4880
거기에 작은 변환기가 있고 그것은
AC 입력 주파수에 상관하지 않도록 설계되었습니다.
34:21
Gareth noticed that in the United
States his toothbrush doesn’t always
445
2061280
3840
Gareth는 미국에서
자신의 칫솔이 항상
34:25
fully charge up – get the
power needed to make it work.
446
2065120
4000
완전히 충전되지는 않는다는 사실을 알아차렸습니다.
작동하는 데 필요한 전력을 확보하세요.
34:29
Electric toothbrushes which don’t fully charge
and differences between electrical frequencies
447
2069120
5600
완전히 충전되지 않는 전동 칫솔과
전기 주파수의 차이는 이상 현상
34:34
are good examples of anomalies – things which
are different from what is usual or expected.
448
2074720
5920
의 좋은 예입니다.
일반적이거나 예상한 것과 다른 현상입니다.
34:40
But with modern technology these
anomalies are becoming less and less
449
2080640
4400
그러나 현대 기술로 인해 이러한
이상 현상은 점점 더
34:45
commonplace. For example, computer
companies have started making laptops with
450
2085040
5120
흔해지고 있습니다. 예를 들어, 컴퓨터
회사는
34:50
solid state electronics – electronics using
semiconductors which have no moving parts
451
2090160
6000
움직이는 부품이 없고 다양한 전류를
34:56
and can automatically convert
different electrical currents.
452
2096160
3520
자동으로 변환할 수 있는 반도체를 사용하는 전자 장치인 솔리드 스테이트 전자 장치로 노트북을 만들기 시작했습니다
.
34:59
Meaning I can use my laptop to google
the answer to your quiz question!
453
2099680
4160
내 노트북을 사용하여
귀하의 퀴즈 질문에 대한 답변을 Google에 검색할 수 있다는 의미입니다!
35:03
Ah, yes. I asked you which scientist was credited
with discovering electricity. And you said?
454
2103840
5840
아 예. 전기를 발견한 과학자가 누구인지 물었습니다
. 그리고 당신은 말했다?
35:09
c) Benjamin Franklin – and I already know
I’m right because I googled it on my solid
455
2109680
5200
c) 벤자민 프랭클린 –
내 솔리드 스테이트 노트북에서 구글링을 했기 때문에 내가 옳다는 것을 이미 알고 있습니다
35:14
state laptop! To show that lightning was
electricity, Franklin attached a metal key
456
2114880
5840
! 번개가 전기라는 것을 보여주기 위해
프랭클린은 연에 금속 열쇠를 달고
35:20
to a kite and flew it during a thunderstorm. The
key conducted electricity and gave him a shock!
457
2120720
6240
뇌우 중에 연을 날렸습니다.
열쇠는 전기를 전도하여 충격을 주었습니다!
35:26
Hmm, not an experiment I recommend trying
at home! Today we’ve been talking about
458
2126960
5760
음, 집에서 시도해 보라고 권하는 실험은 아닙니다
! 오늘 우리는
35:32
anomalies – or unexpected differences in
electrical currents between countries.
459
2132720
4560
이상 현상 또는
국가 간 예상치 못한 전류 차이에 대해 이야기했습니다.
35:38
Electrical currents are measured in
frequencies – the number of times
460
2138000
4000
전류는 주파수, 즉
35:42
a wave repeats a positive-to-negative cycle.
These can be different if two countries are
461
2142000
5520
파동이 양수에서 음수로 반복되는 횟수로 측정됩니다. 예를 들어 영국과 미국과 같이
두 국가가
35:47
not synchronous – occurring at the same rate,
for example Britain and the United States.
462
2147520
5760
동기화되지 않은 경우(같은 속도로 발생하는 경우) 다를 수 있습니다
.
35:53
Different frequencies may mean your
electrical devices like your laptop,
463
2153920
4400
주파수가 다르다는 것은
노트북,
35:58
phone and toothbrush won’t properly charge up –
get the power to function, in other countries.
464
2158320
5120
휴대전화, 칫솔과 같은 전기 기기가 제대로 충전되지 않는다는 것을 의미할 수 있습니다
.
36:04
And having a phone with no power could leave you
in a bit of a pickle - a difficult situation.
465
2164160
5680
그리고 전원이 없는 휴대전화를 사용하면
어려운 상황에 처할 수 있습니다.
36:09
Fortunately many modern devices use
solid state electronics – non-moving
466
2169840
5120
다행스럽게도 많은 최신 장치는 자동으로 전류를 변환하는 기계 내부의
움직이지 않는 반도체인 고체 전자 장치를 사용합니다
36:14
semiconductors inside the machine which
automatically convert the electrical current.
467
2174960
5200
.
36:20
So you’ll never miss another
edition of 6 Minute English again!
468
2180160
3840
따라서
6 Minute English의 또 다른 판을 다시는 놓치지 않을 것입니다!
36:24
That’s all for today. See you soon at BBC Learning
469
2184000
2560
오늘은 그게 다야.
36:26
English for more interesting topics
and related vocabulary. Bye for now!
470
2186560
7960
더 흥미로운 주제
와 관련 어휘는 BBC Learning English에서 곧 뵙겠습니다. 지금은 안녕!
36:34
Bye!
471
2194520
360
안녕!
36:39
Hello I'm Rob and this is 6 Minute
English – a programme that brings you
472
2199040
4480
안녕하세요 저는 Rob입니다. 6 Minute
English –
36:43
an interesting topic, authentic listening practice
473
2203520
3120
흥미로운 주제, 진정한 듣기 연습
36:46
and some vocabulary to help you improve your
language skills. Joining me today is Neil.
474
2206640
5280
, 언어 능력 향상에 도움이 되는 몇 가지 어휘를 제공하는 프로그램입니다
. 오늘 함께할 사람은 Neil입니다.
36:51
Hello. And today we're discussing those pilotless
475
2211920
2880
안녕하세요. 그리고 오늘 우리는
36:54
aircraft that we seem to be hearing
and reading a lot about at the moment.
476
2214800
3760
현재 많이 듣고 읽고 있는 조종사 없는 항공기에 대해 논의하고 있습니다.
36:58
You mean drones. And yes, they are in the
news quite often for good and bad reasons.
477
2218560
4880
드론을 의미합니다. 그리고 네, 그들은
좋은 이유와 나쁜 이유로 꽤 자주 뉴스에 나옵니다.
37:04
They've been used for many things from smuggling
drugs, detecting water leaks and surveillance.
478
2224160
5600
마약 밀수, 누수 감지, 감시 등 다양한 용도로 사용되었습니다.
37:09
And surveillance – that means ‘the
act of carefully watching someone or
479
2229760
4320
그리고 감시 – 그것은 '
누군가 또는 무언가'를 주의 깊게 관찰하는 행위'를 의미합니다.
37:14
something’ – perhaps a criminal – but also
it means spying, maybe on me and you Rob?
480
2234080
5760
아마도 범죄자일 수도 있지만
그것은 염탐을 의미하기도 합니다. 아마도 저와 당신 Rob?
37:19
So should we be welcoming the
rise of the use of drones?
481
2239840
3360
그렇다면
드론 사용의 증가를 환영해야 할까요?
37:23
Well, before our discussion
about that 'takes off',
482
2243200
2720
글쎄요,
그 '시작'에 대해 논의하기 전에,
37:25
we need to set today's question
for you to answer, Neil.
483
2245920
2640
오늘의 질문을 설정해야 합니다
.
37:29
What are you droning on about Rob? And by
that I don't mean ‘flying a drone’ – I mean
484
2249120
4800
Rob에 대해 무엇을 말하고 있습니까? 그리고
내가 말하는 것은 '드론을 날리는 것'이 아니라
37:33
‘talking too much in a very boring way’!
485
2253920
2800
'매우 지루한 방식으로 너무 많이 말하는 것'을 의미합니다!
37:36
Thanks Neil. Now just answer this, will you?
486
2256720
2560
고마워 닐. 이제 이것만 대답해 주실래요?
37:39
Drones are sometimes also referred to as
UAVs. So, what does UAV stand for? Is it…
487
2259280
7600
드론은
UAV라고도 합니다. 그렇다면 UAV는 무엇을 의미합니까? 그것은…
37:46
a) Unidentified aerial vehicle
488
2266880
3360
37:50
b) Unmanned aerial vehicle
c) Unaided aircraft vehicle
489
2270240
5840
37:56
Well, I'm going to go for
b) unmanned aerial vehicle.
490
2276080
3680
37:59
Ok well, we'll see if you're right later
on. Now let's talk more about drones,
491
2279760
5120
알겠습니다. 나중에 확인하겠습니다
. 이제 드론에 대해 자세히 이야기해 보겠습니다.
38:04
which, apparently, seem to be everywhere now.
492
2284880
2800
현재 어디에나 있는 것 같습니다.
38:08
But are they safe and are they
necessary? I've heard about them
493
2288240
3840
하지만 안전하고
필요한가요? 공항 근처에서 비행했기
38:12
being a hazard to aircraft because
they've been flown close to airports.
494
2292080
3840
때문에 항공기에 위험하다는 이야기를 들었습니다
.
38:15
Well, figures in 2016 showed that in the UK
there were 70 near misses involving drones.
495
2295920
6720
음, 2016년 수치에 따르면 영국에서는
드론과 관련된 아차 사고가 70건 있었습니다.
38:22
And that's more than double the year
before. So that is a little worrying.
496
2302640
3920
이는 전년도에 비해 두 배 이상 증가한 것입니다
. 그래서 조금 걱정입니다.
38:27
Yes. And there's the potential
risk of people's privacy being
497
2307120
3120
예. 그리고 카메라가 부착된 드론이 사람들의 재산 위로 날아갈 때
사람들의 사생활이 침해될 위험이 있습니다
38:30
invaded when a drone is flown over their
property with a camera attached to it.
498
2310240
4160
.
38:34
Ah, but those cameras are also
good at capturing some great
499
2314400
3440
아, 하지만 그 카메라는
멋진 공중 영상을 캡처하는 데에도 능숙합니다. 바로
38:37
aerial footage – that's the film recording
of the view from the above the ground. So
500
2317840
5040
지상에서 본 장면을 녹화한 것입니다. 따라서
38:42
they're not all bad. And Dr Yoge Patel would
agree. She is CEO of Blue Bear, which supplies
501
2322880
6560
모두 나쁘지는 않습니다. Yoge Patel 박사도 동의할 것입니다
. 무인비행기와 드론을 공급하는 블루베어의 대표입니다
38:49
unmanned planes and drones. Here she is speaking
about drones on the BBC's Woman's Hour programme…
502
2329440
6080
. 여기에서 그녀는
BBC의 우먼스 아워 프로그램에서 드론에 대해 이야기하고 있습니다…
38:55
They have the potential to be dangerous,
agreed. They also have though, on the flip side,
503
2335520
5120
그들은 위험할 가능성이 있다는 데
동의했습니다. 하지만 반대로 가정용과 군사용 모두
39:00
the ability to be a game changer in
both domestic use and in military use.
504
2340640
6240
에서 게임 체인저가 될 수 있는 능력도 가지고 있습니다
.
39:06
So, some of our drones are being used for aircraft
inspections. We've put our drones into Fukushima.
505
2346880
4560
그래서 우리 드론 중 일부는 항공기 검사에 사용되고 있습니다
. 후쿠시마에 드론을 배치했습니다.
39:12
So there you go Neil. There are
many useful things drones can do,
506
2352080
4240
그럼 닐 갑니다.
드론이 할 수 있는 유용한 일이 많이 있으며
39:16
and Dr Patel said they have the
ability to be a game changer.
507
2356320
4000
Patel 박사는 드론이
게임 체인저가 될 수 있다고 말했습니다.
39:20
And by that you mean ‘something that completely
508
2360320
2080
그리고 그것은 '
39:22
changes the way something
is done or thought about’.
509
2362400
2800
무언가가
수행되거나 생각되는 방식을 완전히 바꾸는 것'을 의미합니다.
39:25
Yes. Her company has used drones to
inspect the inside of the damaged
510
2365200
4400
예. 그녀의 회사는
손상된
39:29
Fukushima nuclear power station in Japan.
And another example of drones being a game
511
2369600
5280
일본 후쿠시마 원자력 발전소 내부를 조사하기 위해 드론을 사용했습니다.
그리고 게임 체인저가 되는 드론의 또 다른 예는
39:34
changer is UNICEF and the Malawian government
testing drones for carrying medical supplies.
512
2374880
5760
유니세프와 말라위 정부가
의료 용품을 운반하기 위해 드론을 테스트하는 것입니다.
39:40
This could help save lives in remote places.
And I have read that in Australia,
513
2380640
4400
이것은 외딴 곳에서 생명을 구하는 데 도움이 될 수 있습니다.
그리고 호주에서는
39:45
lifeguards are using drones to help rescue
swimmers who get in trouble in the sea.
514
2385040
4560
인명 구조원이 드론을 사용하여
바다에서 곤경에 처한 수영자를 구출하고 있다는 것을 읽었습니다.
39:49
And have you heard about a Japanese firm that's
planning to use a drone to force employees
515
2389600
5280
그리고 당신은
드론을 사용하여 직원들이 저녁에 잔업을 하면
39:54
out of their offices by playing music at
them if they stay to work evening overtime.
516
2394880
5120
음악을 틀어 강제로 사무실에서 나오게 할 계획인 일본 회사에 대해 들어 보셨습니까?
40:00
I haven't, but you've convinced me – it seems
like the sky's the limit for the uses of drones!
517
2400000
5120
안 해봤지만 당신은 저를 확신시켰습니다.
드론 사용의 한계는 무궁무진한 것 같습니다!
40:05
I mean there's no limit to what they can do. But I
518
2405120
3040
즉, 그들이 할 수 있는 일에는 제한이 없습니다. 그러나 나는
40:08
am a little concerned about how
they are regulated or controlled.
519
2408160
3520
그것들이 어떻게 규제되고 통제되는지에 대해 약간 걱정됩니다.
40:11
Well Dr Yoge Patel says
because the technology is new,
520
2411680
3760
Yoge Patel 박사는
기술이 새롭기 때문에
40:15
regulations – or legal controls
- are developing all the time…
521
2415440
4000
규정 또는 법적 통제가
항상 발전하고 있다고 말합니다…
40:20
As technology progresses, regulation
and operational use needs to then be
522
2420400
4800
40:25
harmonised with it. And we are, as a community,
going through that whole process of saying
523
2425200
5040
그리고 우리는 커뮤니티로서
40:30
what is proportionate and appropriate
regulation to go with different uses of drones.
524
2430240
6480
드론의 다양한 용도에 따라 적절하고 적절한 규제가 무엇인지 말하는 전체 과정을 거치고 있습니다.
40:36
So she talked about regulations being
harmonised as technology progresses.
525
2436720
4480
그래서 그녀는 기술이 발전함에 따라 규제가 조화를 이루고 있다고 말했습니다
.
40:41
So I think she means ‘making regulations
suitable and appropriate for what the drones
526
2441200
4800
그래서 나는 그녀가 '드론이 사용되는 것에 적합하고 적절한 규정을 만드는 것'을 의미한다고 생각합니다
40:46
are being used for’. So they need some control,
but not so they can't be useful and effective.
527
2446000
5600
. 따라서 약간의 제어가 필요
하지만 유용하고 효과적일 수는 없습니다.
40:51
Like flying drones to stop you working late!
528
2451600
2400
당신이 늦게까지 일하는 것을 멈추게 하는 비행 드론처럼!
40:54
Now Rob, I'm dying to know what
the other name for a drone is.
529
2454560
2880
이제 Rob,
드론의 다른 이름이 무엇인지 알고 싶어 죽을 지경입니다.
40:57
OK, let me tell you. So earlier I
asked what does UAV stand for? Was it…
530
2457440
5360
알겠습니다. 말씀드리겠습니다. 그래서 앞서
UAV가 무엇을 의미하는지 물었습니다. 그것은…
41:02
a) Unidentified aerial vehicle
531
2462800
2720
41:05
b) Unmanned aerial vehicle
c) Unaided aircraft vehicle
532
2465520
5040
41:11
And I said b) – was that correct?
533
2471120
2240
41:13
Yes Neil, you know your drones – that's correct.
Well done. UAVs or drones have been around for
534
2473920
6320
예 Neil, 당신은 당신의 드론을 알고 있습니다 – 맞습니다.
잘하셨어요. UAV 또는 드론은
41:20
quite a while in different forms.
It's thought they were first used
535
2480240
3840
다양한 형태로 꽤 오랫동안 사용되어 왔습니다. 군인 훈련을
41:24
for providing practice targets for
training military personnel. OK Neil,
536
2484080
4720
위한 연습 대상을 제공하기 위해 처음 사용된 것으로 생각됩니다
. 알겠습니다 Neil,
41:28
let's quickly go over some of the vocabulary we
have mentioned today, starting with surveillance.
537
2488800
5040
감시부터 시작하여 오늘 언급한 어휘 중 일부를 빠르게 살펴보겠습니다.
41:34
"The police kept the jewellery shop
under surveillance because they had
538
2494480
3520
"경찰은
41:38
a tip-off about a robbery." So that means
‘carefully watching someone or something,
539
2498000
4640
강도에 대한 제보를 받았기 때문에 보석 가게를 감시했습니다." 그래서 그것은
'누군가 또는 무언가를 주의 깊게 지켜보며
41:42
usually to try to stop something illegal’.
540
2502640
2720
일반적으로 불법적인 것을 막으려는 시도'를 의미합니다.
41:46
Then we mentioned aerial footage –
that's film recording made from the sky.
541
2506160
4240
그런 다음 공중 영상에 대해 언급했습니다.
하늘에서 촬영한 필름입니다.
41:50
"The aerial footage on TV of the
dolphins swimming was spectacular."
542
2510960
4080
"돌고래가 수영하는 TV의 공중 영상은
장관이었습니다."
41:55
Yes, drones have been a game changer
for wildlife programmes on TV.
543
2515040
4480
예, 드론은
TV의 야생 동물 프로그램의 게임 체인저였습니다.
41:59
That means ‘something that completely changes
the way something is done or thought about’.
544
2519520
4800
그것은 '
어떤 일이 행해지거나 생각되는 방식을 완전히 바꾸는 것'을 의미합니다.
42:04
We also mentioned the phrase 'the sky's
the limit', meaning ‘there's no limit
545
2524320
3920
우리는 또한
'어떤 것에는 한계가 없다'는 의미의 'the sky's the limit'이라는 문구를 언급했습니다
42:08
to something’. "The sky is the limit to what
professional footballers can earn these days."
546
2528240
4800
. "
요즘 프로 축구 선수들이 벌 수 있는 것의 한계는 무궁무진합니다."
42:13
Then we discussed harmonised – that describes
two things being suitable for each other to
547
2533040
4800
그런 다음 조화에 대해 논의했습니다. 즉,
두 가지가 서로 적합하여
42:17
allow them to work properly. "The garden has been
designed to harmonise with the natural landscape."
548
2537840
5600
제대로 작동하도록 설명합니다. "정원은
자연 경관과 조화를 이루도록 설계되었습니다."
42:24
Very useful vocabulary, Neil. But let's
stop droning on – and that means ‘talking
549
2544560
4640
매우 유용한 어휘, 닐. 하지만 그냥
웅얼거리지 말자. 즉, '
42:29
too much in a boring way’ - and remind
everyone to check out our You Tube,
550
2549200
4160
지루한 방식으로 너무 많이 말하다'는 뜻입니다.
모든 사람에게 You Tube,
42:33
Facebook, Twitter and Instagram
pages – and of course, our website
551
2553360
3840
Facebook, Twitter 및 Instagram
페이지와 물론
42:37
at bbclearningenglish.com.
See you next time. Goodbye.
552
2557200
3600
bbclearningenglish.com의 웹사이트를 확인하도록 상기시켜 줍시다.
다음에 보자. 안녕히 가세요.
42:40
Goodbye
553
2560800
480
안녕
42:49
Hello. This is 6 Minute English, I'm Neil.
554
2569360
2560
안녕. 6분영어 닐입니다.
42:51
And I'm Sam.
555
2571920
800
그리고 저는 샘입니다.
42:52
It’s good to see you again, Sam.
556
2572720
1760
다시 만나 반가워요, 샘.
42:54
Really?
557
2574480
880
정말?
42:55
Yes, of course, can’t you
tell by the way I’m smiling?
558
2575360
2960
네, 물론이죠.
제가 웃는 모습을 보면 알 수 없나요?
42:58
Ah well, I find it difficult to tell if someone
is really smiling or if it’s a fake smile.
559
2578960
5760
아,
진짜 웃는 건지 가짜 웃는 건지 구분이 잘 안 가네요.
43:04
Well, that’s a coincidence because today’s
programme is all about how computers may
560
2584720
4560
오늘의
프로그램은 컴퓨터가 어떻게 가짜
43:09
be able tell real smiles from fake smiles better
than humans can. Before we get in to that though,
561
2589280
6400
미소와 진짜 미소를
사람보다 더 잘 구별할 수 있는지에 관한 것이기 때문에 우연의 일치입니다. 이에 대해 알아보기 전에
43:15
a question. The expressions we can make
with our face are controlled by muscles.
562
2595680
5040
질문이 있습니다.
얼굴로 할 수 있는 표정은 근육에 의해 제어됩니다.
43:20
How many muscles do we have in our face? Is it:
563
2600720
2960
우리 얼굴에는 몇 개의 근육이 있습니까? 맞습니까?
43:23
A: 26
564
2603680
1680
A: 26
43:25
B: 43
C: 62
565
2605360
2800
B: 43
C: 62
43:28
What do you think, Sam?
566
2608160
880
샘, 어떻게 생각하세요?
43:29
No idea! But a lot, I’d
guess, so I’m going with 62.
567
2609600
4880
몰라! 하지만 많은 것
같아요. 그래서 62로 하겠습니다.
43:34
OK. Well, we’ll see if you’ll be smiling or
crying later in the programme. Hassan Ugail is a
568
2614480
5600
좋습니다. 글쎄요,
프로그램 후반에 당신이 웃을지 울을지 지켜보겠습니다. Hassan Ugail은
43:40
professor of visual computing at the University of
Bradford. He’s been working on getting computers
569
2620080
5680
University of Bradford의 시각 컴퓨팅 교수입니다
. 그는 컴퓨터가 얼굴 표정
43:45
to be able to recognise human emotions from the
expressions on our face. Here he is speaking on
570
2625760
6480
에서 인간의 감정을 인식할 수 있도록 노력하고 있습니다
. 여기에서 그는
43:52
the BBC Inside Science radio programme –
how successful does he say they have been?
571
2632240
5600
BBC Inside Science 라디오 프로그램에서 이야기하고 있습니다.
그들이 얼마나 성공적이었다고 그는 말합니까?
43:57
We've been working quite a lot on
the human emotions, so the idea is
572
2637840
3680
우리는 인간의 감정에 대해 꽤 많은 작업을 해왔기
때문에 아이디어는 얼굴에 반영되는
44:01
how the facial muscle movement,
which is reflected on the face,
573
2641520
4720
안면 근육 움직임이 어떻게
44:06
through obviously a computer through video
frames and trying to understand how these
574
2646240
4080
컴퓨터를 통해 비디오
프레임을 통해 이러한
44:10
muscle movements actually relate to facial
expressions and then from facial expressions
575
2650320
5120
근육 움직임이 실제로 얼굴 표정과 어떻게 관련되는지 이해하려고 노력하는 것입니다.
그런 다음 얼굴 표정에서
44:15
trying to understand the emotions or to infer the
emotions. And they have been quite successful in
576
2655440
5200
감정을 이해하거나
감정을 추론하려고 합니다. 그리고 그들은 그렇게 하는 데 꽤 성공적이었습니다
44:20
doing that. We have software that can actually
look at somebody's face in real time and then
577
2660640
5680
. 우리는
실시간으로 누군가의 얼굴을 실제로 보고
44:26
identify the series of emotions that
person is expressing in real time as well.
578
2666880
4960
그
사람이 실시간으로 표현하는 일련의 감정을 식별할 수 있는 소프트웨어를 가지고 있습니다.
44:32
So, have they been successful in
getting computers to identify emotions?
579
2672480
4800
그렇다면 그들은
컴퓨터가 감정을 식별하는 데 성공했습니까?
44:37
Yes, he says they’ve been quite successful,
and what’s interesting is that he says that
580
2677280
4880
예, 그는 그들이 꽤 성공적이었다고 말했습니다.
흥미로운 점은
44:42
the computers can do it in real time. This means
that there’s no delay. They don’t have to stop and
581
2682160
7520
컴퓨터가 실시간으로 할 수 있다고 말했습니다.
지연이 없다는 뜻입니다. 그들은 멈춰서
44:49
analyse the data, or crunch the numbers,
they can do it as the person is talking.
582
2689680
5520
데이터를 분석하거나 계산할 필요가 없습니다.
상대방이 말하는 대로 할 수 있습니다.
44:55
The system uses video to analyse a person’s
expressions and can then infer the emotions.
583
2695200
6080
시스템은 동영상을 사용하여 사람의
표정을 분석한 다음 감정을 추론할 수 있습니다.
45:01
To infer something means to get an understanding
of something without actually being told directly.
584
2701280
5680
무언가를 추론한다는 것은
실제로 직접 말하지 않고 무언가를 이해하는 것을 의미합니다.
45:06
So, you look at available information and use your
585
2706960
2560
따라서 사용 가능한 정보를 살펴보고
45:09
understanding and knowledge
to work out the meaning.
586
2709520
2400
이해와 지식을 사용하여
의미를 파악합니다.
45:12
It’s a bit like being a detective,
isn’t it? You look at the clues
587
2712480
3680
형사가 되는 것과 비슷하지
않나요? 단서를 보고 모든 세부 정보가
45:16
and infer what happened even if
you don’t have all the details.
588
2716160
3920
없더라도 무슨 일이 일어났는지 추론합니다
.
45:20
Yes, and in this case the computer looks
at how the movement of muscles in the face
589
2720080
4320
예, 이 경우 컴퓨터는
얼굴 근육의 움직임
45:24
or facial muscles, show different
emotions. Here’s Professor Ugail again.
590
2724400
4560
또는 안면 근육이 어떻게 다른
감정을 나타내는지 살펴봅니다. 여기 Ugail 교수가 다시 있습니다.
45:29
We've been working quite a lot on the human
emotions so the idea is how the facial muscle
591
2729520
5520
우리는 인간의 감정에 대해 꽤 많은 작업을 해왔기
때문에 비디오 프레임을 통해 분명히 컴퓨터를 통해
45:35
movement, which is reflected on the face,
through obviously a computer through video
592
2735040
4800
얼굴에 반영되는 안면 근육의 움직임
45:39
frames and trying to understand how these muscle
movements actually relate to facial expressions
593
2739840
5680
과 이러한 근육의
움직임이 실제로 얼굴 표정과 어떻게 관련되는지 이해하려고 노력하고 있습니다.
45:45
and then from facial expressions trying to
understand the emotions or to infer the emotions.
594
2745520
4720
그런 다음 표정에서
감정을 이해하거나 감정을 추론하려고 합니다.
45:50
And they have been quite successful in doing
that. We have software that can actually
595
2750800
4480
그리고 그들은 그렇게 하는 데 꽤 성공적이었습니다
. 우리는 실제로
45:55
look at somebody's face in real time and then
identify the series of emotions that person is
596
2755280
6320
누군가의 얼굴을 실시간으로 보고
그 사람이 실시간으로 표현하는 일련의 감정을 식별할 수 있는 소프트웨어를 가지고 있습니다
46:01
expressing in real time as well.
So, how do the computers know
597
2761600
4560
.
그렇다면 컴퓨터는
46:06
what is a real or a fake smile? The
computers have to learn that first.
598
2766160
4560
진짜 미소와 가짜 미소가 무엇인지 어떻게 알 수 있을까요?
컴퓨터가 먼저 이를 학습해야 합니다.
46:11
Here’s Professor Ugail again
talking about how they do that.
599
2771680
3840
Ugail 교수가 다시
그 방법에 대해 이야기합니다.
46:15
We have a data set of real smiles and
we have a data set of fake smiles.
600
2775520
4240
실제 미소 데이터 세트와
가짜 미소 데이터 세트가 있습니다.
46:19
These real smiles are induced smiles in a lab.
So, you put somebody on a chair and then show
601
2779760
5120
이러한 실제 미소는 실험실에서 유발된 미소입니다.
따라서 누군가를 의자에 앉힌 다음
46:24
some funny movies and we expect
the smiles are genuine smiles.
602
2784880
4320
재미있는 영화를 보여주면
그 미소가 진정한 미소일 것이라고 기대합니다.
46:29
And similarly we ask them to pretend to smile.
So, these are what you'd call fake smiles. So,
603
2789200
5040
마찬가지로 우리는 그들에게 웃는 척을 하라고 요청합니다.
그래서, 이것들은 당신이 가짜 미소라고 부르는 것입니다. 그래서
46:34
what we do is we throw these into the machine
and then the machine figures out what are the
604
2794240
5360
우리가 하는 일은 이것을 기계에 집어넣는 것입니다.
그러면 기계가
46:39
characteristics of a real smile and what
are the characteristics of a fake smile.
605
2799600
4240
진짜 미소의 특징과
가짜 미소의 특징을 알아냅니다.
46:44
So, how do they get the data that
the computers use to see if your
606
2804560
3920
그렇다면 그들은
당신의
46:48
smile is fake or genuine – which
is another word which means real?
607
2808480
3680
미소가 가짜인지 진짜인지 확인하기 위해 컴퓨터가 사용하는 데이터를 어떻게 얻습니까? 이것은
진짜를 의미하는 또 다른 단어입니까?
46:52
They induce real smiles in the lab by showing
people funny films. This means that they make
608
2812800
6320
그들은 사람들에게 재미있는 영화를 보여줌으로써 연구실에서 진정한 웃음을 유도합니다
. 이것은 그들이 미소를 자연스럽게 만든다는 것을 의미합니다
46:59
the smiles come naturally. They assume that the
smiles while watching the funny films are genuine.
609
2819120
6320
. 그들은
재미있는 영화를 보면서 미소를 짓는 것이 진짜라고 생각합니다.
47:05
And then they ask the people to pretend to
smile and the computer programme now has a
610
2825440
4240
그런 다음 그들은 사람들에게
웃는 척을 하라고 요청하고 컴퓨터 프로그램은 이제
47:09
database of real and fake smiles and
is able to figure out which is which.
611
2829680
4240
진짜 미소와 가짜 미소의 데이터베이스를 가지고 있고
어느 것이 어떤 미소인지 알아낼 수 있습니다.
47:14
Figure out means to calculate
and come to an answer
612
2834640
3360
알아내는 것은 계산
하고 답에 도달하는 것을 의미합니다.
47:18
Yes, and apparently the system
gets it right 90% of the time,
613
2838000
3520
예, 분명히 시스템은
시간의 90%를 맞추며,
47:21
which is much higher than we humans can. Right,
well before we remind ourselves of our vocabulary,
614
2841520
6000
이는 인간이 할 수 있는 것보다 훨씬 높습니다. 자,
어휘를 상기하기 훨씬 전에
47:27
let’s get the answer to the question. How
many muscles do we have in our face? Is it:
615
2847520
5040
질문에 대한 답을 알아봅시다.
얼굴에는 얼마나 많은 근육이 있나요? 맞습니까?
47:32
A: 26
616
2852560
1200
A: 26
47:33
B: 43
C: 62
617
2853760
2960
B: 43
C: 62
47:36
Sam, are you going to be
smiling? What did you say?
618
2856720
2000
샘,
웃을 건가요? 뭐라고 하셨나요?
47:39
So I thought 62! Am I smiling, Neil?
619
2859440
2640
그래서 나는 62를 생각했습니다! 내가 웃고 있니, 닐?
47:42
Sadly you are not, you are using different
muscles for that sort of sad look!
620
2862080
5520
슬프게도 당신은
그런 종류의 슬픈 표정을 짓기 위해 다른 근육을 사용하고 있습니다!
47:48
Actually the answer is 43. Congratulations to
anyone who got that right. Now our vocabulary.
621
2868800
5840
정답은 43개입니다. 정답을
맞힌 사람에게 축하를 전합니다. 이제 우리의 어휘.
47:54
Yes – facial is the adjective relating to face.
622
2874640
3760
예 – 얼굴은 얼굴과 관련된 형용사입니다.
47:58
Then we had infer. This verb
means to understand something
623
2878400
4160
그런 다음 추론했습니다. 이 동사는
48:02
even when you don’t have all the information,
and you come to this understanding based
624
2882560
4160
모든 정보가 없는 경우에도 무언가를 이해한다는 의미이며,
48:06
on your experience and knowledge, or in
the case of a computer, the programming.
625
2886720
4240
경험과 지식, 또는
컴퓨터의 경우 프로그래밍을 기반으로 이해하게 됩니다.
48:11
And these computers work in real time,
which means that there’s no delay
626
2891600
4320
그리고 이 컴퓨터는 실시간으로 작동하므로
지연이 없으며
48:16
and they can tell a fake smile from a genuine one,
which means a real one, as the person is speaking.
627
2896480
5520
가짜 미소와 진짜 미소를 구별할 수 있습니다
.
48:22
They made people smile, or as the Professor
said, they induced smiles by showing funny films.
628
2902560
5760
그들은 사람들을 웃게 만들거나 교수가
말한 것처럼 재미있는 영화를 보여줌으로써 미소를 유발했습니다.
48:28
And the computer is able to figure out or
calculate whether the smile is fake or genuine.
629
2908320
6240
그리고 컴퓨터는
미소가 가짜인지 진짜인지 알아내거나 계산할 수 있습니다.
48:34
OK, thank you, Sam. That’s all
from 6 Minute English today.
630
2914560
3040
네, 고마워요, 샘.
오늘의 6분 영어는 여기까지입니다.
48:37
We look forward to your company next
time and if you can’t wait you can find
631
2917600
3280
다음 번에 귀하의 회사를 기다리겠습니다.
기다릴 수 없다면
48:40
lots more from bbclearningenglish online,
on social media and on our app. Goodbye!
632
2920880
4720
온라인,
소셜 미디어 및 앱에서 bbclearningenglish에서 더 많은 것을 찾을 수 있습니다. 안녕히 가세요!
48:48
Bye!
633
2928080
480
안녕!
48:53
Welcome to 6 Minute English, where we
bring you an intelligent topic and six
634
2933680
3680
6 Minute English에 오신 것을 환영합니다.
지능적인 주제와 6개의
48:57
related items of vocabulary. I’m Neil.
635
2937360
2640
관련 어휘 항목을 제공합니다. 저는 닐입니다.
49:00
And I’m Tim. And today we’re talking
about AI – or Artificial Intelligence.
636
2940000
6320
저는 팀입니다. 그리고 오늘 우리는
AI 또는 인공 지능에 대해 이야기하고 있습니다.
49:06
Artificial Intelligence is the ability
of machines to copy human intelligent
637
2946320
5040
인공 지능은
기계가 인간의 지능적인
49:11
behaviour – for example, an intelligent
machine can learn from its own mistakes,
638
2951360
4560
행동을 모방하는 능력입니다. 예를 들어 지능형
기계는 자신의 실수로부터 학습
49:15
and make decisions based on
what’s happened in the past.
639
2955920
3280
하고 과거에 일어난 일을 기반으로 결정을 내릴 수 있습니다
.
49:19
There’s a lot of talk about AI these days, Neil,
but it’s still just science fiction, isn’t it?
640
2959200
5520
Neil, 요즘 AI에 대한 이야기가 많지만,
여전히 공상과학소설에 불과하지 않나요?
49:24
That’s not true – AI is everywhere.
Machine thinking is in our homes,
641
2964720
4720
그것은 사실이 아닙니다. AI는 어디에나 있습니다.
머신 씽킹은 가정,
49:29
offices, schools and hospitals. Computer
algorithms are helping us drive our cars.
642
2969440
5760
사무실, 학교, 병원에 있습니다. 컴퓨터
알고리즘은 우리가 자동차를 운전하는 데 도움이 됩니다.
49:35
They’re diagnosing what’s
wrong with us in hospitals.
643
2975200
3200
그들은
병원에서 우리에게 무엇이 잘못되었는지 진단하고 있습니다.
49:38
They’re marking student essays… They’re
telling us what to read on our smartphones…
644
2978400
4320
그들은 학생 에세이에 표시를 하고 있습니다...
스마트폰에서 읽을 내용을 알려주고 있습니다...
49:42
Well, that really does sound like science fiction
– but it’s happening already, you say, Neil?
645
2982720
5280
정말 공상 과학 소설처럼 들립니다
. 하지만 이미 일어나고 있습니다, 닐?
49:48
It’s definitely happening, Tim. And an algorithm,
by the way, is a set of steps a computer follows
646
2988000
6000
확실히 일어나고 있어요, 팀. 그런데 알고리즘은
49:54
in order to solve a problem. So can you tell
me what was the name of the computer which
647
2994000
5680
문제를 해결하기 위해 컴퓨터가 따르는 일련의 단계입니다.
49:59
famously beat world chess champion Garry
Kasparov using algorithms in 1997? Was it…
648
2999680
6400
1997년에 알고리즘을 사용하여 세계 체스 챔피언 Garry Kasparov를 이긴 것으로 유명한 컴퓨터의 이름이 무엇인지 말씀해 주시겠습니까? 그것은…
50:06
a) Hal,
649
3006080
640
a) Hal,
50:07
b) Alpha 60 or
c) Deep Blue?
650
3007360
3680
b) Alpha 60 또는
c) Deep Blue였습니까?
50:11
I’ll say Deep Blue. Although I’m just guessing.
651
3011040
4000
딥 블루라고 하겠습니다. 나는 단지 추측하고 있지만.
50:15
Was it an educated guess, Tim?
652
3015040
1920
교육받은 추측 이었습니까, 팀?
50:16
I know a bit about chess…
653
3016960
1520
저는 체스에 대해 조금 알고 있습니다...
50:18
An educated guess is based on knowledge and
experience and is therefore likely to be correct.
654
3018480
5600
교육받은 추측은 지식과
경험을 기반으로 하므로 정확할 가능성이 높습니다.
50:24
Well, we’ll find out later on how
educated your guess was in this case, Tim!
655
3024080
4080
음,
이 경우 당신의 추측이 얼마나 충분했는지는 나중에 알아보겠습니다, 팀!
50:28
Indeed. But getting back to AI and
what machines can do – are they
656
3028160
5360
물론. 하지만 AI로 돌아가서
기계가 할 수 있는 일은 무엇입니까?
50:33
any good at solving real-life problems?
Computers think in zeros and ones don’t
657
3033520
5520
실제 문제를 해결하는 데 능숙합니까?
컴퓨터는 0과 1로 생각하지 않습니까
50:39
they? That sounds like a pretty limited
language when it comes to life experience!
658
3039040
4000
?
삶의 경험에 관해서는 꽤 제한된 언어처럼 들립니다!
50:43
You would be surprised to what
those zeroes and ones can do, Tim.
659
3043600
3680
0과 1이 무엇을 할 수 있는지 알면 놀랄 것입니다, 팀.
50:47
Although you’re right that AI does
have its limitations at the moment.
660
3047280
3840
현재 AI에 한계가 있다는 것은 맞습니다.
50:51
And if something has limitations there’s a
limit on what it can do or how good it can be.
661
3051120
4960
그리고 무언가에 제한이 있다면
그것이 할 수 있는 것 또는 얼마나 좋은지에 대한 제한이 있습니다.
50:56
OK – well now might be a good time to listen
to Zoubin Bharhramani, Professor of Information
662
3056080
6080
자, 이제
51:02
Engineering at the University of Cambridge
and deputy director of the Leverhulme Centre
663
3062160
5760
케임브리지 대학의 정보 공학 교수
이자 Leverhulme Center
51:07
for the Future of Intelligence. He’s talking
about what limitations AI has at the moment.
664
3067920
5840
for the Future of Intelligence의 부국장인 Zoubin Bharhramani의 말을 들을 수 있는 좋은 시간이 될 것입니다. 그는
현재 AI의 한계에 대해 이야기하고 있습니다.
51:15
I think it’s very interesting how many of the
things that we take for granted – we humans take
665
3075680
5840
우리가 당연하게 여기는 것 중 얼마나 많은
것이 – 우리 인간이
51:21
for granted – as being sort of things we don’t
even think about like how do we walk, how do we
666
3081520
4720
당연하게 여기는지 – 우리가
어떻게 걷는지, 어떻게
51:26
reach, how do we recognize our mother. You know,
all these things. When you start to think how
667
3086240
6800
도달하는지, 우리의 어머니. 아시다시피 이
모든 것입니다.
51:33
to implement them on a computer, you realize that
it’s those things that are incredibly difficult to
668
3093040
7280
컴퓨터에서 구현하는 방법을 생각하기 시작하면 컴퓨터가 수행하는 것이
매우 어렵다는 것을 깨닫고
51:41
get computers to do, and that’s where
the current cutting edge of research is.
669
3101440
5360
현재 연구의 최첨단이 있는 곳입니다.
51:48
If we take something for granted we
don’t realise how important something is.
670
3108720
3840
우리가 무언가를 당연하게 여긴다면
그것이 얼마나 중요한지 깨닫지 못합니다.
51:52
You sometimes take me for granted, I think, Neil.
671
3112560
2560
당신은 가끔 나를 당연하게 생각하는 것 같아요, 닐.
51:55
No – I never take you for granted,
Tim! You’re far too important for that!
672
3115840
3520
아니요 – 저는 당신을 당연하게 여기지 않습니다,
팀! 그러기에는 당신이 너무 중요합니다!
52:00
Good to hear! So things we take for granted
are doing every day tasks like walking,
673
3120080
6720
잘 들었습니다! 따라서 우리가 당연하게 여기는 것은
걷기,
52:06
picking something up, or recognizing somebody.
We implement – or perform – these things without
674
3126800
6800
물건 줍기 또는 누군가를 알아보는 것과 같은 일상적인 일을 하는 것입니다.
우리는 생각 없이 이러한 일을 구현하거나 수행합니다
52:13
thinking – Whereas it’s cutting edge research
to try and program a machine to do them.
675
3133600
5600
. 반면
기계가 이를 수행하도록 시도하고 프로그래밍하는 것은 최첨단 연구입니다.
52:19
Cutting edge means very new and
advanced. It’s interesting isn't it,
676
3139200
3840
최첨단이란 매우 새롭고
진보된 것을 의미합니다.
52:23
that over ten years ago a computer
beat a chess grand master – but the
677
3143040
4000
10년 전에 컴퓨터가
체스 그랜드 마스터를 이겼다는 사실이 흥미롭지 않습니까? 하지만
52:27
same computer would find it incredibly
difficult to pick up a chess piece.
678
3147040
4240
같은 컴퓨터가
체스 말을 집는 것은 엄청나게 어렵다는 것을 알게 될 것입니다.
52:31
I know. It’s very strange. But now you’ve reminded
me that we need the answer to today’s question.
679
3151280
5520
알아요. 매우 이상합니다. 하지만 이제
오늘의 질문에 대한 답이 필요하다는 점을 상기시켜 주셨습니다.
52:37
Which was: What was the name of the
computer which famously beat world chess
680
3157360
4560
52:41
champion Garry Kasparov in 1997? Now, you said
Deep Blue, Tim, and … that was the right answer!
681
3161920
6960
1997년에 세계 체스 챔피언 Garry Kasparov를 이긴 것으로 유명한 컴퓨터의 이름은 무엇이었습니까? 자, 당신은
Deep Blue, Tim, 그리고 … 그것이 정답이라고 말했습니다!
52:48
You see, my educated guess was
based on knowledge and experience!
682
3168880
4480
내 추측은
지식과 경험을 바탕으로 한 것입니다!
52:53
Or maybe you were just lucky. So, the IBM
683
3173360
4320
아니면 운이 좋았을 수도 있습니다. 그래서 IBM
52:57
supercomputer Deep Blue played against US
world chess champion Garry Kasparov in two
684
3177680
5040
슈퍼컴퓨터 Deep Blue는 미국
세계 체스 챔피언인 Garry Kasparov와 두 번의
53:02
chess matches. The first match was played in
Philadelphia in 1996 and was won by Kasparov.
685
3182720
5920
체스 경기에서 대결했습니다. 첫 경기는
1996년 필라델피아에서 열렸으며 Kasparov가 이겼습니다.
53:08
The second was played in New York City in 1997
and won by Deep Blue. The 1997 match was the
686
3188640
6720
두 번째는 1997년 뉴욕에서 열렸
으며 Deep Blue가 우승했습니다. 1997년 경기는 토너먼트 조건에서 컴퓨터에 의해
53:15
first defeat of a reigning world chess champion
by a computer under tournament conditions.
687
3195360
4960
군림하는 세계 체스 챔피언의 첫 번째 패배였습니다
. 오늘 배운
53:20
Let’s go through the words we
learned today. First up was
688
3200960
3840
단어를 살펴보겠습니다
. 첫 번째는
53:24
‘artificial intelligence’ or AI – the ability
of machines to copy human intelligent behaviour.
689
3204800
6880
'인공 지능' 또는 AI, 즉
기계가 인간의 지능적인 행동을 모방할 수 있는 능력입니다.
53:31
“There are AI programs that can write poetry.”
690
3211680
3040
“시를 쓸 수 있는 AI 프로그램이 있다.”
53:34
Do you have any examples you can recite?
691
3214720
2640
암송할 수 있는 예가 있습니까?
53:37
Afraid I don’t! Number two – an algorithm is
a set of steps a computer follows in order to
692
3217360
5440
두렵지 않아! 두 번째 – 알고리즘은
컴퓨터가
53:42
solve a problem. For example, “Google changes its
search algorithm hundreds of times every year.”
693
3222800
6080
문제를 해결하기 위해 따르는 일련의 단계입니다. 예를 들어 'Google은
검색 알고리즘을 매년 수백 번 변경합니다.'
53:48
The adjective is algorithmic – for example,
“Google has made many algorithmic changes.”
694
3228880
6480
형용사는 알고리즘입니다. 예를 들어
'Google은 알고리즘을 많이 변경했습니다.' 세 번째
53:55
Number three – if something has ‘limitations’
– there’s a limit on what it can do or how good
695
3235360
5200
– 무언가에 '제한'이 있는 경우
- 할 수 있는 것 또는 얼마나 좋은지에 대한 제한이 있습니다
54:00
it can be. “Our show has certain limitations
– for example, it’s only six minutes long!”
696
3240560
5920
. "저희 프로그램에는 특정 제한 사항이 있습니다
. 예를 들어 길이가 6분에 불과합니다!"
54:06
That’s right – there’s only time to present
six vocabulary items. Short but sweet!
697
3246480
5280
맞습니다 –
6개의 어휘 항목을 제시할 시간이 있습니다. 짧지만 달콤!
54:11
And very intelligent, too.
OK, the next item is ‘take
698
3251760
3840
그리고 매우 지능적이기도 합니다.
자, 다음 항목은 '
54:15
something for granted’ – which is when we
don’t realise how important something is.
699
3255600
4160
무언가를 당연하게 여기다'입니다. 이는 우리가
어떤 것이 얼마나 중요한지 깨닫지 못하는 경우입니다.
54:19
“We take our smart phones for granted these
days – but before 1995 hardly anyone owned one.”
700
3259760
6880
"요즘 우리는 스마트폰을 당연하게 여깁니다
. 하지만 1995년 이전에는 스마트폰을 소유한 사람이 거의 없었습니다."
54:26
Number five – ‘to implement’ – means
to perform a task, or take action.
701
3266640
4560
다섯 번째 – '구현하다'는
작업을 수행하거나 조치를 취하는 것을 의미합니다.
54:31
“Neil implemented some changes to the show.”
702
3271200
2640
"Neil은 쇼에 몇 가지 변경 사항을 적용했습니다."
54:33
The final item is ‘cutting edge’ – new and
advanced – “This software is cutting edge.”
703
3273840
5360
마지막 항목은 '최첨단' - 새롭고
고급 - "이 소프트웨어는 최첨단입니다."
54:39
“The software uses cutting edge technology.”
704
3279200
2640
"이 소프트웨어는 최첨단 기술을 사용합니다."
54:42
OK – that’s all we have time
for on today’s cutting edge
705
3282480
3200
알겠습니다.
오늘의 최첨단
54:45
show. But please check out our Instagram,
Twitter, Facebook and YouTube pages.
706
3285680
4960
쇼에서 할 수 있는 시간은 이것뿐입니다. 하지만 Instagram,
Twitter, Facebook 및 YouTube 페이지를 확인하세요.
54:50
Bye-bye!
707
3290640
560
안녕!
54:51
Goodbye!
708
3291200
640
안녕히 가세요!
54:58
Hello and welcome to 6 Minute English. I'm Neil.
709
3298880
2800
안녕하세요, 6분 영어에 오신 것을 환영합니다. 저는 닐입니다.
55:01
And I'm Catherine. Hello!
710
3301680
1440
그리고 저는 캐서린입니다. 안녕하세요!
55:03
Now, Catherine, say cheese.
711
3303120
2160
자, 캐서린, 치즈라고 해.
55:05
Cheeeese.
Thank you, a little souvenir of our time together.
712
3305280
5200
치즈.
감사합니다, 우리가 함께한 시간의 작은 기념품.
55:10
Let's have a look… Hang on a minute. You just
took a selfie, I wasn't even in the picture.
713
3310480
5280
한번 봅시다… 잠시만요. 당신은 방금
셀카를 찍으셨고 저는 사진에 없었습니다.
55:15
Ah, well, that's the magic of the smartphone,
two cameras! You know, that's not something
714
3315760
5520
아, 그게 바로 스마트폰의 마법,
카메라 두 개! 아시다시피 그것은
55:21
you can do with a traditional camera. I mean,
do you even have a separate camera these days?
715
3321280
5280
기존 카메라로는 할 수 있는 일이 아닙니다. 제 말은
요즘 별도의 카메라도 가지고 계시나요?
55:26
I do actually. It's in a
cupboard somewhere at home.
716
3326560
3120
나는 실제로한다.
집 어딘가 찬장 안에 있어요.
55:29
Well, that is the topic of this programme. Have
traditional cameras been completely replaced by
717
3329680
5920
자, 이것이 이 프로그램의 주제입니다.
기존의 카메라가 스마트폰으로 완전히 대체되었습니까?
55:35
smartphones, or to put it another way, have
cameras been made obsolete by the smartphone?
718
3335600
5600
아니면 다른 말로 하면
카메라가 스마트폰에 의해 쓸모 없게 되었습니까?
55:41
Interesting question. But before we get into this
topic, how about a question for our listeners?
719
3341200
6240
흥미로운 질문입니다. 하지만 이 주제에 들어가기 전에
청취자에게 질문을 드려볼까요?
55:47
Of course. We are certainly in the
digital age of photography but when
720
3347440
4320
물론. 우리는 확실히
사진의 디지털 시대에 있지만
55:51
was the first digital camera
phone released? Was it:
721
3351760
3520
최초의 디지털 카메라
폰은 언제 출시되었나요? 당시:
55:55
a) 2000
b) 2004 or
722
3355280
2880
a) 2000
b) 2004 또는
55:58
c) 2007?
What do you think?
723
3358160
2400
c) 2007?
어떻게 생각하나요?
56:01
Well, I actually know this one, so I'm
going to be fair and keep it to myself.
724
3361120
4720
글쎄요, 저는 사실 이 문제를 알고 있으므로
공정하게 이야기할 것입니다.
56:06
OK, well, listen out for the
answer at the end of the programme.
725
3366480
3120
알겠습니다.
프로그램이 끝날 때 답변을 잘 들어보세요. 현재
56:10
There are different kinds of cameras
available today. There are compact cameras,
726
3370240
4160
다양한 종류의 카메라를
사용할 수 있습니다.
56:14
which are small and mostly automatic
and usually come with a fixed lens.
727
3374400
4720
작고 대부분 자동
이며 일반적으로 렌즈가 고정된 소형 카메라가 있습니다.
56:19
That's right. And then there are
SLRs and DSLRs which are bigger,
728
3379120
5280
좋아요. 그리고
더 큰 SLR과 DSLR이 있습니다.
56:24
and you can change the lenses on these cameras
and they allow for a lot of manual control.
729
3384400
5440
이 카메라의 렌즈를 교체할 수
있고 많은 수동 제어가 가능합니다.
56:30
And there are also mirrorless cameras, which are a
cross between compact cameras and DSLRs. They are
730
3390640
6480
그리고
컴팩트 카메라와 DSLR의 교차점인 미러리스 카메라도 있습니다.
56:37
small like a compact camera but you can also use
the same lenses on them that you can use on DSLRs.
731
3397120
6320
컴팩트 카메라처럼 작지만
DSLR에서 사용할 수 있는 동일한 렌즈를 사용할 수도 있습니다.
56:43
And of course, there are
the cameras on smartphones,
732
3403440
3040
물론
스마트폰에는 카메라가 있고
56:46
and these are convenient and they're
becoming increasingly sophisticated.
733
3406480
4880
편리하며
점점 더 정교해지고 있습니다.
56:51
Phil Hall is the editor of Tech Radar
magazine. He was asked on the BBC programme
734
3411360
5360
Phil Hall은 Tech Radar 잡지의 편집자입니다
. 그는 BBC 프로그램
56:56
You and Yours if he thought smartphones would
make other cameras obsolete. What is his opinion?
735
3416720
6480
You and Yours에서 스마트폰이
다른 카메라를 쓸모없게 만들 것이라고 생각하느냐는 질문을 받았습니다. 그의 의견은 무엇입니까?
57:05
I don't think so. I think while compact camera
sales have really sort of dropped off a cliff,
736
3425280
6000
나는 그렇게 생각하지 않는다. 콤팩트 카메라
판매가 정말 벼랑에서 떨어졌지만
57:11
it's the lower end, cheap compacts where
people have opted for a smartphone and I think
737
3431280
6640
사람들이 스마트폰을 선택한 곳은 저가형 저가 콤팩트이며
57:17
manufacturers are looking at the more higher end
premium cameras, high-end compacts, DSLRs, which
738
3437920
6480
제조업체는 더 고급형
프리미엄 카메라, 하이엔드 콤팩트형, DSLR,
57:24
are the ones you can attach lenses to, mirrorless
cameras. So, the market's changing. And I don't
739
3444400
4640
렌즈를 부착할 수 있는 미러리스
카메라입니다. 그래서 시장이 변하고 있습니다. 그리고
57:29
think there'll be a time soon, yet, that… the
smartphone will take over the camera completely.
740
3449040
6560
머지않아
스마트폰이 카메라를 완전히 장악할 날이 올 것이라고는 생각하지 않습니다.
57:37
So does Phil think smartphones
will kill the camera?
741
3457280
3520
Phil은 스마트폰이
카메라를 죽일 것이라고 생각하나요?
57:40
In a word, no. He does say that sales of cheap
compact cameras have dropped off a cliff.
742
3460800
6560
한마디로, 아니다. 그는 저렴한
컴팩트 카메라의 판매가 벼랑 아래로 떨어졌다고 말합니다.
57:48
This rather dramatic expression
describes a very big fall in sales.
743
3468080
5040
이 다소 극적인 표현은
매출이 크게 하락했음을 나타냅니다.
57:53
This is because the kind of consumers
744
3473120
2080
57:55
who would choose a compact camera are now
opting for the camera on their smartphone.
745
3475200
4720
컴팩트 카메라를 선택하는 소비자가 이제
스마트폰 카메라를 선택하기 때문입니다.
57:59
When you opt for something you
choose it rather than something else.
746
3479920
3520
무언가를 선택할 때
다른 것이 아닌 그것을 선택하는 것입니다. 합리적인 품질의 사진을
58:04
For people who want a quick, easy
to use and convenient way to take
747
3484160
4400
빠르고 사용하기 쉽고 편리하게 찍고 싶은 사람들에게 과거에는
58:08
reasonable quality photos, compact cameras used
to be the best choice – but now it's a smartphone.
748
3488560
7520
컴팩트 카메라가
최고의 선택이었지만 이제는 스마트폰입니다.
58:16
So camera makers are now moving to the more
high-end market, the DSLRs and mirrorless cameras.
749
3496080
6240
따라서 카메라 제조업체는 이제
고급 시장인 DSLR 및 미러리스 카메라로 이동하고 있습니다.
58:22
So who is still buying these more
expensive cameras? Here's Phil Hall again.
750
3502960
4560
그렇다면 누가 여전히 이 더
비싼 카메라를 구매하고 있을까요? 다시 필 홀입니다.
58:28
I think it's... some of it is people who
are picking up a smartphone and sort of
751
3508640
4640
제 생각에는... 그 중 일부는
스마트폰을 집어 들고
58:33
getting into photography that way and that's
a really great first step into photography
752
3513280
5760
그런 식으로 사진에 입문하는 사람들이고 그것은
사진에 대한 정말 좋은 첫 걸음입니다
58:39
and I think people are probably, sometimes,
getting a bit frustrated with the quality
753
3519040
3040
그리고 제 생각에 사람들은 아마도 때때로
품질에 대해 약간 실망하는 것 같습니다
58:43
once they sort of start pushing their creative
skills and then looking to see what's the next
754
3523280
5520
일단 그들이 창의력을 발휘하기 시작
하고 다음
58:48
rung up so it's people wanting to
broaden their creative skills a bit.
755
3528800
4080
단계가 무엇인지 알아보기 시작하면 사람들은
창의력을 조금 더 넓히기를 원합니다.
58:54
Who does he say might be buying cameras?
756
3534000
2640
그는 누가 카메라를 살 것이라고 말합니까?
58:56
He says that people who are getting into
757
3536640
2080
그는 사진에 입문하는 사람들이
58:58
photography might get frustrated
with the quality of smartphones.
758
3538720
4160
스마트폰의 품질에 실망할 수 있다고 말합니다.
59:02
Getting into something means
becoming very interested in it.
759
3542880
3520
무언가에 빠진다는 것은
그것에 매우 관심을 갖게 된다는 것을 의미합니다.
59:06
And if you are frustrated with something it
760
3546400
2400
그리고 당신이 무언가에 좌절했다면 그것은
59:08
means you are disappointed with
it. You are not happy with it.
761
3548800
3120
당신이 그것에 실망했다는 것을 의미합니다
. 당신은 그것에 만족하지 않습니다.
59:11
So people who have got into
photography with a smartphone
762
3551920
3040
따라서
스마트폰으로 사진을 찍기 시작했지만
59:14
but are frustrated with its limitations
and want to be more creative are going
763
3554960
4720
한계에 좌절하고
더 창의적이 되고자 하는 사람들은
59:19
to the next level. They are moving up, they
are, as Phil said 'taking the next rung up'.
764
3559680
6000
다음 단계로 나아가고 있습니다.
Phil이 '다음 가로대 위로 이동'이라고 말한 것처럼 그들은 위로 이동하고 있습니다.
59:25
Now, a rung is the horizontal step of a ladder,
765
3565680
4000
이제 가로대는 사다리의 수평 단계이므로
59:29
so the expression taking the next rung up is a
way to describe doing something at a higher level.
766
3569680
6960
다음 가로대를 취하는 표현은 더
높은 수준에서 작업을 설명하는 방법입니다.
59:37
Now, talking of higher levels, did you get this
week's quiz question right? The question was:
767
3577440
5680
이제 더 높은 수준에 대해 이야기하겠습니다. 이번
주 퀴즈 문제를 맞히셨나요? 질문은 다음과 같습니다.
59:43
When was the first phone with a digital
camera released? Was it 2000, 2004 or 2007?
768
3583120
7440
디지털 카메라가 장착된 최초의 휴대전화는 언제
출시되었나요? 2000년인가, 2004년인가, 2007년인가?
59:51
The first phone with a digital
camera was released in 2000.
769
3591680
3200
디지털 카메라가 장착된 최초의 휴대전화는
2000년에 출시되었습니다.
59:55
Now, to take us up to the end of the
programme, let's look at the vocabulary again.
770
3595440
4400
이제 프로그램의 마지막 부분으로 돌아가서
어휘를 다시 살펴보겠습니다.
60:00
First, we had the adjective obsolete
which describes something that has
771
3600720
3920
첫째, 우리는
60:04
been replaced and is no longer the first choice.
772
3604640
2880
교체되어 더 이상 첫 번째 선택이 아닌 것을 설명하는 구식이라는 형용사를 사용했습니다. 예를 들어 판매량에
60:08
When the expression to drop off a
cliff is used about, for example,
773
3608080
3760
대해 절벽에서 떨어진다는 표현을 사용하면 단기간에
60:11
sales numbers, it means sales have fallen
significantly over a short period of time.
774
3611840
5120
판매량이 크게 떨어졌음을 의미합니다
.
60:16
To opt for something means to choose something
775
3616960
3120
무언가를 선택한다는 것은 무언가를 선택하는 것을 의미하며
60:20
and when you become very interested in an
activity you can say that you get into it.
776
3620640
6720
어떤 활동에 매우 관심을 갖게 되면
그것에 들어간다고 말할 수 있습니다.
60:27
If you are trying to do something and you
can't do it because you don't have the skill
777
3627360
3920
무언가를 하려고 하는데
기술이 없거나
60:31
or the equipment you are using is not right
or not good enough, you can become frustrated.
778
3631280
5280
사용 중인 장비가 옳지 않거나
충분하지 않아서 할 수 없다면 좌절할 수 있습니다.
60:36
And developing your skills to a higher level
can be described as taking the next rung up.
779
3636560
6960
그리고 더 높은 수준으로 기술을 개발하는 것은
다음 단계를 밟는 것으로 설명할 수 있습니다.
60:43
Right, that's all from us from us in this
programme. Do join us again next time and
780
3643520
3440
맞습니다. 그게 이
프로그램의 전부입니다. 다음에 다시 참여하세요. 그
60:46
don't forget that in the meantime you can
find us on Instagram, Facebook, Twitter,
781
3646960
4160
동안
Instagram, Facebook, Twitter,
60:51
YouTube and of course our website
bbclearningenglish.com. See you soon. Goodbye.
782
3651120
5440
YouTube 및 웹사이트
bbclearningenglish.com에서 우리를 찾을 수 있다는 것을 잊지 마세요. 곧 봐요. 안녕히 가세요.
60:59
Bye!
783
3659120
5040
안녕!
New videos
Original video on YouTube.com
이 웹사이트 정보
이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.