Are computers always right? 6 Minute English

255,147 views ・ 2018-07-19

BBC Learning English


아래 영문자막을 더블클릭하시면 영상이 재생됩니다. 번역된 자막은 기계 번역됩니다.

00:06
Catherine: Hello and welcome to 6 Minute
0
6480
2280
Catherine: 안녕하세요. 6 Minute English에 오신 것을 환영합니다
00:08
English. I'm Catherine.
1
8760
1420
. 저는 캐서린입니다.
00:10
Rob: And hello, I'm Rob.
2
10180
1400
Rob: 그리고 안녕하세요, 저는 Rob입니다.
00:11
Catherine: Today we have another
3
11580
1389
Catherine: 오늘은 또 다른
00:12
technology topic.
4
12969
761
기술 주제가 있습니다.
00:13
Rob: Oh good! I love technology. It makes
5
13730
2470
롭: 오 좋다! 나는 기술을 좋아합니다. 그것은
00:16
things easier, it's fast and means I can
6
16240
2160
일을 더 쉽게 만들고 빠르며 가제트를 가질 수 있음을 의미합니다
00:18
have gadgets.
7
18400
1400
.
00:19
Catherine: Do you think that technology
8
19800
1760
캐서린: 기술이
00:21
can actually do things better than humans?
9
21560
2200
실제로 인간보다 일을 더 잘할 수 있다고 생각하십니까?
00:23
Rob: For some things, yes. I think cars
10
23760
2640
Rob: 어떤 경우에는 그렇습니다.
00:26
that drive themselves will be safer than
11
26400
1600
스스로 운전하는 자동차는 사람보다 안전하겠지만 운전의 즐거움을
00:28
humans but that will take away some of
12
28000
3180
어느 정도 앗아갈 것이라고 생각합니다
00:31
the pleasure of driving. So I guess it
13
31180
2180
. 그래서 나는
00:33
depends on what you mean by better.
14
33360
1940
당신이 더 나은 의미에 달려 있다고 생각합니다.
00:35
Catherine: Good point, Rob. And that
15
35300
1680
Catherine: 좋은 지적입니다, Rob. 그리고 그것은
00:36
actually ties in very closely with today's
16
36980
2420
실제로 오늘의 주제인 테크노 쇼비니즘과 매우 밀접하게 연결되어 있습니다
00:39
topic which is technochauvinism.
17
39400
3200
.
00:42
Rob: What's that?
18
42600
1480
롭: 저게 뭔데?
00:44
Catherine: We'll find out shortly, Rob, but
19
44080
1520
캐서린: 곧 알게 될 거에요, 롭. 하지만
00:45
before we do, today's quiz question.
20
45600
3200
그러기 전에 오늘의 퀴즈 질문이요. 인공
00:48
Artificial Intelligence, or A.I., is an area of
21
48800
3260
지능(Artificial Intelligence, A.I.)은 충돌
00:52
computer science that develops the
22
52060
2040
00:54
ability of computers to learn to do things
23
54100
2540
00:56
like solve problems or drive cars without
24
56640
2495
없이 문제를 해결하거나 자동차를 운전하는 것과 같은 일을 컴퓨터가 학습하는 능력을 개발하는 컴퓨터 과학 분야입니다
00:59
crashing. But in what decade was the
25
59140
2800
. 그러나
01:01
term 'Artificial Intelligence'
26
61940
2640
'인공 지능'이라는 용어가
01:04
coined? Was it: a) the 1940s, b) the 1950s
27
64589
4901
만들어진 10년은 언제입니까? a) 1940년대, b) 1950년대
01:09
or c) the 1960s?
28
69490
2070
또는 c) 1960년대였습니까?
01:11
Rob: I think it's quite a new expression so
29
71560
3000
Rob: 꽤 새로운 표현인 것 같아서
01:14
I'll go for c) the 1960s.
30
74560
2380
c) 1960년대로 하겠습니다.
01:16
Catherine: Good luck with that, Rob, and
31
76940
1420
Catherine: 행운을 빕니다, Rob.
01:18
we'll give you the answer later in the
32
78360
1300
나중에 프로그램에서 답변을 드리겠습니다
01:19
programme. Now, let's get back to our
33
79660
2940
. 이제
01:22
topic of technochauvinism.
34
82600
2040
테크노쇼비니즘이라는 주제로 돌아가 봅시다.
01:24
Rob: I know what a chauvinist is. It's
35
84640
1920
Rob: 쇼비니스트가 뭔지 알아요.
01:26
someone who thinks that their country or
36
86580
2380
자기 나라나
01:28
race or sex is better than others. But how
37
88960
3140
인종이나 성별이 다른 사람보다 낫다고 생각하는 사람입니다. 그러나
01:32
does this relate to technology?
38
92100
1340
이것이 기술과 어떤 관련이 있습니까?
01:33
Catherine: We're about to find out.
39
93440
1891
캐서린: 곧 알게 될 것입니다.
01:35
Meredith Broussard is Professor of
40
95340
1984
Meredith Broussard는
01:37
Journalism at New York University and
41
97324
2236
New York University의 저널리즘 교수이며 Artificial Unintelligence
01:39
she's written a book called
42
99560
1660
라는 책을 저술했습니다
01:41
Artificial Unintelligence. She appeared on
43
101220
3420
. 그녀는 그것에 대해 이야기하기 위해
01:44
the BBC Radio 4 programme More or Less
44
104640
2580
BBC 라디오 4 프로그램 More or Less에 출연했습니다
01:47
to talk about it. Listen carefully and find
45
107220
2620
. 주의 깊게 듣고
01:49
out her definition of technochauvinism.
46
109840
3320
기술 쇼비니즘에 대한 그녀의 정의를 찾으십시오.
01:53
Meredith Broussard: Technochauvinism is
47
113160
1811
Meredith Broussard: Technochauvinism은
01:54
the idea that technology is always the
48
114980
2540
기술이 항상
01:57
highest and best solution. So somehow
49
117520
3120
최고의 솔루션이라는 생각입니다. 그래서
02:00
over the past couple of decades we got
50
120640
2260
지난 20년 동안 우리는
02:02
into the habit of
51
122900
1360
02:04
thinking that doing something with a
52
124270
3410
컴퓨터로 무언가를 하는 것이
02:07
computer is always the best and most
53
127680
3480
항상 최선이고 가장
02:11
objective way to do something and
54
131180
2060
객관적인 방법이라고 생각하는 습관이 생겼습니다.
02:13
that's simply not true.
55
133240
1540
그것은 사실이 아닙니다.
02:14
Computers are not objective, they are
56
134780
3000
컴퓨터는 객관적이지 않으며 컴퓨터를
02:17
proxies for the people who make them.
57
137780
2300
만드는 사람들을 대신합니다.
02:20
Catherine: What is Meredith Broussard's
58
140080
2200
Catherine: Meredith Broussard가
02:22
definition of technochauvinism?
59
142300
2280
기술 쇼비니즘에 대해 정의한 것은 무엇입니까?
02:24
Rob: It's this idea that using technology
60
144580
2250
Rob: 기술을 사용하는 것이
02:26
is better than not using technology.
61
146830
2450
기술을 사용하지 않는 것보다 낫다는 생각입니다.
02:29
Catherine: She says that we have this idea
62
149280
2360
캐서린: 그녀는 우리가 컴퓨터가 객관적이라는 생각을 가지고 있다고 말했습니다
02:31
that a computer is objective. Something
63
151640
2800
.
02:34
that is objective is neutral, it doesn't have
64
154440
2500
객관적인 것은 중립적이고,
02:36
an opinion, it's fair and it's unbiased - so
65
156940
3160
의견이 없으며, 공평하고 편견이 없습니다. 따라서
02:40
it's the opposite of being a chauvinist. But
66
160100
3080
쇼비니스트와 정반대입니다. 그러나
02:43
Meredith Broussard says this is not true.
67
163180
2860
Meredith Broussard는 이것이 사실이 아니라고 말합니다.
02:46
Rob: She argues that computers are not
68
166040
2635
Rob: 그녀는 컴퓨터가 객관적이지 않다고 주장합니다
02:48
objective. They are proxies for the people
69
168680
2880
. 그것들은 그것들을 만드는 사람들을 위한 대리인입니다
02:51
that make them. You might know the
70
171560
1800
.
02:53
word proxy when you are using your
71
173360
1735
02:55
computer in one country and want to look
72
175095
2235
한 국가에서 컴퓨터를 사용하고
02:57
at something that is only available
73
177330
1871
02:59
in a different country. You can use a piece
74
179201
2298
다른 국가에서만 사용할 수 있는 것을 보고 싶을 때 프록시라는 단어를 알고 있을 수 있습니다.
03:01
of software called a proxy to do that.
75
181500
2640
이를 위해 프록시라는 소프트웨어를 사용할 수 있습니다.
03:04
Catherine: But a proxy is also a person or
76
184140
2840
캐서린: 하지만 대리인은 당신을 대신해 당신의
03:06
a thing that carries out your wishes and
77
186980
2660
바람과 지시를 수행하는 사람이나 사물이기도 합니다
03:09
your instructions for you.
78
189640
2000
.
03:11
So computers are only as smart or as
79
191640
2860
따라서 컴퓨터는 컴퓨터를 프로그래밍하는 사람만큼 똑똑하거나
03:14
objective as the people that
80
194500
2560
객관적입니다
03:17
programme them. Computers are proxies
81
197060
3060
. 컴퓨터는
03:20
for their programmers. Broussard says
82
200120
2620
프로그래머를 위한 프록시입니다. Broussard는
03:22
that believing too much in Artificial
83
202740
2400
인공 지능을 너무 많이 믿으면
03:25
Intelligence can make the world worse.
84
205140
2820
세상이 더 나빠질 수 있다고 말합니다.
03:27
Let's hear a bit more. This time find out
85
207960
2920
조금 더 들어봅시다. 이번에는
03:30
what serious problems in society
86
210880
2820
사회의 어떤 심각한 문제가
03:33
does she think may be reflected in AI?
87
213700
3900
AI에 반영될 수 있다고 생각하는지 알아보십시오.
03:37
Meredith Broussard: It's a nuanced
88
217600
1400
Meredith Broussard: 미묘한
03:39
problem. What we have is data on the
89
219000
2700
문제입니다. 우리가 가지고 있는 것은 있는 그대로의 세상에 대한 데이터이고, 지금 세상에는
03:41
world as it is and we have serious
90
221700
3100
03:44
problems with racism, sexism, classism,
91
224800
2920
인종차별, 성차별, 계급차별,
03:47
ageism, in the world right now so there is
92
227720
2300
연령차별 등 심각한 문제가 있기 때문에
03:50
no such thing as perfect data. We also
93
230020
3760
완벽한 데이터라는 것은 없습니다. 우리는 또한
03:53
have a problem inside the tech world
94
233780
2379
기술 세계 내부에 문제가 있습니다.
03:56
where the creators of algorithms do not
95
236160
3080
알고리즘을 만든 사람들이
03:59
have sufficient awareness of social
96
239240
3960
사회 문제에 대한 충분한 인식을 갖지 못하여
04:03
issues such that they can make good
97
243200
2680
04:05
technology that gets us closer to a world
98
245880
3800
우리를 세상에 더 가깝게 만드는 좋은 기술을 만들 수 있습니다
04:09
as it should be.
99
249680
1660
.
04:11
Rob: She said that society has problems
100
251340
2640
Rob: 그녀는 사회가
04:13
with racism, sexism, classism and ageism.
101
253984
3296
인종차별, 성차별, 계급차별, 연령차별에 문제가 있다고 말했습니다.
04:17
Catherine: And she says it's a nuanced
102
257280
2531
캐서린: 그리고 그녀는 그것이 미묘한
04:19
problem. A nuanced problem is not
103
259820
2231
문제라고 말했습니다. 미묘한 문제는 단순하지 않지만 발견하기 어려울
04:22
simple, but it does have small and
104
262060
1960
04:24
important areas which may be
105
264020
2200
수 있는 작고 중요한 영역이 있지만
04:26
hard to spot, but they need to be considered.
106
266220
3020
고려해야 합니다.
04:29
Rob: And she also talked about
107
269240
1800
Rob: 그리고 그녀는
04:31
algorithms used to program these
108
271053
2220
이러한 기술 시스템을 프로그래밍하는 데 사용되는 알고리즘에 대해서도 이야기했습니다
04:33
technological systems.
109
273273
1527
.
04:34
An algorithm is a set of instructions that
110
274800
2497
알고리즘은
04:37
computers use to perform their tasks.
111
277300
2240
컴퓨터가 작업을 수행하는 데 사용하는 명령 집합입니다.
04:39
Essentially it's the rules that they use
112
279540
1680
본질적으로 그것은 그들이
04:41
to come up with their answers and
113
281220
2220
답을 찾는 데 사용하는 규칙이며
04:43
Broussard believes that technology will
114
283440
2560
Broussard는 기술이
04:46
reflect the views of those who create the algorithms.
115
286000
2680
알고리즘을 만드는 사람들의 견해를 반영할 것이라고 믿습니다.
04:48
Catherine: Next time you're using a piece
116
288680
1640
Catherine: 다음에
04:50
of software or your favourite app, you
117
290320
2120
소프트웨어나 즐겨 사용하는 앱을 사용할 때
04:52
might find yourself wondering if it's a
118
292440
2040
04:54
useful tool or does it contain these little
119
294480
3020
유용한 도구인지 아니면
04:57
nuances that
120
297500
1100
04:58
reflect the views of the developer.
121
298600
2220
개발자의 관점을 반영하는 약간의 뉘앙스가 포함되어 있는지 궁금할 수 있습니다.
05:00
Rob: Right, Catherine. How about the
122
300830
1735
롭: 맞아, 캐서린.
05:02
answer to this week's question then?
123
302565
1735
그럼 이번 주 질문에 대한 답은 어떨까요?
05:04
Catherine: I asked in which decade was
124
304300
2160
캐서린:
05:06
the term 'Artificial Intelligence' coined.
125
306460
2300
'인공 지능'이라는 용어가 만들어진 10년이 언제인지 물었습니다.
05:08
Was it the 40s, the 50s or the 60s?
126
308760
2740
40년대였나, 50년대였나, 60년대였나?
05:11
Rob: And I said the 60s.
127
311500
1060
Rob: 저는 60년대라고 말했습니다.
05:12
Catherine: But it was actually the 1950s.
128
312560
2500
캐서린: 하지만 사실은 1950년대였어요.
05:15
Never mind, Rob. Let's review today's vocabulary.
129
315060
3520
신경쓰지마, 롭. 오늘의 어휘를 복습해 봅시다.
05:18
Rob: Well, we had a chauvinist - that's
130
318580
2100
Rob: 우월주의자가 있었습니다.
05:20
someone who believes their country, race
131
320700
2460
자신의 국가, 인종
05:23
or sex is better than any others.
132
323160
2000
또는 성별이 다른 누구보다 우월하다고 믿는 사람이었습니다.
05:25
Catherine: And this gives us
133
325160
1540
캐서린: 그리고 이것은 우리에게
05:26
technochauvinism,
134
326700
1380
05:28
the belief that a technological solution is
135
328080
2809
기술적 해결책이
05:30
always a better solution to a problem.
136
330889
2180
항상 문제에 대한 더 나은 해결책이라는 믿음인 테크노 쇼비니즘을 제공합니다.
05:33
Rob: Next - someone or something that is
137
333069
2776
Rob: 다음 - 객관적인 사람이나 사물은
05:35
objective is neutral, fair and balanced.
138
335845
2775
중립적이고 공정하며 균형이 잡혀 있습니다.
05:38
Catherine: A proxy is a piece of software
139
338620
2760
Catherine: 프록시는 소프트웨어
05:41
but also someone who does something
140
341380
1660
이지만 사용자를 대신하여 작업을 수행하는 사람이기도 합니다
05:43
for you, on your behalf.
141
343040
2340
.
05:45
A nuanced problem is a subtle
142
345380
2220
미묘한 문제는 미묘한 문제이며
05:47
one, it's not a simple case of right or
143
347600
3000
옳고 그름의 단순한 경우가 아닙니다
05:50
wrong, in a nuanced problem there are
144
350600
2740
. 미묘한 문제에는
05:53
small but important things that you need
145
353340
2140
작지만 고려해야 할 중요한 사항이 있습니다
05:55
to consider.
146
355480
800
.
05:56
Rob: And an algorithm is a set of software
147
356280
2560
Rob: 그리고 알고리즘은
05:58
instructions for a computer system.
148
358842
2128
컴퓨터 시스템을 위한 일련의 소프트웨어 명령입니다.
06:00
Catherine: Well, that's all we have time for
149
360970
1430
캐서린: 음, 그게 오늘 우리가 가진 시간의 전부입니다
06:02
today. Goodbye for now.
150
362400
1780
. 지금은 안녕.
06:04
Rob: Bye bye!
151
364180
700
롭: 안녕!
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7