Artificial Intelligence - what can and can't it do? 6 Minute English

215,970 views ・ 2017-10-11

BBC Learning English


아래 영문자막을 더블클릭하시면 영상이 재생됩니다. 번역된 자막은 기계 번역됩니다.

00:07
Neil: Welcome to 6 Minute English, where we
0
7160
1820
Neil: 6 Minute English에 오신 것을 환영합니다.
00:08
bring you an intelligent topic and six related
1
8980
2240
지능적인 주제와 6개의 관련
00:11
items of vocabulary. I'm Neil.
2
11230
1809
어휘 항목을 제공합니다. 저는 닐입니다.
00:13
Tim: And I'm Tim. And today we're talking
3
13039
3270
팀: 그리고 저는 팀입니다. 그리고 오늘 우리는
00:16
about AI - or Artificial Intelligence.
4
16309
3031
AI 또는 인공 지능에 대해 이야기하고 있습니다.
00:19
Neil: Artificial Intelligence is the ability
5
19340
2862
Neil: 인공 지능은
00:22
of machines to copy human intelligent behaviour
6
22202
3058
기계가 인간의 지능적인 행동을 복사하는 능력입니다. 예를 들어
00:25
- for example, an intelligent machine can
7
25260
2343
지능적인 기계는
00:27
learn from its own mistakes, and make decisions
8
27603
2686
자신의 실수로부터 학습하고
00:30
based on what's happened in the past.
9
30289
1970
과거에 일어난 일을 기반으로 결정을 내릴 수 있습니다.
00:32
Tim: There's a lot of talk about AI these
10
32259
2322
Tim: Neil, 요즘 AI에 대해 많은 이야기가 있지만
00:34
days, Neil, but it's still just science fiction,
11
34581
2719
여전히 공상 과학 소설에 불과하지
00:37
isn't it?
12
37300
1000
않습니까?
00:38
Neil: That's not true - AI is everywhere.
13
38300
2539
Neil: 그렇지 않습니다. AI는 어디에나 있습니다.
00:40
Machine thinking is in our homes, offices,
14
40839
2601
기계 사고는 우리 집, 사무실,
00:43
schools and hospitals. Computer algorithms
15
43440
2797
학교, 병원에 있습니다. 컴퓨터 알고리즘은
00:46
are helping us drive our cars. They're diagnosing
16
46237
3263
우리가 자동차를 운전하는 데 도움이 됩니다. 그들은
00:49
what's wrong with us in hospitals. They're
17
49500
2395
병원에서 우리에게 무엇이 잘못되었는지 진단하고 있습니다. 그들은
00:51
marking student essays. They're telling us
18
51895
2395
학생들의 에세이를 채점하고 있습니다.
00:54
what to read on our smartphones.
19
54290
1230
스마트폰에서 읽을 내용을 알려줍니다.
00:55
Tim: Well, that really does sound like science
20
55520
2654
팀: 음, 정말 공상 과학 소설처럼 들리는데
00:58
fiction - but it's happening already, you
21
58174
2366
- 하지만 이미 일어나고 있다고 닐
01:00
say, Neil?
22
60540
1000
?
01:01
Neil: It's definitely happening, Tim. And
23
61540
2123
Neil: 확실히 일어나고 있습니다, 팀. 그런데
01:03
an algorithm, by the way, is a set of steps
24
63663
2227
알고리즘은
01:05
a computer follows in order to solve a problem.
25
65890
2919
문제를 해결하기 위해 컴퓨터가 따르는 일련의 단계입니다.
01:08
So can you tell me what was the name of the
26
68809
2670
01:11
computer which famously beat world chess champion
27
71479
4091
01:15
Garry Kasparov using algorithms in 1997? Was
28
75570
3590
1997년에 알고리즘을 사용하여 세계 체스 챔피언 Garry Kasparov를 이긴 것으로 유명한 컴퓨터의 이름이 무엇인지 말씀해 주시겠습니까?
01:19
it: a) Hal, b) Alpha 60 or c) Deep Blue?
29
79160
4749
a) Hal, b) Alpha 60 또는 c) Deep Blue였습니까?
01:23
Tim: I'll say Deep Blue. Although I'm just
30
83909
2800
팀: 딥 블루라고 할게요. 나는 단지
01:26
guessing.
31
86709
1551
추측하고 있지만.
01:28
Neil: Was it an educated guess, Tim?
32
88260
1750
Neil: 교양 있는 추측이었나요, 팀?
01:30
Tim: I know a bit about chess...
33
90010
1630
Tim: 저는 체스에 대해 조금 알고 있습니다...
01:31
Neil: An educated guess is based on knowledge
34
91640
2501
Neil: 교육받은 추측은 지식
01:34
and experience and is therefore likely to
35
94141
2279
과 경험을 기반으로 하므로
01:36
be correct. Well, we'll find out later on
36
96420
2385
정확할 가능성이 높습니다. 글쎄,
01:38
how educated your guess was in this case, Tim!
37
98805
2435
이 경우에 당신의 추측이 얼마나 교육적 이었는지 나중에 알게 될 것입니다, 팀!
01:41
Tim: Indeed. But getting back to AI and what
38
101240
3500
팀: 과연. 하지만 AI와
01:44
machines can do - are they any good at solving
39
104740
3340
기계가 할 수 있는 일로 돌아가서 실제 문제를 해결하는 데 능숙할까요
01:48
real-life problems? Computers think in zeros
40
108090
2865
? 컴퓨터는 0
01:50
and ones don't they? That sounds like a pretty
41
110955
2995
과 1로 생각하지 않습니까? 그것은
01:53
limited language when it comes to life experience!
42
113950
2440
삶의 경험에 관한 한 꽤 제한된 언어처럼 들립니다!
01:56
Neil: You would be surprised to what those
43
116390
2290
Neil:
01:58
zeroes and ones can do, Tim. Although you're
44
118680
2399
0과 1이 무엇을 할 수 있는지 알면 놀랄 것입니다, Tim.
02:01
right that AI does have its limitations at
45
121079
2467
현재 AI에 한계가 있다는 것은 맞습니다
02:03
the moment. And if something has limitations
46
123546
2584
. 그리고 무언가에 한계가 있다면
02:06
there's a limit on what it can do or how good
47
126130
2230
그것이 할 수 있는 것 또는 얼마나 좋은지에 대한 한계가 있습니다
02:08
it can be.
48
128360
980
.
02:09
Tim: OK - well now might be a good time to
49
129360
2620
Tim: 좋습니다. 지금이 케임브리지
02:11
listen to Zoubin Bharhramani, Professor of
50
131988
2811
02:14
Information Engineering at the University
51
134799
2627
대학의 정보 공학 교수
02:17
of Cambridge and deputy director of the Leverhulme
52
137426
3203
이자 Leverhulme
02:20
Centre for the Future of Intelligence. He's
53
140629
3099
Center for the Future of Intelligence의 부국장인 Zoubin Bharhramani의 말을 들을 수 있는 좋은 시간일 것입니다. 그는
02:23
talking about what limitations AI has at the
54
143728
3172
현재 AI가 가지고 있는 한계에 대해 이야기하고 있습니다
02:26
moment.
55
146900
2160
.
02:29
Zoubin Bharhramani: I think it's very interesting
56
149060
1960
Zoubin Bharhramani: 제 생각에는
02:31
how many of the things that we take for granted
57
151023
2996
우리가 당연하게 여기는 것 중 얼마나 많은 것,
02:34
- we humans take for granted - as being sort
58
154019
2155
우리 인간이 당연하게 여기는지, 우리가
02:36
of things we don't even think about like how
59
156174
2155
어떻게
02:38
do we walk, how do we reach, how do we recognise
60
158329
3464
걷고, 어떻게 도달하고, 우리는 어머니를 알아봅니다
02:41
our mother. You know, all these things. When
61
161793
3176
. 이 모든 것. 컴퓨터
02:44
you start to think how to implement them on
62
164969
2491
에서 구현하는 방법을 생각하기 시작하면
02:47
a computer, you realise that it's those things
63
167460
4240
02:51
that are incredibly difficult to get computers
64
171709
3923
컴퓨터가 수행하기가 매우 어렵고
02:55
to do, and that's where the current cutting
65
175632
3667
현재
02:59
edge of research is.
66
179300
2860
연구의 최첨단이 있는 곳이라는 것을 깨닫게 됩니다.
03:02
Neil: If we take something for granted we
67
182160
1240
Neil: 우리가 무언가를 당연하게 여기면 우리는
03:03
don't realise how important something is.
68
183410
2310
그것이 얼마나 중요한지 깨닫지 못합니다.
03:05
Tim: You sometimes take me for granted,
69
185720
2363
팀: 당신은 가끔 나를 당연하게 여기지,
03:08
think, Neil.
70
188083
727
03:08
Neil: No - I never take you for granted, Tim!
71
188810
2432
생각해봐, 닐.
Neil: 아뇨 - 난 당신을 당연하게 여기지 않아요, 팀!
03:11
You're far too important for that!
72
191242
1837
그러기에는 당신이 너무 중요해요!
03:13
Tim: Good to hear! So things we take for granted
73
193079
3688
팀: 잘 들었습니다! 그래서 우리가 당연하게 여기는 것은
03:16
are doing every day tasks like walking, picking
74
196767
3612
걷기,
03:20
something up, or recognising somebody. We
75
200379
3218
물건 줍기, 누군가를 알아보는 것과 같은 일상적인 일을 하는 것입니다. 우리는 생각
03:23
implement - or perform - these things without
76
203597
3532
없이 이러한 것들을 구현하거나 수행합니다
03:27
thinking. Whereas it's cutting edge research
77
207129
2781
.
03:29
to try and program a machine to do them.
78
209910
2529
기계가 이를 수행하도록 시도하고 프로그래밍하는 것은 최첨단 연구입니다.
03:32
Neil: Cutting edge means very new and advanced.
79
212439
2492
Neil: 최첨단이란 매우 새롭고 진보된 것을 의미합니다.
03:34
It's interesting isn't it, that over ten years
80
214931
2439
10년
03:37
ago a computer beat a chess grand master - but
81
217370
2666
전에 컴퓨터가 체스 그랜드 마스터를 이겼다는 것이 흥미롭지 않습니까? 하지만
03:40
the same computer would find it incredibly
82
220036
2434
같은 컴퓨터가
03:42
difficult to pick up a chess piece.
83
222470
1949
체스 말을 집는 것은 엄청나게 어렵다는 것을 알게 될 것입니다.
03:44
Tim: I know. It's very strange. But now you've
84
224419
2550
팀: 알아요. 매우 이상합니다. 하지만 이제 당신은
03:46
reminded me that we need the answer to today's
85
226969
2550
우리가 오늘의 질문에 대한 답이 필요하다는 것을 상기시켜 주었습니다
03:49
question.
86
229519
1000
.
03:50
Neil: Which was: What was the name of the
87
230519
2567
Neil: 1997년에
03:53
computer who famously beat world chess champion
88
233086
2943
세계 체스 챔피언 Gary Kasparov를 이긴 것으로 유명한 컴퓨터의 이름은 무엇이었습니까
03:56
Gary Kasparov in 1997? Now, you said Deep
89
236029
2832
? 자, 당신은 Deep
03:58
Blue, Tim, and... that was the right answer!
90
238861
3108
Blue, Tim, 그리고... 그것이 정답이었습니다!
04:01
Tim: You see, my educated guess was based
91
241969
2674
Tim: 알다시피, 내 추측은
04:04
on knowledge and experience!
92
244643
1826
지식과 경험을 바탕으로 한 것입니다!
04:06
Neil: Or maybe you were just lucky. So, the
93
246469
3329
Neil: 아니면 그냥 운이 좋았을 수도 있습니다. 그래서
04:09
IBM supercomputer Deep Blue played against
94
249798
3251
IBM 슈퍼컴퓨터 Deep Blue는 두 번의 체스 경기
04:13
US world chess champion Garry Kasparov in
95
253049
2503
에서 미국 세계 체스 챔피언 Garry Kasparov와 대결했습니다
04:15
two chess matches. The first match was played
96
255552
2747
. 첫 경기는
04:18
in Philadelphia in 1996 and was won by Kasparov.
97
258299
2993
1996년 필라델피아에서 치러졌고 Kasparov가 이겼습니다.
04:21
The second was played in New York City in
98
261292
2557
두 번째는 1997년 뉴욕에서 열렸
04:23
1997 and won by Deep Blue. The 1997 match
99
263849
4391
으며 Deep Blue가 우승했습니다. 1997년 경기는 토너먼트 조건에서 컴퓨터에 의해
04:28
was the first defeat of a reigning world chess
100
268240
2220
군림하는 세계 체스 챔피언의 첫 번째 패배였습니다
04:30
champion by a computer under tournament conditions.
101
270460
3500
.
04:33
Tim: Let's go through the words we learned
102
273960
2776
팀: 오늘 배운 단어를 복습해 봅시다
04:36
today. First up was 'artificial intelligence'
103
276736
2974
. 첫 번째는 '인공 지능'
04:39
or AI - the ability of machines to copy human
104
279710
3318
또는 AI로, 기계가 인간의
04:43
intelligent behaviour.
105
283028
1622
지능적인 행동을 복사할 수 있는 능력입니다.
04:44
Neil: 'There are AI programs that
106
284650
2410
닐: '
04:47
can write poetry.'
107
287060
660
04:47
Tim: Do you have any examples you can recite?
108
287720
2580
시를 쓸 수 있는 AI 프로그램이 있습니다.'
팀: 암송할 수 있는 예가 있습니까?
04:50
Neil: Afraid I don't! Number two - an algorithm
109
290300
2850
닐: 무서워요! 두 번째 - 알고리즘은
04:53
is a set of steps a computer follows in order
110
293150
2729
컴퓨터가
04:55
to solve a problem. For example, 'Google changes
111
295879
2953
문제를 해결하기 위해 따르는 일련의 단계입니다. 예를 들어 'Google은
04:58
its search algorithm hundreds of times every year.'
112
298832
3707
검색 알고리즘을 매년 수백 번 변경합니다.'
05:02
Tim: The adjective is algorithmic - for example,
113
302539
2964
팀: 형용사는 알고리즘입니다. 예를 들어
05:05
'Google has made many algorithmic changes.'
114
305503
2656
'Google은 알고리즘을 많이 변경했습니다.'
05:08
Neil: Number three - if something has 'limitations',
115
308159
3024
Neil: 세 번째 - 무언가에 '제한'이 있다면
05:11
there's a limit on what it can do or how good
116
311183
2617
그것이 할 수 있는 것 또는 얼마나 좋은지에 대한 제한이 있습니다
05:13
it can be. 'Our show has certain limitations
117
313800
2949
. '우리 쇼에는 특정한 제한이 있습니다
05:16
' for example, it's only six minutes long!'
118
316749
2881
. 예를 들어, 길이가 6분밖에 안 됩니다!'
05:19
Tim: That's right - there's only time to present
119
319630
2570
Tim: 맞습니다.
05:22
six vocabulary items. Short but sweet!
120
322200
2700
6개의 어휘 항목을 발표할 시간밖에 없습니다. 짧지만 달콤!
05:24
Neil: And very intelligent, too. OK, the next
121
324900
2787
Neil: 그리고 매우 지능적이기도 합니다. 자, 다음
05:27
item is 'take something for granted', which
122
327687
2664
항목은 '무언가를 당연한 것으로 여기다'입니다. 이것은
05:30
is when we don't realise how important something is.
123
330351
2529
우리가 어떤 것이 얼마나 중요한지 깨닫지 못하는 경우입니다.
05:32
Tim: 'We take our smartphones for granted
124
332880
3046
팀: '요즘 우리는 스마트폰을 당연하게 여기
05:35
these days, but before 1995 hardly anyone
125
335926
2974
지만 1995년 이전에는 스마트폰을 소유한 사람이 거의 없었습니다
05:38
owned one.'
126
338900
1000
.'
05:39
Neil: Number five - 'to implement' means to
127
339900
2493
Neil: 다섯 번째 – '구현하다'는
05:42
perform a task, or take action.
128
342393
1797
작업을 수행하거나 조치를 취하는 것을 의미합니다.
05:44
Tim: 'Neil implemented some changes to the show.'
129
344190
2749
Tim: 'Neil은 쇼에 몇 가지 변경 사항을 구현했습니다.'
05:46
Neil: The final item is 'cutting edge' - new
130
346939
1361
Neil: 마지막 항목은 '최첨단' - 새롭고
05:48
and advanced - 'This software is cutting edge.'
131
348300
4119
진보된 - '이 소프트웨어는 최첨단입니다.'입니다.
05:52
Tim: 'The software uses cutting edge technology.'
132
352419
2761
팀: '이 소프트웨어는 최첨단 기술을 사용합니다.'
05:55
Neil: OK - that's all we have time for on
133
355180
2604
Neil: 알겠습니다. 오늘 최첨단 쇼에서 할 수 있는 시간은 그것뿐입니다
05:57
today's cutting edge show. But please check
134
357784
2665
. 그러나
06:00
out our Instagram, Twitter, Facebook and YouTube
135
360449
3031
Instagram, Twitter, Facebook 및 YouTube
06:03
pages. Tim: Bye-bye!
136
363480
840
페이지를 확인하십시오. 팀: 안녕!
06:04
Neil: Goodbye!
137
364320
1160
닐: 안녕!
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7