Deb Roy: The birth of a word

412,384 views ・ 2011-03-14

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: Jeong-Lan Kinser 검토: Bianca Lee
00:15
Imagine if you could record your life --
0
15260
4000
만약 여러분의 삶을 기록 가능하다고 상상해 보십시오 --
00:19
everything you said, everything you did,
1
19260
3000
말하는 모든 것, 행동하는 모든 것들이
00:22
available in a perfect memory store at your fingertips,
2
22260
3000
여러분 손끝의 완벽한 저장장치 안에 있다면,
00:25
so you could go back
3
25260
2000
여러분들은 과거로 돌아가서
00:27
and find memorable moments and relive them,
4
27260
3000
기억할 만 한 순간들을 찾아서 다시 체험할 수도 있고,
00:30
or sift through traces of time
5
30260
3000
또는 시간의 궤적을 샅샅히 살펴봐서
00:33
and discover patterns in your own life
6
33260
2000
이전에는 찾지 못하고 흘려보냈던
00:35
that previously had gone undiscovered.
7
35260
3000
여러분 자신의 삶 속의 패턴을 발견할 수도 있습니다.
00:38
Well that's exactly the journey
8
38260
2000
음 그건 정확히 저희 가족들이
00:40
that my family began
9
40260
2000
오년 반 전에 시작한
00:42
five and a half years ago.
10
42260
2000
여행입니다.
00:44
This is my wife and collaborator, Rupal.
11
44260
3000
여기는 제 아내이자 조력자인, 루팔 입니다.
00:47
And on this day, at this moment,
12
47260
2000
그리고 이 날, 이 순간에,
00:49
we walked into the house with our first child,
13
49260
2000
우리는 우리 첫 아기, 우리 예쁜 사내아이와
00:51
our beautiful baby boy.
14
51260
2000
집안으로 걸어들어갔습니다.
00:53
And we walked into a house
15
53260
3000
매우 특별한 홈 비디오 녹화장비를 가지고
00:56
with a very special home video recording system.
16
56260
4000
집 안으로 들어갔지요.
01:07
(Video) Man: Okay.
17
67260
2000
(영상) 남자: 좋아.
01:10
Deb Roy: This moment
18
70260
1000
데브 로이: 이 순간
01:11
and thousands of other moments special for us
19
71260
3000
그리고 우리에게 특별한 수천번의 다른 순간들이
01:14
were captured in our home
20
74260
2000
저희 집에서 녹화되었는데
01:16
because in every room in the house,
21
76260
2000
이 집의 모든 방 안에,
01:18
if you looked up, you'd see a camera and a microphone,
22
78260
3000
위를 올려다보시면, 카메라와 마이크를 보실 수 있고,
01:21
and if you looked down,
23
81260
2000
아래를 내려다보면,
01:23
you'd get this bird's-eye view of the room.
24
83260
2000
그 방의 부감풍경을 볼 수 있습니다.
01:25
Here's our living room,
25
85260
3000
여기는 저희 거실이구요,
01:28
the baby bedroom,
26
88260
3000
아기 침실,
01:31
kitchen, dining room
27
91260
2000
주방, 식당
01:33
and the rest of the house.
28
93260
2000
그리고 나머지 집안입니다.
01:35
And all of these fed into a disc array
29
95260
3000
그리고 이 모든 것들을 연속 녹화를 위해
01:38
that was designed for a continuous capture.
30
98260
3000
특별히 제작된 디스크 장치들로 공급합니다.
01:41
So here we are flying through a day in our home
31
101260
3000
자 이제 저희 집의 하루로 날아가는데요
01:44
as we move from sunlit morning
32
104260
3000
해가 밝은 아침부터
01:47
through incandescent evening
33
107260
2000
불켜진 저녁을 거쳐
01:49
and, finally, lights out for the day.
34
109260
3000
결국 불을 끄는 때 까지 이동 해보겠습니다.
01:53
Over the course of three years,
35
113260
3000
삼년이라는 과정 동안,
01:56
we recorded eight to 10 hours a day,
36
116260
2000
하루에 8-10 시간 동안 녹화를 했는데,
01:58
amassing roughly a quarter-million hours
37
118260
3000
다중트랙 음향과 영상으로
02:01
of multi-track audio and video.
38
121260
3000
대략 25만 시간 정도를 모았습니다.
02:04
So you're looking at a piece of what is by far
39
124260
2000
따라서 여러분께서는 사상 최대 규모의
02:06
the largest home video collection ever made.
40
126260
2000
홈비디오 모음집을 보고 계시는 겁니다.
02:08
(Laughter)
41
128260
3000
(웃음)
02:11
And what this data represents
42
131260
2000
그리고 개인적으로 저희 가족을 위해서
02:13
for our family at a personal level,
43
133260
4000
이 데이터가 어떻게 보여지든지,
02:17
the impact has already been immense,
44
137260
2000
그 영향은 이미 헤아릴 수 없을 정도로 크고,
02:19
and we're still learning its value.
45
139260
3000
저희는 여전히 그 가치에 대해 배우고 있는 중입니다.
02:22
Countless moments
46
142260
2000
셀 수 없는 순간들이,
02:24
of unsolicited natural moments, not posed moments,
47
144260
3000
원치 않던 자연스러운 순간들, 포즈를 잡지 않은 순간들이
02:27
are captured there,
48
147260
2000
거기 담겨 있습니다.
02:29
and we're starting to learn how to discover them and find them.
49
149260
3000
그리고 어떻게 그들을 발견하고 찾아내는지에 대해 배워보려 합니다.
02:32
But there's also a scientific reason that drove this project,
50
152260
3000
하지만 이 프로젝트를 운영하는 또다른 과학적인 이유가 있는데,
02:35
which was to use this natural longitudinal data
51
155260
4000
그것은 아이가 언어를 배우는 과정에 대해 이해하기 위해
02:39
to understand the process
52
159260
2000
이 자연 대용량 데이터를
02:41
of how a child learns language --
53
161260
2000
이용하는 것입니다. --
02:43
that child being my son.
54
163260
2000
그 아이가 제 아들이구요.
02:45
And so with many privacy provisions put in place
55
165260
4000
따라서 이 데이터에 녹화된 모든 사람들을 보호하기 위한
02:49
to protect everyone who was recorded in the data,
56
169260
3000
많은 개인정보 보호 규정을 두고,
02:52
we made elements of the data available
57
172260
3000
우리는 데이터 요소들을 MIT에 있는
02:55
to my trusted research team at MIT
58
175260
3000
제가 믿을만한 연구팀에 두고 나서
02:58
so we could start teasing apart patterns
59
178260
3000
언어 습득에 있어 사회 환경이 주는 영향에 대한
03:01
in this massive data set,
60
181260
3000
이해에 대해 시도하는,
03:04
trying to understand the influence of social environments
61
184260
3000
이 거대한 데이터 덩어리 안에서 패턴을 추출해내는 작업을
03:07
on language acquisition.
62
187260
2000
시작할 수 있었습니다.
03:09
So we're looking here
63
189260
2000
여기서 우리가 가장 처음
03:11
at one of the first things we started to do.
64
191260
2000
시작하려는 걸 보고 있습니다.
03:13
This is my wife and I cooking breakfast in the kitchen,
65
193260
4000
여긴 제 아내고, 주방에서 아침을 만들고 있죠.
03:17
and as we move through space and through time,
66
197260
3000
우리가 주방에서의 매우 일상적인 패턴,
03:20
a very everyday pattern of life in the kitchen.
67
200260
3000
공간과 시간을 통해 움직입니다.
03:23
In order to convert
68
203260
2000
이 불투명한, 9만 시간의 영상을,
03:25
this opaque, 90,000 hours of video
69
205260
3000
우리가 분석을 시작할 수 있는
03:28
into something that we could start to see,
70
208260
2000
어떤 것으로 변환 시키기 위해
03:30
we use motion analysis to pull out,
71
210260
2000
우리는 공간-시간 벌레 라고 불리는
03:32
as we move through space and through time,
72
212260
2000
영상 분석 장치를 이용했는데,
03:34
what we call space-time worms.
73
214260
3000
시간과 공간을 통한 우리의 움직임을 끌어내줍니다.
03:37
And this has become part of our toolkit
74
217260
3000
그리고 이건 데이터 속의 어떤 활동을
03:40
for being able to look and see
75
220260
3000
우리가 살펴볼 수 있도록 해주는
03:43
where the activities are in the data,
76
223260
2000
도구가 되었는데요,
03:45
and with it, trace the pattern of, in particular,
77
225260
3000
그걸 이용해서, 패턴을 추적하는데, 특히,
03:48
where my son moved throughout the home,
78
228260
2000
제 아들이 집안에서 움직이는 장소인데,
03:50
so that we could focus our transcription efforts,
79
230260
3000
그로 하여금 우리는 제 아들 주변 환경에서 일어나는
03:53
all of the speech environment around my son --
80
233260
3000
모든 말들을 받아쓰는데에 집중할 수 있었습니다.
03:56
all of the words that he heard from myself, my wife, our nanny,
81
236260
3000
저나 제 아내, 유모로부터 아기가 듣게 되는 모든 말들,
03:59
and over time, the words he began to produce.
82
239260
3000
그리고 전 시간을 통틀어 그가 만들어내기 시작한 모든 말들을 말이죠.
04:02
So with that technology and that data
83
242260
3000
그래서 그 기술과 그 데이터 그리고
04:05
and the ability to, with machine assistance,
84
245260
2000
그 기계적 도움의 능력을 통해,
04:07
transcribe speech,
85
247260
2000
말하는 것을 받아 적고,
04:09
we've now transcribed
86
249260
2000
이제는 무려
04:11
well over seven million words of our home transcripts.
87
251260
3000
저희 집 대사집의 단어 수가 7백만 단어가 넘게 받아적혔습니다.
04:14
And with that, let me take you now
88
254260
2000
그리고 그걸 가지고, 여러분들을 데이터 속으로 가는
04:16
for a first tour into the data.
89
256260
3000
최초의 여행으로 모시겠습니다.
04:19
So you've all, I'm sure,
90
259260
2000
여러분들은 아마, 분명히,
04:21
seen time-lapse videos
91
261260
2000
꽃이 피어오르는 장면을 보여주는
04:23
where a flower will blossom as you accelerate time.
92
263260
3000
고속 영상을 보신 적이 있으실겁니다.
04:26
I'd like you to now experience
93
266260
2000
저는 여러분들께 말의 형식이
04:28
the blossoming of a speech form.
94
268260
2000
피어오르는 것을 경험하게 해 드리겠습니다.
04:30
My son, soon after his first birthday,
95
270260
2000
제아들이, 첫 돌이 갓 지나서,
04:32
would say "gaga" to mean water.
96
272260
3000
물 이라는 뜻으로 "가가" 라고 말 합니다.
04:35
And over the course of the next half-year,
97
275260
3000
그리고 그로부터 반년의 시간이 흐른 뒤에,
04:38
he slowly learned to approximate
98
278260
2000
서서히 정확하게 어른들 같이 "워터" 라고
04:40
the proper adult form, "water."
99
280260
3000
말하는 방법을 배웁니다.
04:43
So we're going to cruise through half a year
100
283260
2000
자 이제 우리 반년 동안의 시간을 40초 안에
04:45
in about 40 seconds.
101
285260
2000
여행 해 보겠습니다.
04:47
No video here,
102
287260
2000
영상은 없으니,
04:49
so you can focus on the sound, the acoustics,
103
289260
3000
새로운 종류의 궤적의 음성, 음향에
04:52
of a new kind of trajectory:
104
292260
2000
집중 해 주세요.
04:54
gaga to water.
105
294260
2000
가가 에서 워터로.
04:56
(Audio) Baby: Gagagagagaga
106
296260
12000
(음성) 아기: 가가가가가가
05:08
Gaga gaga gaga
107
308260
4000
가가 가가 가가
05:12
guga guga guga
108
312260
5000
구가 구가 구가
05:17
wada gaga gaga guga gaga
109
317260
5000
와다 가가 가가 구가 가가
05:22
wader guga guga
110
322260
4000
와덜 구가 구가
05:26
water water water
111
326260
3000
워터 워터 워터
05:29
water water water
112
329260
6000
워터 워터 워터
05:35
water water
113
335260
4000
워터 워터
05:39
water.
114
339260
2000
워터.
05:41
DR: He sure nailed it, didn't he.
115
341260
2000
데브 로이: 녀석이 제대로 해냈습니다. 그렇죠?
05:43
(Applause)
116
343260
7000
(박수)
05:50
So he didn't just learn water.
117
350260
2000
그는 워터 만 배운 게 아닙니다.
05:52
Over the course of the 24 months,
118
352260
2000
24개월의 과정을 넘어,
05:54
the first two years that we really focused on,
119
354260
3000
처음의 2년에, 저희가 정말로 집중했던건
05:57
this is a map of every word he learned in chronological order.
120
357260
4000
그 애가 배운 모든 단어들을 시간 순서대로 만든 지도입니다.
06:01
And because we have full transcripts,
121
361260
3000
그리고 우리는 전체의 대화집을 가지고 있었기에,
06:04
we've identified each of the 503 words
122
364260
2000
그 아이의 두번째 생일 덕에 만드는 것을 배운
06:06
that he learned to produce by his second birthday.
123
366260
2000
503개의 각 단어들을 구분해냈습니다.
06:08
He was an early talker.
124
368260
2000
그는 말이 빨리 트였죠.
06:10
And so we started to analyze why.
125
370260
3000
우리는 왜 그런 건지 분석을 시작했습니다.
06:13
Why were certain words born before others?
126
373260
3000
왜 어떤 단어들은 다른 것들 보다 먼저 태어나는 걸까요?
06:16
This is one of the first results
127
376260
2000
이것은 우리들을 정말 놀라게 했던,
06:18
that came out of our study a little over a year ago
128
378260
2000
일년 전 쯤의 연구에서 나온 결과들 중
06:20
that really surprised us.
129
380260
2000
하나입니다.
06:22
The way to interpret this apparently simple graph
130
382260
3000
간단해보이는 이 그래프를 해석하는 방법은
06:25
is, on the vertical is an indication
131
385260
2000
이 수직 부분에 있는데요
06:27
of how complex caregiver utterances are
132
387260
3000
보호자가 말하는 문장의 길이를 기준으로
06:30
based on the length of utterances.
133
390260
2000
그 말이 얼마나 복잡한지를 알려줍니다.
06:32
And the [horizontal] axis is time.
134
392260
3000
세로축은 시간이구요.
06:35
And all of the data,
135
395260
2000
그리고 이 모든 데이터가
06:37
we aligned based on the following idea:
136
397260
3000
다음 아이디어를 기준으로 정렬되었는데요:
06:40
Every time my son would learn a word,
137
400260
3000
아들이 단어 하나를 배울 때 마다,
06:43
we would trace back and look at all of the language he heard
138
403260
3000
아이가 들은 모든 언어들 중에 그 단어가 포함된 걸
06:46
that contained that word.
139
406260
2000
역추적할 수 있게 되어 있습니다.
06:48
And we would plot the relative length of the utterances.
140
408260
4000
문장의 길이와의 연관관계에 대해서도 에측 가능하구요.
06:52
And what we found was this curious phenomena,
141
412260
3000
우리가 발견한 이 신기한 현상은,
06:55
that caregiver speech would systematically dip to a minimum,
142
415260
3000
보호자의 말이 체계적으로 최소화되면서,
06:58
making language as simple as possible,
143
418260
3000
언어를 가능한 한 단순하게 만들고,
07:01
and then slowly ascend back up in complexity.
144
421260
3000
그렇게 되면서 다른 한편으론 복잡성은 서서히 증가합니다.
07:04
And the amazing thing was
145
424260
2000
놀라운 점은
07:06
that bounce, that dip,
146
426260
2000
그 반동, 그 최소화가,
07:08
lined up almost precisely
147
428260
2000
모든 단어가 만들어질 때
07:10
with when each word was born --
148
430260
2000
언제나 꼭 따라다닙니다 --
07:12
word after word, systematically.
149
432260
2000
단어 단어마다, 체계적으로요.
07:14
So it appears that all three primary caregivers --
150
434260
2000
그래서 주로 아이를 보는 저희 셋 --
07:16
myself, my wife and our nanny --
151
436260
3000
저, 제 아내 그리고 유모는 --
07:19
were systematically and, I would think, subconsciously
152
439260
3000
체계적으로 그리고, 제생각엔 아마, 무의식적으로
07:22
restructuring our language
153
442260
2000
우리가 하는 말을 재구성을 했는데
07:24
to meet him at the birth of a word
154
444260
3000
아이가 말을 만드는 순간에 다다르게 하고
07:27
and bring him gently into more complex language.
155
447260
4000
좀 더 복잡한 언어에 들어갈 수 있도록 하기 위함이었습니다.
07:31
And the implications of this -- there are many,
156
451260
2000
또 이것이 함축하는 것은 많이 있죠,
07:33
but one I just want to point out,
157
453260
2000
하지만 제가 한가지 지적하고 싶은것은,
07:35
is that there must be amazing feedback loops.
158
455260
3000
정말 훌륭한 피드백 고리가 있어야한다는 것입니다.
07:38
Of course, my son is learning
159
458260
2000
물론, 제 아들은
07:40
from his linguistic environment,
160
460260
2000
그의 언어적 환경에서 배우고 있었지만,
07:42
but the environment is learning from him.
161
462260
3000
그 환경도 그에게서 배우고 있었습니다.
07:45
That environment, people, are in these tight feedback loops
162
465260
3000
그 환경, 사람들은 이 빽빽한 피드백 고리안에 있고
07:48
and creating a kind of scaffolding
163
468260
2000
지금까지는 알아차려지 않았던
07:50
that has not been noticed until now.
164
470260
3000
징검다리와 같은 것을 만들고 있었습니다.
07:54
But that's looking at the speech context.
165
474260
2000
하지만 그것은 그 말이 되어지는 상황을 보고 있었습니다.
07:56
What about the visual context?
166
476260
2000
시각적인 상황은 어떨까요?
07:58
We're not looking at --
167
478260
2000
우리는 우리 집을
08:00
think of this as a dollhouse cutaway of our house.
168
480260
2000
인형의 집을 잘라만든것으로서 생각한것이 아니었습니다.
08:02
We've taken those circular fish-eye lens cameras,
169
482260
3000
우리는 그 원형적인 물고기-눈의 렌즈 카메라를 택했고
08:05
and we've done some optical correction,
170
485260
2000
약간의 시각적인 교정을 했고
08:07
and then we can bring it into three-dimensional life.
171
487260
4000
그 다음에는 우리는 삼차원적인 시각의 인생으로 데려올 수 있었습니다.
08:11
So welcome to my home.
172
491260
2000
자 우리가정에 오신것을 환영합니다.
08:13
This is a moment,
173
493260
2000
이것은 한 순간입니다.
08:15
one moment captured across multiple cameras.
174
495260
3000
여러대의 카메라를 가지고 한 순간을 포착한 것이지요.
08:18
The reason we did this is to create the ultimate memory machine,
175
498260
3000
우리가 이것을 한 이유는 궁극적인 기억장비를 창조하려는 것입니다,
08:21
where you can go back and interactively fly around
176
501260
3000
여러분은 과거로 돌아가서 상호작용하도록 주변을 날아다니고
08:24
and then breathe video-life into this system.
177
504260
3000
그 다음에는 이 조직 안으로 비디오의 생명을 숨쉽니다.
08:27
What I'm going to do
178
507260
2000
이제 제가 하려하는 것은
08:29
is give you an accelerated view of 30 minutes,
179
509260
3000
30분의 비디오를 가속시킨 장면입니다.
08:32
again, of just life in the living room.
180
512260
2000
다시 말하지만, 그것은 거실의 생활입니다.
08:34
That's me and my son on the floor.
181
514260
3000
저것은 저이고 제 아들은 마루에 있습니다.
08:37
And there's video analytics
182
517260
2000
저것은 비디오
08:39
that are tracking our movements.
183
519260
2000
우리의 움직임은 추적하고 있는 것이지요.
08:41
My son is leaving red ink. I am leaving green ink.
184
521260
3000
저의 아들이 빨간 잉크를 남기고 있고, 저는 녹색의 잉크를 남기고 있습니다.
08:44
We're now on the couch,
185
524260
2000
우리가 이제는 소파에 있습니다,
08:46
looking out through the window at cars passing by.
186
526260
3000
창밖으로 차가 지나가는 것을 바라보고 있지요.
08:49
And finally, my son playing in a walking toy by himself.
187
529260
3000
또 마지막으로, 제 아들이 스스로 걷는 장난감안에서 놀고 있지요.
08:52
Now we freeze the action, 30 minutes,
188
532260
3000
자 우리는 30분의 그 움직임을 동결시킵니다,
08:55
we turn time into the vertical axis,
189
535260
2000
그 시간을 수직의 축 안으로 바꾸고
08:57
and we open up for a view
190
537260
2000
우리가 방금 남겨놓았던 상호작용의 흔적들을
08:59
of these interaction traces we've just left behind.
191
539260
3000
새로운 화면으로 엽니다.
09:02
And we see these amazing structures --
192
542260
3000
또 우리는 이 훌륭한 구조들을--
09:05
these little knots of two colors of thread
193
545260
3000
이 작은 두가지 색깔의 실로된 작은 매듭으로 보는데
09:08
we call "social hot spots."
194
548260
2000
우리는 그것을 사회적인 핫스팟이라고 하지요.
09:10
The spiral thread
195
550260
2000
나선형의 실은
09:12
we call a "solo hot spot."
196
552260
2000
우리가 솔로 핫 스팟이라고 부르지요.
09:14
And we think that these affect the way language is learned.
197
554260
3000
또 우리가 생각하기로는 이것들이 언어가 습득되는 방법에 영향을 끼칩니다.
09:17
What we'd like to do
198
557260
2000
우리가 하기를 좋아하는 것은
09:19
is start understanding
199
559260
2000
이 패턴들사이의
09:21
the interaction between these patterns
200
561260
2000
상호작용과
09:23
and the language that my son is exposed to
201
563260
2000
제 아들이 노출당했던 그 언어사이에
09:25
to see if we can predict
202
565260
2000
만약 우리가 단어들이 들렸을때의 구조가
09:27
how the structure of when words are heard
203
567260
2000
단어들이 습득되는것에 영향을 미치는지
09:29
affects when they're learned --
204
569260
2000
예측할 수 있을지를 관찰하는것을 이해하기 시작하는 것입니다.
09:31
so in other words, the relationship
205
571260
2000
그래서 달리 말하자면, 단어들과
09:33
between words and what they're about in the world.
206
573260
4000
그것들이 세계에서 어떤 역할을 하는지 사이의 관계이지요.
09:37
So here's how we're approaching this.
207
577260
2000
자 여기에 우리가 이것에 접근하는 방법이 있습니다.
09:39
In this video,
208
579260
2000
여기 비디오에서는,
09:41
again, my son is being traced out.
209
581260
2000
다시금, 제 아들의 윤곽이 잡히고 있습니다.
09:43
He's leaving red ink behind.
210
583260
2000
그는 빨간 잉크를 남기고 있습니다.
09:45
And there's our nanny by the door.
211
585260
2000
또 저기에 우리의 유모가 문옆에 있군요.
09:47
(Video) Nanny: You want water? (Baby: Aaaa.)
212
587260
3000
(비디오) 유모: 물좀 줄까? (아기: 아아아)
09:50
Nanny: All right. (Baby: Aaaa.)
213
590260
3000
유모: 좋아 (아기: 아아아)
09:53
DR: She offers water,
214
593260
2000
로이: 그녀가 물을 권합니다
09:55
and off go the two worms
215
595260
2000
또 물을 가지러 부엌으로 가서
09:57
over to the kitchen to get water.
216
597260
2000
두마리의 벌레를 가지러 갑니다.
09:59
And what we've done is use the word "water"
217
599260
2000
우리가 한것은 그 활동의 약간의 순간을 잡기 위해서,
10:01
to tag that moment, that bit of activity.
218
601260
2000
그 단어 "물"을 이용한 것입니다.
10:03
And now we take the power of data
219
603260
2000
자 이제 우리는 그 데이타의 힘을 취해서
10:05
and take every time my son
220
605260
3000
저의 아들이 매번
10:08
ever heard the word water
221
608260
2000
물이라는 단어를 들을때마다
10:10
and the context he saw it in,
222
610260
2000
또 그아이가 그것이 말해지는 상황을 보았을때,
10:12
and we use it to penetrate through the video
223
612260
3000
또 우리가 그 비디오를 통해 관통하도록 이용해서
10:15
and find every activity trace
224
615260
3000
물의 상황과 함께 발생하는
10:18
that co-occurred with an instance of water.
225
618260
3000
모든 활동을 추적해 찾습니다.
10:21
And what this data leaves in its wake
226
621260
2000
또 그 깨어남에 데이타가 남기는 것은
10:23
is a landscape.
227
623260
2000
풍경입니다.
10:25
We call these wordscapes.
228
625260
2000
우리는 이것을 언어풍경 이라고 부르죠.
10:27
This is the wordscape for the word water,
229
627260
2000
이것은 물이라는 단어풍경입니다,
10:29
and you can see most of the action is in the kitchen.
230
629260
2000
분은 대부분의 활동이 부엌에서 이루어지고 있다는 것을 볼 수 있습니다.
10:31
That's where those big peaks are over to the left.
231
631260
3000
저것은 그 높은 봉우리들이 왼쪽으로 넘어간 것입니다.
10:34
And just for contrast, we can do this with any word.
232
634260
3000
대조적으로 보자면, 우리는 것을 어떤 단어로도 할 수 있습니다.
10:37
We can take the word "bye"
233
637260
2000
"바이"라는 말을 택할 수 있지요
10:39
as in "good bye."
234
639260
2000
"잘가" 라는 말에서처럼요.
10:41
And we're now zoomed in over the entrance to the house.
235
641260
2000
우리는 이제 집의 입구위에서 확대를 시켰습니다.
10:43
And we look, and we find, as you would expect,
236
643260
3000
그래서 여러분들이 기대하시는 것처럼
10:46
a contrast in the landscape
237
646260
2000
그 풍경에서 대조를
10:48
where the word "bye" occurs much more in a structured way.
238
648260
3000
단어 "바이" 가 더욱더 구조적으로 발생하는 곳에서 대조를 관찰해서 찾았지요.
10:51
So we're using these structures
239
651260
2000
그래서 우리는 이 구조들을 이용하여
10:53
to start predicting
240
653260
2000
언어 습득의 순서를
10:55
the order of language acquisition,
241
655260
3000
예측하는 것을 시작했고
10:58
and that's ongoing work now.
242
658260
2000
그게 지금 벌어지고 있는 것입니다.
11:00
In my lab, which we're peering into now, at MIT --
243
660260
3000
이제는 엠아이티와 결연하고 있는 저의 연구소에는
11:03
this is at the media lab.
244
663260
2000
이것이 그 미디아 연구소에서 찍은것입니다.
11:05
This has become my favorite way
245
665260
2000
이것은 제가 가장 선호하는 방법이 되었습니다.
11:07
of videographing just about any space.
246
667260
2000
어떤 장소이든지를 비디오촬영하는것에 대해 말이죠.
11:09
Three of the key people in this project,
247
669260
2000
이 프로젝트에는 세명의 중요한 사람이 있습니다.
11:11
Philip DeCamp, Rony Kubat and Brandon Roy are pictured here.
248
671260
3000
필립 티켐프, 로니 쿠바트 와 브랜든 로이의 사진이 여기 있습니다.
11:14
Philip has been a close collaborator
249
674260
2000
필립은 여러분이 보시는 모든 시각화의
11:16
on all the visualizations you're seeing.
250
676260
2000
친밀한 합작자입니다.
11:18
And Michael Fleischman
251
678260
3000
마이클 플레이쉬멘은
11:21
was another Ph.D. student in my lab
252
681260
2000
저의 연구실의 다른 박사과정 학생이였는데
11:23
who worked with me on this home video analysis,
253
683260
3000
그는 저와 함께 이 가정 비디오 분석작업을 했고
11:26
and he made the following observation:
254
686260
3000
그는 다음의 관찰을 했습니다:
11:29
that "just the way that we're analyzing
255
689260
2000
우리가
11:31
how language connects to events
256
691260
3000
언어가 어떤식으로 언어의 평범한 기반을 제공하는
11:34
which provide common ground for language,
257
694260
2000
사건들에 연결을 시키는지 분석하는 방법은
11:36
that same idea we can take out of your home, Deb,
258
696260
4000
우리가 여러분의 집, 뎁을 택하흔 것과 같은 아이디어이고,
11:40
and we can apply it to the world of public media."
259
700260
3000
또 우리는 것을 세계의 공중 미디어에 적용할 수 있습니다."
11:43
And so our effort took an unexpected turn.
260
703260
3000
그래서 우리의 노력은 기대하지 않은 전환을 했습니다.
11:46
Think of mass media
261
706260
2000
매스 미디어를 생각해 보세요
11:48
as providing common ground
262
708260
2000
평범한 기반을 제공하는것 같고
11:50
and you have the recipe
263
710260
2000
이 아이디어를 전혀 새로운 장소로
11:52
for taking this idea to a whole new place.
264
712260
3000
옮길 수 있도록 하는 재료를 여러분은 가지고 계십니다.
11:55
We've started analyzing television content
265
715260
3000
우리는 똑 같은 원리를 이용하여
11:58
using the same principles --
266
718260
2000
텔레비젼의 내용을 분석하기 시작했습니다
12:00
analyzing event structure of a TV signal --
267
720260
3000
쇼의 에피소드들과
12:03
episodes of shows,
268
723260
2000
광고와
12:05
commercials,
269
725260
2000
사건의 구조를 만드는 모든 요소들을
12:07
all of the components that make up the event structure.
270
727260
3000
티비 시그널의 사건구조를 분석하는 것이지요.
12:10
And we're now, with satellite dishes, pulling and analyzing
271
730260
3000
우리는 이제 인공위성 접시를 가지고, 끌어당기고 분석하여
12:13
a good part of all the TV being watched in the United States.
272
733260
3000
시청이 되고 있는 많은 부분의 텔레비젼을 끌어 당겨서 분석하고 있습니다.
12:16
And you don't have to now go and instrument living rooms with microphones
273
736260
3000
그래서 여러분은 이제 사람들의 대화를 듣기 위해
12:19
to get people's conversations,
274
739260
2000
마이크와 장비를 가지고 거실로 가실 필요가 없습니다.
12:21
you just tune into publicly available social media feeds.
275
741260
3000
여러분은 단지 공적으로 이용가능한 소셜 미디어 피드에 채널을 맞추면 됩니다.
12:24
So we're pulling in
276
744260
2000
그래서 우리는 한달에
12:26
about three billion comments a month,
277
746260
2000
3 조의 논평을 끌어들이고 있습니다.
12:28
and then the magic happens.
278
748260
2000
그 다음에는 마술이 벌어집니다.
12:30
You have the event structure,
279
750260
2000
여러분은 이벤트의 구조를 가지게 되는데
12:32
the common ground that the words are about,
280
752260
2000
그것은 그 단어에 관한
12:34
coming out of the television feeds;
281
754260
3000
텔레비젼 피드에서 나오는 평범한 기반에서 나오는 것이죠;
12:37
you've got the conversations
282
757260
2000
여러분은 그 주제들에 관한
12:39
that are about those topics;
283
759260
2000
대화를 대하게 되죠;
12:41
and through semantic analysis --
284
761260
3000
또 상황 분석을 통해서
12:44
and this is actually real data you're looking at
285
764260
2000
이것은 실제로 우리의 데이타 프로세싱에서
12:46
from our data processing --
286
766260
2000
여러분이 보고 계시는 건데요,
12:48
each yellow line is showing a link being made
287
768260
3000
각 노란 선은 야생에서의 논평과
12:51
between a comment in the wild
288
771260
3000
텔레비젼의 시그널에서 나오는
12:54
and a piece of event structure coming out of the television signal.
289
774260
3000
이벤트 구조의 조각사이에서 만들어지는 선을 보여주고 있습니다.
12:57
And the same idea now
290
777260
2000
그래서 이제 바로 그 똑같은 아이디어가
12:59
can be built up.
291
779260
2000
세워질 수 있지요.
13:01
And we get this wordscape,
292
781260
2000
그래서 우리는 이 단어풍경을 얻게 되는데,
13:03
except now words are not assembled in my living room.
293
783260
3000
이제 단어들이 저의 거실에서 조합되지 않는다는 사실만 다르죠.
13:06
Instead, the context, the common ground activities,
294
786260
4000
대신, 그 상황과, 그 평범한 기반의 활동들은
13:10
are the content on television that's driving the conversations.
295
790260
3000
그 대화를 이끌어가는 텔레비젼의 내용입니다.
13:13
And what we're seeing here, these skyscrapers now,
296
793260
3000
그래서 우리가 여기서 보는것인, 이 초고층 빌딩은
13:16
are commentary
297
796260
2000
텔레비젼의 내용에 연결된
13:18
that are linked to content on television.
298
798260
2000
논평입니다.
13:20
Same concept,
299
800260
2000
같은 내용이지만,
13:22
but looking at communication dynamics
300
802260
2000
매우다른 영역에서
13:24
in a very different sphere.
301
804260
2000
커뮤니케이션의 역동성을 보고 있는것이지요.
13:26
And so fundamentally, rather than, for example,
302
806260
2000
또한 기본적으로,
13:28
measuring content based on how many people are watching,
303
808260
3000
얼마나 많은 사람들이 보고있는지를 내용을 기반으로 측정하는 것보다는
13:31
this gives us the basic data
304
811260
2000
이것은 내용의 접촉의 자산을 조사하기 위한
13:33
for looking at engagement properties of content.
305
813260
3000
기본적인 데이타를 우리에게 제공합니다.
13:36
And just like we can look at feedback cycles
306
816260
3000
그래서 우리가 가족내의 피드백의 순환과
13:39
and dynamics in a family,
307
819260
3000
동력을 조사할 수 있는것처럼
13:42
we can now open up the same concepts
308
822260
3000
우리는 이제 그 똑같은 개념을 개봉하여
13:45
and look at much larger groups of people.
309
825260
3000
보다 더 큰 규모의 집단을 조사할 수 있습니다.
13:48
This is a subset of data from our database --
310
828260
3000
이것은 우리의 단지 수백만중에서 오십만의 데이타베이스에서
13:51
just 50,000 out of several million --
311
831260
3000
나온 부분집합의 하나인데--
13:54
and the social graph that connects them
312
834260
2000
그 소셜 그래프는 공적으로 이용가능한 정보들을 통해서
13:56
through publicly available sources.
313
836260
3000
그것들을 연결시키는 것입니다.
13:59
And if you put them on one plain,
314
839260
2000
만약 여러분이 그 데이타를 하나의 축에 올리면,
14:01
a second plain is where the content lives.
315
841260
3000
두번째 축이 그 내용이 살아나는 곳이죠.
14:04
So we have the programs
316
844260
3000
그래서 우리는 그 프로그램과
14:07
and the sporting events
317
847260
2000
스포츠 이벤트와
14:09
and the commercials,
318
849260
2000
광고를 가지고 있어서,
14:11
and all of the link structures that tie them together
319
851260
2000
그것들을 함께 연결시키는 그 링크 조직이
14:13
make a content graph.
320
853260
2000
내용의 그래프를 만듭니다.
14:15
And then the important third dimension.
321
855260
4000
그 다음에는 중요한 세번째의 영역입니다.
14:19
Each of the links that you're seeing rendered here
322
859260
2000
여러분이 여기서 보고 계시는 링크들의 각각은
14:21
is an actual connection made
323
861260
2000
누군가 말한 무엇인가와
14:23
between something someone said
324
863260
3000
부분적인 내용을
14:26
and a piece of content.
325
866260
2000
실제로 연결해서 만든 것입니다.
14:28
And there are, again, now tens of millions of these links
326
868260
3000
또 거기에는 우리에게 그 소셜 그래프의 연결적인 티슈와
14:31
that give us the connective tissue of social graphs
327
871260
3000
그것들이 어떻게 그 내용과 연결하는지를 제공하는
14:34
and how they relate to content.
328
874260
3000
이러한 수천만 수백만의 링크들이 있습니다.
14:37
And we can now start to probe the structure
329
877260
2000
또 우리는 이제 상호교환하는 방법으로
14:39
in interesting ways.
330
879260
2000
그 조직을 탐사할 수 있습니다.
14:41
So if we, for example, trace the path
331
881260
3000
그래서 만약 우리가, 예를 들어,
14:44
of one piece of content
332
884260
2000
누군가가 그것에 관한 논평을 하기 위해 움직이는
14:46
that drives someone to comment on it,
333
886260
2000
부분적인 내용의 길의 흔적을 쫒아가면,
14:48
and then we follow where that comment goes,
334
888260
3000
그 다음은 우리가 그 논평이 옮겨가는 곳으로 따라가고,
14:51
and then look at the entire social graph that becomes activated
335
891260
3000
그다음에는 전체의 소셜 그래프가 샐행되는것을 조사하고
14:54
and then trace back to see the relationship
336
894260
3000
그다음에는 그 소셜 그래프와 내용사이의
14:57
between that social graph and content,
337
897260
2000
매우 흥미로운 구조가 되는것이 가시화되는것의
14:59
a very interesting structure becomes visible.
338
899260
2000
흔적을 다시 되짚어 볼 수 있습니다.
15:01
We call this a co-viewing clique,
339
901260
2000
우리는 이것을 동시감상의 임상이라고,
15:03
a virtual living room if you will.
340
903260
3000
원하신다면 가상의 거실이라고 부릅니다.
15:06
And there are fascinating dynamics at play.
341
906260
2000
여기엔 놀이에 매혹적인 역학이 있습니다.
15:08
It's not one way.
342
908260
2000
그것은 한가지 방법이 아닙니다.
15:10
A piece of content, an event, causes someone to talk.
343
910260
3000
부분적인 내용인 이벤트가 누군가가 말을 하도록 하게 합니다.
15:13
They talk to other people.
344
913260
2000
그들은 다른사람들에게 이야기 합니다.
15:15
That drives tune-in behavior back into mass media,
345
915260
3000
그것이 매스 미디어로 돌아가게 하는 행동에 초점을 맞추도록 움직이고
15:18
and you have these cycles
346
918260
2000
여러분은 그 전체적인 행동을 움직이는
15:20
that drive the overall behavior.
347
920260
2000
이러한 순환을 하도록 움직입니다.
15:22
Another example -- very different --
348
922260
2000
아주 다른 한가지 다른 예는
15:24
another actual person in our database --
349
924260
3000
우리의 데이타베이스에 있는 실제인물인데
15:27
and we're finding at least hundreds, if not thousands, of these.
350
927260
3000
우리는 이런것을 수천만이 아니라면 적어도 수백만을 발견합니다.
15:30
We've given this person a name.
351
930260
2000
우리는 이 사람에게 이름을 주었습니다.
15:32
This is a pro-amateur, or pro-am media critic
352
932260
3000
이 사람은 프로 아마추어이거나 미디아 비평가인데
15:35
who has this high fan-out rate.
353
935260
3000
그는 높은 전개의 비율을 가지고 있습니다.
15:38
So a lot of people are following this person -- very influential --
354
938260
3000
그래서 많은 사람들이 이사람을 따르고 있습니다--아주 영향력있고--
15:41
and they have a propensity to talk about what's on TV.
355
941260
2000
그들은 티비에 무엇이 방영되고 있는지에 관해 이야기를 하는 경향이 있습니다.
15:43
So this person is a key link
356
943260
3000
그래서 이사람은 매스 미디아와 소셜미디아를 연결하는
15:46
in connecting mass media and social media together.
357
946260
3000
중요한 연결고리입니다.
15:49
One last example from this data:
358
949260
3000
마지막 한가지 예는 이 데이타에서 나온것입니다:
15:52
Sometimes it's actually a piece of content that is special.
359
952260
3000
때때로는 그것은 실제로 부분적인 내용이 특별합니다.
15:55
So if we go and look at this piece of content,
360
955260
4000
그래서 만약 우리가 가서 이 부분적인 내용을,
15:59
President Obama's State of the Union address
361
959260
3000
단지 몇주전에 있었던
16:02
from just a few weeks ago,
362
962260
2000
오바마 대통령의 통일 국가의 연설을 보고
16:04
and look at what we find in this same data set,
363
964260
3000
이 같은 데이타 세트에서
16:07
at the same scale,
364
967260
3000
같은 규모로 우리가 찾는것을 조사한다면,
16:10
the engagement properties of this piece of content
365
970260
2000
이 부분적인 내용의 참여 자산은
16:12
are truly remarkable.
366
972260
2000
정말 괄목할만한 것입니다.
16:14
A nation exploding in conversation
367
974260
2000
전체 국가가 대화하는것에 폭발합니다
16:16
in real time
368
976260
2000
실제시간에서
16:18
in response to what's on the broadcast.
369
978260
3000
무엇이 방영되고있는지에 대한 반응에 대해서요.
16:21
And of course, through all of these lines
370
981260
2000
그리고 물론, 이 모든 대사들을 통해서
16:23
are flowing unstructured language.
371
983260
2000
조직되지 않은 언어가 흘러들고 있습니다.
16:25
We can X-ray
372
985260
2000
우리는 엑스레이를 찍어서
16:27
and get a real-time pulse of a nation,
373
987260
2000
전제 국가의 실제시간의 진맥을
16:29
real-time sense
374
989260
2000
실제시간의 감각으로
16:31
of the social reactions in the different circuits in the social graph
375
991260
3000
내용에 의해 작동되고 있는중인
16:34
being activated by content.
376
994260
3000
소셜 그래프에있는 다른 순환내의 소셜 반작용을 말이죠.
16:37
So, to summarize, the idea is this:
377
997260
3000
그래서, 요약하자면, 아이디어는 이렇습니다:
16:40
As our world becomes increasingly instrumented
378
1000260
3000
우리의 세계가 점차적으로 도구화되고
16:43
and we have the capabilities
379
1003260
2000
우리에게는
16:45
to collect and connect the dots
380
1005260
2000
사람들이 말하는 것과
16:47
between what people are saying
381
1007260
2000
그들이 그렇게 말하는 상황들 사이의
16:49
and the context they're saying it in,
382
1009260
2000
지점들을 수집하고 연결하는 능력이 있고,
16:51
what's emerging is an ability
383
1011260
2000
드러나고 있는것은
16:53
to see new social structures and dynamics
384
1013260
3000
그 이전에는 보여지지 않았던
16:56
that have previously not been seen.
385
1016260
2000
새로운 사회 구조와 동력을 보는 능력입니다.
16:58
It's like building a microscope or telescope
386
1018260
2000
그것은 마치 현미경이나 망원경과
17:00
and revealing new structures
387
1020260
2000
커뮤니케이션 주변의 우리자신의 행동에 관해서
17:02
about our own behavior around communication.
388
1022260
3000
새로운 구조를 드래내어 구축하고 있는것과 같습니다.
17:05
And I think the implications here are profound,
389
1025260
3000
그래서 제 생각에 이것이 함축하는 바는 심오한 것입니다,
17:08
whether it's for science,
390
1028260
2000
그게 과학에 관한것이든지,
17:10
for commerce, for government,
391
1030260
2000
상업을 위한것이든지, 정부를 위한 것이든지,
17:12
or perhaps most of all,
392
1032260
2000
또는 아마 가장 중요하게,
17:14
for us as individuals.
393
1034260
3000
우리 개인들을 위한것이든지요.
17:17
And so just to return to my son,
394
1037260
3000
그래서 제 아들에게로 다시 돌아가자면,
17:20
when I was preparing this talk, he was looking over my shoulder,
395
1040260
3000
제가 이 이야기를 준비하고 있었을 때, 그는 제 어깨너머를 보고 있었고,
17:23
and I showed him the clips I was going to show to you today,
396
1043260
2000
저는 오늘 여러분들에게 보여주려는 영상을 보여주었고,
17:25
and I asked him for permission -- granted.
397
1045260
3000
제가 그에게 허락을 구했습니다--승낙을 하더군요.
17:28
And then I went on to reflect,
398
1048260
2000
그리고 난 다음에 회상을 했습니다,
17:30
"Isn't it amazing,
399
1050260
3000
"그건 정말 굉장하지 않아,
17:33
this entire database, all these recordings,
400
1053260
3000
이 데이타베이스 전체, 이 모든 레코딩들,
17:36
I'm going to hand off to you and to your sister" --
401
1056260
2000
나는 너와 너의 여동생에게 건네줄 작정이야,"
17:38
who arrived two years later --
402
1058260
3000
그애는 2 년후에 태어났지요.
17:41
"and you guys are going to be able to go back and re-experience moments
403
1061260
3000
"그래서 너희들은 과거로 돌아가서 너희들이 생물학적인 기억으로는
17:44
that you could never, with your biological memory,
404
1064260
3000
절대로 기억하지 못할 순간들을 재 경험할 수 있을거야,
17:47
possibly remember the way you can now?"
405
1067260
2000
네가 아마도 지금 기억할 수 있는 그런 식으로 말이야."
17:49
And he was quiet for a moment.
406
1069260
2000
그애는 잠깐 조용히 있었습니다.
17:51
And I thought, "What am I thinking?
407
1071260
2000
그래서 제가 생각하기를, "내가 무슨 생각을 하고 있는거야?
17:53
He's five years old. He's not going to understand this."
408
1073260
2000
그애는 다섯살이야. 이것을 이해할 수 없을거야."
17:55
And just as I was having that thought, he looked up at me and said,
409
1075260
3000
제가 바로 그 생각을 하고 있을때, 그애가 저를 바라보며 말하기를,
17:58
"So that when I grow up,
410
1078260
2000
"그래서 그게 내가 자라났을때,
18:00
I can show this to my kids?"
411
1080260
2000
이것을 내 아이들에게 보여줄 수 있어요?
18:02
And I thought, "Wow, this is powerful stuff."
412
1082260
3000
그래서 제가 생각하기를, "와, 이것은 정말 파워가 센거네."
18:05
So I want to leave you
413
1085260
2000
그래서 저는 여러분들에게
18:07
with one last memorable moment
414
1087260
2000
저희 가족의 가장 기억할 만한
18:09
from our family.
415
1089260
3000
마지막 순간을 남겨드리려 합니다.
18:12
This is the first time our son
416
1092260
2000
이것은 우리의 아들이
18:14
took more than two steps at once --
417
1094260
2000
한번에 두발자국을 떼는것을
18:16
captured on film.
418
1096260
2000
것을 담은 영상입니다.
18:18
And I really want you to focus on something
419
1098260
3000
또 저는 정말 제가 여러분을 보심에 따라
18:21
as I take you through.
420
1101260
2000
여러분께서 뭔가에 집중하기를 바랍니다.
18:23
It's a cluttered environment; it's natural life.
421
1103260
2000
그것은 뒤죽박죽이 된 환경입니다; 그것은 자연적인 인생입니다.
18:25
My mother's in the kitchen, cooking,
422
1105260
2000
저의 어머니가 요리를 하며 부엌에,
18:27
and, of all places, in the hallway,
423
1107260
2000
복도에, 다른 모든 장소들에 있는데
18:29
I realize he's about to do it, about to take more than two steps.
424
1109260
3000
제가 제 아들이 그것을 할 거라는 것을, 두발자국 이상을 떼어놓을거라는 것을 발견합니다.
18:32
And so you hear me encouraging him,
425
1112260
2000
여러분은 제가 제 아들을 격려하는 것을 들을 수 있습니다
18:34
realizing what's happening,
426
1114260
2000
무엇이 일어나는지를 깨달으면서요
18:36
and then the magic happens.
427
1116260
2000
그 다음에 그 마술이 벌어집니다.
18:38
Listen very carefully.
428
1118260
2000
주의깊게 들으세요.
18:40
About three steps in,
429
1120260
2000
약 세발자국을 떼었을때,
18:42
he realizes something magic is happening,
430
1122260
2000
제 아들은 뭔가 마술적인 것이 일어난다는 것을 깨닫습니다.
18:44
and the most amazing feedback loop of all kicks in,
431
1124260
3000
또 모든것에 박차를 가하는 가장 훌륭한 피드백에
18:47
and he takes a breath in,
432
1127260
2000
제 아들은 숨을 들이쉬고는
18:49
and he whispers "wow"
433
1129260
2000
그는 "와" 라고 속삭이고
18:51
and instinctively I echo back the same.
434
1131260
4000
본능적으로 저는 똑같은것을 반향시킵니다.
18:56
And so let's fly back in time
435
1136260
3000
그러니 그 기억할 만한 순간에
18:59
to that memorable moment.
436
1139260
2000
제시간으로 날아갑시다.
19:05
(Video) DR: Hey.
437
1145260
2000
(비디오) 디알: 여기봐
19:07
Come here.
438
1147260
2000
이리와
19:09
Can you do it?
439
1149260
3000
그렇게 할 수 있겠어?
19:13
Oh, boy.
440
1153260
2000
오, 보이.
19:15
Can you do it?
441
1155260
3000
그렇게 할 수 있겠어?
19:18
Baby: Yeah.
442
1158260
2000
아기: 예
19:20
DR: Ma, he's walking.
443
1160260
3000
로이: 엄마, 제 아들이 걸어요.
19:24
(Laughter)
444
1164260
2000
(웃음)
19:26
(Applause)
445
1166260
2000
(박수)
19:28
DR: Thank you.
446
1168260
2000
로이: 감사합니다.
19:30
(Applause)
447
1170260
15000
(박수)

Original video on YouTube.com
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7