A funny look at the unintended consequences of technology | Chuck Nice

269,042 views ・ 2018-02-27

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: JY Kang 검토: Eunice Nam
00:12
Future tech always comes with two things: promise
0
12863
4205
미래 기술에는 늘 따라붙는 두 가지가 있습니다.
미래에 대한 약속, 그리고 의도치 않은 결과죠.
00:17
and unintended consequences.
1
17092
2104
00:19
And it's those consequences that I want to explore.
2
19220
3406
그 의외의 결과에 대해서 얘기해보려고 합니다.
00:23
And before we get to how future tech may affect us,
3
23101
3723
미래 기술이 우리에게 어떤 영향을 미치는지 말하기에 앞서
00:26
I'd like to spend a little time exploring the unintended consequences
4
26848
3749
최근 몇 가지 미래 기술이 낳은 의도치 않은 결과에 대해서
00:30
of some of our recent tech,
5
30621
1567
잠깐 소개해드릴까 합니다.
00:32
namely, social media.
6
32212
2022
먼저, 소셜 미디어가 있죠.
00:34
Social media, a few short years ago, was the tech of future you.
7
34885
4632
불과 몇 년 전만 해도, 소셜 미디어는 여러분의 미래를 바꿀 기술이었습니다.
00:39
Now it just is you.
8
39541
2090
그런데 지금 당신 자신 빼곤 달라진 게 없어요.
00:42
Social media was supposed to bring us together
9
42125
2827
소셜 미디어가 우리 모두를 이어줄 거라 기대했습니다.
00:44
in ways we could never imagine.
10
44976
2443
상상도 못했던 방법으로 말이죠.
00:47
And the predictors were correct.
11
47443
1769
그 예측이 맞았습니다.
00:50
These three girls are talking to one another
12
50412
2842
여기 여자아이 세 명이 서로 대화하고 있습니다.
00:53
without the awkward discomfort of eye contact.
13
53278
3034
어색하게 서로 눈을 맞추지 않고도 말이죠.
00:56
(Laughter)
14
56336
1329
(웃음)
00:57
I call that advancement.
15
57689
2080
이것을 진보라고 합니다.
01:01
We were supposed to be caught up in a communication tsunami,
16
61533
3508
우리는 통신의 쓰나미에 갇혀 꼼짝 못하게 될 거라 예측했습니다.
01:05
the likes of which the world has never seen.
17
65065
2840
사상 유래가 없을 정도로 말이죠.
01:07
And that did happen.
18
67929
1745
그런데 그 일이 실제로 벌어졌고
01:09
And so did this.
19
69698
1781
이렇게 되었습니다.
01:13
(Sings) One of these things is not like the other.
20
73153
3044
(노래) 이 중에서 하나만 다르지~ ♫
01:16
(Speaks) Now, look at this picture.
21
76221
1697
자, 사진을 한번 보세요.
01:17
If you picked the guy with the book, you’re wrong --
22
77942
2464
책을 읽는 사람을 골랐다면, 정답이 아닙니다.
01:20
or, as a certain president would say, "Wrong!"
23
80430
2764
모 대통령처럼 말하면 "아닙니다--!"
01:23
(Laughter)
24
83218
1922
(웃음)
01:27
Clearly, three of these guys are reading,
25
87496
2287
이 중에서 세 명은 분명히 뭔가 읽고 있죠.
01:29
and one guy, on the end, is listening to music
26
89807
2380
그런데 끝에 한 명은 음악을 들으며 '캔디 크러시' 게임을 하고 있어요.
01:32
and playing "Candy Crush."
27
92211
1499
01:33
(Laughter)
28
93734
1551
(웃음)
01:35
So are we more connected,
29
95862
1583
자, 서로 간의 소통이 나아졌나요?
01:37
or are we just more connected to our devices?
30
97469
3645
아니면 핸드폰과의 소통이 더 나아진 건가요?
01:42
Social media was supposed to place us in a veritable town square,
31
102156
3405
소셜 미디어가 진정한 마을 광장으로 우리를 끌어모을 거라 기대했습니다.
01:45
where we could engage one another with challenging ideas and debates.
32
105585
4739
서로 만나서 생각과 논쟁을 펼칠 수 있는 그런 광장이요.
01:50
And instead what we got were trolls.
33
110348
2890
그런데, 그 대신 탄생한 게 '인터넷 댓글러'입니다.
01:53
This is an actual tweet that I received.
34
113262
3577
이건 제가 실제로 받은 트위터 글입니다.
01:58
"Chuck, no one wants to hear your stupid, ill-informed political views!
35
118220
4154
"척. 너의 멍청하고, 뭣 모르는 정치적 주장을 들어줄 사람은 아무도 없어!
02:02
I hope you get leprosy and die.
36
122398
2321
'나방'이나 걸려서 죽어버려라.
02:04
Love, Dad"
37
124743
1408
사랑하는 아빠가."
02:06
(Laughter)
38
126175
1667
(웃음)
02:08
Now, the great thing about that tweet if you look at it,
39
128796
2653
잘 보시면 대단한 게 하나 있어요.
대부분 댓글러나 마찬가지로 얘도 그렇게 나쁜 애는 아니에요.
02:11
just like most trolls, it's not that bad,
40
131473
1987
02:13
because he wished "leporsy" on me instead of "leprosy,"
41
133484
3670
왜냐하면 '나방'이나 걸리라잖아요. '나병'이 아니고요.
02:17
and "leporsy" is not dangerous at all.
42
137178
2841
'나방'은 하나도 안 무서워요.
02:20
(Laughter)
43
140043
1581
(웃음)
02:21
(Applause)
44
141648
1660
(박수)
02:26
Along with trolls, we got a brand new way of torturing teenagers --
45
146333
4517
댓글러와 함께라면 십대 아이를 괴롭히는 참신한 방법도 배우게 됩니다.
02:30
cyberbullying.
46
150874
1365
인터넷 왕따죠.
02:32
A concept that my 75-year-old mother just can't seem to wrap her head around.
47
152848
4933
75살인 저희 어머니는 전혀 이해 못할 개념이죠.
02:38
"So, uh, did they hit him?"
48
158441
2102
"그래서 애들이 걔를 때렸니?"
02:40
"No, Mom, they didn't hit him."
49
160567
1682
"아뇨 엄마, 때리진 않았어요."
02:42
"Did they take his money?"
50
162619
1316
"애들이 걔 돈을 뺐었니?"
02:43
"No, Mom, they didn't take his money."
51
163959
1866
"아뇨. 돈을 빼앗지는 않았어요"
02:45
"Did they put his face in the toilet?"
52
165849
1856
"그럼 변기에 머리를 쳐 박았니?"
02:47
"No, Mom, they didn't --"
53
167729
1219
"아뇨 엄마, 그게 아니고요.."
02:48
"Well, what did they do?"
54
168972
1211
"그럼 뭘 어쨌다는 거니?"
02:50
"They attacked him on the internet."
55
170207
1879
"애들이 걔를 인터넷에서 공격했어요."
02:52
"Attacked him on the internet?"
56
172800
1521
"인터넷에서 공격했다고?"
02:54
(Laughter)
57
174345
1001
(웃음)
02:55
"Well, why don't you just turn off the internet?"
58
175370
2342
"그럼, 인터넷을 끄면 될 거 아냐!!"
02:57
(Laughter)
59
177736
1289
(웃음)
02:59
"Your whole generation is a bunch of wussies."
60
179049
2542
"네 녀석들 전부 계집애 같아서는."
03:01
(Laughter)
61
181615
1505
(웃음)
03:03
She's got a point.
62
183660
1150
엄마 말이 맞아요.
03:04
(Laughter)
63
184834
1339
(웃음)
03:06
She's got a point.
64
186197
1159
일리 있어요.
03:07
And I don't even want to talk about what social media has done to dating.
65
187380
3618
짝 지어주는 소셜 미디어는 또 말할 것도 없죠.
03:11
I was on Grindr until I found out it wasn't a sandwich app.
66
191491
4901
저는 Grindr 앱이 무슨 요리나 가르쳐주는 앱인 줄 알았어요.
03:16
(Laughter)
67
196416
2083
(웃음)
03:19
And I can't even tell you about Tinder,
68
199908
3222
Tinder 앱도 굳이 얘기하지 않겠습니다.
03:23
except for the fact that if you think there is a limit
69
203154
3900
하나만 말하자면
이 세상에 하룻밤 만남을 하는 사람들 수가 정해져있다고 생각하신다면
03:27
to the amount of anonymous sex we can have on this planet,
70
207078
3886
03:30
you are sadly mistaken.
71
210988
1817
안타깝게도 착각하고 계신 겁니다.
03:32
(Laughter)
72
212829
1001
(웃음)
03:33
So where do we go from here?
73
213854
1879
다음으로 뭐가 있을까요?
03:35
Well, let's just jump right in and play the hits.
74
215757
2367
인기있는 걸로 바로 넘어가죠.
무인 자동차입니다.
03:38
Driverless cars.
75
218148
1151
03:39
Something that has already been around for many years,
76
219323
2672
몇 년 사이에 주변에 많이 돌아답니다.
인간 컴퓨터의 도움도 없이 말이죠.
03:42
just without the assistance of computers.
77
222019
2161
03:44
(Laughter)
78
224204
2054
(웃음)
03:47
(Applause)
79
227352
2359
(박수)
03:50
Because for years, we have been driving while texting,
80
230733
3980
왜냐하면 지금까지 우리는 운전하면서 문자도 보내고,
03:54
putting on makeup,
81
234737
1578
화장도 하고,
03:56
shaving, reading -- actually reading --
82
236339
3082
면도에 독서도 했거든요. 실제 책도 읽어요.
03:59
that would be me.
83
239445
1162
제가 그럽니다.
04:00
(Laughter)
84
240631
1013
(웃음)
04:01
The other thing is that since driverless cars will be shared,
85
241668
2999
또 다른 경우로, 무인 자동차도 공유 서비스가 나온다면
04:04
most people won't own cars,
86
244691
1316
사람들이 차를 사지 않을 겁니다.
04:06
and that means the DMV will go away.
87
246031
2318
교통국도 없어지게 되겠죠.
04:09
The DMV -- I know what you're saying right now.
88
249000
2260
교통국이라니까 다들 이렇게 생각하실지 모르겠네요.
"이 작자가 여기 나와서 교통국 편을 들고 있네."
04:11
"There's no way this guy is going to stand up here
89
251284
2367
04:13
and make a case for the DMV."
90
253675
1425
여러분은 어떨지 모르지만
04:15
Well, I don't know about you, but I do not want to live in a world
91
255124
3173
저는 그런 곳에 있고 싶지 않아요.
04:18
where harsh fluorescent lights,
92
258321
2278
차가운 형광등 아래에서
04:20
endless lines,
93
260623
1898
대기줄은 끝이 없고
04:22
terrible forms to fill out
94
262545
1836
복잡한 서류를 만들어야 하고
04:24
and disaffected, soulless bureaucrats remind me
95
264405
3975
그런 불만에 넋이 나가 있는 공무원을 보노라면
나는 이런 데서 일하지 않는 게 참 다행이라는 생각이 들 거든요.
04:28
that I am pretty damn lucky not to work here.
96
268404
3442
04:31
(Laughter)
97
271870
1150
(웃음)
04:33
That is the real service they provide.
98
273490
2250
그게 바로 그들이 제공하는 진짜 서비스입니다.
04:36
The DMV:
99
276458
1517
「교통국.
04:37
come for the registration renewal,
100
277999
2061
등록면허 갱신하려고 왔다가
04:40
stay for the satisfaction of knowing you made some pretty good life choices.
101
280084
4251
내가 선택한 삶이 그나마 낫다는 걸 알고 만족하게 되는 곳」
04:44
(Laughter)
102
284359
1847
(웃음)
04:49
Nobody will own their car in the future,
103
289060
1998
미래에 사람들이 차를 소유하지 않게 되면
04:51
and that means teenagers will not have a place to make out.
104
291082
3046
십대 아이들이 만나서 사랑을 나눌 곳이 없어지겠죠.
04:55
So you know what that means.
105
295546
1373
그러면 어떻게 되냐면 말이죠.
04:56
That means they will order driverless cars to do just that.
106
296943
3230
그 아이들은 그럴 목적으로 무인 자동차를 부를 겁니다.
05:00
I do not want to step into a vehicle and ask the question:
107
300602
4365
나중에 제가 그 차를 타게 되면 이런 의심이 들게 될걸요.
05:04
"Why does this car smell like awkwardness, failure and shame?"
108
304991
4793
"왜 이 차에서 뭔가 어색하고, 실패와 수치스러운 냄새가 나는 거 같지?"
05:09
(Laughter)
109
309808
2158
(웃음)
05:12
If I want to ask that question, I'll walk into my own bedroom.
110
312916
3044
제가 그런 의심이 들 때는 침실에 들어설 때 뿐인데 말이죠.
05:15
(Laughter)
111
315984
1381
(웃음)
05:17
So what else do we have to look forward to?
112
317389
2010
그럼 다음으로 뭘 얘기해볼까요?
05:19
That's right, artificial intelligence.
113
319423
1824
그렇죠. 인공지능이 있네요.
05:21
Artificial intelligence, yes.
114
321271
2291
인.공.지.능.이요.
05:23
You know, there was a time when artificial intelligence was a joke.
115
323586
3189
인공지능을 농담처럼 얘기하던 때도 있었습니다.
05:26
I mean, literally a quip that you would hear at a cocktail party
116
326799
3632
술자리에서 누군가 이런 말로 빈정거리며 대화에 끼어드는 거죠.
05:30
when somebody would bring it up in conversation:
117
330455
2361
05:32
"Artificial intelligence.
118
332840
1932
"인공지능으로 말하자면
05:34
The only real artificial intelligence is our American Congress.
119
334796
3556
국회야말로 진짜 인공지능이지.
05:38
Ha, ha, ha, ha, ha."
120
338376
2028
하하하하."
05:40
Well, it's not funny anymore.
121
340428
1417
이제는 웃을 일이 아니에요!
05:41
(Laughter)
122
341869
2039
(웃음)
05:48
Stephen Hawking, Elon Musk and Bill Gates have all gone on record
123
348108
3551
스티븐 호킹, 엘론 머스크, 빌 게이츠는 공식적으로
05:51
expressing grave reservations about artificial intelligence.
124
351683
3956
인공지능에 대해 심각한 우려를 표명했습니다.
05:55
That's like Jesus, Moses and Muhammad coming together and saying,
125
355663
3531
마치 예수, 모세, 마호메트가 모여서 이렇게 얘기하는 거 같죠.
05:59
"Guy, guys -- here's something we can all believe in."
126
359218
2790
"다들 모여봐. 우리도 믿을 게 생겼어."
06:02
(Laughter)
127
362032
1022
(웃음)
06:03
You might want to go with that, is all I'm saying.
128
363078
2413
다들 제 말을 믿으셔야 할 겁니다.
06:07
We are actually teaching machines how to think,
129
367310
4467
우리는 실제로 기계에게 생각하는 법을 가르치고 있습니다.
06:11
how to understand our behavior,
130
371801
2224
인간의 행동을 이해하는 법과 자신을 보호하는 방법,
06:14
how to defend themselves and even practice deception.
131
374049
3601
심지어 인간을 속이는 법까지도요.
06:18
What could possibly go wrong?
132
378904
1729
그래서 뭐 문제될 게 있나요?
06:20
(Laughter)
133
380657
1591
(웃음)
06:23
The one thing that's for sure:
134
383568
1828
분명한 한 가지는
06:25
the creation always despises its creator.
135
385420
3149
피조물은 언제나 자신의 창조주를 얕본다는 겁니다.
06:29
OK?
136
389043
1193
그렇죠?
06:30
The Titans rose up against the gods;
137
390260
2125
타이탄 종족은 신에게 대들었고
06:32
Lucifer against Jehovah.
138
392409
1732
루시퍼도 여호와에 맞섰죠.
06:34
And anybody who has a teenager has heard these words:
139
394547
2782
십대 자녀가 있는 분이라면 이런 말 들어보셨을 거예요.
06:37
"I hate you and you're ruining my life!
140
397353
2033
"싫으니까, 내 인생에 간섭하지 마요!
06:39
I hate you!"
141
399410
1150
싫다고요!"
06:42
Now just imagine that sentiment with a machine that can outthink you
142
402325
4555
기계가 그런다고 상상해보세요.
인간의 생각을 앞지르고 무기로 중무장을 하는 겁니다.
06:46
and is heavily armed.
143
406904
1843
06:48
(Laughter)
144
408771
1511
(웃음)
06:51
The result?
145
411074
1201
그 결말은요?
06:52
Absolutely.
146
412976
1202
분명히 이렇게 되겠죠.
06:54
(Laughter)
147
414202
1456
(웃음)
06:58
What we need to do before we perfect artificial intelligence
148
418973
3244
완벽한 인공지능을 만들기 전에
07:02
is perfect artificial emotions.
149
422241
2187
완벽한 인공 감성을 만들어야 합니다.
07:04
That way, we can teach the robots or machines
150
424793
3910
그래야 로봇이나 기계에게
07:08
how to love us unconditionally,
151
428727
2481
인간을 무조건 사랑하도록 가르칠 수 있습니다.
07:11
so that when they figure out that the only real problem on this planet
152
431232
4525
그래야만 이 지구의 진정한 골칫거리가
07:15
is us,
153
435781
1190
인간임을 알았을 때,
07:16
instead of destroying us --
154
436995
1716
인간을 공격하지 않고
07:18
which, by the way, is totally logical --
155
438735
3104
물론 그래야 맞지만..
07:21
they will find us adorable --
156
441863
2446
우릴 귀엽게 봐줄 겁니다.
07:24
(Laughter)
157
444333
1066
(웃음)
07:25
like baby poop.
158
445423
1221
아기가 똥 쌌을 때처럼요.
07:26
(Laughter)
159
446668
1003
(웃음)
07:27
"Oh my god, I just love the way you just destroyed the planet.
160
447695
3106
"이런 세상에, 네가 지구를 파괴하는 것조차 사랑스럽구나.
07:30
I can't stay mad at you, you're so cute!
161
450825
2772
귀여워서 화를 낼 수가 없어!
07:33
You're so cute!"
162
453621
1222
정말 귀여워!"
07:34
(Laughter)
163
454867
1160
(웃음)
07:36
Can't talk about this without talking about robotics. OK?
164
456051
6925
여기에 덧붙여서 로봇 기술 얘기를 안 할 수가 없네요.
07:43
Remember when you thought robotics were cool?
165
463000
2121
로봇 기술이 대단하다고 생각하신 적 있죠?
저도 로봇 기술이 대단하다고 생각했습니다.
07:45
I remember when I thought robotics were cool,
166
465145
2122
사람의 역할을 빼앗는다는 걸 알기 전까지는요.
07:47
until I figured out that they were going to take everybody's place,
167
467291
3160
택배기사부터 심장전문의까지요.
07:50
from the delivery guy down to the heart surgeon.
168
470475
2266
그런데, 로봇 기술에서 가장 실망스러운 점은
07:52
The one thing, though, that is very disappointing about robotics
169
472765
3029
07:55
is the holy grail of robotics,
170
475818
1432
가장 중요한 로봇은 아직 안 나왔다는 거예요.
07:57
and it hasn't even happened.
171
477274
1347
07:58
I'm talking about the robot girlfriend,
172
478645
1939
로봇 여자 친구를 말하는 겁니다.
08:00
the dream of one lonely geek in a windowless basement
173
480608
3608
창문도 없는 지하실에서 지내는 오타쿠의 꿈이죠.
08:04
who vowed one day: "I am going to marry my creation."
174
484240
3425
어느 날 이렇게 다짐합니다. "내가 만든 로봇과 결혼할 거야."
08:08
And there actually is a movement underway to stop this from happening,
175
488738
5027
이런 일이 일어나는 걸 막자는 운동이 실제로 벌어지고 있어요.
08:13
for fear of exploitation.
176
493789
2164
성노예로 만들 우려 때문이죠.
08:16
And I, for one, am against that movement.
177
496653
2626
저는 개인적으로 그 운동에 반대합니다.
08:20
I believe we should have robot girlfriends.
178
500224
2827
저는 로봇 여자친구가 있어야 한다고 생각해요.
08:23
I just believe that they should come with a feminist protocol
179
503596
4245
그 여자 로봇은 반드시 여성인권에 대한 규칙과
08:27
and artificial intelligence,
180
507865
1879
인공지능을 갖추고 있어야 합니다.
08:29
so she can take one look at that guy and go, "I am too good for you.
181
509768
4205
그러면 그 로봇이 남자를 한번 훑어보고 이렇게 말하겠죠.
"난 너한테 과분해. 잘 있어. 난 간다."
08:33
I'm leaving."
182
513997
1302
08:35
(Laughter)
183
515323
1565
(웃음)
08:36
(Applause)
184
516912
2036
(박수)
08:40
And finally,
185
520371
1631
마지막으로
08:42
I have to talk about bioengineering,
186
522026
2182
생명공학에 대해 할 말이 있어요.
08:44
an area of science that promises to end disease before it even begins,
187
524714
6053
이 과학 분야는 증상이 나타나기도 전에 질병을 없애버리겠다고 합니다.
08:51
to help us live longer, fuller, healthier lives.
188
531658
4420
더 길고, 더 풍부하고, 더 건강한 삶을 약속하죠.
08:57
And when you couple that with implantable hardware,
189
537218
3122
몸에 이식할 수 있는 장치까지 함께 한다면
09:00
you are looking at the next incarnation of human evolution.
190
540364
4427
인간 진화의 새로운 화신이 될 거라는 기대감을 갖게 되죠.
09:04
And all of that sounds great,
191
544815
2316
다 그럴듯한 소리 같지만
09:07
until you figure out where it's really going.
192
547155
2301
실제로 어떤 일이 벌어질지 생각해보세요.
09:09
One place:
193
549480
1179
하나는 말이죠.
09:11
designer babies,
194
551133
1319
맞춤 아기입니다.
09:13
where, no matter where you are on the globe
195
553317
2027
여러분이 어느 곳에 살든
09:15
or what your ethnicity,
196
555368
1785
어떤 인종이든
09:17
babies will end up looking like that.
197
557177
2634
이런 모습의 아기가 태어날 겁니다.
09:19
(Laughter)
198
559835
1596
(웃음)
09:21
That boy is surprised
199
561455
2582
이 아이가 이렇게 놀라는 이유는
09:24
because he just found out both his parents are black.
200
564061
3479
엄마, 아빠가 모두 흑인이라는 걸 알았기 때문이에요.
09:27
(Laughter)
201
567564
2708
(웃음)
09:35
Can you imagine him at a cocktail party in 20 years?
202
575569
3168
이 아기가 스무 살이 되어 사교 모임에 갔다고 생각해보세요.
09:39
"Yeah, both my parents are black.
203
579429
1613
"응, 우리 부모님은 흑인이야.
09:41
I mean, it's a little awkward at times,
204
581066
2199
가끔 신경 쓰이기도 하지만
09:43
but you should see my credit rating.
205
583289
1747
내 신용 등급을 조회해보면
09:45
Impressive, very impressive."
206
585060
1723
엄청나. 정말 끝내주지."
09:46
(Laughter)
207
586807
1439
(웃음)
09:49
Now, all of this seems scary,
208
589353
2340
자, 전부 무서운 얘기 같지만
09:51
and everybody in this room knows that it isn't.
209
591717
2647
여기 계신 분들은 그렇지 않다는 걸 아실 거예요.
09:54
Technology isn't scary.
210
594388
1462
기술은 두려운 것이 아닙니다.
09:56
Never has been and it never will be.
211
596568
2915
지금까지 그래 왔고, 앞으로도 그렇습니다.
10:00
What's scary is us
212
600113
2671
두려운 것은 우리 인간이고
10:02
and what we will do with technology.
213
602808
1992
우리가 기술로 무엇을 할 것인가죠.
10:05
Will we allow it to expose our humanity,
214
605332
3089
기술로 우리의 인간미를 드러내고
10:09
showing our true selves
215
609334
2307
우리의 진정한 자아를 보여주고
10:11
and reinforcing the fact that we are indeed our brother's keeper?
216
611665
3844
우리 형제들을 지킬 사람이 바로 우리라는 걸 알게 해 줄까요?
10:16
Or will we allow it to reveal our deepest, darkest demons?
217
616240
5734
아니면 우리 가장 깊은 곳의 어두운 악마를 끌어내게 될까요?
10:22
The true question is not whether or not technology is scary.
218
622723
5157
진짜 문제는 기술이 두렵고 말고가 아닙니다.
10:28
The true question is:
219
628326
1285
진짜 문제는
10:30
How human
220
630273
1152
우리가 얼마나
10:31
are you?
221
631874
1170
인간적이냐는 것입니다.
10:33
Thank you.
222
633656
1151
감사합니다.
10:34
(Applause)
223
634831
3930
(박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7