Laura Schulz: The surprisingly logical minds of babies

233,233 views ・ 2015-06-02

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: Ju Hye Lim 검토: Jihyeon J. Kim
00:12
Mark Twain summed up what I take to be
0
12835
2155
미국 유명 작가 마크 트웨인은
00:14
one of the fundamental problems of cognitive science
1
14990
3120
제가 생각하기에 가장 근본적인 인지과학의 문제를
00:18
with a single witticism.
2
18110
1710
재치있게 한 마디로 정리했습니다.
00:20
He said, "There's something fascinating about science.
3
20410
3082
"과학에는 뭔가 매력적인 것이 있다.
00:23
One gets such wholesale returns of conjecture
4
23492
3228
사실이라는 아주 작은 투자를 통해
00:26
out of such a trifling investment in fact."
5
26720
3204
그토록 많은 추측을 이끌어내니까."
00:29
(Laughter)
6
29924
1585
(웃음)
00:32
Twain meant it as a joke, of course, but he's right:
7
32199
2604
물론 농담이었겠지만 맞는 말입니다.
00:34
There's something fascinating about science.
8
34803
2876
과학에는 특별한 매력이 있습니다.
00:37
From a few bones, we infer the existence of dinosuars.
9
37679
4261
우리는 몇 개의 뼈만으로 공룡의 존재를 추론해냈고
00:42
From spectral lines, the composition of nebulae.
10
42910
3871
분광선에서는 성운의 구성을,
00:47
From fruit flies,
11
47471
2938
초파리에서는
00:50
the mechanisms of heredity,
12
50409
2943
유전의 법칙을,
00:53
and from reconstructed images of blood flowing through the brain,
13
53352
4249
그리고 뇌에 흐르는 피를 재구성한 이미지로
00:57
or in my case, from the behavior of very young children,
14
57601
4708
저 같은 경우는, 아주 어린 아이들의 행동을 통해
01:02
we try to say something about the fundamental mechanisms
15
62309
2829
인간 인식이 근본적으로 어떻게 작동하는지 알아내려고 하죠.
01:05
of human cognition.
16
65138
1618
01:07
In particular, in my lab in the Department of Brain and Cognitive Sciences at MIT,
17
67716
4759
특히 저는 MIT 뇌인지과학과에 있는 제 연구실에서
01:12
I have spent the past decade trying to understand the mystery
18
72475
3654
지난 10년간 아이들이 어떻게 적은 양의 정보로
01:16
of how children learn so much from so little so quickly.
19
76129
3977
많은 것을 빨리 배우는지에 대한 신비를 알아내려고 노력했습니다.
01:20
Because, it turns out that the fascinating thing about science
20
80666
2978
과학이 매력적인 이유가
01:23
is also a fascinating thing about children,
21
83644
3529
바로 아기들이 놀랍기 때문입니다.
01:27
which, to put a gentler spin on Mark Twain,
22
87173
2581
마크 트웨인의 말을 완곡하게 바꾸어 보자면
01:29
is precisely their ability to draw rich, abstract inferences
23
89754
4650
아기들이 빠르고 정확하게 적은 양의 어지러운 자료로부터
01:34
rapidly and accurately from sparse, noisy data.
24
94404
4661
풍부하고 추상적인 추론을 할 수 있는 능력입니다.
01:40
I'm going to give you just two examples today.
25
100355
2398
저는 오늘 여러분들께 예시를 두 개만 보여 드리겠습니다.
01:42
One is about a problem of generalization,
26
102753
2287
하나는 일반화의 오류이고
01:45
and the other is about a problem of causal reasoning.
27
105040
2850
다른 하나는 인과추론의 오류입니다.
01:47
And although I'm going to talk about work in my lab,
28
107890
2525
제 연구실에서 한 연구에 대해 말씀드리겠지만
01:50
this work is inspired by and indebted to a field.
29
110415
3460
이 연구는 인지과학분야에서 영감과 도움을 받았습니다.
01:53
I'm grateful to mentors, colleagues, and collaborators around the world.
30
113875
4283
전 세계의 멘토와 동료와 공동연구자들에게 감사드립니다.
01:59
Let me start with the problem of generalization.
31
119308
2974
그럼 일반화의 오류부터 얘기할까요?
02:02
Generalizing from small samples of data is the bread and butter of science.
32
122652
4133
적은 표본으로 일반화하는 것은 과학의 기본입니다.
02:06
We poll a tiny fraction of the electorate
33
126785
2554
우리가 유권자의 일부분만 여론조사해서
02:09
and we predict the outcome of national elections.
34
129339
2321
대국민 선거결과를 예측하듯 말이죠.
02:12
We see how a handful of patients responds to treatment in a clinical trial,
35
132240
3925
우리는 소수의 환자의 임상실험에 대한 반응을 보고
02:16
and we bring drugs to a national market.
36
136165
3065
전국의 시장에 약을 내놓습니다.
02:19
But this only works if our sample is randomly drawn from the population.
37
139230
4365
일반화가 통하기 위해서는 표본이 무작위로 선정돼야 합니다.
02:23
If our sample is cherry-picked in some way --
38
143595
2735
표본이 특정한 방식으로 선별된다면,
02:26
say, we poll only urban voters,
39
146330
2072
예를 들어, 도시의 여론만 조사하거나
02:28
or say, in our clinical trials for treatments for heart disease,
40
148402
4388
심장질환 치료를 위한 임상실험의 경우
02:32
we include only men --
41
152790
1881
남자만 대상으로 한다면
02:34
the results may not generalize to the broader population.
42
154671
3158
결과를 인구 전체로 일반화할 수 없겠죠.
02:38
So scientists care whether evidence is randomly sampled or not,
43
158479
3581
따라서 과학자들은 무작위 표본추출을 신경씁니다.
02:42
but what does that have to do with babies?
44
162060
2015
그런데 이게 아기와 무슨 상관일까요?
02:44
Well, babies have to generalize from small samples of data all the time.
45
164585
4621
아기는 항상 적은 표본으로 일반화해야 합니다.
02:49
They see a few rubber ducks and learn that they float,
46
169206
3158
고무오리 몇 개만 보고 고무오리는 물에 뜬다는 것을,
02:52
or a few balls and learn that they bounce.
47
172364
3575
몇 개의 공만 보고 공은 튀어오른다는 걸 배우죠.
02:55
And they develop expectations about ducks and balls
48
175939
2951
그리고 고무오리와 공에 대해 예상을 발전시켜서
02:58
that they're going to extend to rubber ducks and balls
49
178890
2716
남은 일생동안 고무오리와 공에 확대 적용합니다.
03:01
for the rest of their lives.
50
181606
1879
03:03
And the kinds of generalizations babies have to make about ducks and balls
51
183485
3739
고무오리와 공에 적용하는 것과 같은 일반화를
03:07
they have to make about almost everything:
52
187224
2089
거의 다른 모든 것에도 적용합니다.
03:09
shoes and ships and sealing wax and cabbages and kings.
53
189313
3917
신발, 배, 밀랍 봉인, 양배추, 왕..
03:14
So do babies care whether the tiny bit of evidence they see
54
194200
2961
그렇다면 아기는 그들이 보는 적은 양의 증거가
03:17
is plausibly representative of a larger population?
55
197161
3692
모집단을 정말 대표할 수 있는지에 신경쓸까요?
03:21
Let's find out.
56
201763
1900
한번 알아봅시다.
03:23
I'm going to show you two movies,
57
203663
1723
지금부터 두 개의 영상을 보여드릴겁니다.
03:25
one from each of two conditions of an experiment,
58
205386
2462
각각 다른 조건에서 실험한 영상입니다.
03:27
and because you're going to see just two movies,
59
207848
2438
두 개만 보시게 되니까
03:30
you're going to see just two babies,
60
210286
2136
아기도 두 명만 있을 겁니다.
03:32
and any two babies differ from each other in innumerable ways.
61
212422
3947
그리고 어떤 아기든 두 명의 아기는 서로 수많은 부분에서 다릅니다.
03:36
But these babies, of course, here stand in for groups of babies,
62
216369
3051
하지만 이 아기들은 여기서 아기 집단을 대표합니다.
03:39
and the differences you're going to see
63
219420
1895
여러분이 보시게 될 차이점은
03:41
represent average group differences in babies' behavior across conditions.
64
221315
5195
다른 조건 아래의 아기들의 행동방식의 평균 집단적 차이를 대표합니다.
03:47
In each movie, you're going to see a baby doing maybe
65
227160
2583
각각의 영상에서 여러분은 아마 아기가
03:49
just exactly what you might expect a baby to do,
66
229743
3460
여러분이 예측한 대로 행동하는 걸 보게 될 겁니다.
03:53
and we can hardly make babies more magical than they already are.
67
233203
4017
그 이상으로 아기가 더 마법같은 행동을 할 순 없습니다.
03:58
But to my mind the magical thing,
68
238090
2010
제 생각으로 마법같은 것은,
04:00
and what I want you to pay attention to,
69
240100
2089
여러분이 주목하셨으면 하는 부분이
04:02
is the contrast between these two conditions,
70
242189
3111
각각 다른 조건을 대조한 것입니다.
04:05
because the only thing that differs between these two movies
71
245300
3529
두 영상의 유일한 차이점이라곤
04:08
is the statistical evidence the babies are going to observe.
72
248829
3466
아기들이 관찰할 통계적 증거밖에 없기 때문이죠.
04:13
We're going to show babies a box of blue and yellow balls,
73
253425
3183
우리는 아기에게 파란색과 노란색 공이 담긴 상자를 보여줄 겁니다.
04:16
and my then-graduate student, now colleague at Stanford, Hyowon Gweon,
74
256608
4620
당시 대학원생이었고 이제는 스탠포드에서 제 동료인 권효원양이
04:21
is going to pull three blue balls in a row out of this box,
75
261228
3077
상자에서 파란 공을 연속으로 세 개 꺼낼겁니다.
04:24
and when she pulls those balls out, she's going to squeeze them,
76
264305
3123
꺼낸 후에는 공을 꽉 누를 거예요.
04:27
and the balls are going to squeak.
77
267428
2113
그러면 공에서 끽끽 소리가 날 겁니다.
04:29
And if you're a baby, that's like a TED Talk.
78
269541
2763
만약 여러분들이 아기라면. TED 강연 같은 거죠.
04:32
It doesn't get better than that.
79
272304
1904
그보다 좋을 수 없으니까요.
04:34
(Laughter)
80
274208
2561
(웃음)
04:38
But the important point is it's really easy to pull three blue balls in a row
81
278968
3659
중요한 건 파란 공이 대부분인 상자에서 파란 공을 세 번 연속
04:42
out of a box of mostly blue balls.
82
282627
2305
꺼내는 건 쉽다는 겁니다.
04:44
You could do that with your eyes closed.
83
284932
2060
눈 감고도 할 수 있어요.
04:46
It's plausibly a random sample from this population.
84
286992
2996
이 모집단에서 충분히 무작위로 뽑힐 수 있는 표본이죠.
04:49
And if you can reach into a box at random and pull out things that squeak,
85
289988
3732
그리고 상자 안에 손을 넣어 무작위로 소리나는 공을 뽑을 수 있다면
04:53
then maybe everything in the box squeaks.
86
293720
2839
상자 안의 모든 공에서 소리가 날 수도 있습니다.
04:56
So maybe babies should expect those yellow balls to squeak as well.
87
296559
3650
그래서 아기는 노란 공도 소리가 날 거라고 예상할 수도 있습니다.
05:00
Now, those yellow balls have funny sticks on the end,
88
300209
2519
이 노란 공에는, 아기들이 막대로 다른 걸 해볼 수 있도록
05:02
so babies could do other things with them if they wanted to.
89
302728
2857
공의 끝부분에 막대가 꽂혀 있습니다.
05:05
They could pound them or whack them.
90
305585
1831
마구 두드릴 수도 있고 칠 수도 있습니다.
05:07
But let's see what the baby does.
91
307416
2586
아기들이 어떻게 하는지 보죠.
05:12
(Video) Hyowon Gweon: See this? (Ball squeaks)
92
312548
3343
권효원: 이거 보이니? (공이 끽끽 대는 소리)
05:16
Did you see that? (Ball squeaks)
93
316531
3045
봤어? (공이 끽끽 대는 소리)
05:20
Cool.
94
320036
3066
멋지다.
05:24
See this one?
95
324706
1950
이 공 보이니?
05:26
(Ball squeaks)
96
326656
1881
(공이 끽끽대는 소리)
05:28
Wow.
97
328537
2653
우와.
05:33
Laura Schulz: Told you. (Laughs)
98
333854
2113
별 거 없죠?
05:35
(Video) HG: See this one? (Ball squeaks)
99
335967
4031
권효원: 이거 보여? (공이 끽끽대는 소리)
05:39
Hey Clara, this one's for you. You can go ahead and play.
100
339998
4619
클라라, 이 공 줄게. 갖고 놀아도 돼.
(웃음)
05:51
(Laughter)
101
351854
4365
05:56
LS: I don't even have to talk, right?
102
356219
2995
말 안해도 어떤 상황인지 아시겠죠?
05:59
All right, it's nice that babies will generalize properties
103
359214
2899
아기들이 파란 공의 특성을 노란 공에
06:02
of blue balls to yellow balls,
104
362113
1528
일반화시키는 것은 좋습니다
06:03
and it's impressive that babies can learn from imitating us,
105
363641
3096
아기들이 우리의 행동을 모방함으로써 학습하는 것도 인상깊죠.
06:06
but we've known those things about babies for a very long time.
106
366737
3669
우리는 아기의 이런 특성을 오래 전부터 알고 있었습니다.
06:10
The really interesting question
107
370406
1811
진짜 흥미로운 질문은
06:12
is what happens when we show babies exactly the same thing,
108
372217
2852
아기들에게 완벽히 똑같은 것을 보여주면 무슨 일이 일어나는지 입니다.
06:15
and we can ensure it's exactly the same because we have a secret compartment
109
375069
3611
완벽히 똑같다고 장담할 수 있는게 우리가 칸을 하나 숨겨놓고
06:18
and we actually pull the balls from there,
110
378680
2110
거기서 공을 꺼내기 때문입니다.
06:20
but this time, all we change is the apparent population
111
380790
3478
하지만 이번엔 증거를 산출하는
06:24
from which that evidence was drawn.
112
384268
2902
모집단만 바꿀겁니다.
06:27
This time, we're going to show babies three blue balls
113
387170
3553
이번에는 아기에게 노란 공이 대부분인 상자에서 꺼낸
06:30
pulled out of a box of mostly yellow balls,
114
390723
3384
파란 공 세 개를 보여줄 겁니다.
06:34
and guess what?
115
394107
1322
결과가 어떨까요?
06:35
You [probably won't] randomly draw three blue balls in a row
116
395429
2840
아마 노란 공이 가득한 상자에서 무작위로 파란 공을
06:38
out of a box of mostly yellow balls.
117
398269
2484
연속 세 번 뽑을 수는 없을 겁니다.
06:40
That is not plausibly randomly sampled evidence.
118
400753
3747
무작위로 뽑았을 때 가능한 표본이 아니죠.
06:44
That evidence suggests that maybe Hyowon was deliberately sampling the blue balls.
119
404500
5123
이 표본은 효원양이 일부러 파란 공만 뽑았을 수도 있다는 걸 암시합니다.
06:49
Maybe there's something special about the blue balls.
120
409623
2583
파란 공이 특별한 걸 수도 있죠.
06:52
Maybe only the blue balls squeak.
121
412846
2976
파란 공에서만 소리가 날 수도 있어요.
06:55
Let's see what the baby does.
122
415822
1895
아기가 어떻게 행동하는지 봅시다.
06:57
(Video) HG: See this? (Ball squeaks)
123
417717
2904
권효은: 이거 보이니? (공이 끽끽대는 소리)
07:02
See this toy? (Ball squeaks)
124
422851
2645
이 장난감 보여? (공이 끽끽대는 소리)
07:05
Oh, that was cool. See? (Ball squeaks)
125
425496
5480
멋지다. 봐봐. (공이 끽끽대는 소리)
07:10
Now this one's for you to play. You can go ahead and play.
126
430976
4394
자, 이거 줄게. 갖고 놀아도 돼.
07:18
(Fussing) (Laughter)
127
438074
6347
(소란) (웃음)
07:26
LS: So you just saw two 15-month-old babies
128
446901
2748
15개월의 두 아기가 관찰한 표본의 확률에만 기반한 추측으로
07:29
do entirely different things
129
449649
1942
07:31
based only on the probability of the sample they observed.
130
451591
3599
완전히 다른 행동을 하는 것을 방금 보셨습니다.
07:35
Let me show you the experimental results.
131
455190
2321
실험 결과를 보여드릴게요
07:37
On the vertical axis, you'll see the percentage of babies
132
457511
2764
세로 축은 각 조건에서 공을 누른
07:40
who squeezed the ball in each condition,
133
460275
2530
아기의 비율입니다.
07:42
and as you'll see, babies are much more likely to generalize the evidence
134
462805
3715
보시다시피 아기들은 증거가 선별됐을 때보다
07:46
when it's plausibly representative of the population
135
466520
3135
모집단을 충분히 대표할 수 있을 때
07:49
than when the evidence is clearly cherry-picked.
136
469655
3738
증거를 일반화할 확률이 더 높습니다.
07:53
And this leads to a fun prediction:
137
473393
2415
이걸로 재밌는 예측이 가능합니다.
07:55
Suppose you pulled just one blue ball out of the mostly yellow box.
138
475808
4868
노란 공이 대부분인 상자에서 파란 공을 하나만 꺼낸다고 가정합시다.
08:00
You [probably won't] pull three blue balls in a row at random out of a yellow box,
139
480896
3869
무작위로 파란 공을 연속으로 세 개나 뽑는 건 어려울 겁니다.
08:04
but you could randomly sample just one blue ball.
140
484765
2455
하지만 파란 공을 무작위로 하나만 뽑는것은
08:07
That's not an improbable sample.
141
487220
1970
있을 수 없는 일은 아니죠.
08:09
And if you could reach into a box at random
142
489190
2224
그리고 상자에 손을 넣어 아무거나 꺼냈는데
08:11
and pull out something that squeaks, maybe everything in the box squeaks.
143
491414
3987
소리가 난다면 상자 속의 다른 공도 다 소리날 수도 있죠.
08:15
So even though babies are going to see much less evidence for squeaking,
144
495875
4445
그러니까 이전에 비해 소리나는 공을 훨씬 적게 보게 되고
08:20
and have many fewer actions to imitate
145
500320
2242
모방할 행동이 훨씬 적더라도
08:22
in this one ball condition than in the condition you just saw,
146
502562
3343
여러분이 방금 보신 조건에서보다 공 하나를 뽑는 이 조건에서
08:25
we predicted that babies themselves would squeeze more,
147
505905
3892
아기가 더 많이 공을 누를 거라고 우린 추측했고
08:29
and that's exactly what we found.
148
509797
2894
실제로 그랬습니다.
08:32
So 15-month-old babies, in this respect, like scientists,
149
512691
4411
그러니까 15개월의 아기가, 이 부분에 있어서는
08:37
care whether evidence is randomly sampled or not,
150
517102
3088
과학자들처럼 표본이 무작위로 선출되었는지 신경쓰고
08:40
and they use this to develop expectations about the world:
151
520190
3507
세상을 더 잘 예측하는 데 사용합니다.
08:43
what squeaks and what doesn't,
152
523697
2182
어느 공이 소리가 나는지
08:45
what to explore and what to ignore.
153
525879
3145
어느 걸 탐구하고 무시해야 할지 말이죠.
08:50
Let me show you another example now,
154
530384
2066
이제 다른 예시를 보여드릴게요.
08:52
this time about a problem of causal reasoning.
155
532450
2730
이번에는 인과추론의 오류에 대한 겁니다.
08:55
And it starts with a problem of confounded evidence
156
535180
2439
이 오류는 우리 모두가 가진 혼란스러운 증거로부터 시작됩니다.
08:57
that all of us have,
157
537619
1672
08:59
which is that we are part of the world.
158
539291
2020
우리가 세계의 일부라는 거죠.
09:01
And this might not seem like a problem to you, but like most problems,
159
541311
3436
여러분께 문제처럼 보이지 않을 수도 있겠지만
이건 다른 문제들처럼 일이 잘못되었을 때만 문제가 됩니다.
09:04
it's only a problem when things go wrong.
160
544747
2337
09:07
Take this baby, for instance.
161
547464
1811
이 아기를 예로 들어 봅시다.
09:09
Things are going wrong for him.
162
549275
1705
뭐가 잘 안 풀리네요.
09:10
He would like to make this toy go, and he can't.
163
550980
2271
장난감을 작동시키고 싶은데 안돼죠.
09:13
I'll show you a few-second clip.
164
553251
2529
짧은 영상을 보여드릴게요.
09:21
And there's two possibilities, broadly:
165
561340
1920
크게 두 가지 가능성이 있습니다.
09:23
Maybe he's doing something wrong,
166
563260
2634
아기가 뭔가를 잘못하고 있든지
09:25
or maybe there's something wrong with the toy.
167
565894
4216
장난감이 문제든지.
09:30
So in this next experiment,
168
570110
2111
그래서 다음 실험에서
09:32
we're going to give babies just a tiny bit of statistical data
169
572221
3297
아기들에게 둘 중 하나의 가설을 지지하는
09:35
supporting one hypothesis over the other,
170
575518
2582
통계 자료를 조금 줄 겁니다.
09:38
and we're going to see if babies can use that to make different decisions
171
578100
3455
아기들이 이걸 이용해 어떤 행동을 해야할 지에 대한
09:41
about what to do.
172
581555
1834
다른 판단을 내릴 수 있는지 볼 거예요.
09:43
Here's the setup.
173
583389
2022
실험은 이런 식으로 진행됩니다.
09:46
Hyowon is going to try to make the toy go and succeed.
174
586071
3030
효원 양이 장난감을 작동시키고 그렇게 됩니다.
09:49
I am then going to try twice and fail both times,
175
589101
3320
그 다음 제가 두 번 시도하고 두 번 다 실패할 거예요.
09:52
and then Hyowon is going to try again and succeed,
176
592421
3112
다시 효원 양이 시도해서 장난감을 작동시키는 데 성공할 겁니다.
09:55
and this roughly sums up my relationship to my graduate students
177
595533
3172
이건 전반적으로 기계를 사용하는 데 있어서
09:58
in technology across the board.
178
598705
2835
저와 학생들 사이의 관계를 보여줍니다.
10:02
But the important point here is it provides a little bit of evidence
179
602030
3292
여기서 중요한 점은 장난감이 문제가 아니라
10:05
that the problem isn't with the toy, it's with the person.
180
605322
3668
사람이 문제라는 것에 대한 증거를 조금만 제공한다는 겁니다.
10:08
Some people can make this toy go,
181
608990
2350
어떤 사람은 이 장난감을 작동시킬 수 있고
10:11
and some can't.
182
611340
959
어떤 사람은 아니죠.
10:12
Now, when the baby gets the toy, he's going to have a choice.
183
612799
3413
아기들이 장난감을 받으면 선택지가 주어질 겁니다.
10:16
His mom is right there,
184
616212
2188
엄마가 바로 옆에 있어서
10:18
so he can go ahead and hand off the toy and change the person,
185
618400
3315
아기가 엄마에게 장난감을 줌으로써 사람을 바꿀 수도 있고
10:21
but there's also going to be another toy at the end of that cloth,
186
621715
3158
천의 다른 쪽에는 또 다른 장난감이 있어서
10:24
and he can pull the cloth towards him and change the toy.
187
624873
3552
천을 잡아당겨 장난감을 바꿀 수도 있습니다.
10:28
So let's see what the baby does.
188
628425
2090
아기가 어떻게 행동하는지 봅시다.
10:30
(Video) HG: Two, three. Go! (Music)
189
630515
4183
권효원: 둘, 셋, 짠! (음악)
10:34
LS: One, two, three, go!
190
634698
3131
로라 셜츠: 하나, 둘, 셋, 짠!
10:37
Arthur, I'm going to try again. One, two, three, go!
191
637829
7382
아서, 다시 해볼게. 하나, 둘, 셋, 짠!
10:45
YG: Arthur, let me try again, okay?
192
645677
2600
권효원: 아서, 나도 다시 해볼게,알았지?
10:48
One, two, three, go! (Music)
193
648277
4550
하나, 둘, 셋, 짠! (음악)
10:53
Look at that. Remember these toys?
194
653583
1883
이것 봐. 이 장난감들 기억나니?
10:55
See these toys? Yeah, I'm going to put this one over here,
195
655466
3264
이 장난감들 보여? 그래, 이건 여기 두고
10:58
and I'm going to give this one to you.
196
658730
2062
이건 너한테 줄게.
11:00
You can go ahead and play.
197
660792
2335
가지고 놀아도 돼.
11:23
LS: Okay, Laura, but of course, babies love their mommies.
198
683213
4737
로라, 그런데 아기는 엄마를 사랑하니까
11:27
Of course babies give toys to their mommies
199
687950
2182
장난감이 작동하지 않을 때
11:30
when they can't make them work.
200
690132
2030
당연히 엄마에게 장난감을 주겠죠.
11:32
So again, the really important question is what happens when we change
201
692162
3593
다시 말씀드리지만 중요한 건 우리가 통계 자료를 아주 약간
11:35
the statistical data ever so slightly.
202
695755
3154
변형시켰을 때 어떤 일이 일어나는지 입니다.
11:38
This time, babies are going to see the toy work and fail in exactly the same order,
203
698909
4087
이번에 아기는 동일한 순서로 장난감을 작동시키는 걸
11:42
but we're changing the distribution of evidence.
204
702996
2415
성공하고 실패하는 걸 보겠지만 증거의 분포가 바뀔겁니다.
11:45
This time, Hyowon is going to succeed once and fail once, and so am I.
205
705411
4411
이번엔 효원 양과 저는 한 번 성공하고 한 번 실패할 거예요.
11:49
And this suggests it doesn't matter who tries this toy, the toy is broken.
206
709822
5637
이건 누가 시도하는지 상관없이 장난감이 망가진 걸 의미합니다.
11:55
It doesn't work all the time.
207
715459
1886
항상 작동하진 않으니까요.
11:57
Again, the baby's going to have a choice.
208
717345
1965
다시, 아기는 선택지가 주어집니다.
엄마가 바로 옆에 있어서 사람을 바꿀 수도 있고
11:59
Her mom is right next to her, so she can change the person,
209
719310
3396
12:02
and there's going to be another toy at the end of the cloth.
210
722706
3204
천 끝에 다른 장난감이 있어서 장난감을 바꿀 수도 있습니다.
12:05
Let's watch what she does.
211
725910
1378
아기가 어떻게 하는지 관찰해보죠.
12:07
(Video) HG: Two, three, go! (Music)
212
727288
4348
효원: 둘, 셋, 짠!
12:11
Let me try one more time. One, two, three, go!
213
731636
4984
다시 해볼게. 하나, 둘, 셋, 짠!
12:17
Hmm.
214
737460
1697
음...
12:19
LS: Let me try, Clara.
215
739950
2692
로라 슐츠: 클라라, 내가 해볼게.
12:22
One, two, three, go!
216
742642
3945
하나, 둘, 셋, 짠!
12:27
Hmm, let me try again.
217
747265
1935
음, 다시 해볼게.
12:29
One, two, three, go! (Music)
218
749200
5670
하나, 둘, 셋, 짠!
12:35
HG: I'm going to put this one over here,
219
755009
2233
권효원: 이건 여기 두고
12:37
and I'm going to give this one to you.
220
757242
2001
이건 너한테 줄게.
12:39
You can go ahead and play.
221
759243
3597
갖고 놀아도 돼.
12:58
(Applause)
222
778376
4897
(박수)
13:04
LS: Let me show you the experimental results.
223
784993
2392
실험 결과를 보여드릴게요.
13:07
On the vertical axis, you'll see the distribution
224
787385
2475
세로축에 아이들이 각 조건에서 어떤 선택을 했는지에 대한
13:09
of children's choices in each condition,
225
789860
2577
분포를 볼 수 있습니다.
13:12
and you'll see that the distribution of the choices children make
226
792437
4551
보시면 분포도가 아기들이 관찰한 증거에 따라
13:16
depends on the evidence they observe.
227
796988
2787
결정된다는 걸 알 수 있습니다.
13:19
So in the second year of life,
228
799775
1857
아기는 두 살 때
13:21
babies can use a tiny bit of statistical data
229
801632
2577
적은 양의 통계 자료로 행동할 때
13:24
to decide between two fundamentally different strategies
230
804209
3367
두 가지의 근본적으로 다른 전략 중 하나를 고를 수 있습니다.
13:27
for acting in the world:
231
807576
1881
13:29
asking for help and exploring.
232
809457
2743
도움을 청할지 탐구해 볼지 입니다.
13:33
I've just shown you two laboratory experiments
233
813700
3434
이 분야에서 비슷한 주제로 한 실험이 정말 수 백개가 있지만 그 중에서
13:37
out of literally hundreds in the field that make similar points,
234
817134
3691
연구실에서 한 실험 두 개만 보여드렸습니다.
13:40
because the really critical point
235
820825
2392
정말로 중요한 요점은
13:43
is that children's ability to make rich inferences from sparse data
236
823217
5108
적은 자료로 풍부한 추론을 하는 아이들의 능력이
13:48
underlies all the species-specific cultural learning that we do.
237
828325
5341
인간이 하는 모든 종 특유의 문화적 학습의 근간이기 때문이죠.
13:53
Children learn about new tools from just a few examples.
238
833666
4597
아이들은 몇 개의 예시만으로 새 도구를 사용하는 법을 배우고
13:58
They learn new causal relationships from just a few examples.
239
838263
4717
몇 개의 예시만으로 새로운 인과관계를 배웁니다.
14:03
They even learn new words, in this case in American Sign Language.
240
843928
4871
새로운 단어도 배웁니다. 이 경우는 미국식 수화죠.
14:08
I want to close with just two points.
241
848799
2311
두 가지 요점으로 마무리하고 싶습니다.
14:12
If you've been following my world, the field of brain and cognitive sciences,
242
852050
3688
만약 여러분께서 제 세계인 뇌와 인지과학의 분야를
14:15
for the past few years,
243
855738
1927
지난 몇 년간 지켜보셨다면
14:17
three big ideas will have come to your attention.
244
857665
2415
세 가지 커다란 견해가 눈에 들어오셨을 겁니다.
14:20
The first is that this is the era of the brain.
245
860080
3436
첫째는, 지금은 뇌의 시대라는 겁니다.
14:23
And indeed, there have been staggering discoveries in neuroscience:
246
863516
3669
정말로 신경과학에서 충격적인 발견들이 있었습니다.
14:27
localizing functionally specialized regions of cortex,
247
867185
3436
피질에서 기능이 특화된 부분을 알아내는 것,
14:30
turning mouse brains transparent,
248
870621
2601
쥐의 뇌를 투명하게 만드는 것,
14:33
activating neurons with light.
249
873222
3776
뉴런을 빛으로 활성화시키는 것이 있었죠.
14:36
A second big idea
250
876998
1996
두 번째는
14:38
is that this is the era of big data and machine learning,
251
878994
4104
빅데이터와 기계 학습의 시대라는 것입니다.
14:43
and machine learning promises to revolutionize our understanding
252
883098
3141
기계 학습은 우리의 이해력에 혁명을 가져올 것을 약속합니다.
14:46
of everything from social networks to epidemiology.
253
886239
4667
소셜네트워크부터 역학까지 전부 다요.
14:50
And maybe, as it tackles problems of scene understanding
254
890906
2693
그리고 장면 이해에 대한 문제와
14:53
and natural language processing,
255
893599
1993
자연 언어 처리를 다루면서
14:55
to tell us something about human cognition.
256
895592
3324
인간의 인식력에 대해 무언가를 알려줄 수도 있죠.
14:59
And the final big idea you'll have heard
257
899756
1937
마지막은 여러분이 들어보셨을 수도 있는데
15:01
is that maybe it's a good idea we're going to know so much about brains
258
901693
3387
우리가 뇌에 대해 많은 걸 알고
빅데이터에 많이 접근하는 게 좋은 것일 수 있다는 겁니다.
15:05
and have so much access to big data,
259
905080
1917
15:06
because left to our own devices,
260
906997
2507
기기와 남겨진 인간은
15:09
humans are fallible, we take shortcuts,
261
909504
3831
오류를 범하기 쉽기 때문입니다.
지름길로 가고, 실수를 하고
15:13
we err, we make mistakes,
262
913335
3437
15:16
we're biased, and in innumerable ways,
263
916772
3684
많은 방면에서 편향되어 있고
세상을 잘못 이해합니다.
15:20
we get the world wrong.
264
920456
2969
15:24
I think these are all important stories,
265
924843
2949
저는 이 모든 게 중요하고
15:27
and they have a lot to tell us about what it means to be human,
266
927792
3785
인간적인 것이 어떤 의미인지에 대해 많은 것을 말해준다고 생각합니다.
15:31
but I want you to note that today I told you a very different story.
267
931577
3529
하지만 전 오늘 완전히 다른 이야기를 들려드렸다는 걸 강조하고 싶습니다.
15:35
It's a story about minds and not brains,
268
935966
3807
뇌가 아닌 사고에 관한 이야기였습니다.
15:39
and in particular, it's a story about the kinds of computations
269
939773
3006
그리고 특별하게 인간의 정신만이 가능한
15:42
that uniquely human minds can perform,
270
942779
2590
많은 양의 구조화된 지식과
15:45
which involve rich, structured knowledge and the ability to learn
271
945369
3944
적은 양의 자료와 소수의 표본으로부터 얻은 증거로부터
15:49
from small amounts of data, the evidence of just a few examples.
272
949313
5268
학습할 수 있는 능력을 포함하는 계산 능력에 관한 이야기죠.
근본적으로 어떻게 어린 아이에서 시작해서
15:56
And fundamentally, it's a story about how starting as very small children
273
956301
4299
16:00
and continuing out all the way to the greatest accomplishments
274
960600
4180
우리 문화에서 가장 위대한 업적을 세움으로써
16:04
of our culture,
275
964780
3843
16:08
we get the world right.
276
968623
1997
세상을 제대로 알게 되는지에 대한 이야기입니다.
16:12
Folks, human minds do not only learn from small amounts of data.
277
972433
5267
여러분, 인간의 사고는 적은 양의 자료로만 학습하지 않습니다.
16:18
Human minds think of altogether new ideas.
278
978285
2101
새로운 생각도 종합적으로 합니다.
16:20
Human minds generate research and discovery,
279
980746
3041
연구와 발견을 만들어내고
16:23
and human minds generate art and literature and poetry and theater,
280
983787
5273
예술과 문학과 시와 극작을 만듭니다.
16:29
and human minds take care of other humans:
281
989070
3760
그리고 다른 인간을 보살핍니다.
16:32
our old, our young, our sick.
282
992830
3427
노인과 아이와 병자들을요.
16:36
We even heal them.
283
996517
2367
심지어 치유해줍니다.
16:39
In the years to come, we're going to see technological innovations
284
999564
3103
앞으로 우리는 상상을 초월하는
16:42
beyond anything I can even envision,
285
1002667
3797
기술적 혁신을 보게 될 겁니다.
16:46
but we are very unlikely
286
1006464
2150
하지만 저와 여러분 세대에서
16:48
to see anything even approximating the computational power of a human child
287
1008614
5709
인간 아이의 계산 능력에 조금이라도 근접하는 걸
16:54
in my lifetime or in yours.
288
1014323
4298
볼 가능성은 거의 없습니다.
16:58
If we invest in these most powerful learners and their development,
289
1018621
5047
가장 강력한 학습자들과 그들의 발달에 투자한다면
17:03
in babies and children
290
1023668
2917
아기와 아이들, 엄마와 아빠들에게,
17:06
and mothers and fathers
291
1026585
1826
17:08
and caregivers and teachers
292
1028411
2699
돌보미와 선생님들에게 말입니다.
17:11
the ways we invest in our other most powerful and elegant forms
293
1031110
4170
우리가 가장 강력하고 정밀한 형태의 기술과 공학과 디자인에 하듯이 한다면
17:15
of technology, engineering and design,
294
1035280
3218
단지 더 나은 미래를 꿈꾸기만 하는 게 아니라
17:18
we will not just be dreaming of a better future,
295
1038498
2939
17:21
we will be planning for one.
296
1041437
2127
계획하게 될 것입니다.
17:23
Thank you very much.
297
1043564
2345
정말 감사합니다.
17:25
(Applause)
298
1045909
3421
(박수)
17:29
Chris Anderson: Laura, thank you. I do actually have a question for you.
299
1049810
4426
크리스: 로라, 감사합니다. 사실 질문이 하나 있습니다.
17:34
First of all, the research is insane.
300
1054236
2359
먼저, 미친 연구네요.
17:36
I mean, who would design an experiment like that? (Laughter)
301
1056595
3725
누가 저런 연구를 설계하겠어요? (웃음)
17:41
I've seen that a couple of times,
302
1061150
1790
저런 걸 몇 번 본 적은 있지만
17:42
and I still don't honestly believe that that can truly be happening,
303
1062940
3222
아직도 실제로 일어날 수 있다는 걸 솔직히 못 믿겠어요.
17:46
but other people have done similar experiments; it checks out.
304
1066162
3158
그렇지만 다른 사람들도 비슷한 실험을 했고
아기가 정말 천재라는 게 입증됐나요?
17:49
The babies really are that genius.
305
1069320
1633
17:50
LS: You know, they look really impressive in our experiments,
306
1070953
3007
로라: 아기들은 우리 실험 속에서 정말 인상적입니다.
17:53
but think about what they look like in real life, right?
307
1073960
2652
하지만 현실에서는 어떤지 생각해 보세요.
17:56
It starts out as a baby.
308
1076612
1150
아기로 시작해서
17:57
Eighteen months later, it's talking to you,
309
1077762
2007
18개월 후에는 말을 하고 있죠.
17:59
and babies' first words aren't just things like balls and ducks,
310
1079769
3041
아기들의 첫 단어는 공이나 오리같은 게 아니에요.
18:02
they're things like "all gone," which refer to disappearance,
311
1082810
2881
소멸을 뜻하는 "다 없어졌어" 같은 것들이죠.
18:05
or "uh-oh," which refer to unintentional actions.
312
1085691
2283
아니면 의도치 않은 행동을 뜻하는 "어어"같은 것이나요.
18:07
It has to be that powerful.
313
1087974
1562
그만큼 강력합니다.
18:09
It has to be much more powerful than anything I showed you.
314
1089536
2775
제가 보여준 것들 이상으로 강력해요.
세상의 모든 걸 이해하는 중이니까요.
18:12
They're figuring out the entire world.
315
1092311
1974
18:14
A four-year-old can talk to you about almost anything.
316
1094285
3144
4살짜리 아이는 여러분에게 거의 모든 것에 대해 얘기할 수 있죠.
18:17
(Applause)
317
1097429
1601
(박수)
18:19
CA: And if I understand you right, the other key point you're making is,
318
1099030
3414
크리스: 제가 제대로 이해했다면 당신이 말하는 또 다른 요점은
18:22
we've been through these years where there's all this talk
319
1102444
2754
여태까지 오랜 시간 우리의 정신이 변덕스럽고
18:25
of how quirky and buggy our minds are,
320
1105198
1932
결함이 많다는 논의가 많이 있어왔고,
18:27
that behavioral economics and the whole theories behind that
321
1107130
2867
우리가 합리적인 인간이 아니라는 걸
18:29
that we're not rational agents.
322
1109997
1603
행동경제학과 다른 많은 이론들이 뒷받침하고 있죠.
18:31
You're really saying that the bigger story is how extraordinary,
323
1111600
4216
당신이 말씀하시는 건, 더 큰 그림은 아기들이
18:35
and there really is genius there that is underappreciated.
324
1115816
4944
정말 비범하고 사실상 과소평가받는 천재들이라는거죠.
18:40
LS: One of my favorite quotes in psychology
325
1120760
2070
로라: 제가 심리학에서 가장 좋아하는 인용구 중 하나가
18:42
comes from the social psychologist Solomon Asch,
326
1122830
2290
사회심리학자 솔로몬 애쉬가 하신 말씀입니다.
18:45
and he said the fundamental task of psychology is to remove
327
1125120
2807
심리학의 근본적 과제는 자명함의 베일을
18:47
the veil of self-evidence from things.
328
1127927
2626
걷어내는 것이다.
18:50
There are orders of magnitude more decisions you make every day
329
1130553
4551
여러분은 매일, 세상을 옳게 이해하는 백만 자리수가 넘는 갯수의
18:55
that get the world right.
330
1135104
1347
결정을 내립니다.
18:56
You know about objects and their properties.
331
1136451
2132
여러분은 물체와 그 속성에 대해 알고 있습니다.
18:58
You know them when they're occluded. You know them in the dark.
332
1138583
3029
막혀있을 때나 어둠 속에 있을 때도 알고
19:01
You can walk through rooms.
333
1141612
1308
방을 걸어서 통과할 수 있습니다.
19:02
You can figure out what other people are thinking. You can talk to them.
334
1142920
3532
다른 사람들이 무슨 생각을 하는지 알아내고 그들과 얘기할 수 있고
우주를 탐사하고 숫자에 대해 알고
19:06
You can navigate space. You know about numbers.
335
1146452
2230
인과관계와 도덕적 추론에 대해 압니다.
19:08
You know causal relationships. You know about moral reasoning.
336
1148682
3022
19:11
You do this effortlessly, so we don't see it,
337
1151704
2356
노력 없이 하기 때문에 우리는 보지 못하지만
이게 우리가 세상을 옳게 이해하는 방법이고 놀랍습니다.
19:14
but that is how we get the world right, and it's a remarkable
338
1154060
2912
그리고 이해하기 힘든 업적이죠.
19:16
and very difficult-to-understand accomplishment.
339
1156972
2318
크리스: 제 생각에는 청중들 중에 기술력을 발전시키는 관점을 가지고
19:19
CA: I suspect there are people in the audience who have
340
1159290
2628
19:21
this view of accelerating technological power
341
1161918
2238
당신이 우리 세대에 절대로 컴퓨터가
19:24
who might dispute your statement that never in our lifetimes
342
1164156
2958
세 살의 아이가 할 수 있는 일을 하지 못할 것이라는 주장에
19:27
will a computer do what a three-year-old child can do,
343
1167114
2618
이의를 제기할 분이 있을 것 같진 않지만
19:29
but what's clear is that in any scenario,
344
1169732
3248
분명한 것은 어떤 시나리오 안에서건
19:32
our machines have so much to learn from our toddlers.
345
1172980
3770
기계가 아기들에게서 배울 게 정말 많다는 거죠.
19:38
LS: I think so. You'll have some machine learning folks up here.
346
1178230
3216
로라: 그렇게 생각해요. 여기 기계를 공부하는 분도 있을 거예요.
19:41
I mean, you should never bet against babies or chimpanzees
347
1181446
4203
현실 속 내기에서는 절대로 아기나 침팬지나 기술 반대편에
19:45
or technology as a matter of practice,
348
1185649
3645
돈을 걸면 안됩니다.
19:49
but it's not just a difference in quantity,
349
1189294
4528
하지만 이건 단순히 양적 차이의 문제가 아니라
19:53
it's a difference in kind.
350
1193822
1764
유형적 차이의 문제입니다.
19:55
We have incredibly powerful computers,
351
1195586
2160
우리는 가끔은 방대한 양의 자료로
19:57
and they do do amazingly sophisticated things,
352
1197746
2391
매우 정교한 작업도 수행하는
20:00
often with very big amounts of data.
353
1200137
3204
놀라울 정도의 고성능 컴퓨터가 있습니다.
20:03
Human minds do, I think, something quite different,
354
1203341
2607
저는 사람의 사고는 상당히 다른 무언가를 한다고 생각합니다.
20:05
and I think it's the structured, hierarchical nature of human knowledge
355
1205948
3895
그리고 구조화된, 계급적 본성을 가진 인간의 지식이
20:09
that remains a real challenge.
356
1209843
2032
남아있는 어려운 과제라고 생각합니다.
20:11
CA: Laura Schulz, wonderful food for thought. Thank you so much.
357
1211875
3061
크리스: 정말 좋은 생각해 볼 거리를 주셨네요. 감사합니다.
20:14
LS: Thank you. (Applause)
358
1214936
2922
로라: 감사합니다. (박수)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7