Daniel Wolpert: The real reason for brains

341,413 views ・ 2011-11-03

TED


โปรดดับเบิลคลิกที่คำบรรยายภาษาอังกฤษด้านล่างเพื่อเล่นวิดีโอ

Translator: Nuchapong Wongrajit Reviewer: Pathumjit Atikomkamalasai
00:15
I'm a neuroscientist.
0
15260
2000
ผมเป็นนักประสาทวิทยาศาสตร์
00:17
And in neuroscience,
1
17260
2000
และในสาขาประสาทวิทยาศาสตร์
00:19
we have to deal with many difficult questions about the brain.
2
19260
3000
เราต้องรับมือกับคำถามยากๆ มากมาย เกี่ยวกับสมอง
00:22
But I want to start with the easiest question
3
22260
2000
แต่ผมอยากเริ่มที่คำถามที่ง่ายที่สุด
00:24
and the question you really should have all asked yourselves at some point in your life,
4
24260
3000
และเป็นคำถามที่คุณทุกคน ควรได้เคยถามตัวเอง ณ จุดใดจุดหนึ่งในชีวิต
00:27
because it's a fundamental question
5
27260
2000
เพราะคำถามนี้เป็นรากฐาน
00:29
if we want to understand brain function.
6
29260
2000
หากเราต้องการเข้าใจการทำงานของสมอง
00:31
And that is, why do we and other animals
7
31260
2000
และคำถามนั้นคือ ทำไมเราและสัตว์อื่น ๆ
00:33
have brains?
8
33260
2000
จึงมีสมอง?
00:35
Not all species on our planet have brains,
9
35260
3000
ไม่ใช่ทุกสายพันธุ์บนโลกนี้จะมีสมอง
00:38
so if we want to know what the brain is for,
10
38260
2000
ดังนั้นถ้าเราอยากรู้ว่า สมองมีไว้ทำอะไร
00:40
let's think about why we evolved one.
11
40260
2000
ลองคิดว่า เราพัฒนามันขึ้นมาทำไม
00:42
Now you may reason that we have one
12
42260
2000
คุณอาจให้เหตุผลว่า เรามีสมอง
00:44
to perceive the world or to think,
13
44260
2000
ไว้รับรู้โลก หรือไว้คิด
00:46
and that's completely wrong.
14
46260
2000
แต่ผิดโดยสิ้นเชิง
00:48
If you think about this question for any length of time,
15
48260
3000
ถ้าคุณใช้เวลาคิดหาคำตอบสักพัก
00:51
it's blindingly obvious why we have a brain.
16
51260
2000
มันชัดเจนแจ่มแจ้งว่า เรามีสมองไว้ทำไม
00:53
We have a brain for one reason and one reason only,
17
53260
3000
เรามีสมองไว้ด้วยเหตุผลเดียว เหตุผลเดียวเท่านั้น
00:56
and that's to produce adaptable and complex movements.
18
56260
3000
ซึ่งก็คือ เพื่อสร้างการเคลื่อนไหว ที่ปรับได้ และซับซ้อน
00:59
There is no other reason to have a brain.
19
59260
2000
ไม่มีเหตุผลอื่น สำหรับการมีสมอง
01:01
Think about it.
20
61260
2000
คิดดูดี ๆ
01:03
Movement is the only way you have
21
63260
2000
การเคลื่อนไหวเป็นวิธีเดียว ที่คุณใช้
01:05
of affecting the world around you.
22
65260
2000
ตอบโต้กับโลกรอบตัวคุณ
01:07
Now that's not quite true. There's one other way, and that's through sweating.
23
67260
3000
ก็ไม่เชิง ยังมีอีกวิธี คือการขับเหงื่อ
01:10
But apart from that,
24
70260
2000
แต่นอกนั้นแล้ว
01:12
everything else goes through contractions of muscles.
25
72260
2000
ทุกอย่างมาจากการหดตัวของกล้ามเนื้อ
01:14
So think about communication --
26
74260
2000
ลองคิดถึง การสื่อสาร
01:16
speech, gestures, writing, sign language --
27
76260
3000
การพูด ท่าทาง การเขียน ภาษามือ
01:19
they're all mediated through contractions of your muscles.
28
79260
3000
ล้วนต้องอาศัยการหดตัวของกล้ามเนื้อ
01:22
So it's really important to remember
29
82260
2000
ดังนั้นเราพึงต้องตระหนักว่า
01:24
that sensory, memory and cognitive processes are all important,
30
84260
4000
กระบวนการรับรู้ จดจำ และความคิด ซึ่งล้วนสำคัญ
01:28
but they're only important
31
88260
2000
แต่ก็มีความสำคัญเพียงเพื่อ
01:30
to either drive or suppress future movements.
32
90260
2000
สร้างความต้องการ หรือยับยั้งการเคลื่อนไหวในอนาคต
01:32
There can be no evolutionary advantage
33
92260
2000
ไม่มีข้อได้เปรียบเชิงวิวัฒนาการ
01:34
to laying down memories of childhood
34
94260
2000
ที่จะเก็บความทรงจำวัยเด็กไว้
01:36
or perceiving the color of a rose
35
96260
2000
หรือรับรู้สีของกุหลาบ
01:38
if it doesn't affect the way you're going to move later in life.
36
98260
3000
ถ้ามันไม่มีผลต่อวิธีการเคลื่อนไหวของเรา ในภายหลัง
01:41
Now for those who don't believe this argument,
37
101260
2000
ทีนี้ สำหรับคนที่ไม่เชื่อเรื่องนี้
01:43
we have trees and grass on our planet without the brain,
38
103260
2000
เรามีต้นไม้ต้นหญ้าบนโลก ซึ่งไร้สมอง
01:45
but the clinching evidence is this animal here --
39
105260
2000
แต่หลักฐานชี้ขาดคือสัตว์ชนิดนี้
01:47
the humble sea squirt.
40
107260
2000
เพรียงหัวหอม แสนธรรมดา
01:49
Rudimentary animal, has a nervous system,
41
109260
3000
สัตว์ขั้นพื้นฐาน ที่มีระบบประสาท
01:52
swims around in the ocean in its juvenile life.
42
112260
2000
ซึ่งว่ายไปทั่วมหาสมุทร ตอนยังเด็ก
01:54
And at some point of its life,
43
114260
2000
และ ณ จุดหนึ่งของชีวิต
01:56
it implants on a rock.
44
116260
2000
มันจะเกาะติดอยู่กับก้อนหิน
01:58
And the first thing it does in implanting on that rock, which it never leaves,
45
118260
3000
และสิ่งแรกที่มันทำ ตอนเกาะติดกับหิน และไม่ไปไหนอีก
02:01
is to digest its own brain and nervous system
46
121260
3000
คือย่อยสมองและระบบประสาท
02:04
for food.
47
124260
2000
กินเป็นอาหาร
02:06
So once you don't need to move,
48
126260
2000
เมื่อไม่จำเป็นต้องเคลื่อนที่
02:08
you don't need the luxury of that brain.
49
128260
3000
ก็ไม่จำเป็นต้องมีของฟุ่มเฟือยอย่างสมอง
02:11
And this animal is often taken
50
131260
2000
และสัตว์ชนิดนี้ชอบถูกใช้
02:13
as an analogy to what happens at universities
51
133260
2000
เทียบกับเรื่องที่เกิดตามมหาวิทยาลัย
02:15
when professors get tenure,
52
135260
2000
ตอนที่ศาสตราจารย์ได้ตำแหน่งถาวรแล้ว
02:17
but that's a different subject.
53
137260
2000
แต่นั่นเป็นคนละประเด็น
02:19
(Applause)
54
139260
2000
(เสียงปรบมือ)
02:21
So I am a movement chauvinist.
55
141260
3000
ผมเป็นพวกคลั่งการเคลื่อนไหว
02:24
I believe movement is the most important function of the brain --
56
144260
2000
ผมเชื่อว่าการเคลื่อนไหว เป็นหน้าที่สำคัญที่สุดของสมอง
02:26
don't let anyone tell you that it's not true.
57
146260
2000
อย่าให้ใครมาบอกคุณ ว่ามันไม่จริงเชียว
02:28
Now if movement is so important,
58
148260
2000
งั้นถ้าการเคลื่อนไหวสำคัญขนาดนั้น
02:30
how well are we doing
59
150260
2000
เราเข้าใจวิธีการที่
02:32
understanding how the brain controls movement?
60
152260
2000
สมองควบคุมการเคลื่อนไหวดีแค่ไหน
02:34
And the answer is we're doing extremely poorly; it's a very hard problem.
61
154260
2000
คำตอบคือ แย่มาก ๆ นี่เป็นปัญหาที่ยากมาก ๆ
02:36
But we can look at how well we're doing
62
156260
2000
เราสามารถดูว่าเราเข้าใจดีแค่ไหน
02:38
by thinking about how well we're doing building machines
63
158260
2000
โดยดูว่าเราสร้างเครื่องจักรให้ทำ
02:40
which can do what humans can do.
64
160260
2000
สิ่งที่มนุษย์ทำได้ ได้ดีแค่ไหน
02:42
Think about the game of chess.
65
162260
2000
ลองคิดถึง การแข่งหมากรุก
02:44
How well are we doing determining what piece to move where?
66
164260
3000
เราตัดสินใจว่าจะเคลื่อนหมากอย่างไร ได้ดีแค่ไหน?
02:47
If you pit Garry Kasparov here, when he's not in jail,
67
167260
3000
ถ้าเราให้ แกรรี คาสปารอฟ ตอนเขาไม่ติดคุก
02:50
against IBM's Deep Blue,
68
170260
2000
มาแข่งกับ ดีปบลู (Deep Blue) ของไอบีเอ็ม
02:52
well the answer is IBM's Deep Blue will occasionally win.
69
172260
3000
คำตอบคือ ดีปบลู ของไอบีเอ็ม จะชนะเป็นบางครั้ง
02:55
And I think if IBM's Deep Blue played anyone in this room, it would win every time.
70
175260
3000
และถ้าเอา ดีปบลู ของไอบีเอ็ม มาแข่งกับคนในห้องนี้ มันจะชนะทุกครั้ง
02:58
That problem is solved.
71
178260
2000
ปัญหานี้ได้คำตอบแล้ว
03:00
What about the problem
72
180260
2000
แล้วอีกปัญหานึงละ
03:02
of picking up a chess piece,
73
182260
2000
การหยิบตัวหมากขึ้นมา
03:04
dexterously manipulating it and putting it back down on the board?
74
184260
3000
เคลื่อนย้ายอย่างคล่องแคล่ว และวางกลับลงกระดาน
03:07
If you put a five year-old child's dexterity against the best robots of today,
75
187260
3000
ถ้าเอาความคล่องแคล่วของเด็กห้าขวบ เทียบกับหุ่นยนต์ที่ดีที่สุดตอนนี้
03:10
the answer is simple:
76
190260
2000
ตอบได้ง่าย ๆ เลยว่า
03:12
the child wins easily.
77
192260
2000
เด็กชนะสบาย ๆ
03:14
There's no competition at all.
78
194260
2000
ไม่มีความสูสีเลย
03:16
Now why is that top problem so easy
79
196260
2000
ทำไมปัญหาบนถึงง่ายดาย
03:18
and the bottom problem so hard?
80
198260
2000
และปัญหาล่างถึงยากนัก
03:20
One reason is a very smart five year-old
81
200260
2000
เหตุผลนึงคือ เด็กห้าขวบที่ฉลาดมาก ๆ
03:22
could tell you the algorithm for that top problem --
82
202260
2000
ก็สามารถบอกขั้นตอนวิธีแก้ปัญหาบนได้
03:24
look at all possible moves to the end of the game
83
204260
2000
คือดูที่วิธีเดินหมากที่เป็นไปได้ทั้งหมด ไปจนจบกระดาน
03:26
and choose the one that makes you win.
84
206260
2000
แล้วเลือกวิธีที่จะทำให้ชนะ
03:28
So it's a very simple algorithm.
85
208260
2000
มันเป็นขั้นตอนวิธีที่เรียบง่ายมาก ๆ
03:30
Now of course there are other moves,
86
210260
2000
แน่นอน มีวิธีเดินแบบอื่นอีก
03:32
but with vast computers we approximate
87
212260
2000
แต่เราใช้คอมพิวเตอร์มหึมาประมาณค่า
03:34
and come close to the optimal solution.
88
214260
2000
และเข้าใกล้คำตอบที่ดีที่สุดได้
03:36
When it comes to being dexterous,
89
216260
2000
แต่พอเป็นความคล่องแคล่ว
03:38
it's not even clear what the algorithm is you have to solve to be dexterous.
90
218260
2000
ขั้นตอนวิธีสร้างความคล่องแคล่วเป็นอย่างไรก็ไม่ทราบ
03:40
And we'll see you have to both perceive and act on the world,
91
220260
2000
และเราทั้งต้องรับรู้ข้อมูล และลงมือกระทำไปด้วยอีก
03:42
which has a lot of problems.
92
222260
2000
มันมีปัญหามากมาย
03:44
But let me show you cutting-edge robotics.
93
224260
2000
ลองมาดูหุ่นยนต์ล้ำสมัยกัน
03:46
Now a lot of robotics is very impressive,
94
226260
2000
เดี๋ยวนี้มีหุ่นยนต์มากมายที่น่าทึ่ง
03:48
but manipulation robotics is really just in the dark ages.
95
228260
3000
แต่มือหุ่นยนต์สำหรับหยิบจับของ ยังตกอยู่ในยุคมืด
03:51
So this is the end of a Ph.D. project
96
231260
2000
นี่เป็นผลจากงานระดับปริญญาเอก
03:53
from one of the best robotics institutes.
97
233260
2000
จากสถาบันหุ่นยนต์ที่ดีที่สุดแห่งหนึ่ง
03:55
And the student has trained this robot
98
235260
2000
นักศึกษาได้ฝึกให้หุ่น
03:57
to pour this water into a glass.
99
237260
2000
เทน้ำใส่แก้ว
03:59
It's a hard problem because the water sloshes about, but it can do it.
100
239260
3000
มันเป็นโจทย์ที่ยาก เพราะน้ำกระฉอกได้ แต่มือหุ่นนี้ก็เทน้ำได้
04:02
But it doesn't do it with anything like the agility of a human.
101
242260
3000
แต่ไม่ได้ทำได้ด้วยความคล่องตัวแบบมนุษย์
04:05
Now if you want this robot to do a different task,
102
245260
3000
ทีนี้ ถ้าอยากให้หุ่นทำภารกิจอื่น
04:08
that's another three-year Ph.D. program.
103
248260
3000
นั่นก็จะเป็นงานปริญญาเอกสามปี อีกชิ้น
04:11
There is no generalization at all
104
251260
2000
เราสรุปเป็นรูปแบบทั่วไปไม่ได้เลย
04:13
from one task to another in robotics.
105
253260
2000
จากงานชิ้นต่าง ๆ ที่เราให้หุ่นทำ
04:15
Now we can compare this
106
255260
2000
เราสามารถเทียบกับ
04:17
to cutting-edge human performance.
107
257260
2000
สมรรถนะระดับสุดยอดของมนุษย์
04:19
So what I'm going to show you is Emily Fox
108
259260
2000
ผมจะให้คุณชม เอมิลี ฟอกซ์
04:21
winning the world record for cup stacking.
109
261260
3000
ทำสถิติโลกในการเรียงแก้ว
04:24
Now the Americans in the audience will know all about cup stacking.
110
264260
2000
ผู้ฟังชาวอเมริกันในที่นี้ คงรู้จักการเรียงแก้วดี
04:26
It's a high school sport
111
266260
2000
มันเป็นกีฬาระดับม.ปลาย
04:28
where you have 12 cups you have to stack and unstack
112
268260
2000
มีแก้วให้ 12 ใบ ให้เรียงและรื้อ
04:30
against the clock in a prescribed order.
113
270260
2000
แข่งกับเวลา ตามลำดับที่กำหนด
04:32
And this is her getting the world record in real time.
114
272260
3000
และนี่คือการสร้างสถิติโลก ตามเวลาจริง
04:39
(Laughter)
115
279260
8000
(เสียงหัวเราะ)
04:47
(Applause)
116
287260
5000
(เสียงปรบมือ)
04:52
And she's pretty happy.
117
292260
2000
เธอมีความสุขมาก
04:54
We have no idea what is going on inside her brain when she does that,
118
294260
2000
เราไม่รู้ว่ามีอะไรเกิดขึ้นในสมองเธอบ้าง ตอนเธอเรียงแก้ว
04:56
and that's what we'd like to know.
119
296260
2000
และนั่นคือสิ่งที่เราอยากรู้
04:58
So in my group, what we try to do
120
298260
2000
กลุ่มของผมจึงพยายาม
05:00
is reverse engineer how humans control movement.
121
300260
3000
ทำวิศวกรรมย้อนกลับ หาว่ามนุษย์ควบคุม การเคลื่อนไหวอย่างไร
05:03
And it sounds like an easy problem.
122
303260
2000
อาจฟังดูเป็นโจทย์ง่าย ๆ
05:05
You send a command down, it causes muscles to contract.
123
305260
2000
คุณส่งคำสั่งลงมา ทำให้กล้ามเนื้อหดตัว
05:07
Your arm or body moves,
124
307260
2000
แขนหรือร่างกายคุณขยับ
05:09
and you get sensory feedback from vision, from skin, from muscles and so on.
125
309260
3000
แล้วคุณได้ข้อมูลย้อนกลับจากประสาทสัมผัส จากตา จากผิวหนัง จากกล้ามเนื้อ และอื่น ๆ
05:12
The trouble is
126
312260
2000
ปัญหาคือ
05:14
these signals are not the beautiful signals you want them to be.
127
314260
2000
สัญญาณเหล่านี้ไม่สวยงามอย่างที่เราต้องการ
05:16
So one thing that makes controlling movement difficult
128
316260
2000
สิ่งที่ทำให้การควบคุมการเคลื่อนไหวเป็นเรื่องยาก
05:18
is, for example, sensory feedback is extremely noisy.
129
318260
3000
ก็เช่น การที่ข้อมูลย้อนกลับจากประสาทสัมผัส มีสัญญาณรบกวนมหาศาล
05:21
Now by noise, I do not mean sound.
130
321260
3000
สัญญาณรบกวนนี้ ผมไม่ได้หมายถึงเสียง
05:24
We use it in the engineering and neuroscience sense
131
324260
2000
ในทางวิศวกรรมและประสาทวิทยาศาสตร์
05:26
meaning a random noise corrupting a signal.
132
326260
2000
หมายถึงสัญญาณรบกวนอย่างสุ่ม ซึ่งทำให้สัญญาณหลักผิดเพี้ยนไป
05:28
So the old days before digital radio when you were tuning in your radio
133
328260
3000
สมัยก่อนจะมีวิทยุดิจิตอล ตอนเราหาสถานีวิทยุ
05:31
and you heard "crrcckkk" on the station you wanted to hear,
134
331260
2000
ที่เราอยากฟัง จะได้เสียง แคร่ก ๆ
05:33
that was the noise.
135
333260
2000
นั่นคือสัญญาณรบกวน
05:35
But more generally, this noise is something that corrupts the signal.
136
335260
3000
แต่กล่าวแบบกว้าง ๆ สัญญาณรบกวนคือสิ่งที่ทำให้ สัญญาณหลักผิดเพี้ยนไป
05:38
So for example, if you put your hand under a table
137
338260
2000
เช่น ถ้าคุณเอามือไว้ใต้โต๊ะ
05:40
and try to localize it with your other hand,
138
340260
2000
แล้วพยายามใช้มืออีกข้างชี้ตำแหน่งดู
05:42
you can be off by several centimeters
139
342260
2000
คุณอาจพลาดไปหลายเซนติเมตร
05:44
due to the noise in sensory feedback.
140
344260
2000
ก็เพราะสัญญาณรบกวนใน ข้อมูลย้อนกลับจากประสาทสัมผัส
05:46
Similarly, when you put motor output on movement output,
141
346260
2000
ทำนองเดียวกัน เมื่อคุณเอาข้อมูลสั่งการ รวมกับข้อมูลการเคลื่อนไหว
05:48
it's extremely noisy.
142
348260
2000
จะมีสัญญาณรบกวนมหาศาล
05:50
Forget about trying to hit the bull's eye in darts,
143
350260
2000
ไม่ต้องคิดจะปาลูกดอก เข้ากลางเป้าเลย
05:52
just aim for the same spot over and over again.
144
352260
2000
แค่เล็งให้ตรงจุดเดิมได้เรื่อย ๆ
05:54
You have a huge spread due to movement variability.
145
354260
3000
การเคลื่อนไหวก็แปรผัน แตกต่างกันไปได้มหาศาล
05:57
And more than that, the outside world, or task,
146
357260
2000
และยิ่งกว่านั้น โลกภายนอก หรือภารกิจ
05:59
is both ambiguous and variable.
147
359260
2000
ก็ทั้งไม่ชัดเจน และแปรผันได้
06:01
The teapot could be full, it could be empty.
148
361260
2000
กาน้ำชาอาจจะเต็ม อาจจะว่างเปล่า
06:03
It changes over time.
149
363260
2000
แต่ละครั้งไม่เหมือนกัน
06:05
So we work in a whole sensory movement task soup of noise.
150
365260
4000
เราจึงต้องเคลื่อนไหว ภายใต้สัญญาณรบกวนการรับรู้ เต็มไปหมด
06:09
Now this noise is so great
151
369260
2000
สัญญาณรบกวนมีมาก
06:11
that society places a huge premium
152
371260
2000
จนสังคมถึงกับตั้งรางวัล
06:13
on those of us who can reduce the consequences of noise.
153
373260
3000
ให้กับคนที่สามารถลดผลกระทบ จากสัญญาณรบกวนได้
06:16
So if you're lucky enough to be able to knock a small white ball
154
376260
3000
ถ้าคุณโชคดี ตีลูกบอลเล็ก ๆ ขาว ๆ
06:19
into a hole several hundred yards away using a long metal stick,
155
379260
3000
ลงหลุม ที่ห่างไปหลายร้อยหลา ด้วยแท่งเหล็กยาว ๆ ได้
06:22
our society will be willing to reward you
156
382260
2000
สังคมของเราก็เต็มใจมอบรางวัลให้คุณ
06:24
with hundreds of millions of dollars.
157
384260
3000
หลายร้อยล้านดอลลาร์
06:27
Now what I want to convince you of
158
387260
2000
ทีนี้ สิ่งที่ผมอยากให้คุณเชื่อตาม
06:29
is the brain also goes through a lot of effort
159
389260
2000
คือสมองใช้ความพยายามมหาศาล
06:31
to reduce the negative consequences
160
391260
2000
ที่จะลดผลกระทบเชิงลบ
06:33
of this sort of noise and variability.
161
393260
2000
ของสัญญาณรบกวน และการผันแปรเหล่านี้
06:35
And to do that, I'm going to tell you about a framework
162
395260
2000
และเพื่อการนั้น ผมจะเล่าให้คุณฟัง ถึงกรอบแนวคิด
06:37
which is very popular in statistics and machine learning of the last 50 years
163
397260
3000
ที่เป็นที่นิยมมาก ในสาขาสถิติ และการเรียนรู้ของเครื่องจักร ในช่วง 50 ปีหลังนี้
06:40
called Bayesian decision theory.
164
400260
2000
เรียกว่า ทฤษฎีการตัดสินใจเบเชียน
06:42
And it's more recently a unifying way
165
402260
3000
ซึ่งถัดมาเมื่อไม่นานมานี้ ได้เป็นวิธีรวม
06:45
to think about how the brain deals with uncertainty.
166
405260
3000
เวลาพิจารณาว่า สมองจัดการกับความไม่แน่นอนอย่างไร
06:48
And the fundamental idea is you want to make inferences and then take actions.
167
408260
3000
แนวคิดพื้นฐานคือ ทำการอนุมานก่อน แล้วค่อยกระทำจริง
06:51
So let's think about the inference.
168
411260
2000
ลองมาดูที่ การอนุมาน
06:53
You want to generate beliefs about the world.
169
413260
2000
คุณต้องการสร้างความเชื่อเกี่ยวกับโลก
06:55
So what are beliefs?
170
415260
2000
ความเชื่อหมายถึงอะไร?
06:57
Beliefs could be: where are my arms in space?
171
417260
2000
ความเชื่ออาจเช่น แขนของคุณอยู่ตรงไหน?
06:59
Am I looking at a cat or a fox?
172
419260
2000
ฉันกำลังจ้องดูแมว หรือจิ้งจอก?
07:01
But we're going to represent beliefs with probabilities.
173
421260
3000
แต่เราจะอธิบายความเชื่อ ด้วยความน่าจะเป็น
07:04
So we're going to represent a belief
174
424260
2000
เราจะอธิบายความเชื่อแต่ละเรื่อง
07:06
with a number between zero and one --
175
426260
2000
ด้วยตัวเลขระหว่าง ศูนย์ ถึง หนึ่ง
07:08
zero meaning I don't believe it at all, one means I'm absolutely certain.
176
428260
3000
ศูนย์ หมายถึง เราไม่เชื่อเลย หนึ่ง แปลว่า เรามั่นใจเต็มที่
07:11
And numbers in between give you the gray levels of uncertainty.
177
431260
3000
และตัวเลขที่อยู่ระหว่างนั้น บอกระดับความไม่มั่นใจ
07:14
And the key idea to Bayesian inference
178
434260
2000
และแนวคิดหลักสำหรับ การอนุมานเบเชียน
07:16
is you have two sources of information
179
436260
2000
คือ คุณมีแหล่งข้อมูลสองแหล่ง
07:18
from which to make your inference.
180
438260
2000
เพื่อใช้อนุมาน
07:20
You have data,
181
440260
2000
คุณมีข้อมูล
07:22
and data in neuroscience is sensory input.
182
442260
2000
และข้อมูลในทางประสาทวิทยาศาสตร์ หมายถึง ข้อมูลเข้าจากประสาทสัมผัส
07:24
So I have sensory input, which I can take in to make beliefs.
183
444260
3000
เรามีข้อมูลเข้าจากประสาทสัมผัส ซึ่งเอามาสร้างความเชื่อ
07:27
But there's another source of information, and that's effectively prior knowledge.
184
447260
3000
แต่ยังมีอีกแหล่งข้อมูล ซึ่งก็คือความรู้ที่เรามีอยู่ก่อนแล้ว
07:30
You accumulate knowledge throughout your life in memories.
185
450260
3000
เราสะสมความรู้ ตลอดทั้งชีวิต ไว้ในความทรงจำ
07:33
And the point about Bayesian decision theory
186
453260
2000
และประเด็นของทฤษฎีการตัดสินใจเบเชียน
07:35
is it gives you the mathematics
187
455260
2000
คือทฤษฎีบอกวิธีที่ดีที่สุด
07:37
of the optimal way to combine
188
457260
2000
ทางคณิตศาสตร์ที่จะผสาน
07:39
your prior knowledge with your sensory evidence
189
459260
2000
ความรู้เดิม กับหลักฐานจากประสาทสัมผัส
07:41
to generate new beliefs.
190
461260
2000
เพื่อผลิตความเชื่อใหม่
07:43
And I've put the formula up there.
191
463260
2000
และผมได้ให้สูตรไว้บนนั้น
07:45
I'm not going to explain what that formula is, but it's very beautiful.
192
465260
2000
ผมจะขอไม่อธิบายสูตร แต่มันสวยงามมาก
07:47
And it has real beauty and real explanatory power.
193
467260
3000
มีทั้งความงามที่แท้จริง และพลังในการอธิบายที่แท้จริง
07:50
And what it really says, and what you want to estimate,
194
470260
2000
สิ่งที่สูตรบอกเรา และสิ่งที่คุณอยากประมาณ
07:52
is the probability of different beliefs
195
472260
2000
คือความน่าจะเป็นของความเชื่อต่าง ๆ
07:54
given your sensory input.
196
474260
2000
เมื่อทราบข้อมูลเข้าจากประสาทสัมผัส
07:56
So let me give you an intuitive example.
197
476260
2000
ลองดูตัวอย่างสัญชาตญาณกัน
07:58
Imagine you're learning to play tennis
198
478260
3000
จินตนาการว่าคุณกำลังฝึกเล่นเทนนิส
08:01
and you want to decide where the ball is going to bounce
199
481260
2000
คุณต้องตัดสินใจว่าลูกเทนนิสเด้งไปตรงไหน
08:03
as it comes over the net towards you.
200
483260
2000
ขณะมันลอยข้ามเน็ตมาหาคุณ
08:05
There are two sources of information
201
485260
2000
มีแหล่งข้อมูลสองแหล่ง
08:07
Bayes' rule tells you.
202
487260
2000
ตามกฎของเบส์
08:09
There's sensory evidence -- you can use visual information auditory information,
203
489260
3000
หลักฐานจากประสาทสัมผัส คุณอาจใช้ข้อมูลภาพ ข้อมูลเสียง
08:12
and that might tell you it's going to land in that red spot.
204
492260
3000
ซึ่งอาจทำให้คุณคาดได้ว่า ลูกเทนนิสจะตกตรงจุดแดง
08:15
But you know that your senses are not perfect,
205
495260
3000
แต่คุณก็รู้ว่าประสาทรับรู้ของคุณไม่สมบูรณ์แบบ
08:18
and therefore there's some variability of where it's going to land
206
498260
2000
ดังนั้นจุดที่ลูกเทนนิสจะตก จึงมีความผันแปรได้บ้าง
08:20
shown by that cloud of red,
207
500260
2000
ในบริเวณพื้นที่สีแดง
08:22
representing numbers between 0.5 and maybe 0.1.
208
502260
3000
แทนด้วยตัวเลข 0.5 ถึงประมาณ 0.1
08:26
That information is available in the current shot,
209
506260
2000
ข้อมูลนี้ใช้ได้เฉพาะกับการหวดลูกนี้
08:28
but there's another source of information
210
508260
2000
แต่มีอีกแหล่งข้อมูล
08:30
not available on the current shot,
211
510260
2000
ที่ไม่ได้เฉพาะกับการหวดลูกนี้
08:32
but only available by repeated experience in the game of tennis,
212
512260
3000
แต่มาจากประสบการณ์ที่เจอซ้ำ ๆ ในการเล่นเทนนิส
08:35
and that's that the ball doesn't bounce
213
515260
2000
ที่ลูกเทนนิสไม่ได้กระดอน
08:37
with equal probability over the court during the match.
214
517260
2000
ด้วยความน่าจะเป็นเท่ากัน ทั้งสนาม ตลอดการแข่งขัน
08:39
If you're playing against a very good opponent,
215
519260
2000
ถ้าคุณกำลังแข่งกับคู่ต่อสู้ที่เก่งมาก
08:41
they may distribute it in that green area,
216
521260
2000
เขาอาจตีไปตกในบริเวณสีเขียว
08:43
which is the prior distribution,
217
523260
2000
ซึ่งเป็นการกระจายตัวหลัก
08:45
making it hard for you to return.
218
525260
2000
ทำให้คุณตีโต้กลับได้ยาก
08:47
Now both these sources of information carry important information.
219
527260
2000
ตอนนี้คุณได้ข้อมูลสำคัญจากแหล่งข้อมูลทั้งสอง
08:49
And what Bayes' rule says
220
529260
2000
และกฎของเบส์บอกให้
08:51
is that I should multiply the numbers on the red by the numbers on the green
221
531260
3000
คูณตัวเลขในบริเวณสีแดง กับบริเวณสีเขียว
08:54
to get the numbers of the yellow, which have the ellipses,
222
534260
3000
จะได้ตัวเลขในบริเวณสีเหลือง ที่มีวงรีอยู่
08:57
and that's my belief.
223
537260
2000
และนั่นคือความเชื่อ
08:59
So it's the optimal way of combining information.
224
539260
3000
นั่นคือวิธีที่ดีที่สุดในการผสานข้อมูล
09:02
Now I wouldn't tell you all this if it wasn't that a few years ago,
225
542260
2000
ผมคงไม่เอาเรื่องทั้งหมดนี้มาเล่า หากไม่ใช่เพราะ เมื่อไม่กี่ปีก่อน
09:04
we showed this is exactly what people do
226
544260
2000
เราได้แสดงให้เห็นว่า นี่เป็นสิ่งที่คนเราทำจริง ๆ
09:06
when they learn new movement skills.
227
546260
2000
เวลาเราเรียนรู้ทักษะการเคลื่อนที่ใหม่
09:08
And what it means
228
548260
2000
ซึ่งหมายความว่า
09:10
is we really are Bayesian inference machines.
229
550260
2000
แท้จริงแล้ว เราเป็นเครื่องอนุมานเบเชียน
09:12
As we go around, we learn about statistics of the world and lay that down,
230
552260
4000
ขณะดำรงชีวิต เราเรียนรู้สถิติของโลก และบันทึกจดจำไว้
09:16
but we also learn
231
556260
2000
แต่เรายังได้เรียนรู้
09:18
about how noisy our own sensory apparatus is,
232
558260
2000
ว่าอวัยวะรับสัมผัสของเรา มีสัญญาณรบกวนมากแค่ไหน
09:20
and then combine those
233
560260
2000
แล้วเราก็ผสานข้อมูลทั้งสอง
09:22
in a real Bayesian way.
234
562260
2000
ด้วยวิธีแบบเบเชียน
09:24
Now a key part to the Bayesian is this part of the formula.
235
564260
3000
ส่วนสำคัญในสูตรเบเชียนคือส่วนนี้
09:27
And what this part really says
236
567260
2000
ซึ่งส่วนนี้บอกว่า
09:29
is I have to predict the probability
237
569260
2000
ผมต้องทำนายความน่าจะเป็น
09:31
of different sensory feedbacks
238
571260
2000
ของข้อมูลย้อนกลับจากประสาทสัมผัสต่าง ๆ
09:33
given my beliefs.
239
573260
2000
ตามความเชื่อที่เรามี
09:35
So that really means I have to make predictions of the future.
240
575260
3000
ซึ่งแปลว่า เราต้องทำนายอนาคต
09:38
And I want to convince you the brain does make predictions
241
578260
2000
และผมอยากให้คุณเชื่อว่า สมองทำการทำนายจริง ๆ
09:40
of the sensory feedback it's going to get.
242
580260
2000
ว่าจะได้ข้อมูลย้อนกลับจากประสาทสัมผัสแบบไหน
09:42
And moreover, it profoundly changes your perceptions
243
582260
2000
และยิ่งไปกว่านั้น มันยังไปเปลี่ยนแปลง การรับรู้ของคุณอย่างลึกซึ้ง
09:44
by what you do.
244
584260
2000
ด้วยสิ่งที่คุณทำ
09:46
And to do that, I'll tell you
245
586260
2000
เพื่อการนั้น ผมจะเล่าให้คุณฟังว่า
09:48
about how the brain deals with sensory input.
246
588260
2000
สมองจัดการกับข้อมูลเข้าจากประสาทรับรู้อย่างไร
09:50
So you send a command out,
247
590260
3000
คุณส่งคำสั่งออกไป
09:53
you get sensory feedback back,
248
593260
2000
คุณได้ข้อมูลตอบกลับจากประสาทรับรู้
09:55
and that transformation is governed
249
595260
2000
และการแปลงสภาพนั้นขึ้นกับ
09:57
by the physics of your body and your sensory apparatus.
250
597260
3000
กายภาพของร่างกายคุณ กับอวัยวะรับสัมผัสของคุณ
10:00
But you can imagine looking inside the brain.
251
600260
2000
แต่เราสามารถจินตนาการภาพภายในสมอง
10:02
And here's inside the brain.
252
602260
2000
และนี่คือภายในสมอง
10:04
You might have a little predictor, a neural simulator,
253
604260
2000
คุณอาจมีตัวทำนาย ตัวจำลองเชิงประสาท
10:06
of the physics of your body and your senses.
254
606260
2000
ของกายภาพของร่างกาย และประสาทสัมผัสของคุณ
10:08
So as you send a movement command down,
255
608260
2000
เมื่อคุณส่งคำสั่งเคลื่อนไหวลงมา
10:10
you tap a copy of that off
256
610260
2000
ทำสำเนาแยกออกมา
10:12
and run it into your neural simulator
257
612260
2000
และส่งเข้าตัวจำลองเชิงประสาท
10:14
to anticipate the sensory consequences of your actions.
258
614260
4000
ให้คาดการณ์ผลเชิงประสาทรับรู้ ที่จะตามมาจากการกระทำ
10:18
So as I shake this ketchup bottle,
259
618260
2000
ขณะที่ผมเขย่าขวดซอสมะเขือเทศ
10:20
I get some true sensory feedback as the function of time in the bottom row.
260
620260
3000
ผมได้รับข้อมูลย้อนกลับจริงจากประสาทสัมผัสมาส่วนหนึ่ง เทียบกับเวลา ในแถวล่าง
10:23
And if I've got a good predictor, it predicts the same thing.
261
623260
3000
และถ้าตัวทำนายของคุณดี มันก็จะทายได้ตรง
10:26
Well why would I bother doing that?
262
626260
2000
ทำไมเราต้องมานั่งทำอะไรพวกนี้ด้วย?
10:28
I'm going to get the same feedback anyway.
263
628260
2000
ยังไงก็ได้ข้อมูลย้อนกลับเดียวกันนี้อยู่ดี
10:30
Well there's good reasons.
264
630260
2000
มันมีเหตุผลดี ๆ อยู่
10:32
Imagine, as I shake the ketchup bottle,
265
632260
2000
ลองจินตนาการ ขณะผมกำลังเขย่าขวดซอสมะเขือเทศ
10:34
someone very kindly comes up to me and taps it on the back for me.
266
634260
3000
มีคนใจดีมาช่วยผมเคาะก้นขวดให้อีก
10:37
Now I get an extra source of sensory information
267
637260
2000
ตอนนี้ เรามีข้อมูลจากประสาทสัมผัสเพิ่มขึ้นมา
10:39
due to that external act.
268
639260
2000
จากการกระทำภายนอก
10:41
So I get two sources.
269
641260
2000
เรามีข้อมูลจากสองแหล่ง
10:43
I get you tapping on it, and I get me shaking it,
270
643260
3000
ผมมีคุณมาช่วยเคาะ และผมก็กำลังเขย่าขวดด้วย
10:46
but from my senses' point of view,
271
646260
2000
แต่จากมุมมองของประสาทสัมผัสของผม
10:48
that is combined together into one source of information.
272
648260
3000
ทั้งสองส่วนจะถูกรวมเป็นแหล่งข้อมูลเดียว
10:51
Now there's good reason to believe
273
651260
2000
มีเหตุผลที่ดีให้เราเชื่อ
10:53
that you would want to be able to distinguish external events from internal events.
274
653260
3000
ว่าทำไมเราถึงอยากจะแยกแยะเหตุการณ์ภายนอก จากเหตุการณ์ภายในให้ได้
10:56
Because external events are actually much more behaviorally relevant
275
656260
3000
เพราะเหตุการณ์ภายนอกจริง ๆ แล้วเกี่ยวข้องในเชิง พฤติกรรมมากกว่า
10:59
than feeling everything that's going on inside my body.
276
659260
3000
การรู้สึกถึงสิ่งต่าง ๆ ที่เกิดขึ้นภายในร่างกายอย่างมาก
11:02
So one way to reconstruct that
277
662260
2000
วิธีหนึ่งที่ทำได้คือ
11:04
is to compare the prediction --
278
664260
2000
เปรียบเทียบตัวทำนาย
11:06
which is only based on your movement commands --
279
666260
2000
ซึ่งอิงจากคำสั่งเคลื่อนไหว
11:08
with the reality.
280
668260
2000
กับความเป็นจริง
11:10
Any discrepancy should hopefully be external.
281
670260
3000
ส่วนที่ต่างกันควรจะต้องมาจากภายนอก
11:13
So as I go around the world,
282
673260
2000
ขณะที่ผมท่องไปทั่วโลก
11:15
I'm making predictions of what I should get, subtracting them off.
283
675260
3000
ผมก็ทำนายไปด้วย ว่าผมควรรู้สึกอย่างไร แล้วลบมันออก
11:18
Everything left over is external to me.
284
678260
2000
ส่วนที่เหลือทั้งหมด คือสิ่งที่มาจากภายนอกตัวผม
11:20
What evidence is there for this?
285
680260
2000
มีหลักฐานอะไรมาสนับสนุนเรื่องนี้บ้าง
11:22
Well there's one very clear example
286
682260
2000
มีตัวอย่างที่ชัดเจนอันหนึ่ง
11:24
where a sensation generated by myself feels very different
287
684260
2000
ที่ความรู้สึกที่เราสร้างต่างไปจาก
11:26
then if generated by another person.
288
686260
2000
ความรู้สึกที่คนอื่นสร้าง
11:28
And so we decided the most obvious place to start
289
688260
2000
เราจึงตัดสินใจว่าควรต้องเริ่มต้นที่
11:30
was with tickling.
290
690260
2000
การจั๊กจี้
11:32
It's been known for a long time, you can't tickle yourself
291
692260
2000
เรารู้กันมานมนานแล้วว่า เราจั๊กจี้ตัวเองไม่ได้
11:34
as well as other people can.
292
694260
2000
ต้องเป็นคนอื่นทำ
11:36
But it hasn't really been shown, it's because you have a neural simulator,
293
696260
3000
แต่ยังไม่เคยมีใครแสดงได้ว่า มันเป็นเพราะเรามี ตัวจำลองเชิงประสาท
11:39
simulating your own body
294
699260
2000
จำลองร่างกายขึ้นมา
11:41
and subtracting off that sense.
295
701260
2000
แล้วหักลบความรู้สึกนั้นออก
11:43
So we can bring the experiments of the 21st century
296
703260
3000
เราสามารถนำการทดลองยุคศตวรรษที่ 21
11:46
by applying robotic technologies to this problem.
297
706260
3000
ซึ่งใช้เทคโนโลยีหุ่นยนต์ มาตอบปัญหานี้
11:49
And in effect, what we have is some sort of stick in one hand attached to a robot,
298
709260
3000
ในมือข้างหนึ่งให้ถือแท่ง ซึ่งเชื่อมกับหุ่นยนต์
11:52
and they're going to move that back and forward.
299
712260
2000
และให้พวกเขาแกว่งไปมา
11:54
And then we're going to track that with a computer
300
714260
2000
และเราใช้คอมพิวเตอร์ติดตาม
11:56
and use it to control another robot,
301
716260
2000
และใช้ข้อมูลเอาไปควบคุมหุ่นอีกตัว
11:58
which is going to tickle their palm with another stick.
302
718260
2000
ให้จั๊กจี้ฝ่ามือของพวกเขาด้วยแท่งอีกแท่ง
12:00
And then we're going to ask them to rate a bunch of things
303
720260
2000
แล้วเราก็ให้พวกเขาประเมินค่าระดับต่าง ๆ
12:02
including ticklishness.
304
722260
2000
รวมถึงความจั๊กจี้
12:04
I'll show you just one part of our study.
305
724260
2000
ผมจะให้คุณชมเพียงส่วนหนึ่ง ของการวิจัยของพวกเรา
12:06
And here I've taken away the robots,
306
726260
2000
ตรงนี้ผมเอารูปหุ่นยนต์ออกไป
12:08
but basically people move with their right arm sinusoidally back and forward.
307
728260
3000
คนขยับแขนขวาไปมาเป็นคลื่น
12:11
And we replay that to the other hand with a time delay.
308
731260
3000
แล้วเราขยับแท่งตามนั้น บนมืออีกข้าง โดยมีการหน่วงเวลา
12:14
Either no time delay,
309
734260
2000
อาจไม่หน่วงเวลาเลย
12:16
in which case light would just tickle your palm,
310
736260
2000
ซึ่งก็เหมือนคุณจั๊กจี้มือตัวเอง
12:18
or with a time delay of two-tenths of three-tenths of a second.
311
738260
4000
หรือมีการหน่วงเวลาไป 0.1, 0.2, หรือ 0.3 วินาที
12:22
So the important point here
312
742260
2000
ประเด็นสำคัญคือ
12:24
is the right hand always does the same things -- sinusoidal movement.
313
744260
3000
มือขวาเคลื่อนเหมือนเดิมตลอด เป็นคลื่น
12:27
The left hand always is the same and puts sinusoidal tickle.
314
747260
3000
มือซ้ายก็ทำเหมือนเดิมตลอด คือถูกจั๊กจี้เป็นคลื่น
12:30
All we're playing with is a tempo causality.
315
750260
2000
สิ่งที่เราเล่นอยู่คือแค่ ลำดับจังหวะเหตุ-ผล
12:32
And as we go from naught to 0.1 second,
316
752260
2000
ถ้าเราปรับจากศูนย์ไปเป็น 0.1 วินาที
12:34
it becomes more ticklish.
317
754260
2000
จะทำให้รู้สึกจั๊กจี้มากขึ้น
12:36
As you go from 0.1 to 0.2,
318
756260
2000
จาก 0.1 ไป 0.2
12:38
it becomes more ticklish at the end.
319
758260
2000
ก็ยิ่งจั๊กจี้มากขึ้นไปเรื่อย ๆ
12:40
And by 0.2 of a second,
320
760260
2000
และที่ 0.2 วินาที
12:42
it's equivalently ticklish
321
762260
2000
จะจั๊กจี้เท่ากับ
12:44
to the robot that just tickled you without you doing anything.
322
764260
2000
ที่หุ่นยนต์จั๊กจี้ โดยที่คุณไม่ได้ทำอะไร
12:46
So whatever is responsible for this cancellation
323
766260
2000
ดังนั้นอะไรก็ตามที่ทำให้เกิดการหักล้างนี้ขึ้น
12:48
is extremely tightly coupled with tempo causality.
324
768260
3000
ต้องสัมพันธ์แนบแน่นกับ ลำดับจังหวะเหตุ-ผล
12:51
And based on this illustration, we really convinced ourselves in the field
325
771260
3000
และจากตัวอย่างนี้ ทำให้พวกเราในสาขานี้เชื่อว่า
12:54
that the brain's making precise predictions
326
774260
2000
สมองทำการทำนายที่แม่นยำ
12:56
and subtracting them off from the sensations.
327
776260
3000
และเอาไปหักลบจากความรู้สึก
12:59
Now I have to admit, these are the worst studies my lab has ever run.
328
779260
3000
ผมต้องยอมรับว่า นี่เป็นงานวิจัยที่แย่ทีสุดที่แล็บผมเคยทำมา
13:02
Because the tickle sensation on the palm comes and goes,
329
782260
2000
เพราะว่าความรู้สึกจั๊กจี้ที่มือ มาแล้วก็ไป
13:04
you need large numbers of subjects
330
784260
2000
ต้องใช้ผู้ทดลองจำนวนมาก
13:06
with these stars making them significant.
331
786260
2000
กับดอกจันเหล่านี้ เพื่อทำให้ค่ามีนัยสำคัญ
13:08
So we were looking for a much more objective way
332
788260
2000
เราจึงมองหาวิธีที่เป็นวัตถุวิสัยมากกว่านี้
13:10
to assess this phenomena.
333
790260
2000
ที่จะเข้าถึงปรากฏการณ์นี้
13:12
And in the intervening years I had two daughters.
334
792260
2000
ในระหว่างช่วงนั้น ผมมีลูกสาวสองคน
13:14
And one thing you notice about children in backseats of cars on long journeys,
335
794260
3000
สิ่งหนึ่งที่สังเกตได้ ขณะเด็ก ๆ นั่งเบาะหลังรถ เวลาเดินทางไกล ๆ
13:17
they get into fights --
336
797260
2000
เด็ก ๆ จะทะเลาะกัน
13:19
which started with one of them doing something to the other, the other retaliating.
337
799260
3000
คนหนึ่งจะทำอะไรสักอย่างกับอีกคน แล้วอีกคนก็เอาคืน
13:22
It quickly escalates.
338
802260
2000
ทำกันแรงขึ้นอย่างรวดเร็ว
13:24
And children tend to get into fights which escalate in terms of force.
339
804260
3000
เด็ก ๆ มักจะทะเลาะกัน และใช้กำลังกันแรงขึ้น
13:27
Now when I screamed at my children to stop,
340
807260
2000
พอผมร้องบอกให้เด็ก ๆ หยุด
13:29
sometimes they would both say to me
341
809260
2000
บางทีเด็ก ๆ ก็ต่างบอกว่า
13:31
the other person hit them harder.
342
811260
3000
อีกฝ่ายตีแรงกว่าก่อน
13:34
Now I happen to know my children don't lie,
343
814260
2000
เผอิญผมทราบว่าลูกไม่โกหก
13:36
so I thought, as a neuroscientist,
344
816260
2000
ผมจึงคิด ในฐานะนักประสาทวิทยาศาสตร์
13:38
it was important how I could explain
345
818260
2000
เป็นเรื่องสำคัญที่จะอธิบายว่า
13:40
how they were telling inconsistent truths.
346
820260
2000
ความจริงจากทั้งสองคนทำไมจึงขัดกัน
13:42
And we hypothesize based on the tickling study
347
822260
2000
เราตั้งสมมติฐานโดยอิงจากงานวิจัยจั๊กจี้
13:44
that when one child hits another,
348
824260
2000
ว่าเมื่อเด็กไปตีอีกคน
13:46
they generate the movement command.
349
826260
2000
เขาสร้างคำสั่งเคลื่อนที่
13:48
They predict the sensory consequences and subtract it off.
350
828260
3000
คนตีจะทำนายผลการรับรู้ที่จะตามมา และหักลบส่วนนั้นออก
13:51
So they actually think they've hit the person less hard than they have --
351
831260
2000
ดังนั้น เด็กที่ตีจึงคิดว่าตัวเองตีเบากว่าที่ได้ตีไปจริง ๆ
13:53
rather like the tickling.
352
833260
2000
คล้าย ๆ กับการจั๊กจี้
13:55
Whereas the passive recipient
353
835260
2000
ในขณะที่คนถูกตี
13:57
doesn't make the prediction, feels the full blow.
354
837260
2000
ไม่ได้สร้างคำทำนายไว้ จึงรู้สึกถูกตีเต็ม ๆ
13:59
So if they retaliate with the same force,
355
839260
2000
ถ้าเขาตีคืน ด้วยแรงที่เท่ากัน
14:01
the first person will think it's been escalated.
356
841260
2000
คนแรกจะคิดว่าถูกตีแรงขึ้น
14:03
So we decided to test this in the lab.
357
843260
2000
เราจึงตัดสินใจจะทดลองเรื่องนี้ในแล็บ
14:05
(Laughter)
358
845260
3000
(เสียงหัวเราะ)
14:08
Now we don't work with children, we don't work with hitting,
359
848260
2000
เราไม่ได้ทดลองกับเด็ก เราไม่ได้ใช้การตี
14:10
but the concept is identical.
360
850260
2000
แต่หลักคิดก็เหมือนกัน
14:12
We bring in two adults. We tell them they're going to play a game.
361
852260
3000
เราเอาผู้ใหญ่มาสองคน บอกว่าจะให้เล่นเกม
14:15
And so here's player one and player two sitting opposite to each other.
362
855260
2000
มีผู้เล่นหนึ่ง และผู้เล่นสอง นั่งประจันหน้ากัน
14:17
And the game is very simple.
363
857260
2000
เกมก็เรียบง่ายมาก
14:19
We started with a motor
364
859260
2000
เราเริ่มจากมอเตอร์
14:21
with a little lever, a little force transfuser.
365
861260
2000
ที่มีคานงัดอันเล็ก ๆ เป็นตัวส่งแรง
14:23
And we use this motor to apply force down to player one's fingers
366
863260
2000
เราใช้มอเตอร์นี้ ออกแรงกดนิ้วผู้เล่น
14:25
for three seconds and then it stops.
367
865260
3000
นานสามวินาที แล้วหยุด
14:28
And that player's been told, remember the experience of that force
368
868260
3000
เราบอกให้ผู้เล่นจำความรู้สึกที่ถูกแรงกด
14:31
and use your other finger
369
871260
2000
แล้วใช้อีกนิ้ว
14:33
to apply the same force
370
873260
2000
ออกแรงเท่ากัน
14:35
down to the other subject's finger through a force transfuser -- and they do that.
371
875260
3000
กดนิ้วผู้เล่นอีกคน ผ่านเครื่องส่งแรง และพวกเขาทำตามนั้น
14:38
And player two's been told, remember the experience of that force.
372
878260
3000
และเราบอกผู้เล่นสองให้จดจำความรู้สึกของแรงกด
14:41
Use your other hand to apply the force back down.
373
881260
3000
ใช้มืออีกข้างออกแรงกดกลับไป
14:44
And so they take it in turns
374
884260
2000
ให้สองคนสลับกัน
14:46
to apply the force they've just experienced back and forward.
375
886260
2000
ออกแรงตามที่รู้สึก กลับไปกลับมา
14:48
But critically,
376
888260
2000
ที่สำคัญคือ
14:50
they're briefed about the rules of the game in separate rooms.
377
890260
3000
สองคนนี้ฟังกฎของเกมตอนอยู่คนละห้องกัน
14:53
So they don't know the rules the other person's playing by.
378
893260
2000
พวกเขาไม่รู้กฎที่อีกฝ่ายต้องทำตาม
14:55
And what we've measured
379
895260
2000
และสิ่งที่เราวัดคือ
14:57
is the force as a function of terms.
380
897260
2000
แรงกดในแต่ละรอบ
14:59
And if we look at what we start with,
381
899260
2000
และถ้าเราดูที่แรงตอนเริ่ม
15:01
a quarter of a Newton there, a number of turns,
382
901260
2000
หนึ่งในสี่นิวตันตรงนี้ จำนวนรอบ
15:03
perfect would be that red line.
383
903260
2000
อุดมคติคือเส้นสีแดง
15:05
And what we see in all pairs of subjects is this --
384
905260
3000
สิ่งที่เราเห็นจากผู้ทดลองทุกคู่คือ
15:08
a 70 percent escalation in force
385
908260
2000
แรงกดเพิ่มขึ้น 70%
15:10
on each go.
386
910260
2000
ในแต่ละรอบ
15:12
So it really suggests, when you're doing this --
387
912260
2000
มันจึงชี้ว่า เมื่อเรากำลังกด
15:14
based on this study and others we've done --
388
914260
2000
โดยอิงจากงานวิจัยนี้ และชิ้นอื่น ๆ ที่เราได้ทำ
15:16
that the brain is canceling the sensory consequences
389
916260
2000
สมองจะหักล้างผลการรับรู้ที่ตามมา
15:18
and underestimating the force it's producing.
390
918260
2000
และประมาณแรงที่ออกต่ำกว่าค่าจริง
15:20
So it re-shows the brain makes predictions
391
920260
2000
งานวิจัยนี้จึงแสดงให้เห็นอีกครั้งว่า สมองทำการทำนาย
15:22
and fundamentally changes the precepts.
392
922260
3000
และปรับเปลี่ยนกฎไปถึงรากฐาน
15:25
So we've made inferences, we've done predictions,
393
925260
3000
เราทำการอนุมาน ทำการทำนาย
15:28
now we have to generate actions.
394
928260
2000
ตอนนี้เราต้องลงมือกระทำ
15:30
And what Bayes' rule says is, given my beliefs,
395
930260
2000
และสิ่งที่กฎของเบส์กล่าวไว้คือ อิงจากความเชื่อ
15:32
the action should in some sense be optimal.
396
932260
2000
การกระทำควรเหมาะสมที่สุดในบางแง่
15:34
But we've got a problem.
397
934260
2000
แต่เรามีปัญหา
15:36
Tasks are symbolic -- I want to drink, I want to dance --
398
936260
3000
ภารกิจเป็นเชิงสัญลักษณ์ เราอยากดื่ม เราอยากเต้น
15:39
but the movement system has to contract 600 muscles
399
939260
2000
แต่ระบบการเคลื่อนไหวต้องหดกล้ามเนื้อ 600 มัด
15:41
in a particular sequence.
400
941260
2000
ตามลำดับที่ถูกต้อง
15:43
And there's a big gap
401
943260
2000
และยังมีช่องว่างเบ้อเร่อ
15:45
between the task and the movement system.
402
945260
2000
ระหว่างภารกิจ กับระบบการเคลื่อนไหว
15:47
So it could be bridged in infinitely many different ways.
403
947260
2000
ซึ่งอาจเชื่อมกันได้โดยวิธีที่แตกต่างกัน มากมายนับไม่ถ้วน
15:49
So think about just a point to point movement.
404
949260
2000
ลองคิดถึงแค่การเคลื่อนที่จากจุดหนึ่งไปอีกจุด
15:51
I could choose these two paths
405
951260
2000
ผมสามารถเลือกสองเส้นทางนี้
15:53
out of an infinite number of paths.
406
953260
2000
จากจำนวนเส้นทางเป็นอนันต์
15:55
Having chosen a particular path,
407
955260
2000
ถึงได้เลือกมาแล้วหนึ่งเส้นทาง
15:57
I can hold my hand on that path
408
957260
2000
ผมก็สามารถเคลื่อนมือไปตามทาง
15:59
as infinitely many different joint configurations.
409
959260
2000
ด้วยรูปแบบข้อต่อที่แตกต่างกันเป็นอนันต์
16:01
And I can hold my arm in a particular joint configuration
410
961260
2000
และผมยังสามารถจัดแขน ด้วยรูปแบบข้อต่อหนึ่ง
16:03
either very stiff or very relaxed.
411
963260
2000
ได้ทั้งแบบเกร็งมาก ๆ หรือปล่อยสบาย ๆ
16:05
So I have a huge amount of choice to make.
412
965260
3000
ดังนั้นผมจึงมีสิ่งที่ต้องเลือกมหาศาล
16:08
Now it turns out, we are extremely stereotypical.
413
968260
3000
ปรากฏว่าพวกเราเหมือนกันมาก
16:11
We all move the same way pretty much.
414
971260
3000
เราทุกคนขยับเคลื่อนไหวด้วยรูปแบบเดียวกัน
16:14
And so it turns out we're so stereotypical,
415
974260
2000
และพวกเราเหมือนกันมาก
16:16
our brains have got dedicated neural circuitry
416
976260
2000
สมองมีวงจรประสาทเฉพาะกิจ
16:18
to decode this stereotyping.
417
978260
2000
เพื่อถอดรหัสความเหมือนนี้
16:20
So if I take some dots
418
980260
2000
ถ้าเรามีจุดอยู่จำนวนหนึ่ง
16:22
and set them in motion with biological motion,
419
982260
3000
แล้วเราทำให้จุดพวกนี้ขยับ คล้ายกับสิ่งมีชีวิต
16:25
your brain's circuitry would understand instantly what's going on.
420
985260
3000
วงจรในสมองจะเข้าใจทันทีว่ากำลังเกิดอะไรขึ้น
16:28
Now this is a bunch of dots moving.
421
988260
2000
แค่จุดกลุ่มหนึ่งเคลื่อนที่
16:30
You will know what this person is doing,
422
990260
3000
คุณรู้ได้ว่าคนคนนี้กำลังทำอะไร
16:33
whether happy, sad, old, young -- a huge amount of information.
423
993260
3000
ดีใจ เสียใจ แก่ เด็ก ข้อมูลมหาศาล
16:36
If these dots were cars going on a racing circuit,
424
996260
2000
ถ้าจุดพวกนี้เป็นรถที่กำลังวิ่งในสนามแข่ง
16:38
you would have absolutely no idea what's going on.
425
998260
3000
คุณไม่มีทางดูออกเลยว่ากำลังมีอะไรเกิดขึ้น
16:41
So why is it
426
1001260
2000
แล้วทำไม
16:43
that we move the particular ways we do?
427
1003260
2000
เราจึงเคลื่อนไหวในรูปแบบเฉพาะที่เราทำอยู่
16:45
Well let's think about what really happens.
428
1005260
2000
ลองคิดดูว่าจริง ๆ มีอะไรเกิดขึ้น
16:47
Maybe we don't all quite move the same way.
429
1007260
3000
บางทีเราอาจจะไม่ได้เคลื่อนไหวเหมือนกันขนาดนั้น
16:50
Maybe there's variation in the population.
430
1010260
2000
บางทีอาจจะมีความแปรผันในหมู่ประชากร
16:52
And maybe those who move better than others
431
1012260
2000
และบางทีคนที่เคลื่อนไหวได้ดีกว่าคนอื่น ๆ
16:54
have got more chance of getting their children into the next generation.
432
1014260
2000
อาจจะมีโอกาสมีลูกหลานเป็นรุ่นต่อ ๆ ไปสูงกว่า
16:56
So in evolutionary scales, movements get better.
433
1016260
3000
ในระดับวิวัฒนาการ การเคลื่อนไหวดีขึ้นขึ้นเรื่อย ๆ
16:59
And perhaps in life, movements get better through learning.
434
1019260
3000
และอาจจะในช่วงชีวิต เราเคลื่อนไหวได้ดีขึ้น ผ่านการเรียนรู้
17:02
So what is it about a movement which is good or bad?
435
1022260
2000
แล้วการเคลื่อนไหวที่ดีกับไม่ดีมันเป็นอย่างไร
17:04
Imagine I want to intercept this ball.
436
1024260
2000
ลองจินตนาการว่า คุณต้องการคว้าจับลูกบอลนี้
17:06
Here are two possible paths to that ball.
437
1026260
3000
มีสองเส้นทางไปถึงลูกบอล
17:09
Well if I choose the left-hand path,
438
1029260
2000
ถ้าผมเลือกเส้นทางซ้ายมือ
17:11
I can work out the forces required
439
1031260
2000
ผมสามารถคำนวณหาแรงที่ต้องใช้
17:13
in one of my muscles as a function of time.
440
1033260
2000
ในกล้ามเนื้อมัดหนึ่ง เทียบกับเวลา
17:15
But there's noise added to this.
441
1035260
2000
แต่มันมีสัญญาณรบกวนแทรกเข้ามา
17:17
So what I actually get, based on this lovely, smooth, desired force,
442
1037260
3000
ดังนั้นสิ่งที่ผมได้มาจริง ๆ โดยอิงจากแรงที่สวยงาม เป็นระเบียบ พึงปรารถนานี้
17:20
is a very noisy version.
443
1040260
2000
คือชุดข้อมูลที่มีสัญญาณรบกวนสูงมาก
17:22
So if I pick the same command through many times,
444
1042260
3000
ถ้าผมเลือกใช้คำสั่งเดิมหลาย ๆ ครั้ง
17:25
I will get a different noisy version each time, because noise changes each time.
445
1045260
3000
ผมจะได้ชุดข้อมูล ที่มีสัญญาณรบกวนต่างกันไป ในแต่ละครั้ง เพราะมันเปลี่ยนไปทุกครั้ง
17:28
So what I can show you here
446
1048260
2000
ผมแสดงให้คุณเห็นได้ว่า
17:30
is how the variability of the movement will evolve
447
1050260
2000
ความแปรผันของการเคลื่อนไหวจะแปรเปลี่ยนไปอย่างไร
17:32
if I choose that way.
448
1052260
2000
ถ้าผมเลือกวิธีนี้
17:34
If I choose a different way of moving -- on the right for example --
449
1054260
3000
ถ้าผมเลือกวีธีเคลื่อนไหวอีกวิธี เช่นที่อยู่ทางขวา
17:37
then I'll have a different command, different noise,
450
1057260
2000
ผมจะมีคำสั่งที่ต่างไป สัญญาณรบกวนที่ต่างไป
17:39
playing through a noisy system, very complicated.
451
1059260
3000
เล่นผ่านระบบสัญญาณรบกวน ยุ่งยากมาก
17:42
All we can be sure of is the variability will be different.
452
1062260
3000
เรามั่นใจได้แค่ว่า การแปรผันจะต่างไป
17:45
If I move in this particular way,
453
1065260
2000
ถ้าผมเคลื่อนไหวแบบนี้
17:47
I end up with a smaller variability across many movements.
454
1067260
3000
แล้วได้การแปรผันต่ำกว่า เมื่อเคลื่อนไหวไปหลาย ๆ ครั้ง
17:50
So if I have to choose between those two,
455
1070260
2000
ถ้าผมต้องเลือกระหว่างสองวิธีนี้
17:52
I would choose the right one because it's less variable.
456
1072260
2000
ผมก็จะเลือกแบบขวา เพราะการแปรผันมันต่ำกว่า
17:54
And the fundamental idea
457
1074260
2000
และแนวคิดพื้นฐานก็คือ
17:56
is you want to plan your movements
458
1076260
2000
คุณต้องการวางแผนให้การเคลื่อนไหว
17:58
so as to minimize the negative consequence of the noise.
459
1078260
3000
มีผลกระทบเชิงลบจากสัญญาณรบกวนต่ำที่สุด
18:01
And one intuition to get
460
1081260
2000
และสามัญสำนึกหนึ่งที่ต้องเข้าใจคือ
18:03
is actually the amount of noise or variability I show here
461
1083260
2000
จริง ๆ แล้วขนาดของสัญญาณรบกวน หรือการแปรผัน ที่ผมแสดงตรงนี้
18:05
gets bigger as the force gets bigger.
462
1085260
2000
เพิ่มขึ้นตามแรงที่ใช้
18:07
So you want to avoid big forces as one principle.
463
1087260
3000
ดังนั้นคุณควรเลี่ยงอย่าใช้แรงมาก ๆ ถือเป็นหลักข้อหนึ่ง
18:10
So we've shown that using this,
464
1090260
2000
เราได้แสดงให้เห็นแล้วว่า โดยใช้เรื่องนี้
18:12
we can explain a huge amount of data --
465
1092260
2000
เราสามารถอธิบายปริมาณข้อมูลมหาศาล
18:14
that exactly people are going about their lives planning movements
466
1094260
3000
ว่าแท้จริงแล้ว คนเราดำเนินชีวิต โดยวางแผนการเคลื่อนไหว
18:17
so as to minimize negative consequences of noise.
467
1097260
3000
เพื่อให้มีผลกระทบเชิงลบจากสัญญาณรบกวนต่ำที่สุด
18:20
So I hope I've convinced you the brain is there
468
1100260
2000
ดังนั้น ผมหวังว่าผมได้ทำให้คุณเชื่อว่า สมองมีอยู่
18:22
and evolved to control movement.
469
1102260
2000
และถูกวิวัฒนาการมาให้ควบคุมการเคลื่อนไหว
18:24
And it's an intellectual challenge to understand how we do that.
470
1104260
3000
และเป็นเรื่องท้าทายสติปัญญา ที่จะทำความเข้าใจว่า เราทำมันได้อย่างไร
18:27
But it's also relevant
471
1107260
2000
แต่มันก็เกี่ยวข้องกับ
18:29
for disease and rehabilitation.
472
1109260
2000
การเจ็บป่วยและการฟื้นตัวด้วย
18:31
There are many diseases which effect movement.
473
1111260
3000
มีหลายโรคที่ส่งผลต่อการเคลื่อนไหว
18:34
And hopefully if we understand how we control movement,
474
1114260
2000
และหวังว่าถ้าเราเข้าใจว่าเราควบคุมการเคลื่อนไหวอย่างไร
18:36
we can apply that to robotic technology.
475
1116260
2000
เราจะสามารถประยุกต์ใช้ความรู้นี้กับเทคโนโลยีหุ่นยนต์
18:38
And finally, I want to remind you,
476
1118260
2000
และสุดท้ายนี้ ผมอยากให้คุณตระหนักว่า
18:40
when you see animals do what look like very simple tasks,
477
1120260
2000
เมื่อคุณเห็นสัตว์ทำสิ่งที่ดูเป็นเรื่องง่ายดาย
18:42
the actual complexity of what is going on inside their brain
478
1122260
2000
กระบวนการที่กำลังเกิดขึ้นในสมองนั้น
18:44
is really quite dramatic.
479
1124260
2000
สุดแสนที่จะสลับซับซ้อน
18:46
Thank you very much.
480
1126260
2000
ขอบคุณมากครับ
18:48
(Applause)
481
1128260
8000
(เสียงปรบมือ)
18:56
Chris Anderson: Quick question for you, Dan.
482
1136260
2000
คริส แอนเดอร์สัน (CS): คำถามสั้น ๆ สำหรับคุณ แดน
18:58
So you're a movement -- (DW: Chauvinist.) -- chauvinist.
483
1138260
4000
คุณบอกว่าคุณเป็นพวก... (DW: พวกคลั่ง) พวกคลั่งการเคลื่อนไหว
19:02
Does that mean that you think that the other things we think our brains are about --
484
1142260
3000
หมายความว่าคุณเชื่อว่าสิ่งอื่น ๆ ที่เราคิดว่าเกี่ยวข้องกับสมอง
19:05
the dreaming, the yearning, the falling in love and all these things --
485
1145260
3000
การฝัน ความปรารถนา การตกหลุมรัก และเรื่องทำนองนี้ทั้งหมด
19:08
are a kind of side show, an accident?
486
1148260
3000
เป็นแค่การแสดงประกอบ แค่อุบัติเหตุ?
19:11
DW: No, no, actually I think they're all important
487
1151260
2000
DW: เปล่า ไม่ใช่ครับ จริง ๆ แล้วผมคิดว่าทั้งหมดนี้สำคัญ
19:13
to drive the right movement behavior to get reproduction in the end.
488
1153260
3000
สำหรับการขับเคลื่อนพฤติกรรมการเคลื่อนไหวที่ถูกต้อง เพื่อนำไปสู่การสืบพันธุ์ในที่สุด
19:16
So I think people who study sensation or memory
489
1156260
3000
ผมคิดว่าเราศึกษาเรื่องความรู้สึกหรือความจำ
19:19
without realizing why you're laying down memories of childhood.
490
1159260
2000
โดยไม่ตระหนักว่า ทำไมเราถึงต้องบันทึก ความทรงจำวัยเด็กไว้
19:21
The fact that we forget most of our childhood, for example,
491
1161260
3000
ตัวอย่างเช่น ข้อเท็จจริงที่ว่าเราลืมเรื่องวัยเด็กส่วนใหญ่
19:24
is probably fine, because it doesn't effect our movements later in life.
492
1164260
3000
ก็น่าจะไม่แปลกอะไร เพราะมันไม่ส่งผลอะไรถึงการเคลื่อน ในชีวิตช่วงถัด ๆ มา
19:27
You only need to store things which are really going to effect movement.
493
1167260
3000
คุณจำเป็นต้องเก็บเฉพาะสิ่งที่จะมีผลจริง ๆ ต่อการเคลื่อนไหวเท่านั้น
19:30
CA: So you think that people thinking about the brain, and consciousness generally,
494
1170260
3000
CA: คุณคิดว่าคนที่ศึกษาเรื่องสมอง และสติสัมปชัญญะ โดยทั่วไป
19:33
could get real insight
495
1173260
2000
สามารถเกิดความเข้าใจลึกซึ้งได้
19:35
by saying, where does movement play in this game?
496
1175260
2000
โดยถามว่า การเคลื่อนไหวมีบทบาทสำคัญในจุดไหน?
19:37
DW: So people have found out for example
497
1177260
2000
DW: เราได้พบว่า อย่างเช่น
19:39
that studying vision in the absence of realizing why you have vision
498
1179260
2000
การศึกษาการมองเห็น โดยไม่ตระหนักว่า การมองเห็นมีไว้ทำไม
19:41
is a mistake.
499
1181260
2000
เป็นเรื่องผิดพลาด
19:43
You have to study vision with the realization
500
1183260
2000
คุณต้องศึกษาการมองเห็น พร้อมตระหนักว่า
19:45
of how the movement system is going to use vision.
501
1185260
2000
ระบบการเคลื่อนไหวจะเอาการมองเห็นไปใช้อย่างไร
19:47
And it uses it very differently once you think about it that way.
502
1187260
2000
และความเข้าใจจะต่างไปอย่างมาก เมื่อเราศึกษาเรื่องนี้จากมุมมองนี้
19:49
CA: Well that was quite fascinating. Thank you very much indeed.
503
1189260
3000
CA: น่าสนใจมากทีเดียว ขอบคุณอย่างยิ่งครับ
19:52
(Applause)
504
1192260
2000
(เสียงปรบมือ)
เกี่ยวกับเว็บไซต์นี้

ไซต์นี้จะแนะนำคุณเกี่ยวกับวิดีโอ YouTube ที่เป็นประโยชน์สำหรับการเรียนรู้ภาษาอังกฤษ คุณจะได้เห็นบทเรียนภาษาอังกฤษที่สอนโดยอาจารย์ชั้นนำจากทั่วโลก ดับเบิลคลิกที่คำบรรยายภาษาอังกฤษที่แสดงในแต่ละหน้าของวิดีโอเพื่อเล่นวิดีโอจากที่นั่น คำบรรยายเลื่อนซิงค์กับการเล่นวิดีโอ หากคุณมีความคิดเห็นหรือคำขอใด ๆ โปรดติดต่อเราโดยใช้แบบฟอร์มการติดต่อนี้

https://forms.gle/WvT1wiN1qDtmnspy7