Daniel Wolpert: The real reason for brains

341,413 views ・ 2011-11-03

TED


Κάντε διπλό κλικ στους αγγλικούς υπότιτλους παρακάτω για να αναπαραγάγετε το βίντεο.

Μετάφραση: Yiannis Gerardis Επιμέλεια: Vasiliki Fragkoulidou
00:15
I'm a neuroscientist.
0
15260
2000
Είμαι επιστήμονας νευρολόγος
00:17
And in neuroscience,
1
17260
2000
και στη νευρολογία
00:19
we have to deal with many difficult questions about the brain.
2
19260
3000
έχουμε να κάνουμε με πολλές διαφορετικές ερωτήσεις σχετικά με τον εγκέφαλο.
00:22
But I want to start with the easiest question
3
22260
2000
Θέλω όμως να ξεκινήσω με την ευκολότερη ερώτηση
00:24
and the question you really should have all asked yourselves at some point in your life,
4
24260
3000
την ερώτηση που όλοι σας θα έπρεπε να έχετε κάνει στους εαυτούς σας σε κάποια στιγμή της ζωής σας,
00:27
because it's a fundamental question
5
27260
2000
διότι αποτελεί θεμελιώδης ερώτηση
00:29
if we want to understand brain function.
6
29260
2000
εάν θέλουμε να καταλάβουμε τη λειτουργία του εγκεφάλου.
00:31
And that is, why do we and other animals
7
31260
2000
Αυτή είναι, γιατί εμείς και τα υπόλοιπα ζώα
00:33
have brains?
8
33260
2000
έχουμε εγκέφαλο;
00:35
Not all species on our planet have brains,
9
35260
3000
Δεν έχουν όλα τα είδη του πλανήτη μας εγκέφαλο,
00:38
so if we want to know what the brain is for,
10
38260
2000
άρα αν θέλουμε να ξέρουμε γιατί υπάρχει ο εγκέφαλος,
00:40
let's think about why we evolved one.
11
40260
2000
ας σκεφτούμε για ποιο λόγο ο δικός μας είναι εξελιγμένος.
00:42
Now you may reason that we have one
12
42260
2000
Μπορεί να θεωρείτε ότι έχουμε εγκέφαλο
00:44
to perceive the world or to think,
13
44260
2000
για να αντιλαμβανόμαστε τον κόσμο ή για να σκεφτόμαστε
00:46
and that's completely wrong.
14
46260
2000
αλλά αυτό είναι εντελώς λάθος.
00:48
If you think about this question for any length of time,
15
48260
3000
Εάν αναρωτηθείτε αυτή την ερώτηση για οποιοδήποτε χρονικό διάστημα,
00:51
it's blindingly obvious why we have a brain.
16
51260
2000
είναι τρομερά προφανανές γιατί έχουμε εγκέφαλο.
00:53
We have a brain for one reason and one reason only,
17
53260
3000
Έχουμε εγκέφαλο για έναν και μόνο λόγο,
00:56
and that's to produce adaptable and complex movements.
18
56260
3000
και αυτός είναι το να κάνουμε προσαρμόσιμες και πολύπλοκες κινήσεις.
00:59
There is no other reason to have a brain.
19
59260
2000
Δεν υπάρχει άλλος λόγος για να τον έχουμε.
01:01
Think about it.
20
61260
2000
Σκεφτείτε το.
01:03
Movement is the only way you have
21
63260
2000
Η κίνηση είναι ο μόνος τρόπος που έχετε
01:05
of affecting the world around you.
22
65260
2000
για να επιδράτε στον κόσμο γύρω σας.
01:07
Now that's not quite true. There's one other way, and that's through sweating.
23
67260
3000
Βέβαια αυτό δεν έναι εντελώς σωστό.Υπάρχει άλλος ένας τρόπος, ο ιδρώτας.
01:10
But apart from that,
24
70260
2000
Αλλά εκτός από αυτό,
01:12
everything else goes through contractions of muscles.
25
72260
2000
όλα τα υπόλοιπα έχουν να κάνουν με την συστολή των μυών.
01:14
So think about communication --
26
74260
2000
Σκεφτείτε την επικοινωνία --
01:16
speech, gestures, writing, sign language --
27
76260
3000
ομιλία,χειρονομίες,γραφή,νοήματα --
01:19
they're all mediated through contractions of your muscles.
28
79260
3000
όλα διαδίδονται μέσω της συστολής των μυών σας.
01:22
So it's really important to remember
29
82260
2000
Άρα είναι πολύ σημαντικό να θυμάστε
01:24
that sensory, memory and cognitive processes are all important,
30
84260
4000
ότι οι αισθητικές, μνημονικές και γνωστικές διεργασίες είναι όλες σημαντικές,
01:28
but they're only important
31
88260
2000
αλλά είναι σημαντικές μόνο
01:30
to either drive or suppress future movements.
32
90260
2000
για να κατευθύνουμε ή να καταστείλουμε μελλοντικές κινήσεις.
01:32
There can be no evolutionary advantage
33
92260
2000
Δεν μπορεί να αποτελέσει εξελιγκτικό πλεονέκτημα
01:34
to laying down memories of childhood
34
94260
2000
ο καθορισμός παιδικών αναμνήσεων
01:36
or perceiving the color of a rose
35
96260
2000
ή η αντίληψη του χρώματος ενός τριαντάφυλλου
01:38
if it doesn't affect the way you're going to move later in life.
36
98260
3000
εάν δεν επηρεάζει τον τρόπο που θα κινηθείτε αργότερα στη ζωή.
01:41
Now for those who don't believe this argument,
37
101260
2000
Τώρα για εκείνους που δεν υποστηρίζουν αυτή την άποψη,
01:43
we have trees and grass on our planet without the brain,
38
103260
2000
έχουμε δέντρα και γρασίδι στον πλανήτη μας χωρίς εγκέφαλο,
01:45
but the clinching evidence is this animal here --
39
105260
2000
αλλά η αδιάψευστη απόδειξη είναι αυτό εδώ το ζώο --
01:47
the humble sea squirt.
40
107260
2000
το ταπεινό θαλάσσιο ασκίδιο.
01:49
Rudimentary animal, has a nervous system,
41
109260
3000
Είναι στοιχειώδες ζώο, έχει νευρικό σύστημα,
01:52
swims around in the ocean in its juvenile life.
42
112260
2000
και νεαρό κολυμπάει στον ωκεανό.
01:54
And at some point of its life,
43
114260
2000
Σε κάποιο σημείο τις ζωής του
01:56
it implants on a rock.
44
116260
2000
κολλάει σε έναν βράχο.
01:58
And the first thing it does in implanting on that rock, which it never leaves,
45
118260
3000
Και το πρώτο πράγμα που κάνει αφού κολλήσει στον βράχο, από τον οποίο δεν φεύγει ποτέ,
02:01
is to digest its own brain and nervous system
46
121260
3000
είναι το να αφομοιώσει τον εγκέφαλο και το νευρικό του σύστημα
02:04
for food.
47
124260
2000
ως τροφή.
02:06
So once you don't need to move,
48
126260
2000
Άρα από τη στιγμή που δεν χρειάζεται να κινείσαι,
02:08
you don't need the luxury of that brain.
49
128260
3000
δεν χρειάζεσαι την πολυτέλεια του εγκεφάλου.
02:11
And this animal is often taken
50
131260
2000
Και αυτό το ζώο χρησιμοποιείται συχνά
02:13
as an analogy to what happens at universities
51
133260
2000
σαν αναλογία με το τι συμβαίνει στα πανεπιστήμια
02:15
when professors get tenure,
52
135260
2000
όταν οι καθηγητές "παλιώνουν",
02:17
but that's a different subject.
53
137260
2000
αλλά αυτό είναι άλλο θέμα.
02:19
(Applause)
54
139260
2000
(Χειροκρότημα)
02:21
So I am a movement chauvinist.
55
141260
3000
Οπότε είμαι ένας σοβινιστής της κίνησης.
02:24
I believe movement is the most important function of the brain --
56
144260
2000
Πιστεύω ότι η κίνηση είναι η πιο σημαντική λειτουργία του εγκεφάλου,
02:26
don't let anyone tell you that it's not true.
57
146260
2000
και μην αφήσετε κανέναν να σας πει το αντίθετο.
02:28
Now if movement is so important,
58
148260
2000
Τώρα εάν η κίνηση είναι τόσο σημαντική,
02:30
how well are we doing
59
150260
2000
πόσο καλά πάμε
02:32
understanding how the brain controls movement?
60
152260
2000
στο να καταλάβουμε πώς ο εγκέφαλος ελέγχει την κίνηση;
02:34
And the answer is we're doing extremely poorly; it's a very hard problem.
61
154260
2000
Και η απάντηση είναι ότι δεν τα πάμε και τόσο καλά· είναι ένα πολύ δύσκολο πρόβλημα.
02:36
But we can look at how well we're doing
62
156260
2000
Αλλά μπορούμε να δούμε πώς τα πάμε
02:38
by thinking about how well we're doing building machines
63
158260
2000
αν σκεφτούμε πόσο καλά τα πάμε στην κατασκευή μηχανών
02:40
which can do what humans can do.
64
160260
2000
που μπορούν να κάνουν ότι και οι άνθρωποι.
02:42
Think about the game of chess.
65
162260
2000
Σκεφτείτε μία παρτίδα σκάκι.
02:44
How well are we doing determining what piece to move where?
66
164260
3000
Πόσο καλά τα πάμε στον προσδιορισμό ποιο πιόνι θα πάει πού;
02:47
If you pit Garry Kasparov here, when he's not in jail,
67
167260
3000
Εάν βάλετε τον Γκάρυ Κασπάρωφ εδώ, όταν δεν βρίσκεται στην φυλακή,
02:50
against IBM's Deep Blue,
68
170260
2000
εναντίον του Ντιπ Μπλου της ΙΒΜ,
02:52
well the answer is IBM's Deep Blue will occasionally win.
69
172260
3000
η απάντηση είναι ότι ο Ντιπ Μπλου της ΙΒΜ θα κερδίσει κάποιες φορές.
02:55
And I think if IBM's Deep Blue played anyone in this room, it would win every time.
70
175260
3000
Και σκεφτείτε ότι εάν ο Ντιπ Μπλου της ΙΒΜ έπαιζε με κάποιον από αυτή εδώ την αίθουσα, θα κέρδιζε συνέχεια.
02:58
That problem is solved.
71
178260
2000
Αυτό το πρόβλημα λύθηκε.
03:00
What about the problem
72
180260
2000
Τι γίνεται όμως με το πρόβλημα
03:02
of picking up a chess piece,
73
182260
2000
του να παίρνεις ένα πιόνι,
03:04
dexterously manipulating it and putting it back down on the board?
74
184260
3000
να το χειρίζεσαι επιδέξια και να το βάζεις πίσω στην σκακιέρα;
03:07
If you put a five year-old child's dexterity against the best robots of today,
75
187260
3000
Εάν βάλετε την επιδεξιότητα ενός πεντάχρονου παιδιού απέναντι στα καλύτερα ρομπότ του σήμερα,
03:10
the answer is simple:
76
190260
2000
η απάντηση είναι απλή:
03:12
the child wins easily.
77
192260
2000
το παιδί κερδίζει εύκολα.
03:14
There's no competition at all.
78
194260
2000
Δεν υπάρχει καθόλου ανταγωνισμός.
03:16
Now why is that top problem so easy
79
196260
2000
Τώρα γιατί το πάνω πρόβλημα είναι τόσο απλό
03:18
and the bottom problem so hard?
80
198260
2000
ενώ το κάτω πρόβλημα τόσο δύσκολο;
03:20
One reason is a very smart five year-old
81
200260
2000
Ένας λόγος είναι ότι ένας πολύ έξυπνος πεντάχρονος
03:22
could tell you the algorithm for that top problem --
82
202260
2000
θα μπορούσε να σας πει τον αλγόριθμο για το πάνω πρόβλημα --
03:24
look at all possible moves to the end of the game
83
204260
2000
κοιτάζεις όλες τις πιθανές κινήσεις εώς το τέλος της παρτίδας
03:26
and choose the one that makes you win.
84
206260
2000
και διαλέγεις εκείνη που σου δίνει την νίκη.
03:28
So it's a very simple algorithm.
85
208260
2000
Άρα είναι ένας πολύ απλός αλγόριθμος.
03:30
Now of course there are other moves,
86
210260
2000
Τώρα φυσικά υπάρχουν και άλλες κινήσεις,
03:32
but with vast computers we approximate
87
212260
2000
αλλά με τεράστιους υπολογιστές εκτιμούμε
03:34
and come close to the optimal solution.
88
214260
2000
και πλησιάζουμε στην ιδανικότερη λύση.
03:36
When it comes to being dexterous,
89
216260
2000
Σχετικά με την επιδεξιότητα,
03:38
it's not even clear what the algorithm is you have to solve to be dexterous.
90
218260
2000
δεν είναι καν ξεκάθαρο ποιον αλγόριθμο πρέπει να λύσετε για να είστε επιδέξιοι.
03:40
And we'll see you have to both perceive and act on the world,
91
220260
2000
Και θα δούμε ότι πρέπει και να αντιληφθείτε αλλά και να πράξετε στον κόσμο,
03:42
which has a lot of problems.
92
222260
2000
κάτι που έχει πολλά προβλήματα.
03:44
But let me show you cutting-edge robotics.
93
224260
2000
Αλλά επιτρέψτε μου να σας δείξω ρομπότ τελευταίας αιχμής.
03:46
Now a lot of robotics is very impressive,
94
226260
2000
Τώρα πολλά ρομπότ είναι εντυπωσιακά,
03:48
but manipulation robotics is really just in the dark ages.
95
228260
3000
αλλά η ρομποτική χειρισμών είναι ακόμα στον Μεσαίωνα.
03:51
So this is the end of a Ph.D. project
96
231260
2000
Αυτό είναι το τέλος μιας διδακτορικής διατριβής
03:53
from one of the best robotics institutes.
97
233260
2000
από ένα από τα καλύτερα ιδρύματα ρομποτικής.
03:55
And the student has trained this robot
98
235260
2000
Και ο φοιτητής έχει εκπαιδεύσει αυτό το ρομπότ
03:57
to pour this water into a glass.
99
237260
2000
να βάζει νερό σε ποτήρι.
03:59
It's a hard problem because the water sloshes about, but it can do it.
100
239260
3000
Είναι ένα δύσκολο πρόβλημα διότι το νερό χύνεται, αλλά μπορεί να το κάνει.
04:02
But it doesn't do it with anything like the agility of a human.
101
242260
3000
Αλλά δεν το κάνει με την ευχέρεια που το κάνει ένας άνθρωπος.
04:05
Now if you want this robot to do a different task,
102
245260
3000
Τώρα αν θέλετε να κάνει αυτό το ρομπότ κάτι άλλο,
04:08
that's another three-year Ph.D. program.
103
248260
3000
θα χρειαστεί μία ακόμη τριετής διδακτορική διατριβή.
04:11
There is no generalization at all
104
251260
2000
Δεν υπάρχει καμία κοινή βάση
04:13
from one task to another in robotics.
105
253260
2000
ανάμεσα στις διάφορες εφαρμογές στην ρομποτική.
04:15
Now we can compare this
106
255260
2000
Τώρα μπορούμε να το συγκρίνουμε αυτό
04:17
to cutting-edge human performance.
107
257260
2000
με τελευταίας αιχμής ανθρώπινη απόδοση.
04:19
So what I'm going to show you is Emily Fox
108
259260
2000
Αυτό που θα σας δείξω είναι την Έμιλι Φοξ
04:21
winning the world record for cup stacking.
109
261260
3000
να κερδίζει το παγκόσμιο ρεκόρ στο "χτίσιμο" με ποτήρια.
04:24
Now the Americans in the audience will know all about cup stacking.
110
264260
2000
Τώρα οι Αμερικάνοι στο κοινό θα ξέρουν τα πάντα σχετικά με το "χτίσμο" με ποτήρια.
04:26
It's a high school sport
111
266260
2000
Είναι ένα άθλημα του γυμνασίου
04:28
where you have 12 cups you have to stack and unstack
112
268260
2000
όπου έχεις 12 πλαστικά ποτήρια και πρέπει να τα "χτίσεις" και να τα "ξεχτίσεις"
04:30
against the clock in a prescribed order.
113
270260
2000
με χρόνο και σε συγκεκριμένη διάταξη.
04:32
And this is her getting the world record in real time.
114
272260
3000
Και εδώ,σε πραγματικό χρόνο, κάνει το παγκόσμιο ρεκόρ.
04:39
(Laughter)
115
279260
8000
(Γέλια)
04:47
(Applause)
116
287260
5000
(Χειροκρότημα)
04:52
And she's pretty happy.
117
292260
2000
Και είναι αρκετά χαρούμενη.
04:54
We have no idea what is going on inside her brain when she does that,
118
294260
2000
Δεν έχουμε ιδέα για το τι συμβαίνει μέσα στον εγκέφαλό της όταν το κάνει,
04:56
and that's what we'd like to know.
119
296260
2000
και αυτό είναι που θα θέλαμε να μάθουμε.
04:58
So in my group, what we try to do
120
298260
2000
Έτσι στην ομάδα μου, αυτο που προσπαθούμε να κάνουμε
05:00
is reverse engineer how humans control movement.
121
300260
3000
είναι να κατασκευάσουμε αντίστροφα το πώς οι άνθρωποι ελέγχουν την κίνηση.
05:03
And it sounds like an easy problem.
122
303260
2000
Και ακούγεται απλό.
05:05
You send a command down, it causes muscles to contract.
123
305260
2000
Στέλνεις μια εντολή, αυτή προκαλεί συστολή των μυών.
05:07
Your arm or body moves,
124
307260
2000
Το χέρι ή το σώμα σου κινείται,
05:09
and you get sensory feedback from vision, from skin, from muscles and so on.
125
309260
3000
και οι αισθήσεις σου ανατροφοδοτούνται από την όραση,το δέρμα,τους μύες κλπ.
05:12
The trouble is
126
312260
2000
Το πρόβλημα είναι
05:14
these signals are not the beautiful signals you want them to be.
127
314260
2000
ότι αυτά τα σήματα δεν είναι όσο όμορφα θα ήθελες.
05:16
So one thing that makes controlling movement difficult
128
316260
2000
Έτσι κάτι που κάνει τον έλεγχο της κίνησης δύσκολο
05:18
is, for example, sensory feedback is extremely noisy.
129
318260
3000
είναι,για παράδειγμα, το ότι η ανατροφοδότηση έχει πολύ θόρυβο.
05:21
Now by noise, I do not mean sound.
130
321260
3000
Τώρα ως θόρυβο δεν εννοώ ήχο.
05:24
We use it in the engineering and neuroscience sense
131
324260
2000
Τον χρησιμοποιούμε στην μηχανική και την νευρολογία
05:26
meaning a random noise corrupting a signal.
132
326260
2000
εννοώντας έναν τυχαίο θόρυβο που αλλοιώνει ένα σήμα.
05:28
So the old days before digital radio when you were tuning in your radio
133
328260
3000
Έτσι παλιότερα ,πριν το ψηφιακό ραδιόφωνο, όταν έψαχνες σταθμούς
05:31
and you heard "crrcckkk" on the station you wanted to hear,
134
331260
2000
και άκουγες "χρρρ" στο σταθμό που ήθελες να ακούσεις,
05:33
that was the noise.
135
333260
2000
αυτό ήταν θόρυβος.
05:35
But more generally, this noise is something that corrupts the signal.
136
335260
3000
Αλλά γενικότερα, αυτός ο θόρυβος είναι κάτι που αλλοιώνει το σήμα.
05:38
So for example, if you put your hand under a table
137
338260
2000
Για παράδειγμα, εάν βάλετε το χέρι σας κάτω από ένα τραπέζι
05:40
and try to localize it with your other hand,
138
340260
2000
και προσπαθήσετε να το εντοπίσετε με το άλλο σας χέρι,
05:42
you can be off by several centimeters
139
342260
2000
θα πέσετε έξω κατά μερικά εκατοστά
05:44
due to the noise in sensory feedback.
140
344260
2000
εξαιτίας του θορύβου στην ανατροφοδότηση των αισθήσεων.
05:46
Similarly, when you put motor output on movement output,
141
346260
2000
Παρομοίως, όταν μπει η μηχανική εισαγωγή πάνω στην κινητήρια
05:48
it's extremely noisy.
142
348260
2000
έχω πολύ θόρυβο.
05:50
Forget about trying to hit the bull's eye in darts,
143
350260
2000
Μην προσπαθείτε να χτυπήσετε κέντρο στα βελάκια,
05:52
just aim for the same spot over and over again.
144
352260
2000
απλά σημαδέψτε το ίδιο σημείο ξανά και ξανά.
05:54
You have a huge spread due to movement variability.
145
354260
3000
Έχετε μια τεράστια διασπορά εξαιτίας της μεταβλητότητας των κινήσεων.
05:57
And more than that, the outside world, or task,
146
357260
2000
Επιπλέον,ο έξω κόσμος
05:59
is both ambiguous and variable.
147
359260
2000
είναι διφορούμενος και μεταβλητός.
06:01
The teapot could be full, it could be empty.
148
361260
2000
Η τσιαγέρα θα μπορούσε να είναι γεμάτη, θα μπορούσε να είναι άδεια.
06:03
It changes over time.
149
363260
2000
Αλλάζει με την ώρα.
06:05
So we work in a whole sensory movement task soup of noise.
150
365260
4000
Έτσι δουλεύουμε σε μία σούπα θορύβου αισθητήριων και κινήσεων.
06:09
Now this noise is so great
151
369260
2000
Αυτός ο θόρυβος είναι τόσο μεγάλος
06:11
that society places a huge premium
152
371260
2000
που η κοινωνία ξεχώρίζει
06:13
on those of us who can reduce the consequences of noise.
153
373260
3000
εκείνους που μπορούν να μειώσουν τις συνέπειες του θορύβου.
06:16
So if you're lucky enough to be able to knock a small white ball
154
376260
3000
Έτσι έαν μπορείτε να βάλετε μια άσπρη μπάλα
06:19
into a hole several hundred yards away using a long metal stick,
155
379260
3000
σε μια τρύπα μερικές εκατοντάδες μέτρα μακριά χρησιμοποιώντας ένα μακρύ μεταλλικό μπαστούνι,
06:22
our society will be willing to reward you
156
382260
2000
τότε η κοινωνία θα σας αναταμείψει
06:24
with hundreds of millions of dollars.
157
384260
3000
με εκατοντάδες εκατομμύρια δολλάρια.
06:27
Now what I want to convince you of
158
387260
2000
Τώρα εγώ θέλω να σας πείσω ότι
06:29
is the brain also goes through a lot of effort
159
389260
2000
ο εγκέφαλος πρσπαθεί πάρα πολύ
06:31
to reduce the negative consequences
160
391260
2000
να μειώσει τις αρνητικές συνέπειες
06:33
of this sort of noise and variability.
161
393260
2000
αυτού του θορύβου και αυτής της μεταβλητότητας.
06:35
And to do that, I'm going to tell you about a framework
162
395260
2000
Και για να το κάνω αυτό,θα σας μιλήσω για ένα πλαίσιο
06:37
which is very popular in statistics and machine learning of the last 50 years
163
397260
3000
που είναι πολύ δημοφιλές στην στατιστική και στην εκμάθηση μηχανών για πάνω από 50 χρόνια
06:40
called Bayesian decision theory.
164
400260
2000
και ονομάζεται Μπεϋζιανή θεωρία αποφάσεων.
06:42
And it's more recently a unifying way
165
402260
3000
Και είναι πιο πρόσφατα ένας ενοποιημένος τρόπος
06:45
to think about how the brain deals with uncertainty.
166
405260
3000
σκέψης για το πώς αντιμετωπίζει ο εγκέφαλος την αβεβαιότητα.
06:48
And the fundamental idea is you want to make inferences and then take actions.
167
408260
3000
Και η θεμελιώδης ιδέα είναι ότι θέλεις να βγάλεις συμπεράσματα προτού λάβεις μέτρα.
06:51
So let's think about the inference.
168
411260
2000
Άρα ας σκεφτούμε το συμπέρασμα.
06:53
You want to generate beliefs about the world.
169
413260
2000
Θέλετε να παράγετε πεποιθήσεις σχετικά με τον κόσμο.
06:55
So what are beliefs?
170
415260
2000
Τι είναι οι πεποιθήσεις;
06:57
Beliefs could be: where are my arms in space?
171
417260
2000
Θα μπορούσαν να είναι: πού βρίσκονται τα χέρια μου στον χώρο;
06:59
Am I looking at a cat or a fox?
172
419260
2000
Κοιτάω μία γάτα ή μια αλεπού;
07:01
But we're going to represent beliefs with probabilities.
173
421260
3000
Αλλά θα αντιπροσωπεύσουμε τις πεποιθήσεις με πιθανότητες.
07:04
So we're going to represent a belief
174
424260
2000
Θα αντιπροσωπεύσουμε μία πεποίθηση
07:06
with a number between zero and one --
175
426260
2000
με έναν αρθμό μεταξύ μηδέν και ένα --
07:08
zero meaning I don't believe it at all, one means I'm absolutely certain.
176
428260
3000
μηδέν για όταν δεν το πιστεύω καθόλου, και ένα για όταν είμαι απόλυτα σίγουρος.
07:11
And numbers in between give you the gray levels of uncertainty.
177
431260
3000
Και οι αριθμοί ανάμεσα δίνουν τα "γκρίζα" επίπεδα της αβεβαιότητας.
07:14
And the key idea to Bayesian inference
178
434260
2000
Η βασική ιδέα στο Μπεϋζιανό συμπέρασμα
07:16
is you have two sources of information
179
436260
2000
είναι ότι έχεις δύο πηγές πληροφορίας
07:18
from which to make your inference.
180
438260
2000
για να βγάλεις το συμπέρασμά σου.
07:20
You have data,
181
440260
2000
Έχεις δεδομένα,
07:22
and data in neuroscience is sensory input.
182
442260
2000
και τα δεδομένα στην νευρολογία είναι η αίσθηση.
07:24
So I have sensory input, which I can take in to make beliefs.
183
444260
3000
Έτσι έχω αίσθηση, από όπου μπορώ να φτιάξω πεποιθήσεις.
07:27
But there's another source of information, and that's effectively prior knowledge.
184
447260
3000
Αλλά υπάρχει και μία άλλη πηγή πληροφορίας, και αυτή είναι η προγενέστερη γνώση.
07:30
You accumulate knowledge throughout your life in memories.
185
450260
3000
Συσωρεύετε γνώση από όλη σας τη ζωή σε αναμνήσεις.
07:33
And the point about Bayesian decision theory
186
453260
2000
Και το θέμα με την Μπεϋζιανή θεωρία αποφάσεων
07:35
is it gives you the mathematics
187
455260
2000
είναι ότι σας δίνει τα μαθηματικά
07:37
of the optimal way to combine
188
457260
2000
του βέλτιστου τρόπου συνδυασμού
07:39
your prior knowledge with your sensory evidence
189
459260
2000
της προγενέστερης γνώσης σας με τα αποτελέσματα των αισθήσεών σας
07:41
to generate new beliefs.
190
461260
2000
για την παραγωγή νέων πεποιθήσεων.
07:43
And I've put the formula up there.
191
463260
2000
Και έχω βάλει τον τύπο εκεί πάνω.
07:45
I'm not going to explain what that formula is, but it's very beautiful.
192
465260
2000
Δεν θα εξηγήσω τι είναι αυτός ο τύπος,αλλά είναι πολύ όμορφος.
07:47
And it has real beauty and real explanatory power.
193
467260
3000
Και έχει αληθινή ομορφιά και αληθινή επεξηγηματική δύναμη.
07:50
And what it really says, and what you want to estimate,
194
470260
2000
Και αυτό που λέει πραγματικά,και είναι αυτό που θέλετε να υπολογίσετε
07:52
is the probability of different beliefs
195
472260
2000
είναι την πιθανότητα διαφορετικών πεποιθήσεων
07:54
given your sensory input.
196
474260
2000
δεδομένου του τι αισθανθείτε.
07:56
So let me give you an intuitive example.
197
476260
2000
Επιτρέψτε μου να σας δώσω ένα διαισθητικό παράδειγμα.
07:58
Imagine you're learning to play tennis
198
478260
3000
Φανταστείτε ότι μαθαίνετε να παίζετε τέννις
08:01
and you want to decide where the ball is going to bounce
199
481260
2000
και θέλετε να αποφασίσετε πού θα σκάσει το μπαλάκι
08:03
as it comes over the net towards you.
200
483260
2000
καθώς περνάει το δίχτυ και έρχεται προς τα εσάς.
08:05
There are two sources of information
201
485260
2000
Έχουμε δύο πηγές πληροφοριών
08:07
Bayes' rule tells you.
202
487260
2000
κατά τον κανόνα του Μπέυζ.
08:09
There's sensory evidence -- you can use visual information auditory information,
203
489260
3000
Υπάρχουν αποτελέσματα αισθήσεων -- μπορείτε να χρησιμοποιήσετε οπτικοακουστικές πληροφορίες,
08:12
and that might tell you it's going to land in that red spot.
204
492260
3000
που μπορούν να σας πουν να επιτρέψετε το κόκκινο σημείο.
08:15
But you know that your senses are not perfect,
205
495260
3000
Αλλά ξέρετε πως οι αισθήσεις σας δεν είναι τέλειες,
08:18
and therefore there's some variability of where it's going to land
206
498260
2000
και για αυτό υπάρχει αβεβαιότητα για το που θα προσγειωθεί
08:20
shown by that cloud of red,
207
500260
2000
που φαίνεται από το κόκκινο σύννεφο,
08:22
representing numbers between 0.5 and maybe 0.1.
208
502260
3000
και αντιπροσωπεύει τους αριθμούς μεταξύ 0.5 και ίσως 0.1
08:26
That information is available in the current shot,
209
506260
2000
Αυτή η πληροφορία είναι διαθέσιμη σε αυτή την βολή,
08:28
but there's another source of information
210
508260
2000
αλλά υπάρχει και κάποια άλλη πηγή πληροφορίας
08:30
not available on the current shot,
211
510260
2000
που δεν είναι διαθέσιμη εδώ,
08:32
but only available by repeated experience in the game of tennis,
212
512260
3000
παρά μόνο μετά από αρκετή εμπειρία στο τέννις,
08:35
and that's that the ball doesn't bounce
213
515260
2000
και αυτή είναι ότι το μπαλάκι δεν σκάει
08:37
with equal probability over the court during the match.
214
517260
2000
με ίση πιθανότητα κατά τη διακεια του παιχνιδιού.
08:39
If you're playing against a very good opponent,
215
519260
2000
Εάν παίζετε εναντίον ενός πολύ καλού αντιπάλου,
08:41
they may distribute it in that green area,
216
521260
2000
μπορεί να μοιραστούν στην πράσινη περιοχή,
08:43
which is the prior distribution,
217
523260
2000
που είναι η βασική κατανομή
08:45
making it hard for you to return.
218
525260
2000
κάνοντας πολύ δύσκολη την απόκρουσή σας.
08:47
Now both these sources of information carry important information.
219
527260
2000
Αυτές οι δύο πηγές μεταφέρουν σημαντικές πληροφορίες.
08:49
And what Bayes' rule says
220
529260
2000
Και σύμφωνα με τον κανόνα του Μπέυζ
08:51
is that I should multiply the numbers on the red by the numbers on the green
221
531260
3000
θα έπρεπε να πολλαπλασιάσω τους αριθμούς στο κόκκινο με τους αριθμούς στο πράσινο
08:54
to get the numbers of the yellow, which have the ellipses,
222
534260
3000
για να πάρω τους αριθμούς στο κίτρινο, που έχουν τις ελλείψεις,
08:57
and that's my belief.
223
537260
2000
και αυτή είναι τελικά η πεποίθησή μου.
08:59
So it's the optimal way of combining information.
224
539260
3000
Έτσι είναι ο καλύτερος τρόπος συνδυασμού πληροφορίας.
09:02
Now I wouldn't tell you all this if it wasn't that a few years ago,
225
542260
2000
Δεν θα σας τα έλεγα όλα αυτά εάν πριν από μερικά χρόνια,
09:04
we showed this is exactly what people do
226
544260
2000
δεν δείχναμε τι ακριβώς κάνουν οι άνθρωποι
09:06
when they learn new movement skills.
227
546260
2000
όταν μαθαίνουν νέες κινήσεις.
09:08
And what it means
228
548260
2000
Τί σημαίνει
09:10
is we really are Bayesian inference machines.
229
550260
2000
ότι είμαστε Μπεϋζιανές μηχανές συμπερασμάτων.
09:12
As we go around, we learn about statistics of the world and lay that down,
230
552260
4000
Καθώς μεγαλώνουμε, μαθαίνουμε για την στατιστική στον κόσμο,
09:16
but we also learn
231
556260
2000
αλλά μαθαίνουμε επίσης
09:18
about how noisy our own sensory apparatus is,
232
558260
2000
πόσο θορυβώδεις είναι οι δικές μας αισθητήριες "συσκευές",
09:20
and then combine those
233
560260
2000
και μετά τα συνδυάζουμε
09:22
in a real Bayesian way.
234
562260
2000
με Μπεϋζιανό τρόπο.
09:24
Now a key part to the Bayesian is this part of the formula.
235
564260
3000
Το σημείο κλειδί του Μπεϋζιανού τύπου είναι αυτό εδώ το μέρος.
09:27
And what this part really says
236
567260
2000
Και αυτό που λέει
09:29
is I have to predict the probability
237
569260
2000
είναι ότι πρέπει να προβλέψω την πιθανότητα
09:31
of different sensory feedbacks
238
571260
2000
των διαφορετικών αισθητήριων ανατροφοδοτήσεων
09:33
given my beliefs.
239
573260
2000
σύμφωνα με τα πιστεύω μου.
09:35
So that really means I have to make predictions of the future.
240
575260
3000
Έτσι αυτό σημαίνει πραγματικά ότι πρέπει να προβλέπω το μέλλον.
09:38
And I want to convince you the brain does make predictions
241
578260
2000
Και θέλω να σας πείσω ότι ο εγκέφαλος κάνει προβλέψεις
09:40
of the sensory feedback it's going to get.
242
580260
2000
των ανατροφοδοτήσεων που πρόκειται να δεχθεί.
09:42
And moreover, it profoundly changes your perceptions
243
582260
2000
Και επιπλέον,αλλάζει ριζικά τις αντιλήψεις σας
09:44
by what you do.
244
584260
2000
από αυτό που κάνετε.
09:46
And to do that, I'll tell you
245
586260
2000
Και για να το κάνω αυτό, θα σας πω
09:48
about how the brain deals with sensory input.
246
588260
2000
πώς ο εγκέφαλος χειρίζεται μία αίσθηση.
09:50
So you send a command out,
247
590260
3000
Στέλνετε μια εντολή,
09:53
you get sensory feedback back,
248
593260
2000
παίρνετε πίσω αισθητήρια ανατροφοδότηση,
09:55
and that transformation is governed
249
595260
2000
και αυτή η μετατροπή διέπεται
09:57
by the physics of your body and your sensory apparatus.
250
597260
3000
από την φυσική του σώματός σας και τις αισθητήριες συσκευές σας.
10:00
But you can imagine looking inside the brain.
251
600260
2000
Αλλά μπορείτε να φανταστείτε κοιτάζοντας μέσα στον εγκέφαλο.
10:02
And here's inside the brain.
252
602260
2000
Και εδώ είναι το εσωτερικό του εγκεφάλου.
10:04
You might have a little predictor, a neural simulator,
253
604260
2000
Μπορεί να έχετε ένα μικρό παράγοντα πρόβλεψης, ένα νευρωνικό προσομοιωτή,
10:06
of the physics of your body and your senses.
254
606260
2000
της φυσικής του σώματός σας και των αισθήσεων σας.
10:08
So as you send a movement command down,
255
608260
2000
Έτσι καθώς στέλνετε μία εντολή για κίνηση,
10:10
you tap a copy of that off
256
610260
2000
κάνετε ένα αντίγραφό της
10:12
and run it into your neural simulator
257
612260
2000
και το περνάτε από τον νευρωνικό προσομοιωτή σας
10:14
to anticipate the sensory consequences of your actions.
258
614260
4000
για να δείτε τις αισθητήριες συνέπειες της κίνησής σας.
10:18
So as I shake this ketchup bottle,
259
618260
2000
Έτσι ενώ κουνάω ένα μπουκάλι κέτσαπ,
10:20
I get some true sensory feedback as the function of time in the bottom row.
260
620260
3000
παίρνω κάποια πραγματική αισθητηριακή ανατροφοδότηση σαν τη συνάρτηση του χρόνου στην κάτω σειρά.
10:23
And if I've got a good predictor, it predicts the same thing.
261
623260
3000
Και εάν έχω καλό παράγοντα πρόβλεψης, προβλέπει ακριβώς το ίδιο.
10:26
Well why would I bother doing that?
262
626260
2000
Αλλά γιατί να το κάνω αυτό;
10:28
I'm going to get the same feedback anyway.
263
628260
2000
Θα πάρω την ιδια ανατροφοδότηση ούτως ή άλλως.
10:30
Well there's good reasons.
264
630260
2000
Υπάρχουν καλοί λόγοι.
10:32
Imagine, as I shake the ketchup bottle,
265
632260
2000
Φανταστείτε, ενώ κουνάω την κέτσαπ,
10:34
someone very kindly comes up to me and taps it on the back for me.
266
634260
3000
κάποιος πολύ ευγενικά έρχεται και χτυπάει τον πάτο του μπουκαλιού.
10:37
Now I get an extra source of sensory information
267
637260
2000
Τώρα έχω έξτρα αισθητήρια πληροφορία
10:39
due to that external act.
268
639260
2000
λόγω αυτής της παρέμβασης.
10:41
So I get two sources.
269
641260
2000
Έτσι έχω δύο πηγές.
10:43
I get you tapping on it, and I get me shaking it,
270
643260
3000
εσάς που χτυπατε τον πάτο και εμένα που κουνάω το μπουκάλι.
10:46
but from my senses' point of view,
271
646260
2000
αλλά για τις αισθήσεις μου,
10:48
that is combined together into one source of information.
272
648260
3000
αυτά συνδυάζονται σε μία πληροφορία.
10:51
Now there's good reason to believe
273
651260
2000
Είναι λογικό
10:53
that you would want to be able to distinguish external events from internal events.
274
653260
3000
να θέλετε να έχετε την ικανότητα να ξεχωρίζετε εξωτερικά από εσωτερικά συμβάντα.
10:56
Because external events are actually much more behaviorally relevant
275
656260
3000
Διότι τα εξωτερικά συμβάντα είναι πιο σχετικά με τη συμπεριφορά
10:59
than feeling everything that's going on inside my body.
276
659260
3000
από το να αισθάνομαι ό,τι συμβαίνει μέσα μου.
11:02
So one way to reconstruct that
277
662260
2000
Ένας τρόπος να το αναδομήσω
11:04
is to compare the prediction --
278
664260
2000
είναι να συγκρίνω την πρόβλεψη --
11:06
which is only based on your movement commands --
279
666260
2000
που βασίζεται μόνο στις κινητήριες εντολές --
11:08
with the reality.
280
668260
2000
με την πραγματικότητα.
11:10
Any discrepancy should hopefully be external.
281
670260
3000
Οποιαδήποτε απόκλιση θα προέρχεται από έξω.
11:13
So as I go around the world,
282
673260
2000
Έτσι καθώς περιφέρομαι,
11:15
I'm making predictions of what I should get, subtracting them off.
283
675260
3000
κάνω προβλέψεις για το τι θα πάρω και μετά τις αφαιρώ.
11:18
Everything left over is external to me.
284
678260
2000
Ό,τι μένει είναι για μένα εξωτερικό.
11:20
What evidence is there for this?
285
680260
2000
Τι απόδειξη έχω για αυτό;
11:22
Well there's one very clear example
286
682260
2000
Υπάρχει ένα ξεκάθαρο παράδειγμα
11:24
where a sensation generated by myself feels very different
287
684260
2000
όπου κάτι που νιώθω εγώ είναι πολύ διαφορετικό
11:26
then if generated by another person.
288
686260
2000
όταν το νιώθει κάποιος άλλος.
11:28
And so we decided the most obvious place to start
289
688260
2000
Έτσι αποφασίσαμε πως το πιο πρφανές για να ξεκινήσουμε
11:30
was with tickling.
290
690260
2000
ήταν το γαργαλητό.
11:32
It's been known for a long time, you can't tickle yourself
291
692260
2000
Είναι γνωστό από παλιά πως δεν μπορείς να γαργαλήσεις τον εαυτό σου
11:34
as well as other people can.
292
694260
2000
όπως σε γαργαλούν οι άλλοι.
11:36
But it hasn't really been shown, it's because you have a neural simulator,
293
696260
3000
Άλλα αν και δεν έχει αποδειχθεί πραγματικά,είναι επειδή έχετε έναν νευρικό προσομοιωτή,
11:39
simulating your own body
294
699260
2000
που προσομοιώνει το ίδιο σας το σώμα
11:41
and subtracting off that sense.
295
701260
2000
και αφαιρεί αυτή την αίσθηση.
11:43
So we can bring the experiments of the 21st century
296
703260
3000
Έτσι μπορούμε να φέρουμε τα πειράματα στον 21ου αιώνα
11:46
by applying robotic technologies to this problem.
297
706260
3000
εφαρμόζοντας ρομποτική τεχνολογία σε αυτό το πρόβλημα.
11:49
And in effect, what we have is some sort of stick in one hand attached to a robot,
298
709260
3000
Και στην πραγματικότητα, αυτό που έχουμε είναι ένα είδος ραβδιού στο ένα χέρι που συνδέεται με ένα ρομπότ,
11:52
and they're going to move that back and forward.
299
712260
2000
και θα το κουνήσουν μπρος πίσω.
11:54
And then we're going to track that with a computer
300
714260
2000
Στη συνέχεια θα το καταγράψουμε σε έναν υπολογιστή
11:56
and use it to control another robot,
301
716260
2000
και θα το χρησιμοποιήσουμε σε ένα άλλο ρομπότ,
11:58
which is going to tickle their palm with another stick.
302
718260
2000
που θα γαργαλήσει την παλάμη τους με ένα άλλο ραβδί.
12:00
And then we're going to ask them to rate a bunch of things
303
720260
2000
Μέτα θα τους ρωτήσουμε να βαθμολογήσουν διάφορα πράγματα
12:02
including ticklishness.
304
722260
2000
συμπεραλαμβανομένου και του γαργαλητού.
12:04
I'll show you just one part of our study.
305
724260
2000
Θα σας δείξω ένα μέρος της μελέτης μας.
12:06
And here I've taken away the robots,
306
726260
2000
Εδώ έχω απομακρύνει τα ρομπότ,
12:08
but basically people move with their right arm sinusoidally back and forward.
307
728260
3000
αλλά οι άνθρωποι κουνούν το δεξί τους χέρι ημιτονοειδώς μπρος πίσω.
12:11
And we replay that to the other hand with a time delay.
308
731260
3000
Επαναλαμβάνουμε στο άλλο χέρι με λίγη καθυστέρηση.
12:14
Either no time delay,
309
734260
2000
Είτε χωρίς καθυστέρηση,
12:16
in which case light would just tickle your palm,
310
736260
2000
οπότε απλά γαργαλιέται η παλάμη σας,
12:18
or with a time delay of two-tenths of three-tenths of a second.
311
738260
4000
ή με καθυστέρηση ενός,δύο και τριών δεκάτων του δευτερολέπτου.
12:22
So the important point here
312
742260
2000
Έτσι το σημαντικό εδώ
12:24
is the right hand always does the same things -- sinusoidal movement.
313
744260
3000
είναι ότι το δεξί χέρι κάνει πάντα τα ίδια -- ημιτονοειδή κίνηση.
12:27
The left hand always is the same and puts sinusoidal tickle.
314
747260
3000
Το αριστερό πάντα τα ίδια και γαργαλιέται ημιτονοειδώς.
12:30
All we're playing with is a tempo causality.
315
750260
2000
Αυτό που μεταβάλλουμε είναι η συχνότητα του αιτίου.
12:32
And as we go from naught to 0.1 second,
316
752260
2000
Καθώς πάμε από το μηδέν στο ένα δέκατο του δευτερολέπτου,
12:34
it becomes more ticklish.
317
754260
2000
το γαργαλητό γίνεται εντονότερο.
12:36
As you go from 0.1 to 0.2,
318
756260
2000
Από το ένα στα δύο δέκατα του δευτερολέπτου,
12:38
it becomes more ticklish at the end.
319
758260
2000
γίνεται πάλι πιο έντονο.
12:40
And by 0.2 of a second,
320
760260
2000
Στα 2 δέκατα του δευτερολέπτου,
12:42
it's equivalently ticklish
321
762260
2000
γίνεται το ίδιο έντονο
12:44
to the robot that just tickled you without you doing anything.
322
764260
2000
με όταν σας γαργάλησε το ρομπότ χωρίς να κάνετε τίποτα.
12:46
So whatever is responsible for this cancellation
323
766260
2000
Έτσι σε ό,τι και αν οφείλεται αυτή η ακύρωση
12:48
is extremely tightly coupled with tempo causality.
324
768260
3000
είναι αυστηρά συνδεδεμένο με την συχνότητα του αιτίου.
12:51
And based on this illustration, we really convinced ourselves in the field
325
771260
3000
Βασιζόμενοι σε αυτή την παρουσίαση, πειστήκαμε
12:54
that the brain's making precise predictions
326
774260
2000
ότι ο εγκέφαλος κάνει ακριβείς προβλέψεις
12:56
and subtracting them off from the sensations.
327
776260
3000
και τις σβήνει από τις αισθήσεις.
12:59
Now I have to admit, these are the worst studies my lab has ever run.
328
779260
3000
Πρέπει να παραδεχτώ, αυτή είναι η χειρότερη μελέτη που έχει κάνει ποτέ το εργαστήριό μου.
13:02
Because the tickle sensation on the palm comes and goes,
329
782260
2000
Επειδή η αίσθηση του γαργαλητού φεύγει και επανέρχεται,
13:04
you need large numbers of subjects
330
784260
2000
χρειάζονται πάρα πολλά υποκείμενα
13:06
with these stars making them significant.
331
786260
2000
με αστεράκια που τους κάνουν σημαντικούς.
13:08
So we were looking for a much more objective way
332
788260
2000
Έτσι ψάχνουμε έναν πιο αντικειμενικό τρόπο
13:10
to assess this phenomena.
333
790260
2000
να αξιολογήσουμε αυτό το φαινόμενο.
13:12
And in the intervening years I had two daughters.
334
792260
2000
Στα χρόνια που μεσολάβησαν απέκτησα δύο κόρες.
13:14
And one thing you notice about children in backseats of cars on long journeys,
335
794260
3000
Αυτό που παρατηρεί κανείς στα παιδιά στο πίσω κάθισμα σε ένα μεγάλο ταξίδι,
13:17
they get into fights --
336
797260
2000
είναι οτι τσακώνονται --
13:19
which started with one of them doing something to the other, the other retaliating.
337
799260
3000
το ένα ξεκινάει να ενοχλεί το άλλο,το άλλο αντιδράει.
13:22
It quickly escalates.
338
802260
2000
Κλιμακώνεται γρήγορα.
13:24
And children tend to get into fights which escalate in terms of force.
339
804260
3000
Και τα παιδιά συνηθίζουν να μπλέκουν σε καυγάδες όπου η δύναμη κλιμακώνεται.
13:27
Now when I screamed at my children to stop,
340
807260
2000
Όταν φώναζα στα παιδιά μου να σταματήσουν,
13:29
sometimes they would both say to me
341
809260
2000
μου έλεγαν μερικές φορές
13:31
the other person hit them harder.
342
811260
3000
ότι ο άλλος χτύπησε πιο δυνατά.
13:34
Now I happen to know my children don't lie,
343
814260
2000
Τυχαίνει να ξέρω ότι τα παιδιά μου δεν λένε ψέματα,
13:36
so I thought, as a neuroscientist,
344
816260
2000
και έτσι σκέφτηκα,σαν νευρολόγος,
13:38
it was important how I could explain
345
818260
2000
θα ήταν σημαντικό να εξηγήσω
13:40
how they were telling inconsistent truths.
346
820260
2000
πώς λένε μη συνεπείς αλήθειες.
13:42
And we hypothesize based on the tickling study
347
822260
2000
Υποθέτουμε σύμφωνα με την μελέτη για το γαργαλητό
13:44
that when one child hits another,
348
824260
2000
ότι όταν το ένα παιδί χτυπά το άλλο
13:46
they generate the movement command.
349
826260
2000
παράγει την κινητήρια εντολή.
13:48
They predict the sensory consequences and subtract it off.
350
828260
3000
Προβλέπει τις αισθητήριες συνέπειες και μετά την αφαιρεί.
13:51
So they actually think they've hit the person less hard than they have --
351
831260
2000
Έτσι πιστεύουν ότι χτύπησαν τον άλλον λιγότερο δυνατά --
13:53
rather like the tickling.
352
833260
2000
κάπως σαν το γαργαλητό.
13:55
Whereas the passive recipient
353
835260
2000
Όπου ο αποδέκτης
13:57
doesn't make the prediction, feels the full blow.
354
837260
2000
δεν κάνει την πρόβλεψη, και αισθάνεται όλο το πλήγμα.
13:59
So if they retaliate with the same force,
355
839260
2000
Έτσι αν ανταποδόσουν με την ίδια δύναμη
14:01
the first person will think it's been escalated.
356
841260
2000
ο πρώτος θα πιστέψει πως υπάρχει κλιμάκωση.
14:03
So we decided to test this in the lab.
357
843260
2000
Έτσι αποφασίσαμε να το δοκιμάσουμε στο εργαστήριο.
14:05
(Laughter)
358
845260
3000
(Γέλια)
14:08
Now we don't work with children, we don't work with hitting,
359
848260
2000
Δεν δουλεύουμε με παιδιά ούτε με χτυπήματα,
14:10
but the concept is identical.
360
850260
2000
αλλα η ιδέα είναι η ίδια.
14:12
We bring in two adults. We tell them they're going to play a game.
361
852260
3000
Παίρνουμε δύο ενήλικες.Τους λέμε ότι θα παίξουν ένα παιχνίδι.
14:15
And so here's player one and player two sitting opposite to each other.
362
855260
2000
Και εδώ ο ένας παίκτης κάθεται απέναντι στον άλλον.
14:17
And the game is very simple.
363
857260
2000
Το παιχνίδι είναι πολύ απλό.
14:19
We started with a motor
364
859260
2000
Ξεκινήσαμε με μία μηχανή
14:21
with a little lever, a little force transfuser.
365
861260
2000
με έναν μικρό μοχλό, εναν μικρό μεταδότη κίνησης.
14:23
And we use this motor to apply force down to player one's fingers
366
863260
2000
Χρησιμοποιούμε αυτή την μηχανή για να ασκήσουμε δύναμη στα δάχτυλα του πρώτου παίκτη
14:25
for three seconds and then it stops.
367
865260
3000
για τρία δευτερόλεπτα.
14:28
And that player's been told, remember the experience of that force
368
868260
3000
Λέμε στον παίκτη να θυμηθεί πώς ένιωσε την δύναμη
14:31
and use your other finger
369
871260
2000
και με το άλλο δάχτυλο
14:33
to apply the same force
370
873260
2000
να ασκήσει την ίδια δύναμη
14:35
down to the other subject's finger through a force transfuser -- and they do that.
371
875260
3000
στο δάχτυλο του άλλου παίκτη μέσω ενός μεταδότη δύναμης -- και το κάνουν.
14:38
And player two's been told, remember the experience of that force.
372
878260
3000
Λέμε στον δεύτερο παίχτη να θυμηθεί την δύναμη.
14:41
Use your other hand to apply the force back down.
373
881260
3000
Και με το άλλο χέρι να την εφαρμόσει πίσω.
14:44
And so they take it in turns
374
884260
2000
Και έτσι ο καθένας
14:46
to apply the force they've just experienced back and forward.
375
886260
2000
εφαρμόζει τη δύναμη που μόλις δέχτηκε.
14:48
But critically,
376
888260
2000
Αλλά
14:50
they're briefed about the rules of the game in separate rooms.
377
890260
3000
οι κανόνες τους έχουν δωθεί σε διαφορετικά δωμάτια.
14:53
So they don't know the rules the other person's playing by.
378
893260
2000
Έτσι ο ένας δεν ξέρει με ποιούς κανόνες παίζει ο άλλος.
14:55
And what we've measured
379
895260
2000
Μετρήσαμε
14:57
is the force as a function of terms.
380
897260
2000
τη δύναμη ως συνάρτηση των εκτελέσεων.
14:59
And if we look at what we start with,
381
899260
2000
Αν δούμε με τι αρχίζουμε,
15:01
a quarter of a Newton there, a number of turns,
382
901260
2000
ένα τέταρτο του Νιούτον με τον αριθμό των εκτελέσεων,
15:03
perfect would be that red line.
383
903260
2000
το τέλειο θα ήταν η κόκκινη γραμμή.
15:05
And what we see in all pairs of subjects is this --
384
905260
3000
Αυτό που βλέπουμε σε όλα τα ζεύγη συμμετεχόντων είναι αυτό --
15:08
a 70 percent escalation in force
385
908260
2000
μία κλιμάκωση της δύναμης κατά 70%
15:10
on each go.
386
910260
2000
σε κάθε εκτέλεση.
15:12
So it really suggests, when you're doing this --
387
912260
2000
Έτσι το συμπέρασμα είναι --
15:14
based on this study and others we've done --
388
914260
2000
βάσει και άλλων μελετών μας --
15:16
that the brain is canceling the sensory consequences
389
916260
2000
ότι ο εγκέφαλος ακυρώνει τις συνέπειες όσων αισθανόμαστε
15:18
and underestimating the force it's producing.
390
918260
2000
και υποτιμά τη δύναμη που παράγει.
15:20
So it re-shows the brain makes predictions
391
920260
2000
Άρα μας ξαναδείχνει ότι ο εγκέφαλος κάνει προβλέψεις
15:22
and fundamentally changes the precepts.
392
922260
3000
και αλλάζει ριζικά τους ηθικούς κανόνες.
15:25
So we've made inferences, we've done predictions,
393
925260
3000
Οπότε είδαμε τα συμπεράσματα,είδαμε τις προβλέψεις,
15:28
now we have to generate actions.
394
928260
2000
τώρα πρέπει να δούμε την ανάπτυξη ενεργειών.
15:30
And what Bayes' rule says is, given my beliefs,
395
930260
2000
Αυτό που θεωρώ ότι λέει ο κανόνας του Μπέυζ
15:32
the action should in some sense be optimal.
396
932260
2000
είναι πως κάθε ενέργεια θα πρέπει να είναι η καλύτερη κατά κάποιο τρόπο.
15:34
But we've got a problem.
397
934260
2000
Άλλα έχουμε ένα πρόβλημα.
15:36
Tasks are symbolic -- I want to drink, I want to dance --
398
936260
3000
Οι εργασίες είναι συμβολικές -- θέλω να πιω, θέλω να χορέψω --
15:39
but the movement system has to contract 600 muscles
399
939260
2000
αλλά το σύστημά μου πρέπει να κινήσει 600 μύες
15:41
in a particular sequence.
400
941260
2000
με συγκεκριμένη σειρά.
15:43
And there's a big gap
401
943260
2000
Υπάρχει ένα μεγάλο κενό
15:45
between the task and the movement system.
402
945260
2000
ανάμεσα στην εργασία και το σύστημά μου.
15:47
So it could be bridged in infinitely many different ways.
403
947260
2000
Θα μπορούσε να γεφυρωθεί με άπειρους τρόπους.
15:49
So think about just a point to point movement.
404
949260
2000
Σκεφτείτε μία απλή κίνηση από ένα σημείο σε ένα άλλο.
15:51
I could choose these two paths
405
951260
2000
Θα μπορούσα να διαλέξω αυτούς τους δύο δρόμους
15:53
out of an infinite number of paths.
406
953260
2000
από ένα σύνολο άπειρων δρόμων.
15:55
Having chosen a particular path,
407
955260
2000
Αφού διαλέξω έναν δρόμο,
15:57
I can hold my hand on that path
408
957260
2000
μπορώ να κρατήσω το χέρι μου εκεί
15:59
as infinitely many different joint configurations.
409
959260
2000
ενώ κάνω άπειρους συνδυασμούς με τις αρθρώσεις μου.
16:01
And I can hold my arm in a particular joint configuration
410
961260
2000
Επίσης μπορώ να κρατήσω το χέρι με έναν συγκεκριμένο συνδυασμό
16:03
either very stiff or very relaxed.
411
963260
2000
και να το σφίξω ή να το χαλαρώσω.
16:05
So I have a huge amount of choice to make.
412
965260
3000
Έτσι έχουμε έναν τεράστιο αριθμό επιλογών.
16:08
Now it turns out, we are extremely stereotypical.
413
968260
3000
Αποδεικνύεται όμως ότι μας αρέσουν τα στερεότυπα.
16:11
We all move the same way pretty much.
414
971260
3000
Όλοι κινούμαστε σχεδόν με τον ίδιο τρόπο.
16:14
And so it turns out we're so stereotypical,
415
974260
2000
Μάλιστα είμαστε τόσο στερεοτυπικοί,
16:16
our brains have got dedicated neural circuitry
416
976260
2000
που οι εγκέφαλοί μας έχουν νευρικό κύκλωμα
16:18
to decode this stereotyping.
417
978260
2000
για να αποκοδικωποιούν αυτον τον στερεοτυπισμό.
16:20
So if I take some dots
418
980260
2000
Αν πάρω μερικές τελείες
16:22
and set them in motion with biological motion,
419
982260
3000
και τις βάλω να κινούνται με ανθρώπινες κινήσεις,
16:25
your brain's circuitry would understand instantly what's going on.
420
985260
3000
το κύκλωμα του εγκεφάλου σας θα καταλάβει αμέσως τι συμβαίνει.
16:28
Now this is a bunch of dots moving.
421
988260
2000
Αυτό είναι ένα μάτσο τελείες που κουνιούνται.
16:30
You will know what this person is doing,
422
990260
3000
Θα ξέρετε τι κάνει αυτός εδώ,
16:33
whether happy, sad, old, young -- a huge amount of information.
423
993260
3000
εάν είναι χαρούμενος,λυπημένος,ηλικιωμένος,νέος -- πάρα πολλές πληροφορίες.
16:36
If these dots were cars going on a racing circuit,
424
996260
2000
Έαν οι τελείες ήταν αυτοκίνητα σε πίστα,
16:38
you would have absolutely no idea what's going on.
425
998260
3000
δεν θα είχατε ιδέα περί τίνος πρόκειται.
16:41
So why is it
426
1001260
2000
Γιατί λοιπόν
16:43
that we move the particular ways we do?
427
1003260
2000
κινούμαστε όπως κινούμαστε;
16:45
Well let's think about what really happens.
428
1005260
2000
Ας σκεφτούμε τι συμβαίνει πραγματικά.
16:47
Maybe we don't all quite move the same way.
429
1007260
3000
Ίσως δεν κινούμαστε όλοι το ίδιο.
16:50
Maybe there's variation in the population.
430
1010260
2000
Ίσως υπάρχουν διαφορές μέσα στον πληθυσμό.
16:52
And maybe those who move better than others
431
1012260
2000
Και ίσως εκείνοι που κινούνται καλύτερα από τους άλλους
16:54
have got more chance of getting their children into the next generation.
432
1014260
2000
να έχουν περισσότερες πιθανότητες να κάνουν παιδιά.
16:56
So in evolutionary scales, movements get better.
433
1016260
3000
Έτσι εξελιγκτικώς, οι κινήσεις μας γίνονται καλύτερες.
16:59
And perhaps in life, movements get better through learning.
434
1019260
3000
Και ίσως στη ζωή, οι κινήσεις βελτιώνονται μέσω της μάθησης.
17:02
So what is it about a movement which is good or bad?
435
1022260
2000
Τι κάνει όμως μία κίνηση καλή ή κακή;
17:04
Imagine I want to intercept this ball.
436
1024260
2000
Φανταστείτε ότι θέλω να πιάσω αυτή την μπάλα.
17:06
Here are two possible paths to that ball.
437
1026260
3000
Εδώ έχω δύο πιθανούς τρόπους.
17:09
Well if I choose the left-hand path,
438
1029260
2000
Εάν διαλέξω τον αριστερό τρόπο,
17:11
I can work out the forces required
439
1031260
2000
Μπορώ να υπολογίσω τις δυνάμεις που χρειάζονται
17:13
in one of my muscles as a function of time.
440
1033260
2000
σε ένα από τους μύες μου συναρτήσει του χρόνου.
17:15
But there's noise added to this.
441
1035260
2000
Αλλά υπάρχει θόρυβος.
17:17
So what I actually get, based on this lovely, smooth, desired force,
442
1037260
3000
Έτσι τελικά με αυτή την ωραία,απαλή δύναμη, παίρνω
17:20
is a very noisy version.
443
1040260
2000
έναν τρόπο με πολύ θόρυβο.
17:22
So if I pick the same command through many times,
444
1042260
3000
Αν διαλέξω το ίδιο πολλές φορές,
17:25
I will get a different noisy version each time, because noise changes each time.
445
1045260
3000
θα πάρω διαφορετικούς θορυβώδεις τρόπους, επειδή ο θόρυβος αλλάζει κάθε φορά.
17:28
So what I can show you here
446
1048260
2000
Αυτό που μπορώ να σας δείξω εδώ
17:30
is how the variability of the movement will evolve
447
1050260
2000
είναι πώς θα εξελειχθεί η μεταβλητότητα της κίνησης
17:32
if I choose that way.
448
1052260
2000
αν διαλέξω αυτόν τον τρόπο.
17:34
If I choose a different way of moving -- on the right for example --
449
1054260
3000
Εάν διαλέξω άλλο τρόπο -- τον δεξί για παράδειγμα --
17:37
then I'll have a different command, different noise,
450
1057260
2000
θα έχω διαφορετική εντολή, διαφορετικό θόρυβο,
17:39
playing through a noisy system, very complicated.
451
1059260
3000
να παίζουν μέσα σε ένα μη γραμμικό σύστημα, πολύ πολύπλοκα.
17:42
All we can be sure of is the variability will be different.
452
1062260
3000
Για το μόνο που είμαστε σίγουροι είναι ότι η μεταβλητότητα θα είναι διαφορετική.
17:45
If I move in this particular way,
453
1065260
2000
Έαν κινηθώ έτσι,
17:47
I end up with a smaller variability across many movements.
454
1067260
3000
καταλήγω με μικρότερη μεταβλητότητα.
17:50
So if I have to choose between those two,
455
1070260
2000
Εάν λοιπόν έπρεπε να διαλέξω,
17:52
I would choose the right one because it's less variable.
456
1072260
2000
θα διάλεγα τον δεξί επειδή έχει μικρότερη μεταβλητότητα.
17:54
And the fundamental idea
457
1074260
2000
Η ριζική ιδέα
17:56
is you want to plan your movements
458
1076260
2000
είναι ότι θέλετε να σχεδιάσετε τις κινήσεις σας
17:58
so as to minimize the negative consequence of the noise.
459
1078260
3000
ώστε να ελαχιστοποιηθούν οι επιπτώσεις του θορύβου.
18:01
And one intuition to get
460
1081260
2000
Μία διαίσθηση που καταλήγουμε
18:03
is actually the amount of noise or variability I show here
461
1083260
2000
είναι ότι το μέγεθος του θορύβου ή η μεταβλητότητα που έδειξα
18:05
gets bigger as the force gets bigger.
462
1085260
2000
μεγαλώνει καθώς αυξάνεται η δύναμη.
18:07
So you want to avoid big forces as one principle.
463
1087260
3000
Έτσι θέλετε να αποφύγετε μεγάλες δυνάμεις ώς αρχή.
18:10
So we've shown that using this,
464
1090260
2000
Δείξαμε ότι με αυτό εδώ,
18:12
we can explain a huge amount of data --
465
1092260
2000
μπορούμε να εξηγήσουμε έναν τεράστιο αριθμό δεδομένων --
18:14
that exactly people are going about their lives planning movements
466
1094260
3000
ότι ακριβώς οι άνθρωποι στη ζωή τους σχεδιάζουν κινήσεις
18:17
so as to minimize negative consequences of noise.
467
1097260
3000
με σκοπό την ελαχιστοποίηση των επιπτώσεων του θορύβου.
18:20
So I hope I've convinced you the brain is there
468
1100260
2000
Έστι ελπίζω να σας έπεισα ότι ο εγκέφαλος υπάρχει
18:22
and evolved to control movement.
469
1102260
2000
και εξελίχθηκε για να ελέγχει τις κινήσεις.
18:24
And it's an intellectual challenge to understand how we do that.
470
1104260
3000
Είναι μία πνευματική πρόκληση να καταλάβουμε πώς γίνεται.
18:27
But it's also relevant
471
1107260
2000
Αλλά είναι το ίδιο σχετικό
18:29
for disease and rehabilitation.
472
1109260
2000
με τις αρρώστιες και την αποκατάσταση.
18:31
There are many diseases which effect movement.
473
1111260
3000
Υπάρχουν πολλές αρρώστιες που επηρεάζουν την κίνηση.
18:34
And hopefully if we understand how we control movement,
474
1114260
2000
Και ελπίζουμε πως αν καταλάβουμε το πως ελέγχεται η κίνηση,
18:36
we can apply that to robotic technology.
475
1116260
2000
θα μπορούμε να το εφαρμόσουμε στην ρομποτική.
18:38
And finally, I want to remind you,
476
1118260
2000
Και τελικώς,θέλω να σας υπενθυμίσω
18:40
when you see animals do what look like very simple tasks,
477
1120260
2000
ότι όταν βλέπετε ζώα να κάνουν κάτι που φαίνεται απλό,
18:42
the actual complexity of what is going on inside their brain
478
1122260
2000
η πραγματική πολυπλοκότητα του τι συμβαίνει μέσα στον εγκέφαλό τους
18:44
is really quite dramatic.
479
1124260
2000
είναι αρκετά δραματική.
18:46
Thank you very much.
480
1126260
2000
Σας ευχαριστώ πολύ.
18:48
(Applause)
481
1128260
8000
(Χειροκρότημα)
18:56
Chris Anderson: Quick question for you, Dan.
482
1136260
2000
Κρις Άντερσον: Σου έχω μία γρήγορη ερώτηση, Νταν
18:58
So you're a movement -- (DW: Chauvinist.) -- chauvinist.
483
1138260
4000
Είσαι λοιπόν ένας σωβινιστής της κίνησης.
19:02
Does that mean that you think that the other things we think our brains are about --
484
1142260
3000
Αυτό σημαίνει ότι τα υπόλοιπα που πιστεύουμε ότι κάνει ο εγκέφαλός μας --
19:05
the dreaming, the yearning, the falling in love and all these things --
485
1145260
3000
τα όνειρα,το χασμουρητό,τον έρωτα, όλα αυτα --
19:08
are a kind of side show, an accident?
486
1148260
3000
είναι κάτι παράπλευρο, ένα ατύχημα;
19:11
DW: No, no, actually I think they're all important
487
1151260
2000
Όχι,όχι πιστεύω ότι όλα είναι σημαντικά
19:13
to drive the right movement behavior to get reproduction in the end.
488
1153260
3000
στο να οδηγήσουν στις σωστες κινήσεις και τελικώς σε κάτι παραγωγικό.
19:16
So I think people who study sensation or memory
489
1156260
3000
Έτσι πιστεύω πως οι άνθρωποι μελετούν τις αισθήσεις ή την μνήμη
19:19
without realizing why you're laying down memories of childhood.
490
1159260
2000
χωρίς να συνειδητοποιούν για ποιο λόγο έχουμε μνήμες από τα παιδικά μας χρόνια.
19:21
The fact that we forget most of our childhood, for example,
491
1161260
3000
Το γεγονός ότι ξεχνάμε το μεγαλύτερο μέρος της παιδικής μας ηλικίας, για παράδειγμα,
19:24
is probably fine, because it doesn't effect our movements later in life.
492
1164260
3000
είναι μάλλον καλό, επειδή δεν επηρεάζει τις κινήσεις μας αργότερα στη ζωή.
19:27
You only need to store things which are really going to effect movement.
493
1167260
3000
Χρειάζεται να αποθηκεύουμε μόνο εκείνα που θα επηρεάσουν τον τρόπο που κινούμαστε.
19:30
CA: So you think that people thinking about the brain, and consciousness generally,
494
1170260
3000
Άρα πιστεύετε ότι όσοι ασχολούνται με τον εγκέφαλο, και τη συνείδηση γενικότερα,
19:33
could get real insight
495
1173260
2000
μπορούν να γίνουν πιο διορατικοί
19:35
by saying, where does movement play in this game?
496
1175260
2000
αν αναρωτηθούν τον ρόλο της κίνησης;
19:37
DW: So people have found out for example
497
1177260
2000
Οι άνθρωποι έχουν ανακαλύψει για παράδειγμα
19:39
that studying vision in the absence of realizing why you have vision
498
1179260
2000
ότι το να μελετούν την όραση χωρίς να έχουν καταλάβει γιατί την έχουμε
19:41
is a mistake.
499
1181260
2000
είναι λάθος.
19:43
You have to study vision with the realization
500
1183260
2000
Πρέπει να μελετήσεις την όραση με την αντίληψη
19:45
of how the movement system is going to use vision.
501
1185260
2000
του πώς το σύστημα κίνησης θα την χρησιμοποιήσει.
19:47
And it uses it very differently once you think about it that way.
502
1187260
2000
Και την χρησιμοποιεί πολύ διαφορετικά εάν το δεις από αυτή τη σκοπιά.
19:49
CA: Well that was quite fascinating. Thank you very much indeed.
503
1189260
3000
Λοιπόν ήταν συναρπαστικό.Σας ευχαριστούμε πάρα πολύ.
19:52
(Applause)
504
1192260
2000
(Χειροκροτήματα)
Σχετικά με αυτόν τον ιστότοπο

Αυτός ο ιστότοπος θα σας παρουσιάσει βίντεο στο YouTube που είναι χρήσιμα για την εκμάθηση της αγγλικής γλώσσας. Θα δείτε μαθήματα αγγλικών που διδάσκουν κορυφαίοι καθηγητές από όλο τον κόσμο. Κάντε διπλό κλικ στους αγγλικούς υπότιτλους που εμφανίζονται σε κάθε σελίδα βίντεο για να αναπαράγετε το βίντεο από εκεί. Οι υπότιτλοι μετακινούνται συγχρονισμένα με την αναπαραγωγή του βίντεο. Εάν έχετε οποιαδήποτε σχόλια ή αιτήματα, παρακαλούμε επικοινωνήστε μαζί μας χρησιμοποιώντας αυτή τη φόρμα επικοινωνίας.

https://forms.gle/WvT1wiN1qDtmnspy7