The illusion of consciousness | Dan Dennett

1,718,229 views ・ 2007-05-03

TED


Dubbelklik op de Engelse ondertitels hieronder om de video af te spelen.

Vertaald door: andy kerkhofs Nagekeken door: Klaas Jan Runia
00:26
So I'm going to speak about a problem that I have
0
26000
3000
Ik ga het dus hebben over een probleem waar ik mee zit
00:29
and that's that I'm a philosopher.
1
29000
3000
namelijk dat ik filosoof ben.
00:32
(Laughter)
2
32000
2000
(Gelach)
00:34
When I go to a party and people ask me what do I do
3
34000
3000
Als ik naar een feest ga en mensen mij vragen wat ik doe
00:37
and I say, "I'm a professor," their eyes glaze over.
4
37000
5000
en ik hen vertel 'ik ben een professor', dan krijgen ze een glazige blik in hun ogen.
00:42
When I go to an academic cocktail party
5
42000
2000
Als ik naar een academische cocktailparty ga
00:44
and there are all the professors around, they ask me what field I'm in
6
44000
4000
waar allerlei professoren rondlopen, dan vragen ze wat mijn studiegebied is
00:48
and I say, "philosophy" -- their eyes glaze over.
7
48000
3000
ik zeg dan filosofie -- en ze krijgen een glazige blik in hun ogen.
00:51
(Laughter)
8
51000
2000
(Gelach)
00:53
When I go to a philosopher's party
9
53000
3000
Als ik naar een filosofenfeestje ga
00:56
(Laughter)
10
56000
3000
(Gelach)
00:59
and they ask me what I work on and I say, "consciousness,"
11
59000
4000
en ze me vragen aan welk onderwerp ik werk en ik hen zeg: "Bewustzijn"
01:03
their eyes don't glaze over -- their lips curl into a snarl.
12
63000
5000
dan krijgen hun ogen geen glazige blik, maar hun lippen krullen samen in een grauw.
01:08
(Laughter)
13
68000
1000
(Gelach)
01:09
And I get hoots of derision and cackles and growls
14
69000
6000
En ik word onthaald op luidkeels gespot, gekakel en gegrom
01:15
because they think, "That's impossible! You can't explain consciousness."
15
75000
5000
omdat zij denken, "Dat is onmogelijk! Je kunt bewustzijn niet uitleggen."
01:20
The very chutzpah of somebody thinking
16
80000
2000
Het feit dat iemand de branie heeft om te denken
01:22
that you could explain consciousness is just out of the question.
17
82000
4000
dat je bewustzijn zou kunnen verklaren is gewoonweg ondenkbaar.
01:26
My late, lamented friend Bob Nozick, a fine philosopher,
18
86000
4000
Wijlen mijn vriend Bob Nozick, een goed filosoof,
01:30
in one of his books, "Philosophical Explanations,"
19
90000
4000
becommentarieerd in één van zijn boeken, "Filosofische verklaringen",
01:34
is commenting on the ethos of philosophy --
20
94000
5000
de ethos van de filosofie --
01:39
the way philosophers go about their business.
21
99000
2000
de manier waarop filosofen hun activiteiten bedrijven.
01:41
And he says, you know, "Philosophers love rational argument."
22
101000
4000
En hij zegt: "Filosofen houden van het rationele argument."
01:45
And he says, "It seems as if the ideal argument
23
105000
2000
En hij gaat verder: "Het lijkt alsof het ideale argument
01:47
for most philosophers is you give your audience the premises
24
107000
6000
voor de meeste filosofen er uit bestaat dat je het publiek de voorwaarden geeft
01:53
and then you give them the inferences and the conclusion,
25
113000
5000
en dat je hen dan de gevolgtrekkingen en de conclusie geeft,
01:58
and if they don't accept the conclusion, they die.
26
118000
4000
en als ze die conclusie niet aanvaarden, dan sterven ze.
02:02
Their heads explode." The idea is to have an argument
27
122000
3000
Hun hoofd ontploft." Het gaat er om een argument te hebben
02:05
that is so powerful that it knocks out your opponents.
28
125000
4000
dat zo sterk is dat het je tegenstanders neerslaat.
02:09
But in fact that doesn't change people's minds at all.
29
129000
3000
Maar in feite verandert dat de gedachten helemaal niet bij mensen.
02:12
It's very hard to change people's minds
30
132000
1000
Het is zeer moeilijk om mensen op andere gedachten te brengen
02:13
about something like consciousness,
31
133000
2000
over zaken zoals bewustzijn
02:15
and I finally figured out the reason for that.
32
135000
5000
en ik heb eindelijk de reden daarvoor gevonden.
02:20
The reason for that is that everybody's an expert on consciousness.
33
140000
4000
De reden is dat iedereen een expert is inzake bewustzijn.
02:24
We heard the other day that everybody's got a strong opinion about video games.
34
144000
4000
We hoorden gisteren hoe iedereen een sterke mening heeft over video games.
02:28
They all have an idea for a video game, even if they're not experts.
35
148000
3000
Ze hebben allemaal een idee over video games, ook al zijn ze geen expert.
02:31
But they don't consider themselves experts on video games;
36
151000
3000
Maar ze wanen zich ook geen expert in video games,
02:34
they've just got strong opinions.
37
154000
1000
ze hebben enkel een sterke mening.
02:35
I'm sure that people here who work on, say, climate change
38
155000
5000
Ik ben er zeker van dat mensen die werken aan, neem nu, klimaatverandering
02:40
and global warming, or on the future of the Internet,
39
160000
5000
en de opwarming van de aarde, of de toekomst van het internet,
02:45
encounter people who have very strong opinions
40
165000
2000
mensen ontmoeten met sterke meningen
02:47
about what's going to happen next.
41
167000
3000
over wat er te gebeuren staat.
02:50
But they probably don't think of these opinions as expertise.
42
170000
4000
Maar ze beschouwen die opinies wellicht niet als expertise.
02:54
They're just strongly held opinions.
43
174000
2000
Het zijn enkel vastberaden opinies.
02:56
But with regard to consciousness, people seem to think,
44
176000
4000
Maar als het over bewustzijn gaat, schijnen mensen te denken,
03:00
each of us seems to think, "I am an expert.
45
180000
3000
ieder van ons schijnt te denken, "Ik ben een expert.
03:03
Simply by being conscious, I know all about this."
46
183000
3000
Simpelweg door bewust te zijn weet ik hier alles over."
03:06
And so, you tell them your theory and they say,
47
186000
2000
En dus vertel je hen je theorie en dan zeggen ze:
03:08
"No, no, that's not the way consciousness is!
48
188000
1000
"Nee, nee, dat is niet hoe bewustzijn werkt!
03:09
No, you've got it all wrong."
49
189000
2000
Nee, jij zit er helemaal naast."
03:11
And they say this with an amazing confidence.
50
191000
4000
En dat zeggen ze met verbazingwekkend veel vertrouwen.
03:15
And so what I'm going to try to do today
51
195000
2000
En dus wat ik vandaag ga proberen
03:17
is to shake your confidence. Because I know the feeling --
52
197000
3000
is uw vertrouwen te doen wankelen. Want ik ken het gevoel --
03:20
I can feel it myself.
53
200000
2000
ik kan het zelf ook voelen.
03:22
I want to shake your confidence that you know your own innermost minds --
54
202000
6000
Ik wil uw vertrouwen in uw kennis van uw diepste gedachten --
03:28
that you are, yourselves, authoritative about your own consciousness.
55
208000
5000
uw idee dat u zelf een authoriteit van uw eigen bewustzijn bent, een deuk geven.
03:33
That's the order of the day here.
56
213000
3000
Dat staat er op het programma.
03:36
Now, this nice picture shows a thought-balloon, a thought-bubble.
57
216000
3000
Nu, deze leuke foto toont u een gedachtenballon. Een gedachtenbubbel.
03:39
I think everybody understands what that means.
58
219000
2000
Ik denk dat iedereen begrijpt wat dat betekent.
03:41
That's supposed to exhibit the stream of consciousness.
59
221000
3000
Het moet de stroom van uw bewuste gedachten voorstellen.
03:44
This is my favorite picture of consciousness that's ever been done.
60
224000
2000
Dit is mijn favoriete voorstelling van bewustzijn dat ooit gemaakt is.
03:46
It's a Saul Steinberg of course -- it was a New Yorker cover.
61
226000
3000
Dit is van Saul Steinberg natuurlijk -- het was een cover voor New Yorker.
03:49
And this fellow here is looking at the painting by Braque.
62
229000
5000
En deze kerel hier bekijkt een schilderij van Braque.
03:54
That reminds him of the word baroque, barrack, bark, poodle,
63
234000
4000
En dat doet hem denken aan het woord barok, barrak, geblaf, poedel
03:58
Suzanne R. -- he's off to the races.
64
238000
2000
Suzanne R. -- hij verliest er zichzelf helemaal in.
04:00
There's a wonderful stream of consciousness here
65
240000
4000
Er staat hier een prachtige gedachtenstroom
04:04
and if you follow it along, you learn a lot about this man.
66
244000
4000
en als je hem volgt, leer je veel over deze man.
04:08
What I particularly like about this picture, too,
67
248000
2000
Wat ik ook ze leuk vind aan deze tekening
04:10
is that Steinberg has rendered the guy
68
250000
2000
is dat Steinberg de man weergeeft
04:12
in this sort of pointillist style.
69
252000
3000
in een soort pointillistische stijl.
04:15
Which reminds us, as Rod Brooks was saying yesterday:
70
255000
3000
Wat er ons aan herinnert, zoals Red Brooks gisteren zei,
04:18
what we are, what each of us is -- what you are, what I am --
71
258000
4000
dat wat wij zijn, wat ieder van ons is -- wat u bent, wat ik ben --
04:22
is approximately 100 trillion little cellular robots.
72
262000
6000
neerkomt op zo'n 100 biljoen kleine cellulaire robots.
04:28
That's what we're made of.
73
268000
2000
Daarvan zijn wij gemaakt.
04:30
No other ingredients at all. We're just made of cells, about 100 trillion of them.
74
270000
4000
Helemaal geen andere ingrediënten. We zijn enkel van cellen gemaakt, zo'n 100 biljoen.
04:34
Not a single one of those cells is conscious;
75
274000
2000
Niet één van die cellen heeft bewustzijn,
04:36
not a single one of those cells knows who you are, or cares.
76
276000
5000
niet één van die cellen weet wie jij bent, of kan het wat schelen.
04:41
Somehow, we have to explain
77
281000
2000
Op één of andere manier moeten we verklaren
04:43
how when you put together teams, armies, battalions
78
283000
4000
hoe het komt dat als je teams, legers, battaljons
04:47
of hundreds of millions of little robotic unconscious cells --
79
287000
4000
van honderden miljoenen kleine onbewuste robotcellen --
04:51
not so different really from a bacterium, each one of them --
80
291000
4000
niet echt verschillend van een bacterie, stuk voor stuk -- samen zet
04:55
the result is this. I mean, just look at it.
81
295000
4000
het resultaat dan dit is. Ik bedoel, bekijk het eens.
04:59
The content -- there's color, there's ideas, there's memories,
82
299000
4000
De inhoud - er zijn kleuren, ideeën, herinneringen,
05:03
there's history. And somehow all that content of consciousness
83
303000
4000
geschiedenis. En ergens komt al de inhoud van dat bewustzijn
05:07
is accomplished by the busy activity of those hoards of neurons.
84
307000
5000
voort uit de drukke activiteiten van die horden neuronen.
05:12
How is that possible? Many people just think it isn't possible at all.
85
312000
4000
Hoe kan dat? Vele mensen denken dat het helemaal niet kan.
05:16
They think, "No, there can't be any
86
316000
2000
Zij denken, "Nee, er kan geen
05:18
sort of naturalistic explanation of consciousness."
87
318000
4000
soort van naturalistische verklaring voor bewustzijn bestaan."
05:22
This is a lovely book by a friend of mine named Lee Siegel,
88
322000
3000
Dit is en prachtig boek van een vriend van me, Lee Siegel,
05:25
who's a professor of religion, actually, at the University of Hawaii,
89
325000
3000
die eigenlijk hoogleraar in de religie is, aan de Universiteit van Hawaii,
05:28
and he's an expert magician, and an expert
90
328000
2000
en hij is een geweldig goochelaar en een expert
05:30
on the street magic of India, which is what this book is about,
91
330000
4000
in de straatgoochelkunst in India, waar het in dit boek over gaat,
05:34
"Net of Magic."
92
334000
2000
"Net van Magie."
05:36
And there's a passage in it which I would love to share with you.
93
336000
3000
En er staat een pasage in die ik graag met u zou willen delen.
05:39
It speaks so eloquently to the problem.
94
339000
6000
Het kaart het probleem op een eloquente wijze aan.
05:45
"'I'm writing a book on magic,' I explain, and I'm asked, 'Real magic?'
95
345000
5000
" 'Ik schrijf een boek over magie', vertel ik en ze vragen me, 'Echte magie?'
05:50
By 'real magic,' people mean miracles,
96
350000
2000
Met echt magie bedoelen mensen wonderen,
05:52
thaumaturgical acts, and supernatural powers.
97
352000
2000
betoveringen van wonderdoeners en bovennatuurlijke krachten.
05:54
'No,' I answer. 'Conjuring tricks, not real magic.'
98
354000
4000
'Nee,' antwoord ik, 'goocheltrucs, geen echte magie.'
05:58
'Real magic,' in other words, refers to the magic that is not real;
99
358000
4000
Anders gezegd: echte magie verwijst naar magie die niet echt is,
06:02
while the magic that is real, that can actually be done, is not real magic."
100
362000
5000
maar de magie die echt is, die je effectief kan uitvoeren, is geen echte magie."
06:07
(Laughter)
101
367000
4000
(Gelach)
06:11
Now, that's the way a lot of people feel about consciousness.
102
371000
4000
Zo denken veel mensen over bewustzijn.
06:15
(Laughter)
103
375000
1000
(Gelach)
06:16
Real consciousness is not a bag of tricks.
104
376000
2000
Echt bewustzijn is geen trukendoos.
06:18
If you're going to explain this as a bag of tricks,
105
378000
2000
Als je gaat vertellen dat het een trukendoos is
06:20
then it's not real consciousness, whatever it is.
106
380000
3000
dan is het geen echt bewustzijn, wat het ook is.
06:23
And, as Marvin said, and as other people have said,
107
383000
6000
En, zoals Marvin zei, en zoals anderen hebben gezegd,
06:29
"Consciousness is a bag of tricks."
108
389000
3000
"Het bewustzijn is een trukendoos."
06:32
This means that a lot of people are just left completely dissatisfied
109
392000
5000
Dat betekent dat veel mensen gewoon totaal ontevreden
06:37
and incredulous when I attempt to explain consciousness.
110
397000
3000
en niet overtuigd blijven als ik bewustzijn probeer te verklaren.
06:40
So this is the problem. So I have to
111
400000
3000
Dat is dus het probleem. Dus ik moet proberen
06:43
do a little bit of the sort of work
112
403000
3000
om te werk te gaan op een manier
06:46
that a lot of you won't like,
113
406000
4000
die velen onder u niet leuk zullen vinden,
06:50
for the same reason that you don't like to see
114
410000
2000
om dezelfde reden dat je niet graag wordt verteld
06:52
a magic trick explained to you.
115
412000
2000
hoe een goocheltruc in elkaar steekt.
06:54
How many of you here, if somebody -- some smart aleck --
116
414000
4000
Hoeveel onder u, als iemand -- een wijsneus --
06:58
starts telling you how a particular magic trick is done,
117
418000
3000
je begint te vertellen hoe een bepaalde goocheltruc werkt,
07:01
you sort of want to block your ears and say, "No, no, I don't want to know!
118
421000
3000
dan wil je gewoon je oren sluiten en zeggen, "Nee, nee, ik wil het niet weten!
07:04
Don't take the thrill of it away. I'd rather be mystified.
119
424000
3000
Neem de spanning niet weg. Ik word liever betoverd.
07:07
Don't tell me the answer."
120
427000
3000
Vertel me het antwoord niet."
07:10
A lot of people feel that way about consciousness, I've discovered.
121
430000
3000
Vele mensen denken zo over bewustzijn, heb ik ontdekt.
07:13
And I'm sorry if I impose some clarity, some understanding on you.
122
433000
6000
En het spijt me als ik u een beetje verheldering en inzicht opdring.
07:19
You'd better leave now if you don't want to know some of these tricks.
123
439000
5000
U kunt beter nu vertekken als u deze trucjes niet wilt leren kennen.
07:24
But I'm not going to explain it all to you.
124
444000
4000
Maar ik ga het niet allemaal aan u uitleggen.
07:28
I'm going to do what philosophers do.
125
448000
3000
Ik ga doen wat filosofen doen.
07:31
Here's how a philosopher explains the sawing-the-lady-in-half trick.
126
451000
6000
Weet hoe een filosoof uitlegt hoe een goochelar iemand in tweeën zaagt?
07:37
You know the sawing-the-lady-in-half trick?
127
457000
2000
U kent die truc waarbij ze een dame in tweeën zagen?
07:39
The philosopher says, "I'm going to explain to you how that's done.
128
459000
4000
De filosoof zegt, "Ik ga u vertellen hoe het in elkaar zit.
07:43
You see, the magician doesn't really saw the lady in half."
129
463000
5000
Weet u, de goochelaar zaagt die dame niet echt in tweeën."
07:48
(Laughter)
130
468000
2000
(Gelach)
07:50
"He merely makes you think that he does."
131
470000
4000
"Hij laat u enkel denken dat hij dat doet."
07:54
And you say, "Yes, and how does he do that?"
132
474000
1000
En dan zegt u: "Ja, en hoe doe hij dat?"
07:55
He says, "Oh, that's not my department, I'm sorry."
133
475000
2000
En hij zegt: "Oh, dat is mijn gebied niet, sorry."
07:57
(Laughter)
134
477000
5000
(Gelach)
08:02
So now I'm going to illustrate how philosophers explain consciousness.
135
482000
3000
Ik ga u nu dus illustreren hoe filosofen bewustzijn verklaren.
08:05
But I'm going to try to also show you
136
485000
3000
Maar ik ga u ook proberen te tonen
08:08
that consciousness isn't quite as marvelous --
137
488000
3000
dat bewustzijn niet zo fantastisch is --
08:11
your own consciousness isn't quite as wonderful --
138
491000
2000
uw eigen bewustzijn is niet zo wonderbaarlijk --
08:13
as you may have thought it is.
139
493000
2000
als u misschien wel gedacht had.
08:15
This is something, by the way, that Lee Siegel talks about in his book.
140
495000
4000
Dit is trouwens iets waar Lee Siegel het in zijn boek over heeft.
08:19
He marvels at how he'll do a magic show, and afterwards
141
499000
4000
Hij is verbaasd dat als hij een goochelshow doet, nadien
08:23
people will swear they saw him do X, Y, and Z. He never did those things.
142
503000
4000
mensen zullen zweren dat ze hem X, Y en Z zagen doen. Hij deed die dingen nooit.
08:27
He didn't even try to do those things.
143
507000
2000
Hij probeerde die dingen zelfs niet te doen.
08:29
People's memories inflate what they think they saw.
144
509000
4000
Herinneringen blazen de dingen, die mensen denken gezien te hebben, op.
08:33
And the same is true of consciousness.
145
513000
3000
En dat geldt ook voor bewustzijn.
08:36
Now, let's see if this will work. All right. Let's just watch this.
146
516000
7000
Goed, laten we eens zien of dit werkt. Goed. Laten we hier maar naar kijken.
08:43
Watch it carefully.
147
523000
1000
Kijk er aandachtig naar.
08:56
I'm working with a young computer-animator documentarian
148
536000
3000
Ik werk met een jonge computeranimator, documentairemaker
08:59
named Nick Deamer, and this is a little demo that he's done for me,
149
539000
5000
Nick Deamer genaamd, en dit is een demo die hij voor me deed,
09:04
part of a larger project some of you may be interested in.
150
544000
3000
een onderdeel van een groter project dat sommigen misschien interesseert.
09:07
We're looking for a backer.
151
547000
3000
We zoeken nog ondersteuning.
09:10
It's a feature-length documentary on consciousness.
152
550000
4000
Het is een documentaire over bewustzijn.
09:14
OK, now, you all saw what changed, right?
153
554000
2000
OK, goed, u heeft allen gezien wat er veranderd is, niet?
09:20
How many of you noticed that every one of those squares changed color?
154
560000
5000
Hoeveel mensen bespeurden dat elk van die vierkanten van kleur veranderde?
09:25
Every one. I'll just show you by running it again.
155
565000
4000
Allemaal. Ik zal het nog eens tonen zodat je het kan zien.
09:34
Even when you know that they're all going to change color,
156
574000
5000
Zelfs als je weet dat ze van kleur gaan veranderen
09:39
it's very hard to notice. You have to really concentrate
157
579000
4000
is het moeilijk op te merken. Je moet je echt concentreren
09:43
to pick up any of the changes at all.
158
583000
3000
om ook maar iets te zien veranderen.
09:46
Now, this is an example -- one of many --
159
586000
5000
Wel, dit is een voorbeeld -- één van velen --
09:51
of a phenomenon that's now being studied quite a bit.
160
591000
2000
van een fenomeen dat nu behoorlijk veel wordt onderzocht.
09:53
It's one that I predicted in the last page or two of my
161
593000
4000
Ik heb dit voorspeld in de laatste pagina's van mijn
09:57
1991 book, "Consciousness Explained,"
162
597000
2000
boek uit 1991, "Bewustzijn verklaard",
09:59
where I said if you did experiments of this sort,
163
599000
3000
waarin ik zei dat als je dit soort experimenten deed,
10:02
you'd find that people were unable to pick up really large changes.
164
602000
3000
je mensen zou vinden die echt grote veranderingen niet zouden opmerken.
10:05
If there's time at the end,
165
605000
2000
Als er aan het eind nog tijd overblijft
10:07
I'll show you the much more dramatic case.
166
607000
3000
zal ik u een veel schokkender voorbeeld tonen.
10:10
Now, how can it be that there are all those changes going on,
167
610000
5000
Hoe kan het toch dat er zoveel veranderingen zijn
10:15
and that we're not aware of them?
168
615000
3000
en dat we ons er niet van bewust zijn?
10:18
Well, earlier today, Jeff Hawkins mentioned the way your eye saccades,
169
618000
5000
Eerder vandaag bracht Jeff Hawkins aan de orde dat je oog oogsprongen maakt
10:23
the way your eye moves around three or four times a second.
170
623000
3000
dat je oog drie of vier keer per seconde ronddraait.
10:26
He didn't mention the speed. Your eye is constantly in motion,
171
626000
3000
Hij zei niets over de snelheid. Je oog beweegt constant,
10:29
moving around, looking at eyes, noses, elbows,
172
629000
3000
gaat rond, kijkt naar ogen, neuzen, ellebogen,
10:32
looking at interesting things in the world.
173
632000
2000
kijkt naar interessante dingen in de wereld.
10:34
And where your eye isn't looking,
174
634000
2000
En waar je oog niet naar kijkt
10:36
you're remarkably impoverished in your vision.
175
636000
3000
daar heb je een verbazend beperkt zicht.
10:39
That's because the foveal part of your eye,
176
639000
3000
Dat komt doordat de fovea centralis in je oog,
10:42
which is the high-resolution part,
177
642000
2000
dat is het hoge resolutie gedeelte,
10:44
is only about the size of your thumbnail held at arms length.
178
644000
3000
niet groter is dan de dikte van je duimnagel.
10:47
That's the detail part.
179
647000
2000
Dat is het gedeelte voor details.
10:49
It doesn't seem that way, does it?
180
649000
3000
Maar zo lijkt het niet, hè?
10:52
It doesn't seem that way, but that's the way it is.
181
652000
2000
Zo lijkt het niet te zijn, maar zo is het wel.
10:54
You're getting in a lot less information than you think.
182
654000
4000
Je krijgt veel minder informatie binnen dan je denkt.
10:58
Here's a completely different effect. This is a painting by Bellotto.
183
658000
6000
Hier heb je een heel ander effect. Dit is een schilderij van Bellotto.
11:04
It's in the museum in North Carolina.
184
664000
2000
Het hangt in het museum in North Carolina.
11:06
Bellotto was a student of Canaletto's.
185
666000
3000
Bellotto was een student van Canaletto.
11:09
And I love paintings like that --
186
669000
1000
En ik houd van zulke schilderijen --
11:10
the painting is actually about as big as it is right here.
187
670000
4000
het schilderij is ongeveer zo groot als je hier ziet.
11:14
And I love Canalettos, because Canaletto has this fantastic detail,
188
674000
3000
En ik houd van Canaletto's, omdat hij zo'n fantastisch gevoel voor detail heeft,
11:17
and you can get right up
189
677000
3000
je kunt er dicht bovenop kijken
11:20
and see all the details on the painting.
190
680000
3000
en alle details op het schilderij zien.
11:23
And I started across the hall in North Carolina,
191
683000
5000
Ik begon aan de overkant van de zaal in North Carolina,
11:28
because I thought it was probably a Canaletto,
192
688000
2000
omdat ik dacht dat het wellicht een Canaletto was
11:30
and would have all that in detail.
193
690000
2000
en vele details zou hebben.
11:32
And I noticed that on the bridge there, there's a lot of people --
194
692000
3000
En ik merkte dat er op de brug hier veel mensen waren --
11:35
you can just barely see them walking across the bridge.
195
695000
3000
je kunt ze nauwelijks over de brug zien wandelen.
11:38
And I thought as I got closer
196
698000
1000
En terwijl ik dichter kwam, dacht ik
11:39
I would be able to see all the detail of most people,
197
699000
3000
dat ik vele details van de meesten zou kunnen zien,
11:42
see their clothes, and so forth.
198
702000
2000
hun kleren zou zien, enzovoorts.
11:44
And as I got closer and closer, I actually screamed.
199
704000
4000
En toen ik dichter en dichterbij kwam, gaf ik een gil,
11:48
I yelled out because when I got closer,
200
708000
2000
Ik riep het uit, want toen ik dichterbij kwam
11:50
I found the detail wasn't there at all.
201
710000
4000
ontdekte ik dat er helemaal geen details waren.
11:54
There were just little artfully placed blobs of paint.
202
714000
4000
Er waren enkel kunstig geplaatste verfvlekken.
11:58
And as I walked towards the picture,
203
718000
3000
Terwijl ik naar het schilderij wandelde
12:01
I was expecting detail that wasn't there.
204
721000
3000
verwachtte ik de details die er niet waren.
12:04
The artist had very cleverly suggested people and clothes
205
724000
5000
De kunstenaar had heel slim mensen en kleding
12:09
and wagons and all sorts of things,
206
729000
3000
en wagentjes en andere dingen gesuggereerd
12:12
and my brain had taken the suggestion.
207
732000
3000
en mijn hersenen hadden die suggestie geaccepteerd.
12:15
You're familiar with a more recent technology, which is -- There,
208
735000
6000
U bent vertrouwd met een recentere technologie, die -- hier is.
12:21
you can get a better view of the blobs.
209
741000
2000
Je kunt de vlakken beter zien.
12:23
See, when you get close
210
743000
2000
Zie je, als je dichtbij komt
12:25
they're really just blobs of paint.
211
745000
5000
zijn het gewoon verfvlekken.
12:30
You will have seen something like this -- this is the reverse effect.
212
750000
6000
U zal zoiets al gezien hebben -- dit is het omgekeerde effect.
12:44
I'll just give that to you one more time.
213
764000
3000
Ik zal het u nog een keer tonen.
12:47
Now, what does your brain do when it takes the suggestion?
214
767000
7000
Wat doet je brein nu als het de suggestie aanneemt?
12:54
When an artful blob of paint or two, by an artist,
215
774000
5000
Als een paar kunstige verfplekken van een kunstenaar
12:59
suggests a person -- say, one of
216
779000
6000
een persoon suggereren -- neem nu één van
13:05
Marvin Minsky's little society of mind --
217
785000
2000
Marvin Minsky's kleine gemeenschap van de geest --
13:07
do they send little painters out to fill in all the details in your brain somewhere?
218
787000
5000
sturen ze dan kleine schilders om alle details in je brein ergens op te vullen?
13:12
I don't think so. Not a chance. But then, how on Earth is it done?
219
792000
5000
Ik denk het niet. Helemaal niet. Maar hoe gebeurt het dan in vredesnaam?
13:17
Well, remember the philosopher's explanation of the lady?
220
797000
5000
Wel, herinnert u zich de uitleg van de filosoof over die dame nog?
13:22
It's the same thing.
221
802000
3000
Dit is hetzelfde.
13:25
The brain just makes you think that it's got the detail there.
222
805000
3000
Je hersenen laten je gewoon denken dat het de details heeft.
13:28
You think the detail's there, but it isn't there.
223
808000
3000
Je denkt dat het detail er is, maar het is er niet.
13:31
The brain isn't actually putting the detail in your head at all.
224
811000
3000
Je hersenen brengen het detail helemaal niet in je gedachten.
13:34
It's just making you expect the detail.
225
814000
3000
Ze laten je het gewoon veronderstellen.
13:37
Let's just do this experiment very quickly.
226
817000
3000
Laten we even snel dit experiment doen.
13:40
Is the shape on the left the same as the shape on the right, rotated?
227
820000
5000
Is de figuur links dezelfde als die rechts, verdraaid?
13:45
Yes.
228
825000
2000
Ja.
13:47
How many of you did it by rotating the one on the left
229
827000
2000
Wie onder u vond het door de linker in gedachten
13:49
in your mind's eye, to see if it matched up with the one on the right?
230
829000
3000
te roteren om te zien of het dezelfde is als de rechter?
13:52
How many of you rotated the one on the right? OK.
231
832000
4000
Wie roteerde de rechter? OK.
13:56
How do you know that's what you did?
232
836000
2000
Hoe weet u dat dat was wat u deed?
13:58
(Laughter)
233
838000
3000
(Gelach)
14:01
There's in fact been a very interesting debate
234
841000
2000
Er was een heel interessant debat
14:03
raging for over 20 years in cognitive science --
235
843000
3000
in de cognitieve wetenschap dat meer dan 20 jaar duurde --
14:06
various experiments started by Roger Shepherd,
236
846000
2000
Roger Sheperd startte vele experimenten
14:08
who measured the angular velocity of rotation of mental images.
237
848000
5000
om de hoekrotatiesnelheid van mentale beelden te meten.
14:13
Yes, it's possible to do that.
238
853000
2000
Ja, dat kun je doen.
14:15
But the details of the process are still in significant controversy.
239
855000
7000
Maar de details van het proces zijn nog steeds behoorlijk controversieel.
14:22
And if you read that literature, one of the things
240
862000
3000
En als je die literatuur leest is één van de zaken
14:25
that you really have to come to terms with is
241
865000
3000
die je echt moet accepteren dat
14:28
even when you're the subject in the experiment, you don't know.
242
868000
2000
zelfs wanneer je het experiment ondergaat, je het niet weet.
14:30
You don't know how you do it.
243
870000
2000
Je weet niet hoe je het doet.
14:32
You just know that you have certain beliefs.
244
872000
3000
Je weet enkel dat je bepaalde zaken gelooft.
14:35
And they come in a certain order, at a certain time.
245
875000
3000
En die hebben een bepaalde volgorde op een bepaald moment.
14:38
And what explains the fact that that's what you think?
246
878000
2000
En hoe verklaar je dat dat hetgene is dat je denkt?
14:40
Well, that's where you have to go backstage and ask the magician.
247
880000
4000
Dat moet je aan de goochelaar in de coulissen vragen.
14:44
This is a figure that I love: Bradley, Petrie, and Dumais.
248
884000
4000
Dit is een beeld waar ik van houd: Bradley, Petrie en Dumais.
14:48
You may think that I've cheated,
249
888000
2000
U denkt dat ik vals speel,
14:50
that I've put a little whiter-than-white boundary there.
250
890000
5000
dat ik een kleine, witter dan witte lijst daar heb geplaatst.
14:55
How many of you see that sort of boundary,
251
895000
2000
Wie van u ziet een soort lijst,
14:57
with the Necker cube floating in front of the circles?
252
897000
3000
terwijl de Necker kubus voor de cirkels zweeft?
15:00
Can you see it?
253
900000
2000
Ziet u het?
15:02
Well, you know, in effect, the boundary's really there, in a certain sense.
254
902000
5000
Wel, weet u, eigenlijk is die lijst daar echt, in zekere zin.
15:07
Your brain is actually computing that boundary,
255
907000
3000
Uw hersenen berekenen effectief die lijst,
15:10
the boundary that goes right there.
256
910000
5000
die komt precies daar.
15:15
But now, notice there are two ways of seeing the cube, right?
257
915000
2000
Maar goed, ziet u dat u de kubus op twee manieren kan zien?
15:17
It's a Necker cube.
258
917000
2000
Het is een Necker kubus.
15:19
Everybody can see the two ways of seeing the cube? OK.
259
919000
4000
Iedereen ziet dat je hem op twee manieren kunt zien? OK.
15:23
Can you see the four ways of seeing the cube?
260
923000
4000
Kunt u de kubus op vier manieren zien?
15:27
Because there's another way of seeing it.
261
927000
2000
Want je kunt er op een andere manier naar kijken.
15:29
If you're seeing it as a cube floating in front of some circles,
262
929000
3000
Als je er naar kijkt als een kubus die zweeft voor een paar cirkels,
15:32
some black circles, there's another way of seeing it.
263
932000
3000
zwarte cirkels, dan is er een andere manier om hem te bekijken.
15:35
As a cube, on a black background,
264
935000
2000
Als een kubus, op een zwarte achtergrond,
15:37
as seen through a piece of Swiss cheese.
265
937000
2000
zoals je hem zou zien door een stuk Zwitserse kaas.
15:39
(Laughter)
266
939000
3000
(Gelach)
15:42
Can you get it? How many of you can't get it? That'll help.
267
942000
6000
Zie je het? Wie ziet het niet? Dit zal helpen.
15:48
(Laughter)
268
948000
2000
(Gelach)
15:50
Now you can get it. These are two very different phenomena.
269
950000
5000
Nu ziet u het. Dit zijn twee zeer verschillende fenomenen.
15:55
When you see the cube one way, behind the screen,
270
955000
6000
Als je de kubus zo bekijkt, achter het scherm,
16:01
those boundaries go away.
271
961000
2000
gaan die lijsten weg.
16:03
But there's still a sort of filling in, as we can tell if we look at this.
272
963000
5000
Maar er wordt toch nog ingevuld, zoals je hierop kan zien.
16:08
We don't have any trouble seeing the cube, but where does the color change?
273
968000
4000
We kunnen de kubus zo zien, maar waar verandert de kleur?
16:12
Does your brain have to send little painters in there?
274
972000
3000
Moeten je hersenen kleine schilders uitsturen?
16:15
The purple-painters and the green-painters
275
975000
2000
De paars-schilders en de groen-schilders
16:17
fight over who's going to paint that bit behind the curtain? No.
276
977000
3000
die gaan vechten over wie het stuk achter het gordijn doet? Nee.
16:20
Your brain just lets it go. The brain doesn't need to fill that in.
277
980000
4000
Je hersenen laten het gewoon zo. Je hersenen hoeven dat niet in te vullen.
16:29
When I first started talking about
278
989000
3000
Toen ik begon te spreken over
16:32
the Bradley, Petrie, Dumais example that you just saw --
279
992000
4000
het Bradley, Petrie, Dumais voorbeeld dat u zojuist zag --
16:36
I'll go back to it, this one --
280
996000
4000
ik zal terug naar deze gaan --
16:40
I said that there was no filling-in behind there.
281
1000000
7000
heb ik u gezegd dat er niets werd ingevuld daar.
16:47
And I supposed that that was just a flat truth, always true.
282
1007000
3000
En ik beschouwde dat als een absolute waarheid.
16:50
But Rob Van Lier has recently shown that it isn't.
283
1010000
5000
Maar Rob Van Lier heeft recent aangetoond dat het niet zo is.
16:55
Now, if you think you see some pale yellow --
284
1015000
5000
Nu, als je denkt dat je iets lichtgeel ziet --
17:00
I'll run this a few more times.
285
1020000
2000
ik laat deze nog een paar maal zien.
17:02
Look in the gray areas,
286
1022000
4000
Kijk in de grijze zones,
17:06
and see if you seem to see something sort of shadowy moving in there --
287
1026000
5000
en kijk even of je een soort schaduw daar ziet bewegen --
17:11
yeah, it's amazing. There's nothing there. It's no trick.
288
1031000
7000
ja! Het is ongelofelijk. Er is daar niets. Het is geen truc.
17:18
["Failure to Detect Changes in Scenes" slide]
289
1038000
6000
-
17:24
This is Ron Rensink's work, which was in some degree
290
1044000
2000
Dit is het werk van Ron Rensink, in zekere mate
17:26
inspired by that suggestion right at the end of the book.
291
1046000
4000
geïnspireerd door die suggestie op het einde van het book.
17:30
Let me just pause this for a second if I can.
292
1050000
2000
Ik zal het even pauzeren als dat lukt.
17:32
This is change-blindness.
293
1052000
2000
Dit is veranderingsblindheid.
17:34
What you're going to see is two pictures,
294
1054000
2000
Wat u gaat zien zijn twee foto's,
17:36
one of which is slightly different from the other.
295
1056000
2000
die een klein beetje van elkaar verschillen.
17:38
You see here the red roof and the gray roof,
296
1058000
3000
U ziet het rode dak en het grijze dak,
17:41
and in between them there will be a mask,
297
1061000
2000
en tussen die twee komt een masker,
17:43
which is just a blank screen, for about a quarter of a second.
298
1063000
4000
dat is gewoon een wit scherm, zo'n kwart van een seconde.
17:47
So you'll see the first picture, then a mask,
299
1067000
2000
Dus u ziet de eerste foto, dan een masker.
17:49
then the second picture, then a mask.
300
1069000
2000
Dan de tweede foto, dan een masker.
17:51
And this will just continue, and your job as the subject
301
1071000
4000
En dat blijft zo doorgaan, en uw taak als proefpersoon
17:55
is to press the button when you see the change.
302
1075000
3000
is op de knop drukken als u de verandering ziet.
17:58
So, show the original picture for 240 milliseconds. Blank.
303
1078000
8000
Dus, we tonen het origineel 240 milliseconden. Wit scherm.
18:06
Show the next picture for 240 milliseconds. Blank.
304
1086000
6000
De volgende foto voor 240 milliseconden. Wit.
18:12
And keep going, until the subject presses the button, saying,
305
1092000
4000
En ga door, tot de proefpersoon op de knop drukt en zegt:
18:16
"I see the change."
306
1096000
2000
"Ik zie de verandering".
18:18
So now we're going to be subjects in the experiment.
307
1098000
3000
Dus nu gaan wij de proefpersonen in het experiment zijn.
18:21
We're going to start easy. Some examples.
308
1101000
9000
We starten eenvoudig. Een paar voorbeelden.
18:30
No trouble there.
309
1110000
2000
Geen probleem hier.
18:32
Can everybody see? All right.
310
1112000
3000
Iedereen ziet het? Goed.
18:35
Indeed, Rensink's subjects took only a little bit more
311
1115000
4000
Inderdaad, Rensink's proefpersonen hadden maar iets langer
18:39
than a second to press the button.
312
1119000
2000
dan een seconde nodig om op de knop te drukken.
18:46
Can you see that one?
313
1126000
1000
Ziet u deze?
18:55
2.9 seconds.
314
1135000
2000
2.9 seconden.
19:04
How many don't see it still?
315
1144000
3000
Wie ziet het nog steeds niet?
19:07
What's on the roof of that barn?
316
1147000
2000
Wat staat er op het dak van die schuur?
19:09
(Laughter)
317
1149000
3000
(Gelach)
19:20
It's easy.
318
1160000
2000
Het is eenvoudig.
19:46
Is it a bridge or a dock?
319
1186000
2000
Is dat een brug of een pier?
19:52
There are a few more really dramatic ones, and then I'll close.
320
1192000
4000
Er zijn er een paar meer echt opvallende en dan stop ik.
19:56
I want you to see a few that are particularly striking.
321
1196000
4000
Ik wil er u een paar echt opvallende tonen.
20:00
This one because it's so large and yet it's pretty hard to see.
322
1200000
7000
Deze omdat het zo groot is en toch moeilijker te zien.
20:07
Can you see it?
323
1207000
3000
Kunt u het zien?
20:10
Audience: Yes.
324
1210000
2000
Pubiek: Ja.
20:12
Dan Dennett: See the shadows going back and forth? Pretty big.
325
1212000
3000
Ziet u die schaduwen bewegen? Behoorlijk groot.
20:23
So 15.5 seconds is the median time
326
1223000
4000
De mediaantijd hier is 15,5 seconden
20:27
for subjects in his experiment there.
327
1227000
2000
voor de proefpersonen in zijn experiment.
20:29
I love this one. I'll end with this one,
328
1229000
3000
Ik vind deze leuk. Ik zal hiermee eindigen,
20:32
just because it's such an obvious and important thing.
329
1232000
3000
omdat het zo'n duidelijk en belangrijk iets is.
20:37
How many still don't see it? How many still don't see it?
330
1237000
6000
Wie ziet het nog niet? Wie ziet het nog niet?
20:43
How many engines on the wing of that Boeing?
331
1243000
3000
Hoeveel motoren aan de vleugel van die Boeing?
20:46
(Laughter)
332
1246000
1000
(Gelach)
20:47
Right in the middle of the picture!
333
1247000
6000
In het midden van de foto!
20:53
Thanks very much for your attention.
334
1253000
1000
Hartelijk dank voor uw aandacht.
20:54
What I wanted to show you is that scientists,
335
1254000
5000
Wat ik u wilde tonen, is dat wetenschappers,
20:59
using their from-the-outside, third-person methods,
336
1259000
4000
met hun afstandelijke methoden,
21:03
can tell you things about your own consciousness
337
1263000
2000
u dingen over uw eigen bewustzijn kunnen leren
21:05
that you would never dream of,
338
1265000
2000
die u zich nooit zou inbeelden.
21:07
and that, in fact, you're not the authority
339
1267000
2000
En dat in feite, u geen autoriteit bent
21:09
on your own consciousness that you think you are.
340
1269000
2000
omtrent uw eigen bewustzijn, ook al denkt u dat.
21:11
And we're really making a lot of progress
341
1271000
2000
En we maken echt grote vorderingen
21:13
on coming up with a theory of mind.
342
1273000
3000
om tot een theorie van de geest te komen.
21:16
Jeff Hawkins, this morning, was describing his attempt
343
1276000
6000
Jeff Hawkins, deze morgen, had het over zijn poging
21:22
to get theory, and a good, big theory, into the neuroscience.
344
1282000
4000
om theorie, een goede grote theorie, in de neurowetenschappen te krijgen.
21:26
And he's right. This is a problem.
345
1286000
5000
En hij heeft gelijk. Dit is een probleem.
21:31
Harvard Medical School once -- I was at a talk --
346
1291000
2000
Ik was eens op Harvard Medical School voor een gesprek --
21:33
director of the lab said, "In our lab, we have a saying.
347
1293000
4000
zei de directeur van het lab: "In ons lab zeggen we
21:37
If you work on one neuron, that's neuroscience.
348
1297000
3000
als je werkt aan één neuron, dan is het neurowetenschap.
21:40
If you work on two neurons, that's psychology."
349
1300000
3000
Werk je aan twee neuronen, dan is het psychologie."
21:43
(Laughter)
350
1303000
4000
(Gelach)
21:47
We have to have more theory, and it can come as much from the top down.
351
1307000
3000
We moeten meer theorie ontwikkelen en dat kan ook top-down gebeuren.
21:50
Thank you very much.
352
1310000
2000
Hartelijk dank.
21:52
(Applause)
353
1312000
4000
(Applaus)
Over deze website

Deze site laat u kennismaken met YouTube-video's die nuttig zijn om Engels te leren. U ziet Engelse lessen gegeven door topdocenten uit de hele wereld. Dubbelklik op de Engelse ondertitels op elke videopagina om de video af te spelen. De ondertitels scrollen synchroon met het afspelen van de video. Heeft u opmerkingen of verzoeken, neem dan contact met ons op via dit contactformulier.

https://forms.gle/WvT1wiN1qDtmnspy7