Susan Blackmore: Memes and "temes"

156,625 views ・ 2008-06-04

TED


Dubbelklik op de Engelse ondertitels hieronder om de video af te spelen.

Vertaald door: Rik Delaet Nagekeken door: Annemieke Vanlaer
00:18
Cultural evolution is a dangerous child
0
18330
3000
Culturele evolutie is een gevaarlijk kind
00:21
for any species to let loose on its planet.
1
21330
3000
voor eender welke soort om los te laten op zijn planeet.
00:24
By the time you realize what's happening, the child is a toddler,
2
24330
4000
Tegen de tijd dat je je realiseert wat er gebeurt is het kind al een kleuter
00:28
up and causing havoc, and it's too late to put it back.
3
28330
6000
die de boel overhoop zet en is het te laat om het ongedaan te maken.
00:34
We humans are Earth's Pandoran species.
4
34330
3000
Wij mensen zijn de Pandoraanse soort op Aarde.
00:37
We're the ones who let the second replicator out of its box,
5
37330
5000
Wij hebben de tweede replicator uit de doos laten ontsnappen,
00:42
and we can't push it back in.
6
42330
2000
en kunnen hem niet meer tegenhouden.
00:44
We're seeing the consequences all around us.
7
44330
3000
Overal zien we de gevolgen.
00:48
Now that, I suggest, is the view that
8
48330
4000
Dat is, zoals ik voorstel, het inzicht dat
00:52
comes out of taking memetics seriously.
9
52330
2000
voortkomt uit het ernstig nemen van de memetica.
00:54
And it gives us a new way of thinking about
10
54330
2000
Daardoor krijgen we nieuwe inzichten over
00:56
not only what's going on on our planet,
11
56330
2000
wat er niet alleen op deze planeet
00:58
but what might be going on elsewhere in the cosmos.
12
58330
3000
maar ook elders in de kosmos aan de gang zou kunnen zijn.
01:01
So first of all, I'd like to say something about memetics
13
61330
3000
Daarom wil ik eerst iets vertellen over memetica
01:04
and the theory of memes,
14
64330
2000
en de mementheorie
01:06
and secondly, how this might answer questions about who's out there,
15
66330
5000
en, ten tweede, hoe dit antwoord zou kunnen geven op vragen over
01:11
if indeed anyone is.
16
71330
3000
wie daarginder is, als er al iemand is.
01:14
So, memetics:
17
74330
2000
Memetica dus.
01:16
memetics is founded on the principle of Universal Darwinism.
18
76330
4000
Memetica is gebaseerd op het principe van universeel Darwinisme.
01:20
Darwin had this amazing idea.
19
80330
3000
Darwin had dit wonderlijke idee.
01:23
Indeed, some people say
20
83330
2000
Sommige mensen zeggen
01:25
it's the best idea anybody ever had.
21
85330
3000
dat dit het beste idee is dat iemand ooit heeft gehad.
01:28
Isn't that a wonderful thought, that there could be such a thing
22
88330
4000
Is dat geen wonderlijke gedachte dat er zoiets zou kunnen bestaan
01:32
as a best idea anybody ever had?
23
92330
2000
als het beste idee dat iemand ooit heeft gehad?
01:34
Do you think there could?
24
94330
1000
Zou dat kunnen?
01:35
Audience: No.
25
95330
1000
Publiek: "Nee!"
01:36
(Laughter)
26
96330
1000
(Gelach)
01:37
Susan Blackmore: Someone says no, very loudly, from over there.
27
97330
2000
Susan Blackmore: Iemand zegt daar luidop nee.
01:39
Well, I say yes, and if there is, I give the prize to Darwin.
28
99330
4000
Wel ik zeg ja en als er zoiets is, dan geef ik de prijs aan Darwin.
01:43
Why?
29
103330
2000
Waarom?
01:45
Because the idea was so simple,
30
105330
3000
Omdat dat idee zo eenvoudig is
01:48
and yet it explains all design in the universe.
31
108330
6000
en toch alle ontwerp in het heelal verklaart.
01:54
I would say not just biological design,
32
114330
2000
Ik zou zelfs zeggen: niet alleen biologisch ontwerp
01:56
but all of the design that we think of as human design.
33
116330
2000
maar ook al het ontwerp dat we als menselijk beschouwen.
01:58
It's all just the same thing happening.
34
118330
2000
Het gaat allemaal om hetzelfde.
02:00
What did Darwin say?
35
120330
2000
Wat zei Darwin?
02:02
I know you know the idea, natural selection,
36
122330
2000
Ik weet dat je weet wat "natuurlijke selectie" is,
02:04
but let me just paraphrase "The Origin of Species," 1859,
37
124330
5000
maar laat me toe even "De Oorsprong van de Soorten", 1859,
02:09
in a few sentences.
38
129330
2000
in enkele zinnen parafraseren.
02:11
What Darwin said was something like this:
39
131330
3000
Darwin beweerde iets als het volgende:
02:14
if you have creatures that vary, and that can't be doubted --
40
134330
4000
als je wezens hebt die variëren, en daaraan kan je niet twijfelen want
02:18
I've been to the Galapagos, and I've measured the size of the beaks
41
138330
3000
ik heb op de Galapagoseilanden de grootte van snavels gemeten
02:21
and the size of the turtle shells and so on, and so on.
42
141330
2000
en de grootte van de schilden van schildpadden enzovoort enzovoort.
02:23
And 100 pages later.
43
143330
2000
Een 100 paginas verder -
02:25
(Laughter)
44
145330
2000
(Gelach)
02:27
And if there is a struggle for life,
45
147330
4000
als er zoiets bestaat als een natuurlijke selectie
02:31
such that nearly all of these creatures die --
46
151330
3000
zodat bijna al deze wezens doodgaan -
02:34
and this can't be doubted, I've read Malthus
47
154330
3000
en daaraan kan je evenmin twijfelen, ik heb Malthus gelezen
02:37
and I've calculated how long it would take for elephants
48
157330
2000
en uitgerekend hoelang het zou duren vooraleer olifanten
02:39
to cover the whole world if they bred unrestricted, and so on and so on.
49
159330
3000
de hele wereld zouden bedekken mochten ze zich ongebreideld voortplanten, enzovoort.
02:42
And another 100 pages later.
50
162330
4000
En weer 100 pagina's verder.
02:46
And if the very few that survive pass onto their offspring
51
166330
5000
En als de weinigen die overleven aan hun nakomelingen
02:51
whatever it was that helped them survive,
52
171330
3000
de eigenschappen die hen daarbij hielpen, overdragen,
02:54
then those offspring must be better adapted
53
174330
2000
dan moeten deze nakomelingen beter aangepast zijn
02:56
to the circumstances in which all this happened
54
176330
2000
aan de omstandigheden waaronder dit gebeurde
02:58
than their parents were.
55
178330
3000
dan hun ouders.
03:01
You see the idea?
56
181330
2000
Zie je het idee?
03:03
If, if, if, then.
57
183330
2000
Als, als, als, dan.
03:05
He had no concept of the idea of an algorithm,
58
185330
2000
Hij had geen idee van een algoritme.
03:07
but that's what he described in that book,
59
187330
3000
Maar hij beschreef het wel in zijn boek,
03:10
and this is what we now know as the evolutionary algorithm.
60
190330
3000
an dat is wat wij vandaag een evolutionair algoritme noemen.
03:13
The principle is you just need those three things --
61
193330
4000
Het principe is dat je slechts drie zaken nodig hebt:
03:17
variation, selection and heredity.
62
197330
3000
variatie, selectie en overerving.
03:20
And as Dan Dennett puts it, if you have those,
63
200330
4000
En, zoals Dan Dennett het zegt, als je die hebt
03:24
then you must get evolution.
64
204330
2000
dan krijg je evolutie.
03:26
Or design out of chaos, without the aid of mind.
65
206330
5000
Of ontwerp uit chaos zonder de hulp van verstand.
03:31
There's one word I love on that slide.
66
211330
2000
Op die dia staat een woord waar ik van hou.
03:33
What do you think my favorite word is?
67
213330
2000
Wat denk je dat het is?
03:35
Audience: Chaos.
68
215330
1000
Publiek: Chaos.
03:36
SB: Chaos? No. What? Mind? No.
69
216330
3000
SB: Chaos? Neen. Wat? Verstand? Nee.
03:39
Audience: Without.
70
219330
1000
Publiek: Zonder.
03:40
SB: No, not without.
71
220330
1000
SB: Nee, ook niet "zonder".
03:41
(Laughter)
72
221330
1000
(Gelach)
03:42
You try them all in order: Mmm...?
73
222330
2000
Probeer ze maar allemaal in volgorde: Mmm...?
03:44
Audience: Must.
74
224330
1000
Publiek: Moet.
03:45
SB: Must, at must. Must, must.
75
225330
4000
Moet, moet, moet.
03:49
This is what makes it so amazing.
76
229330
2000
Dat is wat het zo bijzonder maakt.
03:51
You don't need a designer,
77
231330
3000
Je hebt geen ontwerper nodig,
03:54
or a plan, or foresight, or anything else.
78
234330
3000
of een plan, of vooruitziendheid of iets anders.
03:57
If there's something that is copied with variation
79
237330
3000
Als er iets is dat gekopieerd wordt met variatie
04:00
and it's selected, then you must get design appearing out of nowhere.
80
240330
4000
en het wordt geselecteerd, dan moet er ontwerp vanuit het niets opduiken.
04:04
You can't stop it.
81
244330
2000
Er is geen houden aan.
04:06
Must is my favorite word there.
82
246330
4000
"Moet" is hier dus mijn favoriete woord.
04:11
Now, what's this to do with memes?
83
251330
2000
Wat heeft dat nu vandoen met memen?
04:13
Well, the principle here applies to anything
84
253330
5000
Wel dit principe is van toepassing op alles
04:18
that is copied with variation and selection.
85
258330
1000
dat met variatie en selectie wordt gekopieerd.
04:19
We're so used to thinking in terms of biology,
86
259330
3000
Wij zijn zo gewend om in biologische termen te denken,
04:22
we think about genes this way.
87
262330
2000
op deze manier denken we aan genen.
04:24
Darwin didn't, of course; he didn't know about genes.
88
264330
3000
Darwin niet natuurlijk, hij wist nog niet van het bestaan van genen.
04:27
He talked mostly about animals and plants,
89
267330
2000
Hij had het meestal over planten en dieren,
04:29
but also about languages evolving and becoming extinct.
90
269330
3000
maar ook over de evolutie en uitsterven van talen.
04:32
But the principle of Universal Darwinism
91
272330
2000
Maar het principe van het universele Darwinisme
04:34
is that any information that is varied and selected
92
274330
4000
is nu precies dat elke informatie die wordt gevarieerd en geselecteerd
04:38
will produce design.
93
278330
2000
ontwerp zal voortbrengen.
04:40
And this is what Richard Dawkins was on about
94
280330
2000
En hierover had Dawkins het eveneens
04:42
in his 1976 bestseller, "The Selfish Gene."
95
282330
3000
in zijn bestseller van 1976, "De Zelfzuchtige Genen".
04:45
The information that is copied, he called the replicator.
96
285330
4000
De gekopieerde informatie noemde hij de "replicator".
04:49
It selfishly copies.
97
289330
2000
Het kopieert zichzelf "zelfzuchtig".
04:51
Not meaning it kind of sits around inside cells going, "I want to get copied."
98
291330
4000
Dat betekent niet dat het zelf zegt "Ik wil gekopieerd worden;"
04:55
But that it will get copied if it can,
99
295330
2000
Maar gekopieerd worden zal het
04:57
regardless of the consequences.
100
297330
2000
onafgezien de gevolgen.
05:00
It doesn't care about the consequences because it can't,
101
300330
3000
Het zit niets in met de gevolgen omdat het dat niet kan,
05:03
because it's just information being copied.
102
303330
2000
omdat het alleen maar informatie is die wordt gekopieerd.
05:06
And he wanted to get away
103
306330
1000
En hij vroeg zich af,
05:07
from everybody thinking all the time about genes,
104
307330
3000
terwijl anderen de hele tijd aan genen bleven denken,
05:10
and so he said, "Is there another replicator out there on the planet?"
105
310330
3000
of er nog iets anders was op deze planeet dat zich "repliceerde".
05:13
Ah, yes, there is.
106
313330
2000
En ja, dat is er.
05:15
Look around you -- here will do, in this room.
107
315330
3000
Kijk om je heen in deze zaal.
05:18
All around us, still clumsily drifting about
108
318330
3000
Hier om ons heen nog onhandig rondzwervend
05:21
in its primeval soup of culture, is another replicator.
109
321330
3000
in de oersoep van de cultuur, zit een andere replicator.
05:24
Information that we copy from person to person, by imitation,
110
324330
5000
Informatie die we van persoon tot persoon kopiëren door imitatie,
05:29
by language, by talking, by telling stories,
111
329330
2000
door taal, door te praten, door verhalen te vertellen,
05:31
by wearing clothes, by doing things.
112
331330
3000
door kleren te dragen, door dingen te doen.
05:34
This is information copied with variation and selection.
113
334330
5000
Dat is informatie die gekopieerd wordt door variatie en selectie.
05:39
This is design process going on.
114
339330
3000
Dat is een lopend ontwerpproces.
05:42
He wanted a name for the new replicator.
115
342330
3000
Hij zocht een naam voor deze nieuwe replicator.
05:45
So, he took the Greek word "mimeme," which means that which is imitated.
116
345330
4000
Hij nam het Griekse woord "mimeme", i.e. "dat wat wordt gekopieerd".
05:49
Remember that, that's the core definition:
117
349330
2000
Onthoud dat, het is de basisdefinitie.
05:52
that which is imitated.
118
352330
1000
Dat wat wordt gekopieerd.
05:53
And abbreviated it to meme, just because it sounds good
119
353330
3000
Hij vereenvoudigde het tot "meme", omdat dat beter bekte
05:56
and made a good meme, an effective spreading meme.
120
356330
3000
en maakte zo een goed meme, een effectief zich voortplantend meme.
05:59
So that's how the idea came about.
121
359330
3000
Zo ontstond dus dat idee.
06:03
It's important to stick with that definition.
122
363330
3000
Het is van belang dat we die definitie aanhouden.
06:06
The whole science of memetics is much maligned,
123
366330
4000
De hele memetische wetenschap wordt vaak belasterd,
06:10
much misunderstood, much feared.
124
370330
3000
vaak misbegrepen, vaak gevreesd.
06:13
But a lot of these problems can be avoided
125
373330
3000
Maar veel problemen kunnen vermeden worden
06:16
by remembering the definition.
126
376330
2000
door je de definitie te herinneren.
06:18
A meme is not equivalent to an idea.
127
378330
2000
Een meme is niet hetzelfde als een idee.
06:20
It's not an idea. It's not equivalent to anything else, really.
128
380330
2000
Het is geen idee, het is niet gelijk aan iets anders.
06:22
Stick with the definition.
129
382330
2000
Blijf bij de definitie.
06:24
It's that which is imitated,
130
384330
2000
Het is "dat wat wordt gekopieerd".
06:26
or information which is copied from person to person.
131
386330
3000
Of informatie die wordt gekopieerd van persoon tot persoon.
06:30
So, let's see some memes.
132
390330
1000
Laat ons eens enkele memen nader bekijken.
06:31
Well, you sir, you've got those glasses hung around your neck
133
391330
3000
Wel, meneer, je hebt die bril op zo'n pakkende manier
06:34
in that particularly fetching way.
134
394330
2000
rond je nek hangen.
06:36
I wonder whether you invented that idea for yourself,
135
396330
2000
Ik ben benieuwd of je dat zelf hebt bedacht
06:38
or copied it from someone else?
136
398330
2000
of dat je het van iemand anders hebt gekopieerd.
06:40
If you copied it from someone else, it's a meme.
137
400330
3000
Als je het van iemand anders kopieerde is het een meme.
06:43
And what about, oh, I can't see any interesting memes here.
138
403330
3000
En wat met, och, ik zie hier geen interessante memen meer.
06:46
All right everyone, who's got some interesting memes for me?
139
406330
3000
Wie heeft hier nog wat interessante memen voor me?
06:49
Oh, well, your earrings,
140
409330
2000
Och ja, je oorringen,
06:51
I don't suppose you invented the idea of earrings.
141
411330
2000
Ik denk niet dat jij het idee van oorringen hebt uitgevonden.
06:53
You probably went out and bought them.
142
413330
2000
Je hebt ze waarschijnlijk ergens gekocht.
06:55
There are plenty more in the shops.
143
415330
2000
Er zijn er nog te vinden in de winkels.
06:57
That's something that's passed on from person to person.
144
417330
2000
Ook dat is iets dat werd doorgegeven van persoon naar persoon.
06:59
All the stories that we're telling -- well, of course,
145
419330
3000
En al die verhalen die we doorvertellen natuurlijk,
07:02
TED is a great meme-fest, masses of memes.
146
422330
4000
TED is één groot "memefeest", hopen memen.
07:06
The way to think about memes, though,
147
426330
2000
Maar de juiste manier om over memen te denken
07:08
is to think, why do they spread?
148
428330
2000
is je af te vragen: "Hoe verspreiden ze zich?"
07:10
They're selfish information, they will get copied, if they can.
149
430330
4000
Ze zijn zelfzuchtige informatie, ze zullen zich laten kopiëren als ze maar kunnen.
07:14
But some of them will be copied because they're good,
150
434330
3000
Maar sommigen zullen gekopieerd worden omdat ze goed zijn
07:17
or true, or useful, or beautiful.
151
437330
2000
of waar, of nuttig, of mooi.
07:19
Some of them will be copied even though they're not.
152
439330
2000
En sommigen zullen worden gekopieerd ook al zijn ze het niet.
07:21
Some, it's quite hard to tell why.
153
441330
2000
Sommige, en het is moeilijk uit te maken waarom.
07:24
There's one particular curious meme which I rather enjoy.
154
444330
3000
Er is één eigenaardig meme waar ik nogal van hou.
07:27
And I'm glad to say, as I expected, I found it when I came here,
155
447330
3000
En ik vond het, zoals verwacht, toen ik naar hier kwam
07:30
and I'm sure all of you found it, too.
156
450330
2000
en ik ben er zeker van dat jullie het ook vonden.
07:32
You go to your nice, posh, international hotel somewhere,
157
452330
3000
Als je ergens naar een mooi, chique hotel gaat,
07:36
and you come in and you put down your clothes
158
456330
2000
binnenkomt en je kleren ophangt
07:38
and you go to the bathroom, and what do you see?
159
458330
3000
en naar de badkamer gaat, wat merk je dan op?
07:41
Audience: Bathroom soap.
160
461330
1000
Publiek: Badzeep.
07:42
SB: Pardon?
161
462330
1000
SB: Watblieft?
07:43
Audience: Soap.
162
463330
1000
Publiek: Zeep.
07:44
SB: Soap, yeah. What else do you see?
163
464330
2000
SB: Zeep, OK. En wat nog?
07:46
Audience: (Inaudible)
164
466330
1000
Publiek: (onhoorbaar)
07:47
SB: Mmm mmm.
165
467330
1000
SB: Mmm mmm.
07:48
Audience: Sink, toilet!
166
468330
1000
Publiek: Lavabo, toilet.
07:49
SB: Sink, toilet, yes, these are all memes, they're all memes,
167
469330
2000
SB: Lavabo, toilet, ja, allemaal memen, allemaal memen,
07:51
but they're sort of useful ones, and then there's this one.
168
471330
3000
maar dat zijn er allemaal nuttige, maar dan is er dit ook nog.
07:54
(Laughter)
169
474330
3000
(Gelach)
07:58
What is this one doing?
170
478330
2000
Wat doet dit?
08:00
(Laughter)
171
480330
1000
(Gelach)
08:01
This has spread all over the world.
172
481330
2000
Het heeft zich over de wereld verspreid.
08:03
It's not surprising that you all found it
173
483330
2000
Het is niet te verwonderen dat jullie het allemaal vonden
08:05
when you arrived in your bathrooms here.
174
485330
2000
toen je je badkamer binnenstapte.
08:07
But I took this photograph in a toilet at the back of a tent
175
487330
5000
Maar ik maakte deze foto op een toilet achteraan in een tent
08:12
in the eco-camp in the jungle in Assam.
176
492330
2000
in een eco-kamp in de jungle van Assam.
08:14
(Laughter)
177
494330
1000
(Gelach)
08:16
Who folded that thing up there, and why?
178
496330
3000
Wie plooide daar dat ding op en waarom?
08:19
(Laughter)
179
499330
1000
(Gelach)
08:20
Some people get carried away.
180
500330
2000
Sommige mensen laten zich meeslepen.
08:22
(Laughter)
181
502330
3000
(Gelach)
08:26
Other people are just lazy and make mistakes.
182
506330
3000
Anderen zijn een beetje lui en maken foutjes.
08:29
Some hotels exploit the opportunity to put even more memes
183
509330
3000
Sommige hotels gebruiken de kans om nog meer memen te verspreiden
08:32
with a little sticker.
184
512330
2000
door middel van een kleine sticker.
08:34
(Laughter)
185
514330
1000
(Gelach)
08:35
What is this all about?
186
515330
2000
Waarover gaat dit nu?
08:37
I suppose it's there to tell you that somebody's
187
517330
2000
Ik veronderstel dat het er is om aan te geven dat iemand
08:39
cleaned the place, and it's all lovely.
188
519330
2000
de kamer heeft opgeruimd en dat ze in orde is.
08:41
And you know, actually, all it tells you is that another person
189
521330
3000
Maar eigenlijk zegt het je dat iemand misschien
08:44
has potentially spread germs from place to place.
190
524330
3000
ziektekiemen aan het verspreiden is geweest.
08:47
(Laughter)
191
527330
1000
(Gelach)
08:48
So, think of it this way.
192
528330
2000
Denk er eens aan op deze manier.
08:50
Imagine a world full of brains
193
530330
2000
Beeld je een wereld vol breinen in
08:52
and far more memes than can possibly find homes.
194
532330
3000
en meer memen dan dat er een thuis kunnen vinden.
08:55
The memes are all trying to get copied --
195
535330
3000
Al die memen proberen gekopieerd te geraken,
08:58
trying, in inverted commas -- i.e.,
196
538330
3000
proberen tussen aanhalingstekens, bedoel ik,
09:01
that's the shorthand for, if they can get copied, they will.
197
541330
3000
dat is bondig voor: als ze kunnen gekopieerd worden dan gebeurt het.
09:04
They're using you and me as their propagating, copying machinery,
198
544330
6000
Ze gebruiken jou en mij als hun voortplantingsmachines,
09:10
and we are the meme machines.
199
550330
3000
wij zijn dus de "mememachines".
09:13
Now, why is this important?
200
553330
2000
Waarom is dat nu belangrijk?
09:15
Why is this useful, or what does it tell us?
201
555330
2000
Waarom is dit nuttig en wat zegt ons dat nu?
09:17
It gives us a completely new view of human origins
202
557330
4000
Het werpt een totaal nieuw licht op het ontstaan van de mens
09:21
and what it means to be human,
203
561330
1000
en op wat menselijk zijn betekent.
09:22
all conventional theories of cultural evolution,
204
562330
4000
Op alle conventionele theorieën van culturele evolutie,
09:26
of the origin of humans,
205
566330
2000
op de oorsprong van mensen,
09:28
and what makes us so different from other species.
206
568330
4000
en op wat ons zo onderscheidt van andere soorten.
09:32
All other theories explaining the big brain, and language, and tool use
207
572330
2000
Alle andere theorieën die ons grote brein verklaren, en taal en werktuiggebruik
09:34
and all these things that make us unique,
208
574330
2000
en al deze andere dingen die ons zo uniek maken,
09:36
are based upon genes.
209
576330
3000
zijn gebaseerd op genen.
09:39
Language must have been useful for the genes.
210
579330
3000
Taal moet nuttig voor de genen zijn geweest.
09:42
Tool use must have enhanced our survival, mating and so on.
211
582330
3000
Gebruik van werktuigen moet ons overleven bevorderd hebben, het paren enzovoort.
09:45
It always comes back, as Richard Dawkins complained
212
585330
3000
Het draaide altijd, zoals Richard Dawkins klaagde,
09:48
all that long time ago, it always comes back to genes.
213
588330
3000
de hele tijd om genen.
09:51
The point of memetics is to say, "Oh no, it doesn't."
214
591330
4000
Maar de memetica zegt net: "Nee, dat is niet het geval."
09:55
There are two replicators now on this planet.
215
595330
3000
Er zijn op deze planeet twee replicatoren.
09:58
From the moment that our ancestors,
216
598330
3000
Van het ogenblik af dat onze voorouders,
10:01
perhaps two and a half million years ago or so,
217
601330
2000
misschien zo'n twee en half miljoen jaar geleden,
10:03
began imitating, there was a new copying process.
218
603330
4000
begonnen na te bootsen, was er een nieuw soort kopiëren ontstaan.
10:07
Copying with variation and selection.
219
607330
2000
Kopiëren met variatie en selectie.
10:09
A new replicator was let loose, and it could never be --
220
609330
5000
Een nieuwe replicator was losgelaten, en het was zo -
10:14
right from the start -- it could never be
221
614330
1000
al vanaf het begin was het zo -
10:15
that human beings who let loose this new creature,
222
615330
5000
dat de mensen die dit nieuwe schepsel hadden losgelaten
10:20
could just copy the useful, beautiful, true things,
223
620330
3000
alleen maar de nuttige, mooie of ware zaken konden kopiëren
10:23
and not copy the other things.
224
623330
2000
en niet ook de andere zaken.
10:25
While their brains were having an advantage from being able to copy --
225
625330
3000
Terwijl hun breinen het voordeel hadden te kunnen kopiëren -
10:28
lighting fires, keeping fires going, new techniques of hunting,
226
628330
5000
zoals vuur maken, vuur onderhouden, nieuwe jaagtechnieken,
10:33
these kinds of things --
227
633330
2000
dat soort dingen -
10:35
inevitably they were also copying putting feathers in their hair,
228
635330
3000
gaf dat eveneens aanleiding om veren in je haar te steken te kopiëren,
10:38
or wearing strange clothes, or painting their faces,
229
638330
2000
of rare kleren te gaan dragen, of je gezicht te beschilderen,
10:40
or whatever.
230
640330
1000
of wat dan ook.
10:41
So, you get an arms race between the genes
231
641330
4000
Daardoor kreeg je een wapenwedloop tussen de genen
10:45
which are trying to get the humans to have small economical brains
232
645330
4000
die trachtten mensen te maken met kleine economische breinen
10:49
and not waste their time copying all this stuff,
233
649330
2000
en geen tijd verloren met het kopiëren van al deze zaken
10:51
and the memes themselves, like the sounds that people made and copied --
234
651330
4000
en de memen zelf, zoals de geluiden die mensen maakten en kopieerden -
10:56
in other words, what turned out to be language --
235
656330
2000
wat, met andere woorden, taal werd -
10:58
competing to get the brains to get bigger and bigger.
236
658330
3000
die het erop aanlegden om breinen groter en groter te maken.
11:01
So, the big brain, on this theory, is driven by the memes.
237
661330
4000
Het grote brein is dus een resultaat van de sturing door memen.
11:05
This is why, in "The Meme Machine," I called it memetic drive.
238
665330
4000
Daarom noemde ik het in "De mememachine" memetische sturing.
11:09
As the memes evolve, as they inevitably must,
239
669330
3000
Als de memen evolueren, zoals ze onvermijdelijk moeten,
11:12
they drive a bigger brain that is better at copying the memes
240
672330
4000
sturen ze aan op een groter brein dat beter is in het kopiëren van memen
11:16
that are doing the driving.
241
676330
2000
die net dat sturen doen.
11:18
This is why we've ended up with such peculiar brains,
242
678330
4000
Dat is de reden dat wij opgezadeld zitten met zo'n grote breinen,
11:22
that we like religion, and music, and art.
243
682330
3000
dat we houden van godsdienst, van muziek, van kunst.
11:25
Language is a parasite that we've adapted to,
244
685330
3000
Taal is een parasiet waar wij ons aan hebben aangepast,
11:28
not something that was there originally for our genes,
245
688330
2000
niet iets dat al van in het begin in onze genen zat
11:30
on this view.
246
690330
2000
volgens deze inzichten.
11:32
And like most parasites, it can begin dangerous,
247
692330
3000
En zoals de meeste parasieten kan ze ook gevaarlijk zijn,
11:35
but then it coevolves and adapts,
248
695330
3000
als ze co-evolueert en zich aanpast
11:38
and we end up with a symbiotic relationship
249
698330
2000
en we komen tot een symbolische relatie
11:40
with this new parasite.
250
700330
1000
met deze nieuwe parasiet.
11:41
And so, from our perspective,
251
701330
2000
En dus realiseren we ons, vanuit ons standpunt,
11:43
we don't realize that that's how it began.
252
703330
3000
niet dat het zo is dat het allemaal is begonnen.
11:46
So, this is a view of what humans are.
253
706330
3000
Dit geeft ons een beeld van wat menszijn betekent.
11:49
All other species on this planet are gene machines only,
254
709330
3000
Alle andere soorten op deze planeet zijn alleen maar genmachines,
11:52
they don't imitate at all well, hardly at all.
255
712330
3000
zij zijn geen goede imitators, meestal helemaal niet.
11:55
We alone are gene machines and meme machines as well.
256
715330
5000
Wij alleen zijn tegelijkertijd genmachines en mememachines.
12:00
The memes took a gene machine and turned it into a meme machine.
257
720330
4000
De memen gingen uit van een genmachine en maakten er een mememachine van.
12:04
But that's not all.
258
724330
2000
Maar dat is niet alles.
12:06
We have a new kind of memes now.
259
726330
3000
Nu is er een nieuwe soort memen.
12:09
I've been wondering for a long time,
260
729330
1000
Ik ben me al lang aan het afvragen,
12:10
since I've been thinking about memes a lot,
261
730330
2000
sinds ik zoveel heb nagedacht over memen,
12:12
is there a difference between the memes that we copy --
262
732330
2000
of er een verschil is tussen de memen die we kopiëren -
12:14
the words we speak to each other,
263
734330
2000
de woorden waarmee we met elkaar spreken,
12:16
the gestures we copy, the human things --
264
736330
2000
de gebaren die we kopiëren, de menselijke dingen dus -
12:18
and all these technological things around us?
265
738330
2000
en al die technische zaken rondom ons.
12:20
I have always, until now, called them all memes,
266
740330
4000
Ik heb ze altijd, tot nu toe, ook memen genoemd
12:24
but I do honestly think now
267
744330
3000
maar ik denk echt dat we nu
12:27
we need a new word for technological memes.
268
747330
3000
een nieuw woord nodig hebben voor technologische memen.
12:30
Let's call them techno-memes or temes.
269
750330
3000
Ik stel voor ze technomemen of 'temen' te noemen.
12:33
Because the processes are getting different.
270
753330
3000
Omdat er andere processen achter zitten.
12:37
We began, perhaps 5,000 years ago, with writing.
271
757330
3000
Misschien 5.000 jaar terug begonnen we te schrijven.
12:40
We put the storage of memes out there on a clay tablet,
272
760330
7000
We legden een voorraad memen vast op een kleitablet,
12:48
but in order to get true temes and true teme machines,
273
768330
2000
maar om echte temen en echte tememachines te hebben,
12:50
you need to get the variation, the selection and the copying,
274
770330
3000
moet er variatie, selectie en kopiëren zijn,
12:53
all done outside of humans.
275
773330
2000
buiten de mens om.
12:55
And we're getting there.
276
775330
2000
En zover zitten we al.
12:57
We're at this extraordinary point where we're nearly there,
277
777330
2000
We zijn in het buitengewone stadium gekomen waar we bijna
12:59
that there are machines like that.
278
779330
2000
machines hebben die dat doen.
13:01
And indeed, in the short time I've already been at TED,
279
781330
2000
En inderdaad, in de korte tijd dat ik bij TED was,
13:03
I see we're even closer than I thought we were before.
280
783330
2000
zie ik dat we daar zelfs dichter bij zitten dan ik eerst dacht.
13:05
So actually, now the temes are forcing our brains
281
785330
6000
Het is zover dat de temen onze breinen beginnen te dwingen
13:11
to become more like teme machines.
282
791330
2000
om meer als tememachines te werken.
13:13
Our children are growing up very quickly learning to read,
283
793330
3000
Onze kinderen leren al zeer vlug lezen
13:16
learning to use machinery.
284
796330
2000
en om met machines om te gaan.
13:18
We're going to have all kinds of implants,
285
798330
1000
We zien allerlei soorten implantaten verschijnen,
13:19
drugs that force us to stay awake all the time.
286
799330
3000
medicijnen die ons wakker houden.
13:22
We'll think we're choosing these things,
287
802330
2000
We hebben nog de indruk dat we die zaken zelf kiezen,
13:24
but the temes are making us do it.
288
804330
3000
maar de temen dwingen ons dat te doen.
13:28
So, we're at this cusp now
289
808330
1000
We bevinden ons op dit keerpunt
13:29
of having a third replicator on our planet.
290
809330
4000
waarop er een derde replicator op deze planeet is verschenen.
13:34
Now, what about what else is going on out there in the universe?
291
814330
5000
Nu, wat is er elders in het heelal aan de gang?
13:39
Is there anyone else out there?
292
819330
2000
Is daar iemand?
13:41
People have been asking this question for a long time.
293
821330
3000
Mensen hebben zich dat al altijd afgevraagd.
13:44
We've been asking it here at TED already.
294
824330
2000
Ook hier bij TED duikt deze vraag op.
13:46
In 1961, Frank Drake made his famous equation,
295
826330
4000
In 1961 stelde Frank Drake zijn beroemde vergelijking op
13:50
but I think he concentrated on the wrong things.
296
830330
2000
maar ik denk nu dat hij op de verkeerde dingen focuste.
13:52
It's been very productive, that equation.
297
832330
2000
Die vergelijking was zeer productief.
13:54
He wanted to estimate N,
298
834330
2000
Hij wilde een schatting maken van N,
13:56
the number of communicative civilizations out there in our galaxy,
299
836330
4000
het aantal communicatieve beschavingen in onze melkweg.
14:00
and he included in there the rate of star formation,
300
840330
4000
In die vergelijking nam hij op: de snelheid van stervorming,
14:04
the rate of planets, but crucially, intelligence.
301
844330
4000
het aantal planeten, of eerder, intelligentie.
14:08
I think that's the wrong way to think about it.
302
848330
4000
Maar ik dacht dat dat niet de juiste manier van denken is.
14:12
Intelligence appears all over the place, in all kinds of guises.
303
852330
3000
Intelligentie ontstaat overal, in allerlei vormen.
14:15
Human intelligence is only one kind of a thing.
304
855330
2000
Menselijke intelligentie is slechts één zo'n vorm.
14:17
But what's really important is the replicators you have
305
857330
3000
Maar waar het echt om gaat is of je replicators hebt
14:20
and the levels of replicators, one feeding on the one before.
306
860330
4000
en de niveaus van replicators, de ene terend op de vorige.
14:24
So, I would suggest that we don't think intelligence,
307
864330
5000
Daarom zou ik willen voorstellen niet over intelligentie na te denken,
14:29
we think replicators.
308
869330
2000
maar over replicators.
14:31
And on that basis, I've suggested a different kind of equation.
309
871330
3000
En daarvan uitgaande heb ik een nieuw soort vergelijking voorgesteld.
14:34
A very simple equation.
310
874330
2000
Een eenvoudige vergelijking.
14:36
N, the same thing,
311
876330
2000
N blijft hetzelfde,
14:38
the number of communicative civilizations out there
312
878330
3000
namelijk het aantal communicatieve beschavingen
14:41
[that] we might expect in our galaxy.
313
881330
2000
dat we mogen verwachten in onze melkweg.
14:43
Just start with the number of planets there are in our galaxy.
314
883330
4000
Begin met het aantal planeten in onze melkweg.
14:47
The fraction of those which get a first replicator.
315
887330
4000
De fractie daarvan die een eerste replicator heeft.
14:51
The fraction of those that get the second replicator.
316
891330
4000
Dan de fractie daarvan met een tweede replicator.
14:55
The fraction of those that get the third replicator.
317
895330
2000
En dan weer de fractie daarvan met een derde replicator.
14:58
Because it's only the third replicator that's going to reach out --
318
898330
3000
Omdat het pas de derde replicator is die naar buiten zal reiken -
15:01
sending information, sending probes, getting out there,
319
901330
3000
door informatie uit te zenden, sondes uit te sturen, de ruimte in te gaan,
15:04
and communicating with anywhere else.
320
904330
2000
en met iedereen te communiceren.
15:06
OK, so if we take that equation,
321
906330
3000
OK, als we van die vergelijking uitgaan,
15:09
why haven't we heard from anybody out there?
322
909330
5000
waarom hebbe we dan nog van niemand daarginder gehoord?
15:14
Because every step is dangerous.
323
914330
4000
Omdat elke stap gevaarlijk is.
15:18
Getting a new replicator is dangerous.
324
918330
3000
Een nieuwe replicator krijgen is gevaarlijk.
15:21
You can pull through, we have pulled through,
325
921330
2000
Je kan het overleven, we hebben het gekund,
15:23
but it's dangerous.
326
923330
2000
maar het is gevaarlijk.
15:25
Take the first step, as soon as life appeared on this earth.
327
925330
3000
Neem nu de eerste stap, van zodra het leven verscheen op deze aarde.
15:28
We may take the Gaian view.
328
928330
2000
We kunnen van het Gaia standpunt uitgaan.
15:30
I loved Peter Ward's talk yesterday -- it's not Gaian all the time.
329
930330
3000
Ik hield van de lezing van Peter Ward gisteren - het ging niet de hele tijd over Gaia.
15:33
Actually, life forms produce things that kill themselves.
330
933330
3000
In feite is het zo dat levensvormen zaken produceren die hen zelf doden.
15:36
Well, we did pull through on this planet.
331
936330
3000
Maar op deze planeet hebben we het overleefd.
15:39
But then, a long time later, billions of years later,
332
939330
2000
Maar dan weer, miljarden jaren later,
15:41
we got the second replicator, the memes.
333
941330
3000
kregen we een tweede replicator, memen.
15:44
That was dangerous, all right.
334
944330
2000
Dat bracht weer zijn eigen gevaren mee.
15:46
Think of the big brain.
335
946330
2000
Denk aan dat grote brein.
15:48
How many mothers do we have here?
336
948330
3000
Hoeveel moeders zijn er in de zaal?
15:51
You know all about big brains.
337
951330
2000
Jullie weten alles van grote breinen.
15:53
They are dangerous to give birth to,
338
953330
2000
Ze zijn gevaarlijk bij de geboorte.
15:55
are agonizing to give birth to.
339
955330
2000
Ze zijn kwellend pijnlijk bij het geboren worden.
15:57
(Laughter)
340
957330
1000
(Gelach)
15:59
My cat gave birth to four kittens, purring all the time.
341
959330
2000
Mijn kat kreeg vier jongen, de hele tijd rustig snorrend.
16:01
Ah, mm -- slightly different.
342
961330
2000
Ah, mm -- niet helemaal hetzelfde.
16:03
(Laughter)
343
963330
2000
(Gelach)
16:05
But not only is it painful, it kills lots of babies,
344
965330
3000
Maar het is niet alleen pijnlijk, hopen kinderen overleven het niet,
16:08
it kills lots of mothers,
345
968330
2000
hopen moeders overleven het niet
16:10
and it's very expensive to produce.
346
970330
2000
en daarbij is een brein een kostbaar iets om aan te maken.
16:12
The genes are forced into producing all this myelin,
347
972330
2000
De genen worden gedwongen al dit myeline te produceren,
16:14
all the fat to myelinate the brain.
348
974330
2000
al dat vetweefsel om het brein te myeliniseren.
16:16
Do you know, sitting here,
349
976330
2000
Weten jullie dat, door hier alleen maar te zitten,
16:18
your brain is using about 20 percent of your body's energy output
350
978330
4000
jullie brein ongeveer 20% van de energieproductie van jullie lichaam nodig heeft
16:22
for two percent of your body weight?
351
982330
2000
voor slechts 2% van jullie lichaamsgewicht?
16:24
It's a really expensive organ to run.
352
984330
2000
Het is een duur orgaan om te gebruiken.
16:26
Why? Because it's producing the memes.
353
986330
2000
Waarom? Omdat het memen maakt.
16:28
Now, it could have killed us off. It could have killed us off,
354
988330
4000
Het had ons het leven kunnen kosten - ons allemaal gedood kunnen hebben,
16:32
and maybe it nearly did, but you see, we don't know.
355
992330
2000
en misschien deed het dat bijna, maar we weten het niet.
16:34
But maybe it nearly did.
356
994330
2000
Maar het is ooit misschien kantje, boordje geweest.
16:36
Has it been tried before?
357
996330
1000
Is het nog ooit geprobeerd?
16:37
What about all those other species?
358
997330
2000
Wat met al die andere soorten?
16:39
Louise Leakey talked yesterday
359
999330
2000
Louis Leakey sprak gisteren
16:41
about how we're the only one in this branch left.
360
1001330
3000
over hoe dat wij de enigen zijn die in deze branche overblijven.
16:44
What happened to the others?
361
1004330
2000
Wat gebeurde er met de anderen?
16:46
Could it be that this experiment in imitation,
362
1006330
2000
Zou het kunnen dat dit experiment in imitatie,
16:48
this experiment in a second replicator,
363
1008330
2000
dit experiment naar een tweede replicator
16:50
is dangerous enough to kill people off?
364
1010330
4000
gevaarlijk genoeg is om mensen te doden?
16:54
Well, we did pull through, and we adapted.
365
1014330
2000
We hebben het overleefd en ons aangepast.
16:56
But now, we're hitting, as I've just described,
366
1016330
3000
Maar nu zijn we, zoals ik net heb beschreven,
16:59
we're hitting the third replicator point.
367
1019330
2000
op een derde replicator keerpunt aangekomen.
17:01
And this is even more dangerous --
368
1021330
3000
En dat is nog gevaarlijker -
17:04
well, it's dangerous again.
369
1024330
2000
of tenminste, het is weer eens gevaarlijk.
17:06
Why? Because the temes are selfish replicators
370
1026330
4000
Waarom? Omdat ook de temen zelfzuchtige replicatoren zijn
17:10
and they don't care about us, or our planet, or anything else.
371
1030330
3000
en ze helemaal niet met ons inzitten, of met onze planeet, of wat dan ook.
17:13
They're just information, why would they?
372
1033330
3000
Ze zijn alleen maar informatie - waarom zouden ze?
17:17
They are using us to suck up the planet's resources
373
1037330
2000
Ze gebruiken ons om de mogelijkheden van onze planeet uit te buiten
17:19
to produce more computers,
374
1039330
2000
om nog meer computers te maken,
17:21
and more of all these amazing things we're hearing about here at TED.
375
1041330
3000
en meer van al deze wonderlijke zaken waarover we hier bij TED horen.
17:24
Don't think, "Oh, we created the Internet for our own benefit."
376
1044330
4000
Denk niet, "Wij creëerden het Internet voor ons eigen voordeel."
17:28
That's how it seems to us.
377
1048330
2000
Die indruk hebben we.
17:30
Think, temes spreading because they must.
378
1050330
4000
Denk aan temen die zich voortplanten omdat ze dat moeten.
17:34
We are the old machines.
379
1054330
2000
Wij zijn de oude machines.
17:36
Now, are we going to pull through?
380
1056330
2000
Gaan wij het overleven?
17:38
What's going to happen?
381
1058330
2000
Wat gaat er gebeuren?
17:40
What does it mean to pull through?
382
1060330
2000
Wat houdt overleven voor ons in?
17:42
Well, there are kind of two ways of pulling through.
383
1062330
2000
Wel, er zijn twee manieren om te overleven.
17:45
One that is obviously happening all around us now,
384
1065330
2000
De eerste is nu duidelijk rondom ons aan de gang.
17:47
is that the temes turn us into teme machines,
385
1067330
4000
Temen maken tememachines van ons,
17:51
with these implants, with the drugs,
386
1071330
2000
met deze implantaten, medicijnen,
17:53
with us merging with the technology.
387
1073330
3000
doordat wij een worden met de technologie.
17:56
And why would they do that?
388
1076330
2000
En waarom doen ze dat?
17:58
Because we are self-replicating.
389
1078330
2000
Omdat wij zelfreplicerend zijn.
18:00
We have babies.
390
1080330
2000
Wij maken baby's.
18:02
We make new ones, and so it's convenient to piggyback on us,
391
1082330
3000
Wij maken er nieuwe en het komt ze goed uit daarvan te profiteren,
18:05
because we're not yet at the stage on this planet
392
1085330
4000
omdat we op deze planeet nog niet zover zijn
18:09
where the other option is viable.
393
1089330
2000
dat de andere optie leefbaar is.
18:11
Although it's closer, I heard this morning,
394
1091330
2000
Maar ze komt dichterbij, hoorde ik vanmorgen,
18:13
it's closer than I thought it was.
395
1093330
2000
ze is dichterbij dan ik dacht.
18:15
Where the teme machines themselves will replicate themselves.
396
1095330
3000
Waar de tememachines zichzelf beginnen te repliceren.
18:18
That way, it wouldn't matter if the planet's climate
397
1098330
4000
Als dat zo is dan zou het er helemaal niet meer toe doen
18:22
was utterly destabilized,
398
1102330
2000
dat ons klimaat volledig ontwricht zou geraken,
18:24
and it was no longer possible for humans to live here.
399
1104330
2000
zodat mensen hier niet meer zouden kunnen leven.
18:26
Because those teme machines, they wouldn't need --
400
1106330
2000
Omdat die tememachines dat niet meer zouden nodig hebben -
18:28
they're not squishy, wet, oxygen-breathing,
401
1108330
2000
ze zijn geen malse, vochtige, zuurstof ademende
18:30
warmth-requiring creatures.
402
1110330
3000
warmtevereisende schepselen.
18:33
They could carry on without us.
403
1113330
2000
Ze kunnen best zonder ons.
18:35
So, those are the two possibilities.
404
1115330
3000
Dat zijn dus de twee mogelijkheden.
18:38
The second, I don't think we're that close.
405
1118330
4000
Ik denk wel niet dat we al dicht bij de tweede zitten.
18:42
It's coming, but we're not there yet.
406
1122330
2000
Ze komt eraan, maar we zijn er nog niet.
18:44
The first, it's coming too.
407
1124330
2000
De eerste komt er ook aan.
18:46
But the damage that is already being done
408
1126330
3000
Maar de schade die al aan de planeet is aangebracht
18:49
to the planet is showing us how dangerous the third point is,
409
1129330
5000
toont aan hoe gevaarlijk dit derde punt is,
18:54
that third danger point, getting a third replicator.
410
1134330
3000
dat derde gevaarspunt, de komst van de derde replicator.
18:58
And will we get through this third danger point,
411
1138330
2000
En zullen we dat derde punt overleven
19:00
like we got through the second and like we got through the first?
412
1140330
3000
zoals we het tweede en het eerste overleefd hebben?
19:04
Maybe we will, maybe we won't.
413
1144330
2000
Misschien wel, misschien niet.
19:06
I have no idea.
414
1146330
3000
Geen idee.
19:13
(Applause)
415
1153330
10000
(Applaus)
19:24
Chris Anderson: That was an incredible talk.
416
1164330
2000
Chris Anderson: Dit was een ongelooflijke lezing.
19:26
SB: Thank you. I scared myself.
417
1166330
2000
SB: Dank je. Ik heb mezelf schrik aangejaagd.
19:28
CA: (Laughter)
418
1168330
1000
CA: (Gelach)
Over deze website

Deze site laat u kennismaken met YouTube-video's die nuttig zijn om Engels te leren. U ziet Engelse lessen gegeven door topdocenten uit de hele wereld. Dubbelklik op de Engelse ondertitels op elke videopagina om de video af te spelen. De ondertitels scrollen synchroon met het afspelen van de video. Heeft u opmerkingen of verzoeken, neem dan contact met ons op via dit contactformulier.

https://forms.gle/WvT1wiN1qDtmnspy7