Susan Blackmore: Memes and "temes"

Сьюзен Блэкмор о мемах и «Т-мемах»

156,625 views ・ 2008-06-04

TED


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

Переводчик: Elena Goodwin Редактор: Ivan Ivanov
00:18
Cultural evolution is a dangerous child
0
18330
3000
Культурная эволюция – опасный ребенок
00:21
for any species to let loose on its planet.
1
21330
3000
для любого вида выпускающего её на свою планету.
00:24
By the time you realize what's happening, the child is a toddler,
2
24330
4000
Родители еще не осознали, что происходит, а малыш уже начал бегать,
00:28
up and causing havoc, and it's too late to put it back.
3
28330
6000
оставляя вокруг себя хаос, и обратно в живот его уже не вернешь.
00:34
We humans are Earth's Pandoran species.
4
34330
3000
Мы, люди, - земной вид, открывший ящик Пандоры.
00:37
We're the ones who let the second replicator out of its box,
5
37330
5000
Это мы выпустили на свободу второй репликатор, а обратно в ящик
00:42
and we can't push it back in.
6
42330
2000
мы его уже не загоним.
00:44
We're seeing the consequences all around us.
7
44330
3000
Последствия этого уже повсюду.
00:48
Now that, I suggest, is the view that
8
48330
4000
Такой взгляд характерен для меметики,
00:52
comes out of taking memetics seriously.
9
52330
2000
если ее воспринимать как серьезную науку.
00:54
And it gives us a new way of thinking about
10
54330
2000
И даёт нам новый способ мышления не только о том,
00:56
not only what's going on on our planet,
11
56330
2000
что происходит на нашей планете,
00:58
but what might be going on elsewhere in the cosmos.
12
58330
3000
а также, возможно, и где-то в космосе.
01:01
So first of all, I'd like to say something about memetics
13
61330
3000
Для начала, я немного расскажу о меметике
01:04
and the theory of memes,
14
64330
2000
и теории мемов,
01:06
and secondly, how this might answer questions about who's out there,
15
66330
5000
а потом, как она может ответить на вопросы о том, есть ли действительно
01:11
if indeed anyone is.
16
71330
3000
кто-нибудь в космосе, кроме нас.
01:14
So, memetics:
17
74330
2000
Итак, меметика.
01:16
memetics is founded on the principle of Universal Darwinism.
18
76330
4000
Меметика основана на принципе универсального дарвинизма.
01:20
Darwin had this amazing idea.
19
80330
3000
У Дарвина была потрясающая идея.
01:23
Indeed, some people say
20
83330
2000
Действительно, некоторые говорят, что
01:25
it's the best idea anybody ever had.
21
85330
3000
эта идея – самая лучшая на свете.
01:28
Isn't that a wonderful thought, that there could be such a thing
22
88330
4000
Не правда ли, прекрасная мысль – кто-то предложил
01:32
as a best idea anybody ever had?
23
92330
2000
самую лучшую идею во всем мире?
01:34
Do you think there could?
24
94330
1000
Думаете, так может быть?
01:35
Audience: No.
25
95330
1000
Из зала: Нет.
01:36
(Laughter)
26
96330
1000
(Смех)
01:37
Susan Blackmore: Someone says no, very loudly, from over there.
27
97330
2000
Сьюзен Блэкмор: Кто-то в зале сказал «нет», очень громко.
01:39
Well, I say yes, and if there is, I give the prize to Darwin.
28
99330
4000
Но я говорю «да». И если такая идея есть, то награду я отдам Дарвину.
01:43
Why?
29
103330
2000
Почему?
01:45
Because the idea was so simple,
30
105330
3000
Потому что его идея такая простая,
01:48
and yet it explains all design in the universe.
31
108330
6000
и в то же время, она объясняет эволюцию во вселенной.
01:54
I would say not just biological design,
32
114330
2000
Но не только в применении к одной лишь биологии,
01:56
but all of the design that we think of as human design.
33
116330
2000
а в отношении ко всему человечеству.
01:58
It's all just the same thing happening.
34
118330
2000
Мир устроен по-одному принципу.
02:00
What did Darwin say?
35
120330
2000
Что сказал Дарвин?
02:02
I know you know the idea, natural selection,
36
122330
2000
Я знаю, что вы знакомы с теорией естественного отбора.
02:04
but let me just paraphrase "The Origin of Species," 1859,
37
124330
5000
Я коротко перескажу его труд «Происхождение видов»,
02:09
in a few sentences.
38
129330
2000
вышедший в 1859 году.
02:11
What Darwin said was something like this:
39
131330
3000
Дарвин сказал примерно так:
02:14
if you have creatures that vary, and that can't be doubted --
40
134330
4000
Если живые существа видоизменяются, и в этом нет сомнения,
02:18
I've been to the Galapagos, and I've measured the size of the beaks
41
138330
3000
я был на островах Галапагос и я измерил длину клювов птиц
02:21
and the size of the turtle shells and so on, and so on.
42
141330
2000
и диаметр панцирей черепах, и так далее и тому подобное.
02:23
And 100 pages later.
43
143330
2000
И 100 страниц спустя.
02:25
(Laughter)
44
145330
2000
(Смех)
02:27
And if there is a struggle for life,
45
147330
4000
И если существует такая борьба за жизнь,
02:31
such that nearly all of these creatures die --
46
151330
3000
что почти все эти живые существа умирают,
02:34
and this can't be doubted, I've read Malthus
47
154330
3000
и в этом нет сомнения, я читал Мальтуса
02:37
and I've calculated how long it would take for elephants
48
157330
2000
и я рассчитал, сколько лет потребуется слонам, чтобы
02:39
to cover the whole world if they bred unrestricted, and so on and so on.
49
159330
3000
заполнить собой всю планету, если бы они неограниченно размножались, и так далее.
02:42
And another 100 pages later.
50
162330
4000
И еще 100 страниц спустя.
02:46
And if the very few that survive pass onto their offspring
51
166330
5000
И если бы те немногие выжившие передали своим потомкам то,
02:51
whatever it was that helped them survive,
52
171330
3000
что помогло им выжить,
02:54
then those offspring must be better adapted
53
174330
2000
тогда их потомки должны быть более приспособлены,
02:56
to the circumstances in which all this happened
54
176330
2000
чем их родители, к условиям,
02:58
than their parents were.
55
178330
3000
в которых все произошло.
03:01
You see the idea?
56
181330
2000
Теперь видите, как построена его идея?
03:03
If, if, if, then.
57
183330
2000
Если, если, если, то.
03:05
He had no concept of the idea of an algorithm,
58
185330
2000
Он и представления не имел об алгоритме,
03:07
but that's what he described in that book,
59
187330
3000
но он именно его описал в своей книге,
03:10
and this is what we now know as the evolutionary algorithm.
60
190330
3000
и это то, что мы сегодня знаем как эволюционный алгоритм.
03:13
The principle is you just need those three things --
61
193330
4000
Принцип в том, что необходимы только три категории -
03:17
variation, selection and heredity.
62
197330
3000
видоизменение, отбор и наследственность.
03:20
And as Dan Dennett puts it, if you have those,
63
200330
4000
И как говорит Дэн Дэннет, эти три составляющие
03:24
then you must get evolution.
64
204330
2000
в итоге должны привести к эволюции.
03:26
Or design out of chaos, without the aid of mind.
65
206330
5000
Или созиданию из хаоса, без вовлечения разума.
03:31
There's one word I love on that slide.
66
211330
2000
На этом слайде у меня есть любимое слово.
03:33
What do you think my favorite word is?
67
213330
2000
Как вы думаете, какое?
03:35
Audience: Chaos.
68
215330
1000
Из зала: Хаос
03:36
SB: Chaos? No. What? Mind? No.
69
216330
3000
Сьюзен Блэкмор: Хаос? Нет. Разум? Нет.
03:39
Audience: Without.
70
219330
1000
Из зала: Без.
03:40
SB: No, not without.
71
220330
1000
Сьюзен Блэкмор: Нет. Не «без».
03:41
(Laughter)
72
221330
1000
(Смех)
03:42
You try them all in order: Mmm...?
73
222330
2000
Давайте попробуем по порядку: Ддд...?
03:44
Audience: Must.
74
224330
1000
Из зала: Должны.
03:45
SB: Must, at must. Must, must.
75
225330
4000
Сьюзен Блэкмор: Должны. Должны.
03:49
This is what makes it so amazing.
76
229330
2000
Вот, что делает это поразительным.
03:51
You don't need a designer,
77
231330
3000
Нам не нужен создатель,
03:54
or a plan, or foresight, or anything else.
78
234330
3000
или план, или предвидение, или что-либо еще.
03:57
If there's something that is copied with variation
79
237330
3000
Если что-то копируется с изменениями,
04:00
and it's selected, then you must get design appearing out of nowhere.
80
240330
4000
а потом отобирается, то в итоге эволюционный процесс должен появиться из ниоткуда.
04:04
You can't stop it.
81
244330
2000
И остановить его нельзя.
04:06
Must is my favorite word there.
82
246330
4000
В этом примере «должен» - мое любимое слово.
04:11
Now, what's this to do with memes?
83
251330
2000
Но какое отношение все это имеет к мемам?
04:13
Well, the principle here applies to anything
84
253330
5000
Приведенный мною закон применим ко всему,
04:18
that is copied with variation and selection.
85
258330
1000
что копируется, видоизменяется и отбирается.
04:19
We're so used to thinking in terms of biology,
86
259330
3000
Мы обычно этот закон применяем в биологии,
04:22
we think about genes this way.
87
262330
2000
например, таким образом мы думаем о генах.
04:24
Darwin didn't, of course; he didn't know about genes.
88
264330
3000
Дарвин, конечно же, не знал о существовании генов.
04:27
He talked mostly about animals and plants,
89
267330
2000
Он в основном рассуждал о животных и растениях,
04:29
but also about languages evolving and becoming extinct.
90
269330
3000
но также и о языках, которые появляются и исчезают.
04:32
But the principle of Universal Darwinism
91
272330
2000
Но закон универсального дарвинизма состоит в том, что
04:34
is that any information that is varied and selected
92
274330
4000
любая информация, которая видоизменяется и отбирается, в итоге
04:38
will produce design.
93
278330
2000
приведет к эволюционному процессу.
04:40
And this is what Richard Dawkins was on about
94
280330
2000
Об этом написал Ричард Докинз в 1976 году
04:42
in his 1976 bestseller, "The Selfish Gene."
95
282330
3000
в своем бестселлере «Эгоистичный ген».
04:45
The information that is copied, he called the replicator.
96
285330
4000
Информацию, которая копируется, он назвал «репликатором».
04:49
It selfishly copies.
97
289330
2000
Она эгоистично копируется.
04:51
Not meaning it kind of sits around inside cells going, "I want to get copied."
98
291330
4000
Он не имел в виду, что информация сидит в клетках, думая: «Я хочу скопироваться».
04:55
But that it will get copied if it can,
99
295330
2000
Но, та информация, которая может быть копирована,
04:57
regardless of the consequences.
100
297330
2000
обязательно будет скопирована, независимо от последствий.
05:00
It doesn't care about the consequences because it can't,
101
300330
3000
Она не считается с последствиями, потому что не может,
05:03
because it's just information being copied.
102
303330
2000
потому что это просто информация, которая копируется.
05:06
And he wanted to get away
103
306330
1000
Он хотел абстрагироваться от тех,
05:07
from everybody thinking all the time about genes,
104
307330
3000
кто все время думает только о генах,
05:10
and so he said, "Is there another replicator out there on the planet?"
105
310330
3000
и поэтому он предположил: «Есть ли на нашей планете еще один репликатор?»
05:13
Ah, yes, there is.
106
313330
2000
Да, есть.
05:15
Look around you -- here will do, in this room.
107
315330
3000
Посмотрите вокруг, например, в этой аудитории.
05:18
All around us, still clumsily drifting about
108
318330
3000
Повсюду вокруг, неуклюже дрейфуя
05:21
in its primeval soup of culture, is another replicator.
109
321330
3000
в первичном бульоне культуры, живёт другой репликатор.
05:24
Information that we copy from person to person, by imitation,
110
324330
5000
Это информация, которую мы копируем от человека к человеку путем имитации,
05:29
by language, by talking, by telling stories,
111
329330
2000
через язык, разговаривая, рассказывая истории,
05:31
by wearing clothes, by doing things.
112
331330
3000
нося одежду, или просто делая что-нибудь.
05:34
This is information copied with variation and selection.
113
334330
5000
Это информация, которая копируется, видоизменяется и отбирается.
05:39
This is design process going on.
114
339330
3000
Это продолжающийся эволюционный процесс.
05:42
He wanted a name for the new replicator.
115
342330
3000
Докинз хотел найти имя для нового репликатора.
05:45
So, he took the Greek word "mimeme," which means that which is imitated.
116
345330
4000
Он использовал греческое слово «мимем», означающее то, что копируется.
05:49
Remember that, that's the core definition:
117
349330
2000
Запомните, что это – основополагающее определение:
05:52
that which is imitated.
118
352330
1000
то, что копируется.
05:53
And abbreviated it to meme, just because it sounds good
119
353330
3000
Он сократил слово «мимем» до «мем», потому что «мем» звучит хорошо,
05:56
and made a good meme, an effective spreading meme.
120
356330
3000
а также стало хорошим и эффективно распространяющимся мемом.
05:59
So that's how the idea came about.
121
359330
3000
Так появилась идея о меме.
06:03
It's important to stick with that definition.
122
363330
3000
Важно придерживаться именно этого определения.
06:06
The whole science of memetics is much maligned,
123
366330
4000
Наука меметика имеет достаточно плохую репутацию,
06:10
much misunderstood, much feared.
124
370330
3000
ее неправильно понимают и даже опасаются.
06:13
But a lot of these problems can be avoided
125
373330
3000
Однако большинство этих проблем можно избежать,
06:16
by remembering the definition.
126
376330
2000
если помнить определение мема.
06:18
A meme is not equivalent to an idea.
127
378330
2000
Мем – не эквивалент идеи.
06:20
It's not an idea. It's not equivalent to anything else, really.
128
380330
2000
Мем – не идея, а также и не эквивалент вообще ничего.
06:22
Stick with the definition.
129
382330
2000
Придерживайтесь определения.
06:24
It's that which is imitated,
130
384330
2000
Мем – это то, что копируется,
06:26
or information which is copied from person to person.
131
386330
3000
или информация, копируемая от человека к человеку.
06:30
So, let's see some memes.
132
390330
1000
Давайте рассмотрим некоторые из мемов.
06:31
Well, you sir, you've got those glasses hung around your neck
133
391330
3000
Вот у вас, очки висят на шее
06:34
in that particularly fetching way.
134
394330
2000
оригинальным способом.
06:36
I wonder whether you invented that idea for yourself,
135
396330
2000
Вы сами так придумали
06:38
or copied it from someone else?
136
398330
2000
или скопировали чью-то идею?
06:40
If you copied it from someone else, it's a meme.
137
400330
3000
Если вы ее скопировали у кого-то, то это мем.
06:43
And what about, oh, I can't see any interesting memes here.
138
403330
3000
К сожалению, я не вижу интересных мемов в зале.
06:46
All right everyone, who's got some interesting memes for me?
139
406330
3000
Хорошо, кто может предложить интересный мем?
06:49
Oh, well, your earrings,
140
409330
2000
А вот, ваши серьги, например.
06:51
I don't suppose you invented the idea of earrings.
141
411330
2000
Думаю, вы не изобрели идею серёг.
06:53
You probably went out and bought them.
142
413330
2000
Скорее всего вы их купили.
06:55
There are plenty more in the shops.
143
415330
2000
В магазинах их ещё много.
06:57
That's something that's passed on from person to person.
144
417330
2000
Это именно то, что передается от человека к человеку.
06:59
All the stories that we're telling -- well, of course,
145
419330
3000
Все истории, которые мы рассказываем, и конечно же TED –
07:02
TED is a great meme-fest, masses of memes.
146
422330
4000
замечательный фестиваль мемов, огромного количества мемов.
07:06
The way to think about memes, though,
147
426330
2000
Хотя о мемах нужно думать так -
07:08
is to think, why do they spread?
148
428330
2000
почему они распространяются?
07:10
They're selfish information, they will get copied, if they can.
149
430330
4000
Мемы – эгоистичная информация. При возможности они всегда скопируются.
07:14
But some of them will be copied because they're good,
150
434330
3000
Некоторые из мемов будут скопированы потому что они – хорошие,
07:17
or true, or useful, or beautiful.
151
437330
2000
правдивые, полезные или красивые мемы.
07:19
Some of them will be copied even though they're not.
152
439330
2000
А некоторые из них, не являющиеся таковыми, все равно скопируются.
07:21
Some, it's quite hard to tell why.
153
441330
2000
А причину копирования иных иногда сложно объяснить.
07:24
There's one particular curious meme which I rather enjoy.
154
444330
3000
Мне, например, нравится один странный мем.
07:27
And I'm glad to say, as I expected, I found it when I came here,
155
447330
3000
Рада признаться, как я и ожидала, я его здесь нашла.
07:30
and I'm sure all of you found it, too.
156
450330
2000
Я уверена, вы его видели тоже.
07:32
You go to your nice, posh, international hotel somewhere,
157
452330
3000
Вы приезжаете в красивую и дорогую международную гостиницу,
07:36
and you come in and you put down your clothes
158
456330
2000
вы заходите в номер, раздеваетесь,
07:38
and you go to the bathroom, and what do you see?
159
458330
3000
идете в ванную комнату и что вы видите?
07:41
Audience: Bathroom soap.
160
461330
1000
Из зала: Мыло.
07:42
SB: Pardon?
161
462330
1000
Сьюзен Блэкмор: Повторите, пожалуйста.
07:43
Audience: Soap.
162
463330
1000
Из зала: Мыло.
07:44
SB: Soap, yeah. What else do you see?
163
464330
2000
Сьюзен Блэкмор: Мыло, да. А что еще?
07:46
Audience: (Inaudible)
164
466330
1000
Из зала: (Произнесено невнятно)
07:47
SB: Mmm mmm.
165
467330
1000
Сьюзен Блэкмор: Ммм...
07:48
Audience: Sink, toilet!
166
468330
1000
Из зала: Умывальник, туалет!
07:49
SB: Sink, toilet, yes, these are all memes, they're all memes,
167
469330
2000
Сьюзен Блэкмор: Умывальник, туалет, да. Это все мемы,
07:51
but they're sort of useful ones, and then there's this one.
168
471330
3000
но они из разряда полезных мемов. А вот, этот мем.
07:54
(Laughter)
169
474330
3000
(Смех)
07:58
What is this one doing?
170
478330
2000
Что это такое?
08:00
(Laughter)
171
480330
1000
(Смех)
08:01
This has spread all over the world.
172
481330
2000
Этот мем обошел весь мир.
08:03
It's not surprising that you all found it
173
483330
2000
И неудивительно, что вы все его обнаружили,
08:05
when you arrived in your bathrooms here.
174
485330
2000
в вашем гостиничном номере, зайдя в ванную комнату.
08:07
But I took this photograph in a toilet at the back of a tent
175
487330
5000
Но я сфотографировала этот туалет в палатке
08:12
in the eco-camp in the jungle in Assam.
176
492330
2000
в эко-лагере в джунглях в Индии.
08:14
(Laughter)
177
494330
1000
(Смех)
08:16
Who folded that thing up there, and why?
178
496330
3000
Кто ее там так завернул и почему?
08:19
(Laughter)
179
499330
1000
(Смех)
08:20
Some people get carried away.
180
500330
2000
У некоторых еще более творческий подход.
08:22
(Laughter)
181
502330
3000
(Смех)
08:26
Other people are just lazy and make mistakes.
182
506330
3000
Некоторые ленятся и делают ошибки.
08:29
Some hotels exploit the opportunity to put even more memes
183
509330
3000
А в некоторых гостиницах используют возможность добавить мемов,
08:32
with a little sticker.
184
512330
2000
используя наклейку.
08:34
(Laughter)
185
514330
1000
(Смех)
08:35
What is this all about?
186
515330
2000
Что же это все означает?
08:37
I suppose it's there to tell you that somebody's
187
517330
2000
Я думаю, все это нам говорит о том, что кто-то
08:39
cleaned the place, and it's all lovely.
188
519330
2000
просто прибрался и что все чисто и красиво.
08:41
And you know, actually, all it tells you is that another person
189
521330
3000
Но на самом деле, эти мемы говорят нам, что кто-то
08:44
has potentially spread germs from place to place.
190
524330
3000
скорее всего разнес микробы.
08:47
(Laughter)
191
527330
1000
(Смех)
08:48
So, think of it this way.
192
528330
2000
Подумайте об этом таким образом.
08:50
Imagine a world full of brains
193
530330
2000
Представьте себе мир, полный разумов,
08:52
and far more memes than can possibly find homes.
194
532330
3000
а мемов, которые могут поселиться в разуме человека, намного больше.
08:55
The memes are all trying to get copied --
195
535330
3000
Все эти мемы пытаются само-копироваться -
08:58
trying, in inverted commas -- i.e.,
196
538330
3000
«пытаются» -
09:01
that's the shorthand for, if they can get copied, they will.
197
541330
3000
и если они смогут, то обязательно скопируются.
09:04
They're using you and me as their propagating, copying machinery,
198
544330
6000
Мемы используют и вас и меня в качестве машин для размножения и копирования.
09:10
and we are the meme machines.
199
550330
3000
Мы – мем-машины.
09:13
Now, why is this important?
200
553330
2000
Почему все это так важно для нас?
09:15
Why is this useful, or what does it tell us?
201
555330
2000
В чем здесь польза? О чем нам это говорит?
09:17
It gives us a completely new view of human origins
202
557330
4000
У нас появляется абсолютно новый взгляд на происхождение человека,
09:21
and what it means to be human,
203
561330
1000
и что означает – быть человеком,
09:22
all conventional theories of cultural evolution,
204
562330
4000
а также новое представление о традиционных теориях культурной эволюции,
09:26
of the origin of humans,
205
566330
2000
о происхождении человека,
09:28
and what makes us so different from other species.
206
568330
4000
и в чем именно мы отличаемся от остальных биологических видов.
09:32
All other theories explaining the big brain, and language, and tool use
207
572330
2000
Все остальные теории, объясняющие большой мозг, язык и использование орудий,
09:34
and all these things that make us unique,
208
574330
2000
и все, что делает нас уникальными,
09:36
are based upon genes.
209
576330
3000
основаны на представлении о генах.
09:39
Language must have been useful for the genes.
210
579330
3000
Язык скорее всего важен для генов.
09:42
Tool use must have enhanced our survival, mating and so on.
211
582330
3000
Использование орудий возможно повысило наши шансы на выживание, размножение и т.д.
09:45
It always comes back, as Richard Dawkins complained
212
585330
3000
Все возвращается, как сетовал Ричард Докинз
09:48
all that long time ago, it always comes back to genes.
213
588330
3000
давным-давно, сводится обратно к генам.
09:51
The point of memetics is to say, "Oh no, it doesn't."
214
591330
4000
Но меметика говорит: «Нет, не сводится».
09:55
There are two replicators now on this planet.
215
595330
3000
Сейчас на нашей планете существуют два репликатора.
09:58
From the moment that our ancestors,
216
598330
3000
С того момента, как наши предки,
10:01
perhaps two and a half million years ago or so,
217
601330
2000
скорее всего примерно два с половиной миллиона лет назад,
10:03
began imitating, there was a new copying process.
218
603330
4000
начали подражать, появился новый процесс копирования.
10:07
Copying with variation and selection.
219
607330
2000
Копирование с видоизменением и отбором.
10:09
A new replicator was let loose, and it could never be --
220
609330
5000
Новый репликатор был выпущен на свободу, и с самого начала,
10:14
right from the start -- it could never be
221
614330
1000
когда все это случилось, было понятно,
10:15
that human beings who let loose this new creature,
222
615330
5000
что люди, отпустившие это создание на волю,
10:20
could just copy the useful, beautiful, true things,
223
620330
3000
не смогут просто лишь копировать все самое полезное, красивое
10:23
and not copy the other things.
224
623330
2000
и настоящее, избегая всего остального.
10:25
While their brains were having an advantage from being able to copy --
225
625330
3000
Польза для человека была в том, что мозг копировал умение
10:28
lighting fires, keeping fires going, new techniques of hunting,
226
628330
5000
разжигать и поддерживать костер, новые способы охотиться -
10:33
these kinds of things --
227
633330
2000
такого рода способности.
10:35
inevitably they were also copying putting feathers in their hair,
228
635330
3000
неизбежно они стали также копировать украшение волос перьями,
10:38
or wearing strange clothes, or painting their faces,
229
638330
2000
ношение странной одежды, раскрашивание лица,
10:40
or whatever.
230
640330
1000
ну и тому подобное.
10:41
So, you get an arms race between the genes
231
641330
4000
Существует противостояние между генами, заинтересованными в том,
10:45
which are trying to get the humans to have small economical brains
232
645330
4000
чтобы человеческий мозг оставался малым и работал экономично,
10:49
and not waste their time copying all this stuff,
233
649330
2000
не теряя времени на копирование различной информации,
10:51
and the memes themselves, like the sounds that people made and copied --
234
651330
4000
и мемами, такими как звуки, которые люди произносят и копируют, -
10:56
in other words, what turned out to be language --
235
656330
2000
другими словами, то, что стало языком, -
10:58
competing to get the brains to get bigger and bigger.
236
658330
3000
развивающими мозг, чтобы он становился больше и больше.
11:01
So, the big brain, on this theory, is driven by the memes.
237
661330
4000
Большой мозг, по этой теории, приводится в движение мемами.
11:05
This is why, in "The Meme Machine," I called it memetic drive.
238
665330
4000
Поэтому в своей работе «Мем-машина» я назвала это меметическим управлением.
11:09
As the memes evolve, as they inevitably must,
239
669330
3000
Мемы эволюционируют и это неизбежно.
11:12
they drive a bigger brain that is better at copying the memes
240
672330
4000
Они управляют большим мозгом, умеющим лучше копировать те мемы,
11:16
that are doing the driving.
241
676330
2000
которые им управляют.
11:18
This is why we've ended up with such peculiar brains,
242
678330
4000
Именно поэтому у нас такой специфический мозг, что
11:22
that we like religion, and music, and art.
243
682330
3000
нам нравится религия, музыка и искусство.
11:25
Language is a parasite that we've adapted to,
244
685330
3000
Язык – паразит, к которому мы уже приспособились,
11:28
not something that was there originally for our genes,
245
688330
2000
не то, что изначально было связано с генами,
11:30
on this view.
246
690330
2000
как думают.
11:32
And like most parasites, it can begin dangerous,
247
692330
3000
И как большинство паразитов, он может быть опасным в начале,
11:35
but then it coevolves and adapts,
248
695330
3000
но потом он эволюционирует совместно и адаптируется,
11:38
and we end up with a symbiotic relationship
249
698330
2000
и мы заканчиваем симбиозом
11:40
with this new parasite.
250
700330
1000
с этим новым паразитом.
11:41
And so, from our perspective,
251
701330
2000
А мы, понимая по-своему,
11:43
we don't realize that that's how it began.
252
703330
3000
не осознаем, что именно так все начиналось.
11:46
So, this is a view of what humans are.
253
706330
3000
Это - представление о природе человека.
11:49
All other species on this planet are gene machines only,
254
709330
3000
Все остальные виды на земле являются только ген-машинами,
11:52
they don't imitate at all well, hardly at all.
255
712330
3000
у них едва ли развито подражание, если вообще оно есть.
11:55
We alone are gene machines and meme machines as well.
256
715330
5000
Только люди являются одновременно ген-машинами и мем-машинами.
12:00
The memes took a gene machine and turned it into a meme machine.
257
720330
4000
Мемы завладели ген-машиной и превратили ее в мем-машину.
12:04
But that's not all.
258
724330
2000
Но это еще не все.
12:06
We have a new kind of memes now.
259
726330
3000
У нас уже появились новые виды мемов.
12:09
I've been wondering for a long time,
260
729330
1000
С тех пор, как я стала изучать мемы,
12:10
since I've been thinking about memes a lot,
261
730330
2000
я уже давно размышляю о существовании
12:12
is there a difference between the memes that we copy --
262
732330
2000
разницы между мемами, которые мы копируем,
12:14
the words we speak to each other,
263
734330
2000
например, то, что мы говорим друг другу,
12:16
the gestures we copy, the human things --
264
736330
2000
жесты, которые мы копируем, все, что мы делаем,
12:18
and all these technological things around us?
265
738330
2000
и новыми технологиями?
12:20
I have always, until now, called them all memes,
266
740330
4000
До последнего момента я всю эту информацию называла мемами,
12:24
but I do honestly think now
267
744330
3000
но сейчас я думаю, что нам нужно
12:27
we need a new word for technological memes.
268
747330
3000
новое слово для мемов, порожденных технологиями.
12:30
Let's call them techno-memes or temes.
269
750330
3000
Давайте назовем их «техно-мемами» или «Т-мемами».
12:33
Because the processes are getting different.
270
753330
3000
Потому что процесс изменился.
12:37
We began, perhaps 5,000 years ago, with writing.
271
757330
3000
Мы начали, возможно 5000 лет назад, с письменности.
12:40
We put the storage of memes out there on a clay tablet,
272
760330
7000
Мы организовали хранение мемов на глиняных табличках,
12:48
but in order to get true temes and true teme machines,
273
768330
2000
но чтобы получить настоящие Т-мемы и Т-мем-машины,
12:50
you need to get the variation, the selection and the copying,
274
770330
3000
необходимо пройти через процессы видоизменения, отбора и копирования,
12:53
all done outside of humans.
275
773330
2000
без помощи человека.
12:55
And we're getting there.
276
775330
2000
И мы к этому приближаемся.
12:57
We're at this extraordinary point where we're nearly there,
277
777330
2000
Мы живем в исключительное время – мы уже приблизились к
12:59
that there are machines like that.
278
779330
2000
существованию таких машин.
13:01
And indeed, in the short time I've already been at TED,
279
781330
2000
И действительно, за короткое время моего участия в TED
13:03
I see we're even closer than I thought we were before.
280
783330
2000
я осознала, что мы даже ближе, чем я думала.
13:05
So actually, now the temes are forcing our brains
281
785330
6000
Фактически, сейчас Т-мемы постепенно превращают
13:11
to become more like teme machines.
282
791330
2000
мозг человека в Т-мем-машину.
13:13
Our children are growing up very quickly learning to read,
283
793330
3000
Наши дети рано начинают учиться читать,
13:16
learning to use machinery.
284
796330
2000
использовать разного рода машины.
13:18
We're going to have all kinds of implants,
285
798330
1000
Различные имплантанты будут в наших телах,
13:19
drugs that force us to stay awake all the time.
286
799330
3000
а наркотики обеспечат нам бодрствование день и ночь.
13:22
We'll think we're choosing these things,
287
802330
2000
Мы будем думать, что выбираем сами,
13:24
but the temes are making us do it.
288
804330
3000
но на самом деле Т-мемы все решат за нас.
13:28
So, we're at this cusp now
289
808330
1000
Поэтому уже настал момент
13:29
of having a third replicator on our planet.
290
809330
4000
появления третьего репликатора на нашей планете.
13:34
Now, what about what else is going on out there in the universe?
291
814330
5000
Теперь вопрос о том, что происходит во вселенной.
13:39
Is there anyone else out there?
292
819330
2000
Есть ли в космосе кто-либо еще, помимо нас?
13:41
People have been asking this question for a long time.
293
821330
3000
Это - извечный вопрос.
13:44
We've been asking it here at TED already.
294
824330
2000
Об этом рассуждали на TED.
13:46
In 1961, Frank Drake made his famous equation,
295
826330
4000
В 1961 году Фрэнк Дрейк создал свое знаменитое уравнение.
13:50
but I think he concentrated on the wrong things.
296
830330
2000
но я думаю он концентрировался на неправильных вещах.
13:52
It's been very productive, that equation.
297
832330
2000
Его уравнение широко используется.
13:54
He wanted to estimate N,
298
834330
2000
Он хотел измерить N,
13:56
the number of communicative civilizations out there in our galaxy,
299
836330
4000
число цивилизаций в нашей галактике, готовых вступить в контакт,
14:00
and he included in there the rate of star formation,
300
840330
4000
используя число образующихся звезд, долю планет,
14:04
the rate of planets, but crucially, intelligence.
301
844330
4000
и разумные формы жизни – наиболее важный компонент.
14:08
I think that's the wrong way to think about it.
302
848330
4000
Думаю, это неправильный подход.
14:12
Intelligence appears all over the place, in all kinds of guises.
303
852330
3000
Разум представлен повсюду, во всех возможных обликах.
14:15
Human intelligence is only one kind of a thing.
304
855330
2000
Человеческий разум – одна сторона медали.
14:17
But what's really important is the replicators you have
305
857330
3000
Необходимо помнить о репликаторах, а также
14:20
and the levels of replicators, one feeding on the one before.
306
860330
4000
об уровнях репликаторов, где последующий является источником предыдущего.
14:24
So, I would suggest that we don't think intelligence,
307
864330
5000
Поэтому, я предлагаю использовать не разум,
14:29
we think replicators.
308
869330
2000
а репликаторы.
14:31
And on that basis, I've suggested a different kind of equation.
309
871330
3000
И следовательно, я предлагаю новое уравнение.
14:34
A very simple equation.
310
874330
2000
Очень простое уравнение.
14:36
N, the same thing,
311
876330
2000
N означает то же самое -
14:38
the number of communicative civilizations out there
312
878330
3000
предполагаемое число цивилизаций в нашей галактике,
14:41
[that] we might expect in our galaxy.
313
881330
2000
готовых вступить в контакт.
14:43
Just start with the number of planets there are in our galaxy.
314
883330
4000
Начните с числа планет в нашей галактике.
14:47
The fraction of those which get a first replicator.
315
887330
4000
Затем доля всех, у кого есть первый репликатор.
14:51
The fraction of those that get the second replicator.
316
891330
4000
Затем - доля всех, у кого есть второй репликатор.
14:55
The fraction of those that get the third replicator.
317
895330
2000
Затем - доля всех, у кого есть третий репликатор.
14:58
Because it's only the third replicator that's going to reach out --
318
898330
3000
Потому что только третий репликатор сможет дотянуться наружу
15:01
sending information, sending probes, getting out there,
319
901330
3000
передать информацию, провести исследования в космосе,
15:04
and communicating with anywhere else.
320
904330
2000
установить связь с другими существами.
15:06
OK, so if we take that equation,
321
906330
3000
Если мы возьмём это уравнение,
15:09
why haven't we heard from anybody out there?
322
909330
5000
то почему же тогда мы никого не обнаружили?
15:14
Because every step is dangerous.
323
914330
4000
Потому что каждый этап опасен.
15:18
Getting a new replicator is dangerous.
324
918330
3000
Появление нового репликатора – опасный процесс.
15:21
You can pull through, we have pulled through,
325
921330
2000
Выжить можно, и мы выжили,
15:23
but it's dangerous.
326
923330
2000
но это опасный процесс.
15:25
Take the first step, as soon as life appeared on this earth.
327
925330
3000
Например, первый этап, момент появления жизни на земле.
15:28
We may take the Gaian view.
328
928330
2000
Можно принять точку зрения гайянизма.
15:30
I loved Peter Ward's talk yesterday -- it's not Gaian all the time.
329
930330
3000
Мне вчера понравилась лекция Питера Уорда – полностью отличная от гайянизма.
15:33
Actually, life forms produce things that kill themselves.
330
933330
3000
На самом деле, биологические организмы порождают то, что их убивает.
15:36
Well, we did pull through on this planet.
331
936330
3000
Но мы на Земле выжили.
15:39
But then, a long time later, billions of years later,
332
939330
2000
Но потом, спустя миллиарды лет,
15:41
we got the second replicator, the memes.
333
941330
3000
появился второй репликатор – мемы.
15:44
That was dangerous, all right.
334
944330
2000
Опасный процесс.
15:46
Think of the big brain.
335
946330
2000
Например, большой мозг.
15:48
How many mothers do we have here?
336
948330
3000
Сколько в аудитории матерей?
15:51
You know all about big brains.
337
951330
2000
Вы все знаете о большом мозге.
15:53
They are dangerous to give birth to,
338
953330
2000
Он опасен для рожающих женщин,
15:55
are agonizing to give birth to.
339
955330
2000
он подвергает страданиям рожающих женщин.
15:57
(Laughter)
340
957330
1000
(Смех)
15:59
My cat gave birth to four kittens, purring all the time.
341
959330
2000
Моя кошка, не переставая мурлыкать, родила четырех котят.
16:01
Ah, mm -- slightly different.
342
961330
2000
Ммм, у нас немного иначе.
16:03
(Laughter)
343
963330
2000
(Смех)
16:05
But not only is it painful, it kills lots of babies,
344
965330
3000
Роды – не только болезненный процесс, во время родов
16:08
it kills lots of mothers,
345
968330
2000
умирают новорожденные и роженицы.
16:10
and it's very expensive to produce.
346
970330
2000
и мозг очень дорог для воспроизведения.
16:12
The genes are forced into producing all this myelin,
347
972330
2000
Гены должны произвести миелин,
16:14
all the fat to myelinate the brain.
348
974330
2000
жир для образования миелинового слоя в мозге.
16:16
Do you know, sitting here,
349
976330
2000
Знаете ли вы, что пока вы сидите сейчас,
16:18
your brain is using about 20 percent of your body's energy output
350
978330
4000
ваш мозг использует около 20 процентов всей энергии, вырабатываемой телом,
16:22
for two percent of your body weight?
351
982330
2000
приходящейся на 2 процента вашего веса?
16:24
It's a really expensive organ to run.
352
984330
2000
Это действительно дорогой в использовании орган.
16:26
Why? Because it's producing the memes.
353
986330
2000
Почему? Потому что он порождает мемы.
16:28
Now, it could have killed us off. It could have killed us off,
354
988330
4000
Мы все могли бы умереть.
16:32
and maybe it nearly did, but you see, we don't know.
355
992330
2000
И может быть мы были близки к этому, но мы не знаем.
16:34
But maybe it nearly did.
356
994330
2000
Может быть мы были близки к исчезновению.
16:36
Has it been tried before?
357
996330
1000
Что-то подобное происходило раньше?
16:37
What about all those other species?
358
997330
2000
Что произошло с другими видами?
16:39
Louise Leakey talked yesterday
359
999330
2000
Луиз Ликей говорила вчера о том,
16:41
about how we're the only one in this branch left.
360
1001330
3000
что мы - единственные оставшиеся из человеческого рода.
16:44
What happened to the others?
361
1004330
2000
Что же случилось с остальными?
16:46
Could it be that this experiment in imitation,
362
1006330
2000
Может быть этот эксперимент с копированием,
16:48
this experiment in a second replicator,
363
1008330
2000
этот эксперимент на стадии второго репликатора,
16:50
is dangerous enough to kill people off?
364
1010330
4000
достаточно опасен и может привести к исчезновению людей?
16:54
Well, we did pull through, and we adapted.
365
1014330
2000
Но мы ведь выжили и адаптировались.
16:56
But now, we're hitting, as I've just described,
366
1016330
3000
Но сейчас, как я объяснила, мы уже приближаемся
16:59
we're hitting the third replicator point.
367
1019330
2000
к порождению третьего репликатора.
17:01
And this is even more dangerous --
368
1021330
3000
И эта стадия еще более опасна.
17:04
well, it's dangerous again.
369
1024330
2000
Да, она снова опасна.
17:06
Why? Because the temes are selfish replicators
370
1026330
4000
Почему? Потому что Т-мемы – эгоистичные репликаторы
17:10
and they don't care about us, or our planet, or anything else.
371
1030330
3000
и они не заботятся ни о нас, ни о нашей планете, и вообще ни о чем.
17:13
They're just information, why would they?
372
1033330
3000
Т-мемы –информация. О чем им вообще заботиться?
17:17
They are using us to suck up the planet's resources
373
1037330
2000
Они нас используют для выкачивания ресурсов для того,
17:19
to produce more computers,
374
1039330
2000
чтобы производить еще больше компьютеров,
17:21
and more of all these amazing things we're hearing about here at TED.
375
1041330
3000
и поразительные технологические новинки, о которых нам рассказывают на TED.
17:24
Don't think, "Oh, we created the Internet for our own benefit."
376
1044330
4000
Не думайте, что интернет создан для нашего блага.
17:28
That's how it seems to us.
377
1048330
2000
Так только кажется.
17:30
Think, temes spreading because they must.
378
1050330
4000
Т-мемы распространяются, потому что они должны это делать.
17:34
We are the old machines.
379
1054330
2000
Мы – старые машины.
17:36
Now, are we going to pull through?
380
1056330
2000
Мы выживем?
17:38
What's going to happen?
381
1058330
2000
Что с нами произойдет?
17:40
What does it mean to pull through?
382
1060330
2000
А что означает – выжить?
17:42
Well, there are kind of two ways of pulling through.
383
1062330
2000
Существуют две возможности выжить.
17:45
One that is obviously happening all around us now,
384
1065330
2000
Первая – это то, что происходит сейчас вокруг нас.
17:47
is that the temes turn us into teme machines,
385
1067330
4000
Т-мемы превращают нас в Т-мем-машины,
17:51
with these implants, with the drugs,
386
1071330
2000
всеми этими имплантантами, препаратами
17:53
with us merging with the technology.
387
1073330
3000
и технологии, которые нас поглощают.
17:56
And why would they do that?
388
1076330
2000
Почему Т-мемы это делают?
17:58
Because we are self-replicating.
389
1078330
2000
Потому что мы – само-реплицирующиеся существа.
18:00
We have babies.
390
1080330
2000
Мы рожаем детей.
18:02
We make new ones, and so it's convenient to piggyback on us,
391
1082330
3000
Мы создаем новых людей. Т-мемам удобно к нам «прицепиться»,
18:05
because we're not yet at the stage on this planet
392
1085330
4000
потому что мы находимся на той стадии на земле,
18:09
where the other option is viable.
393
1089330
2000
при которой другие варианты для них не будут жизнеспособными.
18:11
Although it's closer, I heard this morning,
394
1091330
2000
Хотя это уже не за горами, как я услышала сегодня утром,
18:13
it's closer than I thought it was.
395
1093330
2000
и произойдет быстрее, чем я думала -
18:15
Where the teme machines themselves will replicate themselves.
396
1095330
3000
Т-мем-машины будут реплицировать сами себя без чей-либо помощи.
18:18
That way, it wouldn't matter if the planet's climate
397
1098330
4000
Тогда будет уже неважно то, что состояние климата на нашей планете
18:22
was utterly destabilized,
398
1102330
2000
абсолютно дестабилизировано,
18:24
and it was no longer possible for humans to live here.
399
1104330
2000
и люди больше не смогут жить на земле.
18:26
Because those teme machines, they wouldn't need --
400
1106330
2000
Потому что Т-мем-машинам не нужны условия, пригодные для жизни человека.
18:28
they're not squishy, wet, oxygen-breathing,
401
1108330
2000
Они не мягкие, влажные, дышащие кислородом,
18:30
warmth-requiring creatures.
402
1110330
3000
требующие тепла существа.
18:33
They could carry on without us.
403
1113330
2000
Они и без нас прекрасно справятся.
18:35
So, those are the two possibilities.
404
1115330
3000
Я описала две вероятности.
18:38
The second, I don't think we're that close.
405
1118330
4000
Вторая – не думаю, что это скоро произойдет.
18:42
It's coming, but we're not there yet.
406
1122330
2000
Приближается, но мы еще далеко.
18:44
The first, it's coming too.
407
1124330
2000
Первая – тоже приближается.
18:46
But the damage that is already being done
408
1126330
3000
Но вред, уже причиняемый нашей планете,
18:49
to the planet is showing us how dangerous the third point is,
409
1129330
5000
сигнализирует о том, как опасен третий этап -
18:54
that third danger point, getting a third replicator.
410
1134330
3000
порождение третьего репликатора.
18:58
And will we get through this third danger point,
411
1138330
2000
Пройдем ли мы через этот опасный третий этап,
19:00
like we got through the second and like we got through the first?
412
1140330
3000
так же как мы прошли через первые два?
19:04
Maybe we will, maybe we won't.
413
1144330
2000
Может быть да, а может быть и нет.
19:06
I have no idea.
414
1146330
3000
Я не знаю.
19:13
(Applause)
415
1153330
10000
(Аплодисменты)
19:24
Chris Anderson: That was an incredible talk.
416
1164330
2000
Крис Андерсон: Потрясающая лекция!
19:26
SB: Thank you. I scared myself.
417
1166330
2000
Сьюзен Блэкмор: Спасибо. Я сама себя напугала.
19:28
CA: (Laughter)
418
1168330
1000
(Смех)
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7