Susan Blackmore: Memes and "temes"

156,625 views ・ 2008-06-04

TED


A videó lejátszásához kattintson duplán az alábbi angol feliratokra.

Fordító: Peter Nemes Lektor: Júlia Martonosi
00:18
Cultural evolution is a dangerous child
0
18330
3000
A kultúrális evolúció egy veszélyes gyermek
00:21
for any species to let loose on its planet.
1
21330
3000
bármely fajnak, hogy rászabadítsa a bolygójára.
00:24
By the time you realize what's happening, the child is a toddler,
2
24330
4000
Mire ráébredsz, hogy mi történik, a gyerek egy totyogó,
00:28
up and causing havoc, and it's too late to put it back.
3
28330
6000
elindult és rosszalkodik, rombol és már túl késő, hogy a helyére tegyük.
00:34
We humans are Earth's Pandoran species.
4
34330
3000
Mi emberek a Föld pandórai faja vagyunk.
00:37
We're the ones who let the second replicator out of its box,
5
37330
5000
Mi vagyunk azok akik kiengedték a második replikátort a dobozból,
00:42
and we can't push it back in.
6
42330
2000
és nem tudjuk visszanyomni.
00:44
We're seeing the consequences all around us.
7
44330
3000
Körülöttünk mindenhol látjuk a következményeit.
00:48
Now that, I suggest, is the view that
8
48330
4000
Nos, ez az a nézet, véleményem szerint
00:52
comes out of taking memetics seriously.
9
52330
2000
ami abból következik, ha a memetikát komolyan vesszük.
00:54
And it gives us a new way of thinking about
10
54330
2000
És egy új gondolkodásmódot kínál fel számunkra nemcsak arról,
00:56
not only what's going on on our planet,
11
56330
2000
hogy mi történik a saját bolygónkon,
00:58
but what might be going on elsewhere in the cosmos.
12
58330
3000
hanem arról is, hogy mi történhet máshol a világegyetemben.
01:01
So first of all, I'd like to say something about memetics
13
61330
3000
Úgyhogy először mondanék valamit a memetikáról
01:04
and the theory of memes,
14
64330
2000
és a mémek elméletéről,
01:06
and secondly, how this might answer questions about who's out there,
15
66330
5000
és másodsorban arról, hogy miként válaszolhat ez meg kérdéseket arról, hogy ki van ott kint,
01:11
if indeed anyone is.
16
71330
3000
ha ugyan bárki is van.
01:14
So, memetics:
17
74330
2000
Szóval, memetika.
01:16
memetics is founded on the principle of Universal Darwinism.
18
76330
4000
A memetika alapját az egyetemes Darwinizmus elvei képezik.
01:20
Darwin had this amazing idea.
19
80330
3000
Darwinnak volt ez a csodálatos ötlete,
01:23
Indeed, some people say
20
83330
2000
valójában, egyesek szerint
01:25
it's the best idea anybody ever had.
21
85330
3000
ez a legjobb ötlet, ami valaha bárkinek is eszébe jutott.
01:28
Isn't that a wonderful thought, that there could be such a thing
22
88330
4000
Hát nem egy csodás gondolat, hogy lehet egy olyan dolog
01:32
as a best idea anybody ever had?
23
92330
2000
mint a legjobb ötlet ami bárkinek is valaha eszébejutott.
01:34
Do you think there could?
24
94330
1000
Szerintetek lehet ilyen?
01:35
Audience: No.
25
95330
1000
Közönség: Nem.
01:36
(Laughter)
26
96330
1000
(Nevetés)
01:37
Susan Blackmore: Someone says no, very loudly, from over there.
27
97330
2000
Susan Blackmore: Onnan valaki nagyon hangosan mondja, hogy nem.
01:39
Well, I say yes, and if there is, I give the prize to Darwin.
28
99330
4000
Hát, szerintem igen és ha valaha is volt ilyen, akkor ezt a díjat én Darwinnak adom.
01:43
Why?
29
103330
2000
Miért?
01:45
Because the idea was so simple,
30
105330
3000
Mert az ötlet annyira egyszerű volt,
01:48
and yet it explains all design in the universe.
31
108330
6000
és mégis megmagyaráz minden szerveződést a világegyetemben.
01:54
I would say not just biological design,
32
114330
2000
Azt mondanán, hogy nemcsak a biológiai szerveződést,
01:56
but all of the design that we think of as human design.
33
116330
2000
hanem mindazt, amit emberi szerveződésnek, tervezésnek nevezünk.
01:58
It's all just the same thing happening.
34
118330
2000
Mindezen esetekben ugyanaz történik.
02:00
What did Darwin say?
35
120330
2000
Mit mondott Darwin?
02:02
I know you know the idea, natural selection,
36
122330
2000
Tudom, hogy tudjátok a választ, természetes szelekció,
02:04
but let me just paraphrase "The Origin of Species," 1859,
37
124330
5000
de engedjétek meg, hogy elmondjam a "Fajok elméletét", 1859,
02:09
in a few sentences.
38
129330
2000
néhány mondatban.
02:11
What Darwin said was something like this:
39
131330
3000
Amit Darwin mondott valahogy így hangzik --
02:14
if you have creatures that vary, and that can't be doubted --
40
134330
4000
ha vannak élőlények amelyek változatosak, és ehhez nem fér kétség --
02:18
I've been to the Galapagos, and I've measured the size of the beaks
41
138330
3000
mert voltam a Galapagoson és megmértem a csőrök méretét
02:21
and the size of the turtle shells and so on, and so on.
42
141330
2000
és a teknőc páncélok méretét és így tovább.
02:23
And 100 pages later.
43
143330
2000
És 100 oldal után --
02:25
(Laughter)
44
145330
2000
(Nevetés)
02:27
And if there is a struggle for life,
45
147330
4000
És ha küzdelem van az életért
02:31
such that nearly all of these creatures die --
46
151330
3000
úgy, hogy majdnem mindegyik ezen élőlények közül kihal --
02:34
and this can't be doubted, I've read Malthus
47
154330
3000
és ehhez nem fér kétség, mert olvastam Malthust
02:37
and I've calculated how long it would take for elephants
48
157330
2000
és kiszámoltam, hogy mennyi időbe telne, hogy elefántok
02:39
to cover the whole world if they bred unrestricted, and so on and so on.
49
159330
3000
borítsák be az egész Földet ha korlátok nélkül szaporodnának, stb. stb.
02:42
And another 100 pages later.
50
162330
4000
És újabb 100 oldal után.
02:46
And if the very few that survive pass onto their offspring
51
166330
5000
És ha az a kevés, ami túlél, továbbadja az utódainak
02:51
whatever it was that helped them survive,
52
171330
3000
azt az akármit ami segített nekik túlélni,
02:54
then those offspring must be better adapted
53
174330
2000
akkor azok az utódok jobban alkalmazkodtak
02:56
to the circumstances in which all this happened
54
176330
2000
a körülményekhez amelyekben mindez történik,
02:58
than their parents were.
55
178330
3000
mint amennyire a szüleik.
03:01
You see the idea?
56
181330
2000
Látjátok a felismerést?
03:03
If, if, if, then.
57
183330
2000
Ha, ha, ha, akkor.
03:05
He had no concept of the idea of an algorithm,
58
185330
2000
Nem ismerte az algoritmus fogalmát.
03:07
but that's what he described in that book,
59
187330
3000
De ezt írta le abban a könyvben,
03:10
and this is what we now know as the evolutionary algorithm.
60
190330
3000
és ez az, amit mi ma evolúciós algoritmusként ismerünk.
03:13
The principle is you just need those three things --
61
193330
4000
A lényeg az, hogy csak erre a három dologra van szükség --
03:17
variation, selection and heredity.
62
197330
3000
változatosság, szelekció és öröklődés.
03:20
And as Dan Dennett puts it, if you have those,
63
200330
4000
És ahogy Dan Dennett mondja, ha megvannak ezek
03:24
then you must get evolution.
64
204330
2000
akkor muszáj, hogy legyen evolúció.
03:26
Or design out of chaos, without the aid of mind.
65
206330
5000
Vagy tervezés a káoszból az elme segítsége nélkül.
03:31
There's one word I love on that slide.
66
211330
2000
Van ezen a dián egy szó amit szeretek.
03:33
What do you think my favorite word is?
67
213330
2000
Mit gondoltok mi a kedvenc szavam?
03:35
Audience: Chaos.
68
215330
1000
Közönség: Káosz.
03:36
SB: Chaos? No. What? Mind? No.
69
216330
3000
SB: Káosz? Nem. Hogyan? Elme? Nem.
03:39
Audience: Without.
70
219330
1000
Közönség: Nélkül.
03:40
SB: No, not without.
71
220330
1000
SB: Nem, nem a nélkül.
03:41
(Laughter)
72
221330
1000
(Nevetés)
03:42
You try them all in order: Mmm...?
73
222330
2000
Próbáljátok mindet sorrendben. Mmm... ?
03:44
Audience: Must.
74
224330
1000
Közönség: Muszáj.
03:45
SB: Must, at must. Must, must.
75
225330
4000
Muszáj, a muszáj. Muszáj, muszáj.
03:49
This is what makes it so amazing.
76
229330
2000
Ez az ami ennyire bámulatossá teszi.
03:51
You don't need a designer,
77
231330
3000
Nincs szükséged egy tervezőre,
03:54
or a plan, or foresight, or anything else.
78
234330
3000
vagy egy tervre, vagy előrelátásra vagy bármi másra.
03:57
If there's something that is copied with variation
79
237330
3000
Ha van valami ami lemásolódik variációval
04:00
and it's selected, then you must get design appearing out of nowhere.
80
240330
4000
és szelektálódik, akkor muszály hogy szerveződés jelenjen meg a semmiből.
04:04
You can't stop it.
81
244330
2000
Nem tudod megállítani.
04:06
Must is my favorite word there.
82
246330
4000
A muszáj a kedvenc szavam ott.
04:11
Now, what's this to do with memes?
83
251330
2000
Nos, mi köze van ennek a mémekhez?
04:13
Well, the principle here applies to anything
84
253330
5000
Az, hogy ez az alapelv mindenre érvényes
04:18
that is copied with variation and selection.
85
258330
1000
ami lemásolódik variációval és szelekcióval.
04:19
We're so used to thinking in terms of biology,
86
259330
3000
Annyira megszoktuk a biológia kereteiben való gondolkodást,
04:22
we think about genes this way.
87
262330
2000
a génekről gondolkodunk így.
04:24
Darwin didn't, of course; he didn't know about genes.
88
264330
3000
Természetesen Darwin nem, ő nem tudott a génekről.
04:27
He talked mostly about animals and plants,
89
267330
2000
Ő leginkább állatokról és növényekről beszélt,
04:29
but also about languages evolving and becoming extinct.
90
269330
3000
de nyelvekről is amint fejlődnek és kihalnak.
04:32
But the principle of Universal Darwinism
91
272330
2000
De az egyetemes Darwinizmus alapelve
04:34
is that any information that is varied and selected
92
274330
4000
az, hogy bármilyen információ ami változik és szelektálódik
04:38
will produce design.
93
278330
2000
szerveződést eredményez.
04:40
And this is what Richard Dawkins was on about
94
280330
2000
És ez az amiről Richard Dawkins írt
04:42
in his 1976 bestseller, "The Selfish Gene."
95
282330
3000
az 1976-os bestsellerében, "Az önző gén"-ben.
04:45
The information that is copied, he called the replicator.
96
285330
4000
Az információt ami másolódik, ő replikátornak nevezte.
04:49
It selfishly copies.
97
289330
2000
Ez önzően másolódik.
04:51
Not meaning it kind of sits around inside cells going, "I want to get copied."
98
291330
4000
Nem úgy értve, hogy csücsül a sejtben és mondogatja: "Másolódni akarok."
04:55
But that it will get copied if it can,
99
295330
2000
Hanem, hogy lemásolódik ha tud,
04:57
regardless of the consequences.
100
297330
2000
függetlenül a következményektől.
05:00
It doesn't care about the consequences because it can't,
101
300330
3000
Nem törődik a következményekkel, mert nem tud,
05:03
because it's just information being copied.
102
303330
2000
mert ő csak információ ami másolódik.
05:06
And he wanted to get away
103
306330
1000
És ő szeretett volna eltávolodni
05:07
from everybody thinking all the time about genes,
104
307330
3000
mindenkitől, aki csak egyfolytában génekben gondolkodik
05:10
and so he said, "Is there another replicator out there on the planet?"
105
310330
3000
és így azt mondta, "Van-e egy másik replikátor ezen a bolygón?"
05:13
Ah, yes, there is.
106
313330
2000
Oh, igen, van.
05:15
Look around you -- here will do, in this room.
107
315330
3000
Nézz csak magad köré, akár itt, ebben a teremben.
05:18
All around us, still clumsily drifting about
108
318330
3000
Mindenütt körülöttünk, ügyetlenül úszkálva
05:21
in its primeval soup of culture, is another replicator.
109
321330
3000
a kultúra őslevesében, van egy másik replikátor.
05:24
Information that we copy from person to person, by imitation,
110
324330
5000
Az információ amit átmásolunk emberről emberre utánzással,
05:29
by language, by talking, by telling stories,
111
329330
2000
a nyelv, a beszéd, a történetmondás,
05:31
by wearing clothes, by doing things.
112
331330
3000
a ruha hordás, a tevékenységünk által.
05:34
This is information copied with variation and selection.
113
334330
5000
Mindez információ amit variációval és szelekcióval másolunk.
05:39
This is design process going on.
114
339330
3000
Ez a folyamatban lévő szerveződés.
05:42
He wanted a name for the new replicator.
115
342330
3000
Szeretett volna egy nevet az új replikátornak.
05:45
So, he took the Greek word "mimeme," which means that which is imitated.
116
345330
4000
Úgyhogy vette a görög mimeme szót, ami annyit jelent, hogy az ami imitálódik.
05:49
Remember that, that's the core definition:
117
349330
2000
Emlékezzetek erre, ez a valódi meghatározás.
05:52
that which is imitated.
118
352330
1000
Az ami imitálódik.
05:53
And abbreviated it to meme, just because it sounds good
119
353330
3000
És lerövidítette mém-re, csak mert jól hangzott
05:56
and made a good meme, an effective spreading meme.
120
356330
3000
és egy jó mémet alkotott, egy hatékonyan terjedő mémet.
05:59
So that's how the idea came about.
121
359330
3000
Szóval így jött elő ez a fogalom.
06:03
It's important to stick with that definition.
122
363330
3000
Fontos, hogy ezt a meghatározást tartsuk szem előtt.
06:06
The whole science of memetics is much maligned,
123
366330
4000
A memetika egész tudományát erősen elferdítik,
06:10
much misunderstood, much feared.
124
370330
3000
erősen félreértik, félnek tőle.
06:13
But a lot of these problems can be avoided
125
373330
3000
De ezen problémák zöme elkerülhető
06:16
by remembering the definition.
126
376330
2000
ha felidézzük a meghatározást.
06:18
A meme is not equivalent to an idea.
127
378330
2000
Egy mém nem egyenértékű egy eszmével.
06:20
It's not an idea. It's not equivalent to anything else, really.
128
380330
2000
Nem egy eszme, igazából nem egyenértékű semmi egyébbel.
06:22
Stick with the definition.
129
382330
2000
Maradjunk a meghatározásnál.
06:24
It's that which is imitated,
130
384330
2000
Az ami imitálódik.
06:26
or information which is copied from person to person.
131
386330
3000
Vagy információ ami másolódik emberről emberre.
06:30
So, let's see some memes.
132
390330
1000
Nos, lássunk csak néhány mémet.
06:31
Well, you sir, you've got those glasses hung around your neck
133
391330
3000
Ön uram, azt a szemüveget a nyaka körül tartja
06:34
in that particularly fetching way.
134
394330
2000
olyan különösen elragadó módon.
06:36
I wonder whether you invented that idea for yourself,
135
396330
2000
Azon tűnődöm, hogy maga találta-e ki ezt a dolgot,
06:38
or copied it from someone else?
136
398330
2000
vagy lemásolta valaki mástól?
06:40
If you copied it from someone else, it's a meme.
137
400330
3000
Ha lemásolta valaki mástól, akkor ez egy mém.
06:43
And what about, oh, I can't see any interesting memes here.
138
403330
3000
És, ooh, nem látok semmi érdekes mémeket itt.
06:46
All right everyone, who's got some interesting memes for me?
139
406330
3000
Nos emberek, kinek vannak érdekes mémjei számomra?
06:49
Oh, well, your earrings,
140
409330
2000
A fülbevalói,
06:51
I don't suppose you invented the idea of earrings.
141
411330
2000
Nem feltételezem, hogy ön találta fel a fülbevalók fogalmát.
06:53
You probably went out and bought them.
142
413330
2000
Valószínüleg megvásárolta őket.
06:55
There are plenty more in the shops.
143
415330
2000
Van még jónéhány az üzletekben.
06:57
That's something that's passed on from person to person.
144
417330
2000
Ez egy olyan dolog amit emberről emberre továbbítunk.
06:59
All the stories that we're telling -- well, of course,
145
419330
3000
Az összes történet amit mesélünk, hát persze,
07:02
TED is a great meme-fest, masses of memes.
146
422330
4000
a TED is egy óriási mém-fesztivál, mémek tömegei.
07:06
The way to think about memes, though,
147
426330
2000
A mémek esetében arról is gondolkodhatunk,
07:08
is to think, why do they spread?
148
428330
2000
hogy miért is terjednek?
07:10
They're selfish information, they will get copied, if they can.
149
430330
4000
Ők csak önző információk, lemásolódnak ha lehetőséget kapnak rá.
07:14
But some of them will be copied because they're good,
150
434330
3000
De egyesek közülük lemásolódnak, mert jók,
07:17
or true, or useful, or beautiful.
151
437330
2000
vagy igazak, vagy hasznosak, vagy mert szépek.
07:19
Some of them will be copied even though they're not.
152
439330
2000
Egyesek közülük ennek ellenére is lemásolódnak.
07:21
Some, it's quite hard to tell why.
153
441330
2000
Egyesek esetében igazán nehéz megmondani, hogy miért is.
07:24
There's one particular curious meme which I rather enjoy.
154
444330
3000
Van egy különösen érdekes mém ami nekem igazán tetszik.
07:27
And I'm glad to say, as I expected, I found it when I came here,
155
447330
3000
És örömmel mondhatom, hogy amint már számítottam rá, meg is találtam, amikor ide értem,
07:30
and I'm sure all of you found it, too.
156
450330
2000
és biztos vagyok benne, hogy mindannyian megtaláltátok.
07:32
You go to your nice, posh, international hotel somewhere,
157
452330
3000
Elmentek az elegáns nemzetközi szállodátokba,
07:36
and you come in and you put down your clothes
158
456330
2000
és bementek és leteszitek a ruhátokat,
07:38
and you go to the bathroom, and what do you see?
159
458330
3000
és bementek a mosdóba és mit láttok?
07:41
Audience: Bathroom soap.
160
461330
1000
Hallgatóság: Szappant.
07:42
SB: Pardon?
161
462330
1000
SB: Tessék?
07:43
Audience: Soap.
162
463330
1000
Hallgatóság: Szappant.
07:44
SB: Soap, yeah. What else do you see?
163
464330
2000
SB: Szappant, igen. Mi mást láttok még?
07:46
Audience: (Inaudible)
164
466330
1000
Hallgatóság: (nem lehet hallani)
07:47
SB: Mmm mmm.
165
467330
1000
SB: Mmm mmm.
07:48
Audience: Sink, toilet!
166
468330
1000
Hallgatóság: Mosdókagyló, WC!
07:49
SB: Sink, toilet, yes, these are all memes, they're all memes,
167
469330
2000
SB: Mosdókagyló, WC, igen, ezek mind mémek, ezek mind mémek,
07:51
but they're sort of useful ones, and then there's this one.
168
471330
3000
de ezek valamelyest hasznos mémek, és akkor itt van ez.
07:54
(Laughter)
169
474330
3000
(Nevetés)
07:58
What is this one doing?
170
478330
2000
Mit akar ez itt?
08:00
(Laughter)
171
480330
1000
(Nevetés)
08:01
This has spread all over the world.
172
481330
2000
Ez elterjedt a Földön mindenütt.
08:03
It's not surprising that you all found it
173
483330
2000
Nem meglepő, hogy mindannyian megtaláltátok,
08:05
when you arrived in your bathrooms here.
174
485330
2000
amikor itt benyitottatok a mosdótokba.
08:07
But I took this photograph in a toilet at the back of a tent
175
487330
5000
Viszont ezt a fotót egy sátor mögötti mellékhelyiségben készítettem
08:12
in the eco-camp in the jungle in Assam.
176
492330
2000
egy öko-táborban az Assam-i dzsungelben.
08:14
(Laughter)
177
494330
1000
(Nevetés)
08:16
Who folded that thing up there, and why?
178
496330
3000
Kicsoda hajtotta azt ott be és miért?
08:19
(Laughter)
179
499330
1000
(Nevetés)
08:20
Some people get carried away.
180
500330
2000
Egyes emberek átesnek a ló túloldalára.
08:22
(Laughter)
181
502330
3000
(Nevetés)
08:26
Other people are just lazy and make mistakes.
182
506330
3000
Más emberek csak egyszerűen lusták és hibáznak.
08:29
Some hotels exploit the opportunity to put even more memes
183
509330
3000
Egyes szállodák kihasználják a lehetőséget, hogy még több mémet tegyenek oda
08:32
with a little sticker.
184
512330
2000
egy kis matricával.
08:34
(Laughter)
185
514330
1000
(Nevetés)
08:35
What is this all about?
186
515330
2000
Miről szól ez az egész?
08:37
I suppose it's there to tell you that somebody's
187
517330
2000
Gyanúm szerint azt a célt szolgálja, hogy elmondja, hogy valaki
08:39
cleaned the place, and it's all lovely.
188
519330
2000
kitakarította a helyiséget és minden rendben.
08:41
And you know, actually, all it tells you is that another person
189
521330
3000
És tudjátok, igazából csak azt üzeni, hogy valaki
08:44
has potentially spread germs from place to place.
190
524330
3000
valószínuleg innen - oda terjeszti a kórokozókat.
08:47
(Laughter)
191
527330
1000
(Nevetés)
08:48
So, think of it this way.
192
528330
2000
Szóval, gondolkodjunk a következő módon.
08:50
Imagine a world full of brains
193
530330
2000
Képzeljünk el egy világot tele agyakkal
08:52
and far more memes than can possibly find homes.
194
532330
3000
és sokkal több mémmel mint amennyi otthonra tud találni.
08:55
The memes are all trying to get copied --
195
535330
3000
A mémek mind próbálkoznak hogy lemásolódjanak,
08:58
trying, in inverted commas -- i.e.,
196
538330
3000
próbálkoznak idézőjelben, pl.,
09:01
that's the shorthand for, if they can get copied, they will.
197
541330
3000
ez arra a rövidítés, hogy lemásolódnak ha van erre lehetoség.
09:04
They're using you and me as their propagating, copying machinery,
198
544330
6000
Titeket és engem használnak terjesztő, másoló gépezet gyanánt,
09:10
and we are the meme machines.
199
550330
3000
mi vagyunk a mém masinák.
09:13
Now, why is this important?
200
553330
2000
Nos, miért is fontos ez?
09:15
Why is this useful, or what does it tell us?
201
555330
2000
Miért hasznos ez és mit mond ez el nekünk?
09:17
It gives us a completely new view of human origins
202
557330
4000
Egy teljesen új rálátást ad az emberi eredetre
09:21
and what it means to be human,
203
561330
1000
és arra, hogy mit jelent embernek lenni.
09:22
all conventional theories of cultural evolution,
204
562330
4000
A kultúrális evolúció hagyományos elméletei,
09:26
of the origin of humans,
205
566330
2000
az ember eredetéről,
09:28
and what makes us so different from other species.
206
568330
4000
és arról, hogy mi különböztet meg minket más fajoktól.
09:32
All other theories explaining the big brain, and language, and tool use
207
572330
2000
Az összes többi elmélet amely magyarázza a nagy agy méretét és a beszéd és eszköz használat kialakulását
09:34
and all these things that make us unique,
208
574330
2000
és az összes olyan dolgot ami egyedivé tesz bennünket,
09:36
are based upon genes.
209
576330
3000
a génekre alapulnak.
09:39
Language must have been useful for the genes.
210
579330
3000
A beszéd hasznos kellett hogy legyen a géneknek.
09:42
Tool use must have enhanced our survival, mating and so on.
211
582330
3000
Az eszköz használat meg kellett, hogy növelje a túlélési, szaporodási esélyeinket, stb.
09:45
It always comes back, as Richard Dawkins complained
212
585330
3000
Ahogy Richard Dawkins panaszkodott, az eszmefuttatás mindig arra vezetődik vissza,
09:48
all that long time ago, it always comes back to genes.
213
588330
3000
már régen, mindig a génekre vezetődik vissza.
09:51
The point of memetics is to say, "Oh no, it doesn't."
214
591330
4000
A memetika lényege az, hogy azt mondja: "Dehogyis."
09:55
There are two replicators now on this planet.
215
595330
3000
Most már két replikátor van ezen a bolygón.
09:58
From the moment that our ancestors,
216
598330
3000
Attól a pillanattól kezdve, hogy az őseink,
10:01
perhaps two and a half million years ago or so,
217
601330
2000
körülbelül két és fél millió éve
10:03
began imitating, there was a new copying process.
218
603330
4000
elkezdtek utánozni, megjelent az új másolási folyamat.
10:07
Copying with variation and selection.
219
607330
2000
Másolás variációval és szelekcióval.
10:09
A new replicator was let loose, and it could never be --
220
609330
5000
Egy új replikátort szabadítottunk ki és nem lehet már soha --
10:14
right from the start -- it could never be
221
614330
1000
egészen a kezdetektől, nem lehetett,
10:15
that human beings who let loose this new creature,
222
615330
5000
hogy az emberek, akik kiszabadították ezt az új teremtményt,
10:20
could just copy the useful, beautiful, true things,
223
620330
3000
csak a hasznos, szép, igaz dolgokat másolják,
10:23
and not copy the other things.
224
623330
2000
és ne utánozzanak le más dolgokat.
10:25
While their brains were having an advantage from being able to copy --
225
625330
3000
Amig az agyuk az utánozás képességébol előnyt kovácsolt --
10:28
lighting fires, keeping fires going, new techniques of hunting,
226
628330
5000
tűzgyújtás, tűz fenntartása, új vadászati technikák,
10:33
these kinds of things --
227
633330
2000
és ezekhez hasonló dolgok --
10:35
inevitably they were also copying putting feathers in their hair,
228
635330
3000
elkerülhetetlenül lemásolták a tollak hajba való tűzését,
10:38
or wearing strange clothes, or painting their faces,
229
638330
2000
vagy a furcsa ruhák hordását, vagy az arcuk kifestését,
10:40
or whatever.
230
640330
1000
vagy bármi mást.
10:41
So, you get an arms race between the genes
231
641330
4000
Úgyhogy előállt egy versengés a gének
10:45
which are trying to get the humans to have small economical brains
232
645330
4000
amelyek azt szeretnék, hogy az emereknek kicsi és takarékos agyuk legyen
10:49
and not waste their time copying all this stuff,
233
649330
2000
és hogy ne pazarolják az idejüket mindezen dolgok másolgatására,
10:51
and the memes themselves, like the sounds that people made and copied --
234
651330
4000
és a mémek között, mint pl. a hangok amelyeket az emberek kiadtak és lemásoltak --
10:56
in other words, what turned out to be language --
235
656330
2000
más szavakkal ami késobb beszéddé alakult --
10:58
competing to get the brains to get bigger and bigger.
236
658330
3000
versengtek, hogy nagyobbá és nagyobbá alakítsák az agyunkat.
11:01
So, the big brain, on this theory, is driven by the memes.
237
661330
4000
Szóval, ebben az elméletben, a nagy agyméret kialakulásában a mémek voltak a hajtóerő.
11:05
This is why, in "The Meme Machine," I called it memetic drive.
238
665330
4000
Ez az oka annak, hogy "A mémgépezet"-ben memetikus hajtóerőnek neveztem.
11:09
As the memes evolve, as they inevitably must,
239
669330
3000
Ahogy a mémek fejlődnek, mivel ez elkerülhetetlenül muszáj nekik,
11:12
they drive a bigger brain that is better at copying the memes
240
672330
4000
egy nagyobb agyméretet erőltetnek, amely hatékonyabb a mémek másolásában,
11:16
that are doing the driving.
241
676330
2000
amelyek a hajtóerőt biztosítják.
11:18
This is why we've ended up with such peculiar brains,
242
678330
4000
Ez az oka annak, hogy ilyen egyedi aggyal rendelkezünk,
11:22
that we like religion, and music, and art.
243
682330
3000
hogy szeretjük a vallást, és a zenét, és a művészetet.
11:25
Language is a parasite that we've adapted to,
244
685330
3000
A beszéd egy parazita, amelyhez alkalmazkodtunk,
11:28
not something that was there originally for our genes,
245
688330
2000
nem valami ami már eredetileg a génjeinkben kódolt,
11:30
on this view.
246
690330
2000
ezen megközelítés szerint.
11:32
And like most parasites, it can begin dangerous,
247
692330
3000
És mint minden parazita esetében, eleinte veszélyes,
11:35
but then it coevolves and adapts,
248
695330
3000
de később együtt fejlődik velünk és alkalmazkodik
11:38
and we end up with a symbiotic relationship
249
698330
2000
és egy szimbiotikus kapcsolatban maradunk
11:40
with this new parasite.
250
700330
1000
ezzel az új parazitával.
11:41
And so, from our perspective,
251
701330
2000
Ezek szerint a mi szemszögünkből nézve,
11:43
we don't realize that that's how it began.
252
703330
3000
mi nem vesszük észre, hogy így kezdődött.
11:46
So, this is a view of what humans are.
253
706330
3000
Szóval ez egy elképzelés arról, hogy mi az ember.
11:49
All other species on this planet are gene machines only,
254
709330
3000
Az összes többi faj ezen a bolygón csupán gén gépezet,
11:52
they don't imitate at all well, hardly at all.
255
712330
3000
ők nem utánoznak jól, ha egyáltalán képesek erre.
11:55
We alone are gene machines and meme machines as well.
256
715330
5000
Mi egyedül vagyunk gén gépek és mém gépek is egyszerre.
12:00
The memes took a gene machine and turned it into a meme machine.
257
720330
4000
A mémek vettek egy gén gépet és átalakították egy mém géppé.
12:04
But that's not all.
258
724330
2000
De ez nem minden.
12:06
We have a new kind of memes now.
259
726330
3000
Mostmár vannak újfajta mémjeink is.
12:09
I've been wondering for a long time,
260
729330
1000
Egy jó ideje már tűnődöm ezen,
12:10
since I've been thinking about memes a lot,
261
730330
2000
mivelhogy sokat gondolkodtam már mémekről,
12:12
is there a difference between the memes that we copy --
262
732330
2000
hogy van-e különbség a mémek, amelyeket lemásolunk, --
12:14
the words we speak to each other,
263
734330
2000
a szavak amelyeket beszélünk,
12:16
the gestures we copy, the human things --
264
736330
2000
a gesztusok amelyeket lemásolunk, az emberi dolgok --
12:18
and all these technological things around us?
265
738330
2000
és mindezen techikai dolog között ami körülvesz minket?
12:20
I have always, until now, called them all memes,
266
740330
4000
Én mostanáig mindig csak mémeknek neveztem mindegyiket,
12:24
but I do honestly think now
267
744330
3000
de mostmár őszintén úgy gondolom,
12:27
we need a new word for technological memes.
268
747330
3000
hogy szükségünk van egy új megnevezésre a technikai mémekre.
12:30
Let's call them techno-memes or temes.
269
750330
3000
Nevezzük őket techno-mémeknek vagy témeknek.
12:33
Because the processes are getting different.
270
753330
3000
Mert a folyamatok kezdenek különbözni.
12:37
We began, perhaps 5,000 years ago, with writing.
271
757330
3000
Mi kezdtük, talán 5000 éve az írással.
12:40
We put the storage of memes out there on a clay tablet,
272
760330
7000
Egy agyagtáblára bíztuk a mémek tárolását,
12:48
but in order to get true temes and true teme machines,
273
768330
2000
de ahhoz, hogy igazi témeket és igazi tém gépeket kapjunk,
12:50
you need to get the variation, the selection and the copying,
274
770330
3000
szükség van variációra, szelekcióra és másolásra,
12:53
all done outside of humans.
275
773330
2000
emberi beavatkozás nélkül.
12:55
And we're getting there.
276
775330
2000
És egyre közelebb vagyunk ehhez.
12:57
We're at this extraordinary point where we're nearly there,
277
777330
2000
Ezen a különleges ponton vagyunk ahol majdem lehetséges ez,
12:59
that there are machines like that.
278
779330
2000
hogy vannak olyan gépek amelyek képesek ilyesmire.
13:01
And indeed, in the short time I've already been at TED,
279
781330
2000
És tényleg, a rövid idő alatt amit a TED-en töltöttem,
13:03
I see we're even closer than I thought we were before.
280
783330
2000
Úgy látom, hogy közelebb vagyunk, mint ahogy eredetileg gondoltam.
13:05
So actually, now the temes are forcing our brains
281
785330
6000
Úgyhogy igazából mostmár a témek kényszerítik az agyunkat,
13:11
to become more like teme machines.
282
791330
2000
hogy tém gépekhez hasonlóbb legyen.
13:13
Our children are growing up very quickly learning to read,
283
793330
3000
A gyerekeink úgy nőnek fel, hogy nagyon gyorsan megtanulnak olvasni,
13:16
learning to use machinery.
284
796330
2000
gépeket használni.
13:18
We're going to have all kinds of implants,
285
798330
1000
Mindenféle implantátumokat fogunk magunkban hordani,
13:19
drugs that force us to stay awake all the time.
286
799330
3000
gyógyszereket, amelyekkel folyton ébren maradhatunk.
13:22
We'll think we're choosing these things,
287
802330
2000
És úgy fogjuk gondolni, hogy mi választjuk ezeket a dolgokat,
13:24
but the temes are making us do it.
288
804330
3000
de a témek bírnak rá erre minket.
13:28
So, we're at this cusp now
289
808330
1000
Úgyhogy most ennél a mérföldkőnél vagyunk,
13:29
of having a third replicator on our planet.
290
809330
4000
amikor egy újabb replikátor kerül a bolygónkra.
13:34
Now, what about what else is going on out there in the universe?
291
814330
5000
Nos, mi van azzal, hogy ki más lehet még ott kint az Univerzumban?
13:39
Is there anyone else out there?
292
819330
2000
Van még valaki más ott messze kint?
13:41
People have been asking this question for a long time.
293
821330
3000
Az emberek már régóta feszegetik ezt a kérdést.
13:44
We've been asking it here at TED already.
294
824330
2000
Itt a TED-en is feltettük már néhány alkalommal.
13:46
In 1961, Frank Drake made his famous equation,
295
826330
4000
1961-ben Frank Drake megfogalmazta a híres egyenletét,
13:50
but I think he concentrated on the wrong things.
296
830330
2000
de szerintem nem a megfelelő dolgokra koncentrált.
13:52
It's been very productive, that equation.
297
832330
2000
Nagyon produktív volt ez az egyenlet.
13:54
He wanted to estimate N,
298
834330
2000
Meg szerette volna becsülni N-et,
13:56
the number of communicative civilizations out there in our galaxy,
299
836330
4000
a kommunikációra képes civilizációk számát a galaxisunkban.
14:00
and he included in there the rate of star formation,
300
840330
4000
És ebbe az egyenletbe belefoglalta a csillagképződés valószínűségét,
14:04
the rate of planets, but crucially, intelligence.
301
844330
4000
a bolygóképződés és elengedethetetlenül az intelligencia kialakulásának a valószínűségét.
14:08
I think that's the wrong way to think about it.
302
848330
4000
Én úgy gondolom, hogy ez a helytelen gondolkodásmód.
14:12
Intelligence appears all over the place, in all kinds of guises.
303
852330
3000
Az intelligencia megjelenik mindenütt körülöttünk, mindenféle formában.
14:15
Human intelligence is only one kind of a thing.
304
855330
2000
Az emberi intelligencia csak egyfajta dolog.
14:17
But what's really important is the replicators you have
305
857330
3000
De ami a legfontosabb az, hogy milyen replikátoraid vannak
14:20
and the levels of replicators, one feeding on the one before.
306
860330
4000
és a replikátorok szintjei, egyik táplálkozva az előbbiből.
14:24
So, I would suggest that we don't think intelligence,
307
864330
5000
Úgyhogy én azt javasolnám, hogy ne intelligenciában gondolkodjunk,
14:29
we think replicators.
308
869330
2000
hanem replikátorokban.
14:31
And on that basis, I've suggested a different kind of equation.
309
871330
3000
Ennek alapján, egy másféle egyenletet javasoltam.
14:34
A very simple equation.
310
874330
2000
Egy nagyon egyszerű egyenletet.
14:36
N, the same thing,
311
876330
2000
N ugyanaz a dolog,
14:38
the number of communicative civilizations out there
312
878330
3000
a kommunikációra képes civilizációk száma,
14:41
[that] we might expect in our galaxy.
313
881330
2000
amelyekre számíthatunk a galaxisunkban.
14:43
Just start with the number of planets there are in our galaxy.
314
883330
4000
Egyszerűen induljunk ki a galaxisunkban lévő bolygók számából.
14:47
The fraction of those which get a first replicator.
315
887330
4000
Ezeknek az a hányada amelyeken megvan az első replikátor.
14:51
The fraction of those that get the second replicator.
316
891330
4000
Ezeknek az a hányada amelyeken megvan a második replikátor.
14:55
The fraction of those that get the third replicator.
317
895330
2000
Ezeknek az a hányada amelyeken megvan a harmadik replikátor.
14:58
Because it's only the third replicator that's going to reach out --
318
898330
3000
Mert csak a harmadik replikátor fog kiterjeszkedni --
15:01
sending information, sending probes, getting out there,
319
901330
3000
információt kiküldeni, felderítő szondákat küldeni, kijutni oda ki,
15:04
and communicating with anywhere else.
320
904330
2000
és kommunikálni bármi messzi hellyel.
15:06
OK, so if we take that equation,
321
906330
3000
OK, szóval ha ezt az egyenletet vesszük,
15:09
why haven't we heard from anybody out there?
322
909330
5000
miért nem hallottunk még bárkiről onnan messziről?
15:14
Because every step is dangerous.
323
914330
4000
Mert minden lépés veszélyes.
15:18
Getting a new replicator is dangerous.
324
918330
3000
Egy új replikátor megszerzése veszélyes.
15:21
You can pull through, we have pulled through,
325
921330
2000
Át lehet vészelni, mi átvészeltük,
15:23
but it's dangerous.
326
923330
2000
de veszélyes.
15:25
Take the first step, as soon as life appeared on this earth.
327
925330
3000
Vegyük csak az első lépést, amikor az élet megjelent a Földön.
15:28
We may take the Gaian view.
328
928330
2000
Vehetjük a Gaia-i nézetet.
15:30
I loved Peter Ward's talk yesterday -- it's not Gaian all the time.
329
930330
3000
Tetszett Peter Ward előadása a tegnap -- nem mindig Gaia-i.
15:33
Actually, life forms produce things that kill themselves.
330
933330
3000
Igazából az élőlények termelnek olyan dolgokat amellyekkel megölik magukat.
15:36
Well, we did pull through on this planet.
331
936330
3000
Nos, hát sikerült túlélni ezen a bolygón.
15:39
But then, a long time later, billions of years later,
332
939330
2000
De aztán, hosszú idő elteltével, milliárd évekkel később,
15:41
we got the second replicator, the memes.
333
941330
3000
megszereztük a második replikátort, a mémeket.
15:44
That was dangerous, all right.
334
944330
2000
No, ez aztán veszélyes volt.
15:46
Think of the big brain.
335
946330
2000
Gondoljunk csak a nagy agyra.
15:48
How many mothers do we have here?
336
948330
3000
Hány anyuka van itt köztünk?
15:51
You know all about big brains.
337
951330
2000
Ti mindent tudtok a nagy agyakról.
15:53
They are dangerous to give birth to,
338
953330
2000
Veszélyes megszülni őket.
15:55
are agonizing to give birth to.
339
955330
2000
Fájdalmas megszülni őket.
15:57
(Laughter)
340
957330
1000
(Nevetés)
15:59
My cat gave birth to four kittens, purring all the time.
341
959330
2000
A macskám négy kölyköt szült, végig dorombolva.
16:01
Ah, mm -- slightly different.
342
961330
2000
Ah, mm -- egy picit más helyzet.
16:03
(Laughter)
343
963330
2000
(Nevetés)
16:05
But not only is it painful, it kills lots of babies,
344
965330
3000
De nemcsak hogy fájdalmas, sok kisbabát meg is öl,
16:08
it kills lots of mothers,
345
968330
2000
sok kismamát megöl,
16:10
and it's very expensive to produce.
346
970330
2000
és nagyon költséges az előállítása.
16:12
The genes are forced into producing all this myelin,
347
972330
2000
A gének arra vannak kényszerítve, hogy mindezt a sok mielint termeljék,
16:14
all the fat to myelinate the brain.
348
974330
2000
a sok zsírszövetet, hogy mielinezze az agyat.
16:16
Do you know, sitting here,
349
976330
2000
Tudjátok, hogy itt üldögélve,
16:18
your brain is using about 20 percent of your body's energy output
350
978330
4000
az agyatok a testetek által termelt energiája 20 százalékát használja el,
16:22
for two percent of your body weight?
351
982330
2000
míg a test tömegének csak két százalékát teszi ki.
16:24
It's a really expensive organ to run.
352
984330
2000
Egy igazán költséges működésű szerv.
16:26
Why? Because it's producing the memes.
353
986330
2000
Miért? Mert a mémeket termeli.
16:28
Now, it could have killed us off. It could have killed us off,
354
988330
4000
Nos, elpusztíthatott volna -- elpusztíthatott volna,
16:32
and maybe it nearly did, but you see, we don't know.
355
992330
2000
és lehet, hogy majdnem így is volt, valójában nem tudjuk.
16:34
But maybe it nearly did.
356
994330
2000
De lehet, hogy majdnem kipusztított.
16:36
Has it been tried before?
357
996330
1000
Volt erre már próbálkozás?
16:37
What about all those other species?
358
997330
2000
Mi van az összes többi fajjal?
16:39
Louise Leakey talked yesterday
359
999330
2000
Louise Leakley beszélt erről a tegnap,
16:41
about how we're the only one in this branch left.
360
1001330
3000
hogy mi vagyunk az utolsók ezen az ágon akik megmaradtak.
16:44
What happened to the others?
361
1004330
2000
Mi történt a többiekkel?
16:46
Could it be that this experiment in imitation,
362
1006330
2000
Lehetséges, hogy ez az imitációs kísérlet,
16:48
this experiment in a second replicator,
363
1008330
2000
ez a kísérlet a második replikátorral,
16:50
is dangerous enough to kill people off?
364
1010330
4000
eléggé veszélyes ahhoz, hogy kipusztítsa az egyedeket?
16:54
Well, we did pull through, and we adapted.
365
1014330
2000
Nekünk sikerült mindezt átvészelni és mi alkalmazkodtunk.
16:56
But now, we're hitting, as I've just described,
366
1016330
3000
De most, elértük, ahogy az előbb vázoltam,
16:59
we're hitting the third replicator point.
367
1019330
2000
elértük a harmadik replikátort.
17:01
And this is even more dangerous --
368
1021330
3000
És ez méginkább veszélyes --
17:04
well, it's dangerous again.
369
1024330
2000
vagyis, ez újra veszélyes.
17:06
Why? Because the temes are selfish replicators
370
1026330
4000
Miért? Mert a témek önző replikátorok
17:10
and they don't care about us, or our planet, or anything else.
371
1030330
3000
és nem törődnek velünk, vagy a bolygónkkal, vagy bármi mással.
17:13
They're just information, why would they?
372
1033330
3000
Ők csak információ -- miért is tennék?
17:17
They are using us to suck up the planet's resources
373
1037330
2000
Minket használnak fel, hogy kiaknázzák a bolygó nyersanyagait,
17:19
to produce more computers,
374
1039330
2000
hogy több számítógépet gyártsanak,
17:21
and more of all these amazing things we're hearing about here at TED.
375
1041330
3000
és még többet azokból a bámulatos dolgokból, amelyekről itt a TED-en hallunk.
17:24
Don't think, "Oh, we created the Internet for our own benefit."
376
1044330
4000
Ne gondoljátok, hogy "Oh, az internetet a saját javunk érdekében hoztuk létre."
17:28
That's how it seems to us.
377
1048330
2000
Ez így tűnik nekünk.
17:30
Think, temes spreading because they must.
378
1050330
4000
Gondoljatok arra, hogy a témek terjednek mert muszáj nekik.
17:34
We are the old machines.
379
1054330
2000
Mi vagyunk a régi gépek.
17:36
Now, are we going to pull through?
380
1056330
2000
Nos, mi túl fogjuk élni mindezt?
17:38
What's going to happen?
381
1058330
2000
Mi fog történni?
17:40
What does it mean to pull through?
382
1060330
2000
Mit jelent az, hogy túlélni?
17:42
Well, there are kind of two ways of pulling through.
383
1062330
2000
Nos, úgymond két módja van a túlélésnek.
17:45
One that is obviously happening all around us now,
384
1065330
2000
Az egyik mostanában nyilvánvalóan történik körülöttünk,
17:47
is that the temes turn us into teme machines,
385
1067330
4000
ez pedig az, hogy a témek minket tém gépekké alakítanak,
17:51
with these implants, with the drugs,
386
1071330
2000
ezekkel az implantátumokkal, a gyógyszerekkel,
17:53
with us merging with the technology.
387
1073330
3000
a technológiával való egyesülésünk által.
17:56
And why would they do that?
388
1076330
2000
És miért tennék mindezt?
17:58
Because we are self-replicating.
389
1078330
2000
Mert mi képesek vagyunk a szaporodásra.
18:00
We have babies.
390
1080330
2000
Nekünk vannak gyerekeink.
18:02
We make new ones, and so it's convenient to piggyback on us,
391
1082330
3000
Mi készítünk új egyedeket, és így kényelmes minket használni,
18:05
because we're not yet at the stage on this planet
392
1085330
4000
mert még nem vagyunk annál a fázisnál ezen a bolygón
18:09
where the other option is viable.
393
1089330
2000
amikor a második opció is lehetséges lenne.
18:11
Although it's closer, I heard this morning,
394
1091330
2000
Viszont közel van, ahogy ma reggel hallottam,
18:13
it's closer than I thought it was.
395
1093330
2000
ez közelebb van mint gondoltam.
18:15
Where the teme machines themselves will replicate themselves.
396
1095330
3000
Amikor maguk a tém gépek önmagukat tudják legyártani.
18:18
That way, it wouldn't matter if the planet's climate
397
1098330
4000
Így, nem számítana ha a bolygó klímája
18:22
was utterly destabilized,
398
1102330
2000
teljesen destabilizálódna,
18:24
and it was no longer possible for humans to live here.
399
1104330
2000
és nem lenne többé lehetséges itt az emberi élet.
18:26
Because those teme machines, they wouldn't need --
400
1106330
2000
Mert ezek a tém gépek, nekik nem lenne szükségük --
18:28
they're not squishy, wet, oxygen-breathing,
401
1108330
2000
ők nem érzékeny, nedves, oxigént-lélegző,
18:30
warmth-requiring creatures.
402
1110330
3000
meleget-ígénylő lények.
18:33
They could carry on without us.
403
1113330
2000
Ők nélkülünk is boldogulnának.
18:35
So, those are the two possibilities.
404
1115330
3000
Nos, ez a két lehetőség van.
18:38
The second, I don't think we're that close.
405
1118330
4000
A második, szerintem nem vagyunk annyira közel hozzá.
18:42
It's coming, but we're not there yet.
406
1122330
2000
Úton van, de még nem értük el.
18:44
The first, it's coming too.
407
1124330
2000
Az első, az is úton van.
18:46
But the damage that is already being done
408
1126330
3000
De a kár, amit a bolygónk már most elszenved
18:49
to the planet is showing us how dangerous the third point is,
409
1129330
5000
azt mutatja, hogy mennyire is veszélyes a harmadik pont,
18:54
that third danger point, getting a third replicator.
410
1134330
3000
az a harmadik veszélyes pont, egy harmadik replikátor megszerzése.
18:58
And will we get through this third danger point,
411
1138330
2000
És sikerülni fog átvészelni ezt a harmadik veszélypontot,
19:00
like we got through the second and like we got through the first?
412
1140330
3000
amint átvészeltük a másodikot és amint átvészeltük az elsőt?
19:04
Maybe we will, maybe we won't.
413
1144330
2000
Lehet hogy igen, lehet hogy nem.
19:06
I have no idea.
414
1146330
3000
Nem tudom.
19:13
(Applause)
415
1153330
10000
(Taps)
19:24
Chris Anderson: That was an incredible talk.
416
1164330
2000
Chris Anderson: Ez egy elképesztő előadás volt.
19:26
SB: Thank you. I scared myself.
417
1166330
2000
SB: Köszönöm. Megijesztettem magamat.
19:28
CA: (Laughter)
418
1168330
1000
CA: Nevet.
Erről a weboldalról

Ez az oldal olyan YouTube-videókat mutat be, amelyek hasznosak az angol nyelvtanuláshoz. A világ minden tájáról származó, kiváló tanárok által tartott angol leckéket láthatsz. Az egyes videók oldalán megjelenő angol feliratokra duplán kattintva onnan játszhatja le a videót. A feliratok a videó lejátszásával szinkronban gördülnek. Ha bármilyen észrevétele vagy kérése van, kérjük, lépjen kapcsolatba velünk ezen a kapcsolatfelvételi űrlapon.

https://forms.gle/WvT1wiN1qDtmnspy7