Dangerous memes | Dan Dennett

505,731 views ・ 2007-07-03

TED


A videó lejátszásához kattintson duplán az alábbi angol feliratokra.

Fordító: Júlia Martonosi Lektor: Laszlo Kereszturi
00:25
How many Creationists do we have in the room?
0
25000
3000
Hány kreacionista van köztünk?
00:28
Probably none. I think we're all Darwinians.
1
28000
3000
Valószínűleg egy sem. Gondolom, mind Darwinisták vagyunk.
00:31
And yet many Darwinians are anxious, a little uneasy --
2
31000
7000
Sok Darwinista ideges, kicsit nyugtalan,
00:38
would like to see some limits on just how far the Darwinism goes.
3
38000
5000
valami határvonalat szeretne látni, hogy meddig tart a Darwinizmus.
00:43
It's all right.
4
43000
2000
Ez rendben is van.
00:45
You know spiderwebs? Sure, they are products of evolution.
5
45000
4000
Ismerik a pókhálót? Persze, az evolúció eredményei.
00:49
The World Wide Web? Not so sure.
6
49000
4000
A világhálót? Nem olyan biztos.
00:53
Beaver dams, yes. Hoover Dam, no.
7
53000
2000
A hód gátak azok, a Hoover gát nem az.
00:55
What do they think it is that prevents the products of human ingenuity
8
55000
6000
Mit gondolnak, mi óvja meg az emberi leleményeség végtermékeit
01:01
from being themselves, fruits of the tree of life,
9
61000
3000
attól, hogy önmaguk is a hazugság fájának gyümölcsei legyenek,
01:04
and hence, in some sense, obeying evolutionary rules?
10
64000
5000
ennélfogva, bizonyos értelemben, az evolúciós szabályoknak való megfeleléstől?
01:10
And yet people are interestingly resistant
11
70000
4000
És az emberek, érdekes módon, még mindig ellenállnak
01:14
to the idea of applying evolutionary thinking to thinking -- to our thinking.
12
74000
7000
az evolúciós gondolkodáselmélet elfogadásának.
01:21
And so I'm going to talk a little bit about that,
13
81000
4000
Így én erről fogok beszélni egy kicsit,
01:25
keeping in mind that we have a lot on the program here.
14
85000
4000
észben tartva, hogy sok program van még.
01:29
So you're out in the woods, or you're out in the pasture,
15
89000
4000
Szóval az erdőben vannak, vagy a legelőn,
01:33
and you see this ant crawling up this blade of grass.
16
93000
3000
és látják, hogy egy hangya egy fűszálon mászik felfelé.
01:36
It climbs up to the top, and it falls,
17
96000
3000
Felmászik a tetejére, és leesik,
01:39
and it climbs, and it falls, and it climbs --
18
99000
3000
és felmászik, leesik, felmászik..
01:42
trying to stay at the very top of the blade of grass.
19
102000
4000
próbál a fűszál tetején maradni.
01:46
What is this ant doing? What is this in aid of?
20
106000
5000
Mit művel ez a hangya? Miért csinálja?
01:51
What goals is this ant trying to achieve by climbing this blade of grass?
21
111000
7000
Milyen célt próbál ez a hangya elérni azzal, hogy felmászik a fűszálra?
01:58
What's in it for the ant?
22
118000
2000
Mi jó van benne a hangyának?
02:00
And the answer is: nothing. There's nothing in it for the ant.
23
120000
6000
A válasz az, hogy semmi. Nincs semmi jó benne a hangyának.
02:06
Well then, why is it doing this?
24
126000
3000
Akkor meg miért csinálja?
02:09
Is it just a fluke?
25
129000
2000
Csak egy kis flúgosság?
02:11
Yeah, it's just a fluke. It's a lancet fluke.
26
131000
7000
Igen, az. Egy lándzsás métely.
02:18
It's a little brain worm.
27
138000
2000
Ez apró agyi féreg.
02:20
It's a parasitic brain worm that has to get into the stomach of a sheep or a cow
28
140000
5000
Egy élősködő agyi féregnek kell eljutnia egy birka vagy egy tehén gyomrába,
02:25
in order to continue its life cycle.
29
145000
3000
ahhoz, hogy folytathassa az életét.
02:28
Salmon swim upstream to get to their spawning grounds,
30
148000
5000
A lazacok árral szemben úsznak, hogy az ívóhelyeikhez jussanak,
02:33
and lancet flukes commandeer a passing ant,
31
153000
4000
a lándzsásmételyek hangyákat irányítanak,
02:37
crawl into its brain, and drive it up a blade of grass like an all-terrain vehicle.
32
157000
5000
bemásznak az agyába és felfelé vezetik a fűszálon, mint egy összkerékmeghajtású terepjárót.
02:42
So there's nothing in it for the ant.
33
162000
4000
Tehát a hangyának semmi jó sincs benne.
02:46
The ant's brain has been hijacked by a parasite that infects the brain,
34
166000
8000
A hangya agyát eltérítette egy agyi élősködő,
02:54
inducing suicidal behavior.
35
174000
3000
öngyilkos viselkedésre kényszerítve őt.
02:58
Pretty scary.
36
178000
2000
Eléggé ijesztő.
03:00
Well, does anything like that happen with human beings?
37
180000
4000
Történhet ilyesmi egy emberrel?
03:05
This is all on behalf of a cause other than one's own genetic fitness, of course.
38
185000
5000
Persze ez az egész inkább valaki más érdekében történik, mintsem valaki saját szaporodási sikeressége miatt.
03:10
Well, it may already have occurred to you
39
190000
5000
Nos, talán már önöknek is feltűnt, hogy
03:15
that Islam means "surrender," or "submission of self-interest to the will of Allah."
40
195000
10000
az Iszlám "megadást" jelent, vagy "saját érdekünk alárendelését Allah akaratának".
03:25
Well, it's ideas -- not worms -- that hijack our brains.
41
205000
6000
Ideológiák azok - nem férgek -, amik eltérítik az agyunkat.
03:31
Now, am I saying that a sizable minority of the world's population
42
211000
5000
Azt állítom-e, hogy a világ népessége bizonyos kisebbségének
03:36
has had their brain hijacked by parasitic ideas?
43
216000
6000
agyát élősködő ideológiák térítették el?
03:43
No, it's worse than that.
44
223000
2000
Nem. Ennél rosszabb a helyzet.
03:45
Most people have.
45
225000
4000
A legtöbb emberét.
03:49
(Laughter)
46
229000
2000
(Nevetés)
03:53
There are a lot of ideas to die for.
47
233000
2000
Számos ideológiáért meg lehet halni.
03:55
Freedom, if you're from New Hampshire.
48
235000
3000
Szabadságért, ha New Hampshire-ből jöttek.
03:58
(Laughter)
49
238000
3000
(Nevetés)
04:02
Justice. Truth. Communism.
50
242000
4000
Törvényesség. Igazság. Kommunizmus.
04:06
Many people have laid down their lives for communism,
51
246000
3000
Számos ember adta életét a kommunizmusért,
04:09
and many have laid down their lives for capitalism.
52
249000
3000
és számos ember adta életét a kapitalizmusért.
04:12
And many for Catholicism. And many for Islam.
53
252000
4000
És sokan a katolicizmusért. És sokan az Iszlámért.
04:16
These are just a few of the ideas that are to die for.
54
256000
5000
Ez csak néhány azon ideológiák közül, amelyekért életeket áldoznak fel.
04:21
They're infectious.
55
261000
2000
Ezek fertőzőek.
04:24
Yesterday, Amory Lovins spoke about "infectious repititis."
56
264000
4000
Tegnap, Amory Lovins a "ragályos ismétlődésekről" beszélt.
04:28
It was a term of abuse, in effect.
57
268000
3000
Valójában ez egy kifejezés a visszaélésre.
04:31
This is unthinking engineering.
58
271000
2000
Ez nem tudatos tervezés.
04:33
Well, most of the cultural spread that goes on
59
273000
4000
A most folyó kulturális terjeszkedés nagyrésze
04:37
is not brilliant, new, out-of-the-box thinking.
60
277000
4000
nem brilliáns, új, vagy kreatív.
04:41
It's "infectious repetitis,"
61
281000
2000
Ez ragályos ismétlődés.
04:43
and we might as well try to have a theory of what's going on when that happens
62
283000
5000
És megpróbálhatunk felállítani egy teóriát arról, hogy mi történik olyankor,
04:48
so that we can understand the conditions of infection.
63
288000
4000
így megérthetjük a fertőzés feltételeit.
04:54
Hosts work hard to spread these ideas to others.
64
294000
7000
A gazdák keményen dolgoznak azért, hogy elterjesszék az ideológiákat a többieknek.
05:01
I myself am a philosopher, and one of our occupational hazards
65
301000
6000
Jómagam filozófus vagyok, és az egyik szakmai ártalmunk,
05:07
is that people ask us what the meaning of life is.
66
307000
4000
hogy az emberek megkérdezik tőlünk, mi az élet értelme.
05:11
And you have to have a bumper sticker,
67
311000
3000
És kell, hogy legyen egy autós matricánk,
05:14
you know. You have to have a statement.
68
314000
3000
tudják, kell, hogy legyen egy nyilatkozatunk.
05:17
So, this is mine.
69
317000
2000
Ez az enyém.
05:19
The secret of happiness is: Find something more important than you are
70
319000
4000
A boldogság titka: Találj valamit, ami fontosabb önmagadnál,
05:23
and dedicate your life to it.
71
323000
2000
és szenteld neki az életed.
05:25
Most of us -- now that the "Me Decade" is well in the past --
72
325000
4000
Legtöbben - most, hogy az "én évtizede" rég elmúlt -
05:29
now we actually do this.
73
329000
2000
most pont ezt csináljuk.
05:31
One set of ideas or another
74
331000
3000
A gondolatok tárháza
05:34
have simply replaced our biological imperatives in our own lives.
75
334000
4000
egyszerűen felülírja saját biológiai parancsainkat.
05:38
This is what our summum bonum is.
76
338000
3000
Ez a mi legfőbb jónk.
05:41
It's not maximizing the number of grandchildren we have.
77
341000
3000
Nem unokáink számának maximalizálásáról szól.
05:44
Now, this is a profound biological effect.
78
344000
4000
Ez egy mély biológiai hatás.
05:48
It's the subordination of genetic interest to other interests.
79
348000
3000
Ez a genetikai érdekek alárendelése más érdekeknek.
05:51
And no other species does anything at all like it.
80
351000
4000
És semmilyen más faj sem csinál semmi ilyesmit.
05:55
Well, how are we going to think about this?
81
355000
2000
És hogyan tekintünk minderre?
05:57
It is, on the one hand, a biological effect, and a very large one.
82
357000
4000
Ez egyrészről egy biológiai hatás, méghozzá egy igen nagy.
06:01
Unmistakable.
83
361000
2000
Kétségtelenül.
06:03
Now, what theories do we want to use to look at this?
84
363000
3000
Milyen elméleteket akarunk használni ennek vizsgálatához?
06:06
Well, many theories. But how could something tie them together?
85
366000
3000
Sok teóriát lehet. De hogyan köthetné valami össze ezt a sokat?
06:09
The idea of replicating ideas;
86
369000
3000
Az ismétlődő elméletek elmélete,
06:12
ideas that replicate by passing from brain to brain.
87
372000
5000
elméletek, melyek agyról agyra terjedve ismétlődnek.
06:17
Richard Dawkins, whom you'll be hearing later in the day, invented the term "memes,"
88
377000
5000
Richard Dawkins, akiről a nap folyamán még hallani fognak, találta ki a "mémek" kifejezést,
06:22
and put forward the first really clear and vivid version of this idea
89
382000
5000
és fejlesztette tovább először tisztán és élénken az elméletet
06:27
in his book "The Selfish Gene."
90
387000
2000
"Az önző gén" című könyvében.
06:29
Now here am I talking about his idea.
91
389000
3000
Az ő elméletéről beszélek.
06:32
Well, you see, it's not his. Yes -- he started it.
92
392000
6000
Nos, tudják, ez már nem az övé. Igen - ő kezdte el.
06:38
But it's everybody's idea now.
93
398000
3000
De most már mindenki elmélete.
06:41
And he's not responsible for what I say about memes.
94
401000
4000
És ő nem felelős azért, amit én mondok a mémekről.
06:45
I'm responsible for what I say about memes.
95
405000
4000
Én vagyok a felelős azért, amit a mémekről mondok.
06:50
Actually, I think we're all responsible
96
410000
3000
Valójában, szerintem mindannyian felelősek vagyunk
06:53
for not just the intended effects of our ideas,
97
413000
6000
nemcsak az elméleteink jövőbeli hatásaiért,
06:59
but for their likely misuses.
98
419000
3000
de az esetleges téves felhasználásokért is.
07:03
So it is important, I think, to Richard, and to me,
99
423000
4000
Szóval, azt gondolom, fontos, Richardnak és nekem,
07:07
that these ideas not be abused and misused.
100
427000
4000
hogy ezekkel az elméletekkel ne éljenek vissza és ne használják tévesen.
07:11
They're very easy to misuse. That's why they're dangerous.
101
431000
3000
Nagyon könnyű tévesen használni őket. Éppen ezért veszélyesek.
07:14
And it's just about a full-time job
102
434000
3000
És majdnem főállású munka
07:17
trying to prevent people who are scared of these ideas
103
437000
3000
próbálni megvédeni az embereket, akik megrémültek ezen elméletektől,
07:20
from caricaturing them and then running off to one dire purpose or another.
104
440000
8000
a kifigurázástól és hogy szörnyű célt faragjanak belőle.
07:28
So we have to keep plugging away,
105
448000
3000
Szóval továbbra is kitartóan kell dolgoznunk azon,
07:31
trying to correct the misapprehensions
106
451000
2000
hogy megpróbáljuk kijavítani a félreértéseket,
07:33
so that only the benign and useful variants of our ideas continue to spread.
107
453000
8000
hogy csak elméleteink ártalmatlan és hasznos variációi terjedjenek tovább.
07:41
But it is a problem.
108
461000
2000
De van egy kis gond.
07:45
We don't have much time, and I'm going to go over just a little bit of this and cut out,
109
465000
5000
Nincs túl sok időnk, úgyhogy ugrok egy kicsit,
07:50
because there's a lot of other things that are going to be said.
110
470000
3000
mert sok más dolog van, amiről beszélni szeretnék.
07:53
So let me just point out: memes are like viruses.
111
473000
5000
Engedjék meg, hogy rávilágítsak: a mémek olyanok, mint a vírusok.
07:58
That's what Richard said, back in '93.
112
478000
2000
Ez mondta Richard '93-ban.
08:00
And you might think, "Well, how can that be?
113
480000
2000
Talán azt gondolják, "Az meg hogy lehet?
08:02
I mean, a virus is -- you know, it's stuff! What's a meme made of?"
114
482000
7000
A vírus -- az egy anyag! Miből van a mém?"
08:09
Yesterday, Negroponte was talking about viral telecommunications
115
489000
5000
Tegnap Negroponte a vírusos telekommunikációról beszélt,
08:14
but -- what's a virus?
116
494000
1000
de -- mi is a vírus?
08:15
A virus is a string of nucleic acid with attitude.
117
495000
4000
A vírus egy nukleinsav-fonál attitűddel.
08:19
(Laughter)
118
499000
1000
(Nevetés)
08:20
That is, there is something about it
119
500000
2000
Van benne valami,
08:22
that tends to make it replicate better than the competition does.
120
502000
4000
amitől igyekszik a versenytársainál jobban sokszorozódni.
08:26
And that's what a meme is. It's an information packet with attitude.
121
506000
4000
És pont ez a mém: egy információs csomag attitűddel.
08:30
What's a meme made of? What are bits made of, Mom?
122
510000
6000
Miből van egy mém? Miből vannak a bit-ek, anya?
08:36
Not silicon.
123
516000
2000
Nem szilíciumból.
08:38
They're made of information, and can be carried in any physical medium.
124
518000
4000
Információból állnak, és bármilyen fizikai közvetítő eszközzel hordozhatóak.
08:42
What's a word made of?
125
522000
2000
Miből van egy szó?
08:44
Sometimes when people say, "Do memes exist?"
126
524000
5000
Néha, amikor az emberek azt kérdik, "Léteznek egyáltalán mémek?"
08:49
I say, "Well, do words exist? Are they in your ontology?"
127
529000
4000
azt mondom, "Léteznek egyáltalán szavak? Részei a lételméletednek?"
08:53
If they are, words are memes that can be pronounced.
128
533000
5000
Ha igen, a szavak kiejthető mémek.
08:58
Then there's all the other memes that can't be pronounced.
129
538000
3000
Aztán ott vannak még más mémek is, melyeket nem lehet kiejteni.
09:01
There are different species of memes.
130
541000
3000
Ezek mémek különböző fajtái.
09:09
Remember the Shakers? Gift to be simple?
131
549000
4000
Emlékeznek a Shakers-ekre? Ajándékozz, hogy egyszerű maradj?
09:13
Simple, beautiful furniture?
132
553000
3000
Egyszerű, gyönyörű bútorok?
09:16
And, of course, they're basically extinct now.
133
556000
3000
És persze, mára már alapvetően kihaltak.
09:19
And one of the reasons is that among the creed of Shaker-dom
134
559000
6000
Egyik oka ennek, hogy a hitvallásuk alapvető része,
09:25
is that one should be celibate.
135
565000
2000
hogy a tagok cölibátusban éltek.
09:27
Not just the priests. Everybody.
136
567000
2000
Nem csak a papok. Mindenki.
09:29
Well, it's not so surprising that they've gone extinct. (Laughter)
137
569000
8000
Nem is meglepő, hogy kihaltak. (Nevetés)
09:37
But in fact that's not why they went extinct.
138
577000
3000
Valójában azonban nem ezért haltak ki.
09:42
They survived as long as they did
139
582000
3000
Addig éltek, amíg csak tudtak,
09:45
at a time when the social safety nets weren't there.
140
585000
2000
olyan időben, amikor a szociális háló nem létezett.
09:47
And there were lots of widows and orphans,
141
587000
3000
Számos özvegy és árva volt,
09:50
people like that, who needed a foster home.
142
590000
3000
emberek, akiknek nevelőotthonra volt szükségük.
09:53
And so they had a ready supply of converts.
143
593000
3000
Így bőven el voltak látva térítendő emberekkel.
09:56
And they could keep it going.
144
596000
2000
És továbbadhatták.
09:58
And, in principle, it could've gone on forever,
145
598000
2000
Tulajdonképpen örök időkig folytathatták volna.
10:00
with perfect celibacy on the part of the hosts.
146
600000
3000
Tökéletes cölibátusban élve.
10:03
The idea being passed on through proselytizing,
147
603000
5000
És a gondolat ideológia térítéssel adódott tovább,
10:08
instead of through the gene line.
148
608000
3000
és nem genetikai úton.
10:13
So the ideas can live on in spite of the fact
149
613000
4000
Így az elméletek tovább élhetnek annak ellenére,
10:17
that they're not being passed on genetically.
150
617000
3000
hogy nem genetikailag öröklődnek.
10:20
A meme can flourish in spite of having a negative impact on genetic fitness.
151
620000
4000
Egy mém annak ellenére is virágozhat, hogy negatív hatással van a genetikai kondíciókra.
10:24
After all, the meme for Shaker-dom was essentially a sterilizing parasite.
152
624000
8000
Végülis, a Shakerség mémje tulajdonképpen egy sterilizáló élősködő.
10:33
There are other parasites that do this -- which render the host sterile.
153
633000
6000
Más élősködők is csinálnak ilyet - sterillé teszi a gazdát.
10:40
It's part of their plan.
154
640000
2000
Ez a tervük része.
10:42
They don't have to have minds to have a plan.
155
642000
4000
Nem kell, hogy legyen eszük ahhoz, hogy terveik legyenek.
10:47
I'm just going to draw your attention to just one
156
647000
5000
Csak egyetlen fontos felvetésre hívom fel figyelmüket,
10:52
of the many implications of the memetic perspective, which I recommend.
157
652000
8000
a memetikus látásmód sok felvetése közül.
11:01
I've not time to go into more of it.
158
661000
2000
Nincs időm mélyebben belemenni.
11:03
In Jared Diamond's wonderful book, "Guns, Germs and Steel,"
159
663000
4000
Jared Diamond nagyszerű könyvében, a "Háborúk, járványok, technikák"-ban
11:07
he talks about how it was germs, more than guns and steel,
160
667000
6000
arról beszél, hogy a járványok, és nem a háborúk és a technikák voltak,
11:13
that conquered the new hemisphere -- the Western hemisphere --
161
673000
5000
amik meghódították az új félgömböt - a nyugati félgömböt -
11:18
that conquered the rest of the world.
162
678000
2000
amik legyőzték a világ másik részét.
11:20
When European explorers and travelers spread out,
163
680000
7000
Amikor az európai felfedezők és utazók kirajzottak,
11:27
they brought with them the germs
164
687000
2000
magukkal vitték a baktériumokat
11:29
that they had become essentially immune to,
165
689000
3000
melyekre eredendően immunisak voltak,
11:32
that they had learned how to tolerate over
166
692000
3000
melyeket megtanultak tolerálni
11:35
hundreds and hundreds of years, thousands of years,
167
695000
3000
többszáz, többezer év alatt,
11:38
of living with domesticated animals who were the sources of those pathogens.
168
698000
4000
együtt élve háziasított állatokkal, melyek ezen betegségek forrásai voltak.
11:43
And they just wiped out -- these pathogens just wiped out the native people,
169
703000
5000
És egyszerűen kiseperték - ezek a betegségek kitörölték a helyi embereket,
11:48
who had no immunity to them at all.
170
708000
3000
akik egyáltalán nem voltak ellenállóak velük szemben.
11:51
And we're doing it again.
171
711000
3000
És mi újra ezt tesszük.
11:55
We're doing it this time with toxic ideas.
172
715000
4000
Ezúttal mérgező elméletekkel.
12:00
Yesterday, a number of people -- Nicholas Negroponte and others --
173
720000
4000
Tegnap számos ember - Nicholas Negroponte és mások --
12:04
spoke about all the wonderful things
174
724000
2000
azokról a csodálatos dolgokról beszéltek,
12:06
that are happening when our ideas get spread out,
175
726000
3000
amik akkor történnek, amikor az ötleteink elterjednek,
12:09
thanks to all the new technology all over the world.
176
729000
2000
köszönhetően a világ új technológiáinak.
12:11
And I agree. It is largely wonderful. Largely wonderful.
177
731000
6000
És én egyetértek. Nagyon nagyszerű. Nagyon nagyszerű.
12:17
But among all those ideas that inevitably flow out into the whole world
178
737000
8000
De a sok elmélet közül, melyek elkerülhetetlenül kirepülnek a világba,
12:25
thanks to our technology, are a lot of toxic ideas.
179
745000
5000
tecnológiánknak köszönhetően, sok a mérgező elmélet.
12:30
Now, this has been realized for some time.
180
750000
3000
Erre már rájöttek egy ideje.
12:33
Sayyid Qutb is one of the founding fathers of fanatical Islam,
181
753000
6000
Sayyid Qutb egyike a fanatikus Iszlám alapítóatyáinak,
12:39
one of the ideologues that inspired Osama bin Laden.
182
759000
5000
egyike az ideológiáknak, melyek Osama bin Ladent inspirálták.
12:44
"One has only to glance at its press films, fashion shows, beauty contests,
183
764000
5000
"Vessünk csak egy pillantást a filmekre, divatbemutatókra, szépségversenyekre,
12:49
ballrooms, wine bars and broadcasting stations." Memes.
184
769000
6000
tánctermekre, borozókra és közvetítő állomásokra." Mémek.
12:55
These memes are spreading around the world
185
775000
4000
Ezek a mémek elterjednek a világon
12:59
and they are wiping out whole cultures.
186
779000
5000
és egész kultúrákat söpörnek ki.
13:04
They are wiping out languages.
187
784000
2000
Nyelveket törölnek ki.
13:06
They are wiping out traditions and practices.
188
786000
5000
Tradíciókat és bevett gyakorlatokat törölnek ki.
13:11
And it's not our fault, anymore than it's our fault when our germs lay waste
189
791000
8000
És nem a mi hibánk. Az inkább a mi hibánk, hogy a baktériumaink elpusztítják
13:19
to people that haven't developed the immunity.
190
799000
3000
azokat az embereket, akik nem fejlesztették ki az ellenállóképességüket.
13:22
We have an immunity to all of the junk that lies around the edges of our culture.
191
802000
6000
Mi immunisak vagyunk a kultúránk szélén lévő vacakságokra.
13:28
We're a free society, so we let pornography and all these things -- we shrug them off.
192
808000
6000
Mi egy szabad társadalom vagyunk, megengedjük a pornográfiát és ilyesmit - csak megrántjuk a vállunkat.
13:34
They're like a mild cold.
193
814000
2000
Olyanok, mint egy enyhe megfázás.
13:36
They're not a big deal for us.
194
816000
2000
Számunkra nem nagy ügy.
13:38
But we should recognize that for many people in the world,
195
818000
4000
De fel kell ismernünk, hogy a világon számos ember számára
13:42
they are a big deal.
196
822000
4000
igenis nagy ügy.
13:46
And we should be very alert to this.
197
826000
3000
Emiatt nagyon óvatosnak kellene lennünk,
13:49
As we spread our education and our technology,
198
829000
3000
miközben a nevelésünket és a technológiánkat terjesztjük,
13:52
one of the things that we are doing is we're the vectors of memes
199
832000
8000
mert mi vagyunk azon mémek hordozói,
14:00
that are correctly viewed by the hosts of many other memes
200
840000
6000
melyeket más mémek hordozói látnak,
14:06
as a dire threat to their favorite memes --
201
846000
3000
mintegy fenyegetést az ő kedvenc mémjeikkel szemben --
14:09
the memes that they are prepared to die for.
202
849000
3000
azokkal a mémekkel szemben, amikért ők életüket adnák.
14:12
Well now, how are we going to tell the good memes from the bad memes?
203
852000
4000
És hogyan fogjuk tudni megkülönböztetni a jó mémeket a rossz mémektől?
14:16
That is not the job of the science of memetics.
204
856000
5000
Ez nem a memetika tudományának feladata.
14:21
Memetics is morally neutral. And so it should be.
205
861000
6000
A memetika erkölcsileg semleges. És ennek így is kell lennie.
14:27
This is not the place for hate and anger.
206
867000
4000
Itt nincs helye haragnak és gyűlöletnek.
14:31
If you've had a friend who's died of AIDS, then you hate HIV.
207
871000
5000
Ha volt egy barátja, aki AIDS-ben halt meg, akkor Ön utálja a HIV-et.
14:36
But the way to deal with that is to do science,
208
876000
4000
De úgy kell ezt kezelnie, hogy utánanéz,
14:40
and understand how it spreads and why in a morally neutral perspective.
209
880000
7000
és megérti, hogyan és miért terjed, semleges nézőpontból.
14:47
Get the facts.
210
887000
2000
Ismerje meg a tényeket.
14:49
Work out the implications.
211
889000
4000
Vonjon le következtetéseket.
14:53
There's plenty of room for moral passion once we've got the facts
212
893000
4000
Mihelyst megértettük a tényeket, számos módon reagálhatunk,
14:57
and can figure out the best thing to do.
213
897000
2000
és kitalálhatjuk, mi a legjobb, amit tehetünk.
14:59
And, as with germs, the trick is not to try to annihilate them.
214
899000
5000
És ahogyan a baktériumoknál is, a trükk nem az, hogy megpróbáljuk megsemmisíteni.
15:04
You will never annihilate the germs.
215
904000
3000
Sohasem fogja tudni megsemmisíteni a baktériumokat.
15:07
What you can do, however, is foster public health measures and the like
216
907000
6000
Amit viszont tehet az az, hogy közegészségügyi intézkedéseket hoz,
15:13
that will encourage the evolution of avirulence.
217
913000
5000
melyek lassítják a fertőzőképesség fejlődését.
15:19
That will encourage the spread of relatively benign mutations
218
919000
7000
Ez elősegíti a relatíve jóindulatú mutációit
15:26
of the most toxic varieties.
219
926000
3000
a legmérgezőbb variációknak.
15:29
That's all the time I have,
220
929000
3000
Ennyi időm volt,
15:32
so thank you very much for your attention.
221
932000
3000
köszönöm szépen a figyelmüket.

Original video on YouTube.com
Erről a weboldalról

Ez az oldal olyan YouTube-videókat mutat be, amelyek hasznosak az angol nyelvtanuláshoz. A világ minden tájáról származó, kiváló tanárok által tartott angol leckéket láthatsz. Az egyes videók oldalán megjelenő angol feliratokra duplán kattintva onnan játszhatja le a videót. A feliratok a videó lejátszásával szinkronban gördülnek. Ha bármilyen észrevétele vagy kérése van, kérjük, lépjen kapcsolatba velünk ezen a kapcsolatfelvételi űrlapon.

https://forms.gle/WvT1wiN1qDtmnspy7