Dangerous memes | Dan Dennett

Dan Dennett y los memes peligrosos

501,092 views ・ 2007-07-03

TED


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: sara garcia cespedes Revisor: Amaranta Heredia Jaén
00:25
How many Creationists do we have in the room?
0
25000
3000
¿Cuántos cracionistas hay aquí esta noche?
00:28
Probably none. I think we're all Darwinians.
1
28000
3000
Probablemente ninguno. Creo que somos todos darwinistas.
00:31
And yet many Darwinians are anxious, a little uneasy --
2
31000
7000
E incluso así, muchos darwinistas están un poco ansiosos, un poco intranquilos.
00:38
would like to see some limits on just how far the Darwinism goes.
3
38000
5000
Quisieran ver los límites del alcance del darwinismo.
00:43
It's all right.
4
43000
2000
Está bien.
00:45
You know spiderwebs? Sure, they are products of evolution.
5
45000
4000
¿Las telarañas? Seguro que son producto de la evolución
00:49
The World Wide Web? Not so sure.
6
49000
4000
¿La Red? No estoy tan seguro.
00:53
Beaver dams, yes. Hoover Dam, no.
7
53000
2000
Las presas de los castores sí; la presa Hoover, no.
00:55
What do they think it is that prevents the products of human ingenuity
8
55000
6000
¿Qué creen que evita que los productos del ingenio humano
01:01
from being themselves, fruits of the tree of life,
9
61000
3000
sean ellos también fruto del árbol de la vida
01:04
and hence, in some sense, obeying evolutionary rules?
10
64000
5000
y por lo tanto, en algún sentido, obedezcan a las reglas de la evolución?
01:10
And yet people are interestingly resistant
11
70000
4000
Pese a ello, las personas son renuentes
01:14
to the idea of applying evolutionary thinking to thinking -- to our thinking.
12
74000
7000
a la idea de aplicar las reglas de la evolución al pensamiento -- a nuestro pensamiento.
01:21
And so I'm going to talk a little bit about that,
13
81000
4000
Así que voy a hablar un poco al respecto,
01:25
keeping in mind that we have a lot on the program here.
14
85000
4000
teniendo presente que hay mucho en el programa.
01:29
So you're out in the woods, or you're out in the pasture,
15
89000
4000
Imaginad que estáis afuera en un bosque, en algún prado
01:33
and you see this ant crawling up this blade of grass.
16
93000
3000
y veis una hormiga trepando por una brizna de hierba.
01:36
It climbs up to the top, and it falls,
17
96000
3000
Sube hasta arriba y se cae,
01:39
and it climbs, and it falls, and it climbs --
18
99000
3000
y sube y se cae y sube --
01:42
trying to stay at the very top of the blade of grass.
19
102000
4000
tratando de quedarse en la cima de la brizna de hierba.
01:46
What is this ant doing? What is this in aid of?
20
106000
5000
¿Qué está haciendo esta hormiga? ¿A qué viene todo esto?
01:51
What goals is this ant trying to achieve by climbing this blade of grass?
21
111000
7000
¿Qué metas está persiguiendo esta hormiga al subir la brizna de hierba?
01:58
What's in it for the ant?
22
118000
2000
¿Qué gana la hormiga?
02:00
And the answer is: nothing. There's nothing in it for the ant.
23
120000
6000
Y la respuesta es: nada. La hormiga no gana nada.
02:06
Well then, why is it doing this?
24
126000
3000
Entonces, ¿por qué lo hace?
02:09
Is it just a fluke?
25
129000
2000
¿Se ha vuelto loca?
02:11
Yeah, it's just a fluke. It's a lancet fluke.
26
131000
7000
Si, precisamente, la han vuelto loca.
02:18
It's a little brain worm.
27
138000
2000
Está infectada por un parásito cerebral.
02:20
It's a parasitic brain worm that has to get into the stomach of a sheep or a cow
28
140000
5000
Es un parásito cerebral que necesita llegar al estómago de una oveja o una vaca
02:25
in order to continue its life cycle.
29
145000
3000
para continuar su ciclo vital.
02:28
Salmon swim upstream to get to their spawning grounds,
30
148000
5000
Los salmones nadan contracorriente para desovar
02:33
and lancet flukes commandeer a passing ant,
31
153000
4000
y los parásitos se apropian de una hormiga,
02:37
crawl into its brain, and drive it up a blade of grass like an all-terrain vehicle.
32
157000
5000
se arrastran hasta su cerebro y la usan como un vehículo todo terreno.
02:42
So there's nothing in it for the ant.
33
162000
4000
La hormiga no gana nada.
02:46
The ant's brain has been hijacked by a parasite that infects the brain,
34
166000
8000
El cerebro de la hormiga ha sido secuestrado por un parásito que infectó su cerebro
02:54
inducing suicidal behavior.
35
174000
3000
y la indujo a un comportamiento suicida.
02:58
Pretty scary.
36
178000
2000
Deja los pelos de punta.
03:00
Well, does anything like that happen with human beings?
37
180000
4000
Bueno, ¿acaso pasa algo similar con los humanos?
03:05
This is all on behalf of a cause other than one's own genetic fitness, of course.
38
185000
5000
¿Hay algo que sea más importante que la preservación de la especie?
03:10
Well, it may already have occurred to you
39
190000
5000
Bueno, quizá ya se les haya ocurrido
03:15
that Islam means "surrender," or "submission of self-interest to the will of Allah."
40
195000
10000
que la palabra "islam" significa "rendición", "sumisión del interés propio a la voluntad de Alá".
03:25
Well, it's ideas -- not worms -- that hijack our brains.
41
205000
6000
Bueno, son las ideas, no los gusanos, los parásitos que secuestran nuestra mente.
03:31
Now, am I saying that a sizable minority of the world's population
42
211000
5000
¿Estoy diciendo que una minoría en el mundo
03:36
has had their brain hijacked by parasitic ideas?
43
216000
6000
tiene su cerebro secuestrado por ideas parásitas?
03:43
No, it's worse than that.
44
223000
2000
Oh, no, es peor que eso.
03:45
Most people have.
45
225000
4000
La mayoría de las personas lo tiene.
03:49
(Laughter)
46
229000
2000
(Risas)
03:53
There are a lot of ideas to die for.
47
233000
2000
Hay muchas ideas por las que morir.
03:55
Freedom, if you're from New Hampshire.
48
235000
3000
La libertad, si eres de New Hampshire.
03:58
(Laughter)
49
238000
3000
(Risas)
04:02
Justice. Truth. Communism.
50
242000
4000
La justicia. La verdad. El comunismo.
04:06
Many people have laid down their lives for communism,
51
246000
3000
Muchas personas dieron su vida por el comunismo,
04:09
and many have laid down their lives for capitalism.
52
249000
3000
y muchas otras lo hicieron por el capitalismo.
04:12
And many for Catholicism. And many for Islam.
53
252000
4000
Y muchas por el catolicismo. Y muchas por el islam.
04:16
These are just a few of the ideas that are to die for.
54
256000
5000
Estas son unas pocas de las ideas por las cuales morir.
04:21
They're infectious.
55
261000
2000
Son infecciosas.
04:24
Yesterday, Amory Lovins spoke about "infectious repititis."
56
264000
4000
Ayer Amory Lovins habló de "repetitis infecciosa".
04:28
It was a term of abuse, in effect.
57
268000
3000
De hecho, era un término despectivo.
04:31
This is unthinking engineering.
58
271000
2000
Es una ingeniería sin pensamiento.
04:33
Well, most of the cultural spread that goes on
59
273000
4000
Bueno, la mayoría de la divulgación cultural
04:37
is not brilliant, new, out-of-the-box thinking.
60
277000
4000
no es precisamente pensamiento brillante y original,
04:41
It's "infectious repetitis,"
61
281000
2000
sino repetitis infecciosa.
04:43
and we might as well try to have a theory of what's going on when that happens
62
283000
5000
Y deberíamos tener una teoría de lo que está pasando.
04:48
so that we can understand the conditions of infection.
63
288000
4000
Así podríamos entender las condiciones de la infección.
04:54
Hosts work hard to spread these ideas to others.
64
294000
7000
Nuestros anfitriones trabajan duro para esparcir estas ideas.
05:01
I myself am a philosopher, and one of our occupational hazards
65
301000
6000
Yo mismo soy un filósofo, y uno de los riesgos del oficio es
05:07
is that people ask us what the meaning of life is.
66
307000
4000
que la gente nos pregunta sobre el significado de la vida.
05:11
And you have to have a bumper sticker,
67
311000
3000
Y tienes que tener un eslogan,
05:14
you know. You have to have a statement.
68
314000
3000
saben, tienes que tener una postura.
05:17
So, this is mine.
69
317000
2000
Esta es la mía.
05:19
The secret of happiness is: Find something more important than you are
70
319000
4000
El secreto de la felicidad es: encuentra algo más importante que tú
05:23
and dedicate your life to it.
71
323000
2000
y dedica tu vida a ello.
05:25
Most of us -- now that the "Me Decade" is well in the past --
72
325000
4000
La mayoría de nosotros -- ahora que la "década del Yo" ha pasado realmente --
05:29
now we actually do this.
73
329000
2000
hace esto.
05:31
One set of ideas or another
74
331000
3000
Un grupo cualquiera de ideas
05:34
have simply replaced our biological imperatives in our own lives.
75
334000
4000
sencillamente reemplaza nuestros imperativos biológicos.
05:38
This is what our summum bonum is.
76
338000
3000
Este es nuestro summum bonum.
05:41
It's not maximizing the number of grandchildren we have.
77
341000
3000
No es maximizar la cantidad de nietos que uno tiene.
05:44
Now, this is a profound biological effect.
78
344000
4000
Ahora, esto tiene un profundo efecto biológico:
05:48
It's the subordination of genetic interest to other interests.
79
348000
3000
la subordinación de los intereses genéticos a otros intereses.
05:51
And no other species does anything at all like it.
80
351000
4000
Ninguna otra especie hace nada parecido.
05:55
Well, how are we going to think about this?
81
355000
2000
Bueno, ¿qué podemos pensar sobre esto?
05:57
It is, on the one hand, a biological effect, and a very large one.
82
357000
4000
Por un lado, tiene un efecto biológico, y uno muy grande.
06:01
Unmistakable.
83
361000
2000
Es innegable.
06:03
Now, what theories do we want to use to look at this?
84
363000
3000
¿Qué teorías queremos usar para estudiar esto?
06:06
Well, many theories. But how could something tie them together?
85
366000
3000
Bueno, muchas. ¿Pero cómo las unimos?
06:09
The idea of replicating ideas;
86
369000
3000
La idea de ideas que se duplican;
06:12
ideas that replicate by passing from brain to brain.
87
372000
5000
ideas que se duplican pasando de un cerebro a otro.
06:17
Richard Dawkins, whom you'll be hearing later in the day, invented the term "memes,"
88
377000
5000
Richard Dawkins, a quien escucharán más tarde, inventó el término "meme"
06:22
and put forward the first really clear and vivid version of this idea
89
382000
5000
y expuso la primera visión clara y vívida
06:27
in his book "The Selfish Gene."
90
387000
2000
en su libro "El gen egoísta".
06:29
Now here am I talking about his idea.
91
389000
3000
Aquí voy a hablar de su idea.
06:32
Well, you see, it's not his. Yes -- he started it.
92
392000
6000
Bueno, ya ven, ahora no es suya. Sí -- él la empezó.
06:38
But it's everybody's idea now.
93
398000
3000
Pero es una idea de todos ahora.
06:41
And he's not responsible for what I say about memes.
94
401000
4000
Y él no es responsable de lo que yo diga acerca de los memes.
06:45
I'm responsible for what I say about memes.
95
405000
4000
Yo soy el responsable de lo que diga acerca de los memes.
06:50
Actually, I think we're all responsible
96
410000
3000
De hecho, pienso que todos somos responsables
06:53
for not just the intended effects of our ideas,
97
413000
6000
no solo de los efectos previstos o intencionados de nuestras ideas,
06:59
but for their likely misuses.
98
419000
3000
sino también de sus probables malos usos.
07:03
So it is important, I think, to Richard, and to me,
99
423000
4000
Creo que es importante, para Richard y para mí,
07:07
that these ideas not be abused and misused.
100
427000
4000
que no se abuse de estas ideas ni se usen mal.
07:11
They're very easy to misuse. That's why they're dangerous.
101
431000
3000
Es muy fácil usarlas mal. Por eso son peligrosas.
07:14
And it's just about a full-time job
102
434000
3000
Es un trabajo muy costoso
07:17
trying to prevent people who are scared of these ideas
103
437000
3000
el evitar que las personas a quienes asustan estas ideas
07:20
from caricaturing them and then running off to one dire purpose or another.
104
440000
8000
las simplifiquen y que las usen para cualquier fin indebido.
07:28
So we have to keep plugging away,
105
448000
3000
Tenemos que seguir muy atentos,
07:31
trying to correct the misapprehensions
106
451000
2000
tratando de corregir estas malas interpretaciones,
07:33
so that only the benign and useful variants of our ideas continue to spread.
107
453000
8000
para que solo las variantes benignas y útiles de nuestras ideas sigan propagándose.
07:41
But it is a problem.
108
461000
2000
Pero esto es un problema.
07:45
We don't have much time, and I'm going to go over just a little bit of this and cut out,
109
465000
5000
No tenemos mucho tiempo, así que voy a seguir un poco con esto y a cortar
07:50
because there's a lot of other things that are going to be said.
110
470000
3000
porque voy a contar muchas otras cosas.
07:53
So let me just point out: memes are like viruses.
111
473000
5000
Así que solo déjenme señalar que los memes son como virus.
07:58
That's what Richard said, back in '93.
112
478000
2000
Eso es lo que dijo Richard en el 93.
08:00
And you might think, "Well, how can that be?
113
480000
2000
Y pueden pensar, "Bueno, ¿cómo puede ser eso?
08:02
I mean, a virus is -- you know, it's stuff! What's a meme made of?"
114
482000
7000
Quiero decir, un virus es algo -- ya saben, ¡algo material! ¿De qué está hecho un meme?"
08:09
Yesterday, Negroponte was talking about viral telecommunications
115
489000
5000
Ayer, Negroponte estaba hablando de la telecomunicación viral,
08:14
but -- what's a virus?
116
494000
1000
pero -- ¿qué es un virus?
08:15
A virus is a string of nucleic acid with attitude.
117
495000
4000
Un virus es una cadena de ácido nucleico con personalidad.
08:19
(Laughter)
118
499000
1000
(Risas)
08:20
That is, there is something about it
119
500000
2000
Quiero decir, tiene algo
08:22
that tends to make it replicate better than the competition does.
120
502000
4000
que suele hacer que se replique mejor que la competencia.
08:26
And that's what a meme is. It's an information packet with attitude.
121
506000
4000
Y eso es lo que es un meme: un paquete de información con personalidad.
08:30
What's a meme made of? What are bits made of, Mom?
122
510000
6000
¿De qué están hechos los memes? ¿De qué están hechos los bits, mamá?
08:36
Not silicon.
123
516000
2000
De silicio, no.
08:38
They're made of information, and can be carried in any physical medium.
124
518000
4000
Están hechos de información, y pueden transportarse en cualquier medio físico.
08:42
What's a word made of?
125
522000
2000
¿De qué están hechas las palabras?
08:44
Sometimes when people say, "Do memes exist?"
126
524000
5000
Algunas veces, cuando la gente dice, "¿Acaso existen los memes?"
08:49
I say, "Well, do words exist? Are they in your ontology?"
127
529000
4000
Yo digo "Bueno, ¿acaso existen las palabras? ¿Están en tu ontología?"
08:53
If they are, words are memes that can be pronounced.
128
533000
5000
Si están, las palabras son memes que pueden pronunciarse.
08:58
Then there's all the other memes that can't be pronounced.
129
538000
3000
También hay muchos otros memes que no pueden pronunciarse.
09:01
There are different species of memes.
130
541000
3000
Hay diferentes especies de memes.
09:09
Remember the Shakers? Gift to be simple?
131
549000
4000
¿Recuerdan a los shakers? (grupo religioso protestante) ¿El regalo de ser simples?
09:13
Simple, beautiful furniture?
132
553000
3000
Solían hacer muebles sencillos y hermosos.
09:16
And, of course, they're basically extinct now.
133
556000
3000
Por supuesto, están prácticamente extintos ahora.
09:19
And one of the reasons is that among the creed of Shaker-dom
134
559000
6000
Y una de las razones es que parte de su credo
09:25
is that one should be celibate.
135
565000
2000
es que uno debe ser célibe.
09:27
Not just the priests. Everybody.
136
567000
2000
No sólo el sacerdote. Todo el mundo.
09:29
Well, it's not so surprising that they've gone extinct. (Laughter)
137
569000
8000
Bueno, no es tan sorprendente que se extinguieran. (Risas)
09:37
But in fact that's not why they went extinct.
138
577000
3000
Pero de hecho, no es por eso por lo que se extinguieron.
09:42
They survived as long as they did
139
582000
3000
Sobrevivieron tanto como lo hicieron
09:45
at a time when the social safety nets weren't there.
140
585000
2000
en una época en la que la seguridad social no existía.
09:47
And there were lots of widows and orphans,
141
587000
3000
Y había un montón de huérfanos y viudas,
09:50
people like that, who needed a foster home.
142
590000
3000
personas así, que necesitaban un hogar de acogida.
09:53
And so they had a ready supply of converts.
143
593000
3000
Y así tenían un suministro constante de conversos.
09:56
And they could keep it going.
144
596000
2000
Y así podían continuar.
09:58
And, in principle, it could've gone on forever,
145
598000
2000
Básicamente podrían haber seguido para siempre.
10:00
with perfect celibacy on the part of the hosts.
146
600000
3000
Con un celibato perfecto por parte de los anfitriones.
10:03
The idea being passed on through proselytizing,
147
603000
5000
La idea se transmitía gracias al proselitismo
10:08
instead of through the gene line.
148
608000
3000
en lugar de a través de los genes.
10:13
So the ideas can live on in spite of the fact
149
613000
4000
Las ideas pueden sobrevivir independientemente del hecho
10:17
that they're not being passed on genetically.
150
617000
3000
de que no se transmitan genéticamente.
10:20
A meme can flourish in spite of having a negative impact on genetic fitness.
151
620000
4000
Un meme puede prosperar a pesar de tener un impacto negativo en la adaptación genética.
10:24
After all, the meme for Shaker-dom was essentially a sterilizing parasite.
152
624000
8000
Después de todo, el meme de los shakers era un parásito esterilizador.
10:33
There are other parasites that do this -- which render the host sterile.
153
633000
6000
Hay otros parásitos que también hacen esto -- que dejan a su hospedador estéril.
10:40
It's part of their plan.
154
640000
2000
Es parte de su plan.
10:42
They don't have to have minds to have a plan.
155
642000
4000
No necesitan tener una mente para tener un plan.
10:47
I'm just going to draw your attention to just one
156
647000
5000
Solo voy a llamar su atención sobre una
10:52
of the many implications of the memetic perspective, which I recommend.
157
652000
8000
de las muchas implicaciones de la perspectiva memética, la cual recomiendo.
11:01
I've not time to go into more of it.
158
661000
2000
No hay tiempo para profundizar en ello.
11:03
In Jared Diamond's wonderful book, "Guns, Germs and Steel,"
159
663000
4000
En el genial libro de Jared Diamond "Armas, gérmenes y acero",
11:07
he talks about how it was germs, more than guns and steel,
160
667000
6000
habla de cómo fueron los gérmenes, más que las armas y el acero,
11:13
that conquered the new hemisphere -- the Western hemisphere --
161
673000
5000
los que conquistaron el nuevo hemisferio -- el hemisferio occidental --,
11:18
that conquered the rest of the world.
162
678000
2000
los que conquistaron el resto del mundo.
11:20
When European explorers and travelers spread out,
163
680000
7000
Cuando los exploradores y viajeros europeos se expandieron,
11:27
they brought with them the germs
164
687000
2000
trajeron con ellos los gérmenes
11:29
that they had become essentially immune to,
165
689000
3000
contra los que estaban inmunizados,
11:32
that they had learned how to tolerate over
166
692000
3000
los que habían aprendido a tolerar a lo largo
11:35
hundreds and hundreds of years, thousands of years,
167
695000
3000
de cientos de años, de miles de años
11:38
of living with domesticated animals who were the sources of those pathogens.
168
698000
4000
viviendo con animales domésticos que eran la fuente de esos patógenos.
11:43
And they just wiped out -- these pathogens just wiped out the native people,
169
703000
5000
Y sencillamente los arrasaron -- estos patógenos arrasaron a los nativos,
11:48
who had no immunity to them at all.
170
708000
3000
que para nada eran inmunes a ellos.
11:51
And we're doing it again.
171
711000
3000
Y lo estamos haciendo otra vez.
11:55
We're doing it this time with toxic ideas.
172
715000
4000
Esta vez lo hacemos con ideas tóxicas.
12:00
Yesterday, a number of people -- Nicholas Negroponte and others --
173
720000
4000
Ayer, unas cuantas personas -- Nicholas Negroponte y otros --
12:04
spoke about all the wonderful things
174
724000
2000
hablaron de todas las cosas maravillosas
12:06
that are happening when our ideas get spread out,
175
726000
3000
que pasan cuando se esparcen las ideas,
12:09
thanks to all the new technology all over the world.
176
729000
2000
gracias a las nuevas tecnologías, alrededor del mundo.
12:11
And I agree. It is largely wonderful. Largely wonderful.
177
731000
6000
Y estoy de acuerdo. Es en gran parte maravilloso. En su mayor parte maravilloso.
12:17
But among all those ideas that inevitably flow out into the whole world
178
737000
8000
Pero entre todas esas ideas que inevitablemente circulan por todo el mundo
12:25
thanks to our technology, are a lot of toxic ideas.
179
745000
5000
gracias a nuestra tecnología, hay muchas ideas tóxicas.
12:30
Now, this has been realized for some time.
180
750000
3000
Hace un tiempo que nos hemos dado cuenta.
12:33
Sayyid Qutb is one of the founding fathers of fanatical Islam,
181
753000
6000
Sayyid Qutb es uno de los padres fundadores del fanatismo islámico,
12:39
one of the ideologues that inspired Osama bin Laden.
182
759000
5000
uno de los ideólogos que inspiraron a Osama Bin Laden.
12:44
"One has only to glance at its press films, fashion shows, beauty contests,
183
764000
5000
"Uno sólo tiene que echar un vistazo a sus películas, sus desfiles de moda, sus concursos de belleza,
12:49
ballrooms, wine bars and broadcasting stations." Memes.
184
769000
6000
sus salones de baile, sus bares y sus medios de comunicación". Memes.
12:55
These memes are spreading around the world
185
775000
4000
Estos memes se están esparciendo por el mundo
12:59
and they are wiping out whole cultures.
186
779000
5000
y están destruyendo culturas enteras.
13:04
They are wiping out languages.
187
784000
2000
Están destruyendo lenguas.
13:06
They are wiping out traditions and practices.
188
786000
5000
Están destruyendo tradiciones y costumbres.
13:11
And it's not our fault, anymore than it's our fault when our germs lay waste
189
791000
8000
Y no es nuestra culpa, como tampoco es nuestra culpa cuando nuestros gérmenes
13:19
to people that haven't developed the immunity.
190
799000
3000
arrasan con todas aquellas personas que no han desarrollado la inmunidad.
13:22
We have an immunity to all of the junk that lies around the edges of our culture.
191
802000
6000
Nosotros somos inmunes a toda la basura que está en la periferia de nuestra cultura.
13:28
We're a free society, so we let pornography and all these things -- we shrug them off.
192
808000
6000
Somos una sociedad libre, así que permitimos la pornografía y esas cosas -- les restamos importancia.
13:34
They're like a mild cold.
193
814000
2000
Son como un resfriado leve.
13:36
They're not a big deal for us.
194
816000
2000
No son un asunto tan serio para nosotros.
13:38
But we should recognize that for many people in the world,
195
818000
4000
Pero debemos reconocer que, para mucha gente en el mundo,
13:42
they are a big deal.
196
822000
4000
son un asunto muy serio.
13:46
And we should be very alert to this.
197
826000
3000
Y deberíamos estar alertas.
13:49
As we spread our education and our technology,
198
829000
3000
Mientras esparcimos nuestra educación y nuestra tecnología,
13:52
one of the things that we are doing is we're the vectors of memes
199
832000
8000
una de las cosas que estamos haciendo es ser los vectores de memes
14:00
that are correctly viewed by the hosts of many other memes
200
840000
6000
que son considerados como un peligro por los hospedadores de muchos otros memes,
14:06
as a dire threat to their favorite memes --
201
846000
3000
como una amenaza directa a sus memes favoritos --
14:09
the memes that they are prepared to die for.
202
849000
3000
los memes por los que ellos morirían.
14:12
Well now, how are we going to tell the good memes from the bad memes?
203
852000
4000
Ahora bien, ¿cómo podemos distinguir los memes buenos de los memes malos?
14:16
That is not the job of the science of memetics.
204
856000
5000
Ese no es el problema de la memética.
14:21
Memetics is morally neutral. And so it should be.
205
861000
6000
La memética es moralmente neutra. Y así debe ser.
14:27
This is not the place for hate and anger.
206
867000
4000
Este no es lugar para el odio y el enojo.
14:31
If you've had a friend who's died of AIDS, then you hate HIV.
207
871000
5000
Si un amigo tuyo hubiera muerto de sida, odiarías el VIH.
14:36
But the way to deal with that is to do science,
208
876000
4000
Pero la forma de lidiar con ello es haciendo ciencia
14:40
and understand how it spreads and why in a morally neutral perspective.
209
880000
7000
y entendiendo cómo se esparce y por qué desde una perspectiva moralmente neutra.
14:47
Get the facts.
210
887000
2000
Conocer los hechos.
14:49
Work out the implications.
211
889000
4000
Entender las implicaciones.
14:53
There's plenty of room for moral passion once we've got the facts
212
893000
4000
Hay todo el tiempo del mundo para la pasión moral después de conocer los hechos
14:57
and can figure out the best thing to do.
213
897000
2000
y de decidir qué es lo mejor que podemos hacer.
14:59
And, as with germs, the trick is not to try to annihilate them.
214
899000
5000
Y como con los gérmenes, el truco no es tratar de aniquilarlos.
15:04
You will never annihilate the germs.
215
904000
3000
Nunca vas a lograr aniquilarlos.
15:07
What you can do, however, is foster public health measures and the like
216
907000
6000
Lo que sí puedes hacer es fomentar el desarrollo de la salud pública y cosas así
15:13
that will encourage the evolution of avirulence.
217
913000
5000
que van a propiciar la evolución de la avirulencia.
15:19
That will encourage the spread of relatively benign mutations
218
919000
7000
Eso propiciará que se esparzan mutaciones relativamente más benignas
15:26
of the most toxic varieties.
219
926000
3000
de las variedades más tóxicas del virus.
15:29
That's all the time I have,
220
929000
3000
Ese es todo el tiempo que tengo, así que
15:32
so thank you very much for your attention.
221
932000
3000
muchas gracias por su atención.
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7