Dan Dennett: Cute, sexy, sweet, funny

Dan Dennett: Fofo, sensual, doce, engraçado

273,301 views ・ 2009-03-16

TED


Por favor, clique duas vezes nas legendas em inglês abaixo para reproduzir o vídeo.

Tradutor: Luiz Bento Revisor: Aurelio Tergolina Salton
00:12
I’m going around the world giving talks about Darwin,
0
12160
3000
Eu viajo ao redor do mundo dando palestras sobre Darwin,
00:15
and usually what I’m talking about
1
15160
2000
e geralmente eu falo sobre
00:17
is Darwin’s strange inversion of reasoning.
2
17160
3000
a estranha inversão de raciocínio de Darwin.
00:20
Now that title, that phrase, comes from a critic, an early critic,
3
20160
5000
Este título, esta frase, vem de um crítico, um crítico pioneiro,
00:25
and this is a passage that I just love, and would like to read for you.
4
25160
4000
e este é um trecho que eu adoro, e gostaria de ler para vocês.
00:29
"In the theory with which we have to deal, Absolute Ignorance is the artificer;
5
29160
5000
"Na teoria com a qual temos que lidar, Ignorância Absoluta é a artífice;
00:34
so that we may enunciate as the fundamental principle of the whole system,
6
34160
5000
de modo que podemos enunciar como o princípio fundamental de todo o sistema,
00:39
that, in order to make a perfect and beautiful machine,
7
39160
3000
que, a fim de fazer uma máquina perfeita e bela,
00:42
it is not requisite to know how to make it.
8
42160
3000
não é requisito saber como fazê-la.
00:45
This proposition will be found on careful examination to express,
9
45160
4000
Esta proposição será encontrada em um exame cuidadoso, para expressar,
00:49
in condensed form, the essential purport of the Theory,
10
49160
4000
em uma forma condensada, o propósito essencial da Teoria,
00:53
and to express in a few words all Mr. Darwin’s meaning;
11
53160
4000
e para expressar em poucas palavras todo o significado do Sr. Darwin;
00:57
who, by a strange inversion of reasoning,
12
57160
4000
quem, por uma estranha inversão de raciocínio,
01:01
seems to think Absolute Ignorance fully qualified
13
61160
3000
parece pensar que a Ignorância Absoluta é totalmente qualificada
01:04
to take the place of Absolute Wisdom in the achievements of creative skill."
14
64160
6000
para tomar o lugar da Sabedoria Absoluta nas realizações da habilidade criativa."
01:10
Exactly. Exactly. And it is a strange inversion.
15
70160
7000
Exatamente. Exatamente. E é uma estranha inversão.
01:17
A creationist pamphlet has this wonderful page in it:
16
77160
4000
Um panfleto criacionista tem uma formidável página:
01:21
"Test Two:
17
81160
2000
"Teste Dois:
01:23
Do you know of any building that didn’t have a builder? Yes/No.
18
83160
4000
Você conhece alguma construção que não tinha um construtor? Sim Não.
01:27
Do you know of any painting that didn’t have a painter? Yes/No.
19
87160
3000
Você conhece alguma pintura que não tinha um pintor? Sim Não.
01:30
Do you know of any car that didn’t have a maker? Yes/No.
20
90160
4000
Você conhece algum carro que não tinha um fabricante? Sim Não.
01:34
If you answered 'Yes' for any of the above, give details."
21
94160
5000
Se você respondeu "SIM" para alguma das acima, especifique."
01:39
A-ha! I mean, it really is a strange inversion of reasoning.
22
99160
6000
A-ha! Quero dizer, é realmente uma estranha inversão de raciocínio.
01:45
You would have thought it stands to reason
23
105160
4000
Você teria pensado que parece lógico
01:49
that design requires an intelligent designer.
24
109160
4000
que design requer um designer inteligente.
01:53
But Darwin shows that it’s just false.
25
113160
2000
Mas Darwin mostra que isso é simplesmente falso.
01:55
Today, though, I’m going to talk about Darwin’s other strange inversion,
26
115160
5000
Hoje, porém, eu vou falar sobre outra inversão de raciocínio de Darwin,
02:00
which is equally puzzling at first, but in some ways just as important.
27
120160
6000
a qual é igualmente intrigante de início, mas de certa forma tão importante quanto.
02:06
It stands to reason that we love chocolate cake because it is sweet.
28
126160
7000
Parece lógico que adoramos bolo de chocolate porque ele é doce.
02:13
Guys go for girls like this because they are sexy.
29
133160
6000
Rapazes tentam conseguir garotas como estas porque elas são sexy.
02:19
We adore babies because they’re so cute.
30
139160
4000
Adoramos bebês porque eles são tão fofos.
02:23
And, of course, we are amused by jokes because they are funny.
31
143160
9000
E, naturalmente, nos divertimos com piadas porque elas são engraçadas.
02:32
This is all backwards. It is. And Darwin shows us why.
32
152160
7000
Isto está invertido. Está sim. E Darwin nos mostra o porquê.
02:39
Let’s start with sweet. Our sweet tooth is basically an evolved sugar detector,
33
159160
8000
Vamos começar com doce. Nosso apetite por doce é basicamente um detector de açúcar evoluído,
02:47
because sugar is high energy, and it’s just been wired up to the preferer,
34
167160
4000
porque açúcar é energético, e foi apenas conectado até a preferência
02:51
to put it very crudely, and that’s why we like sugar.
35
171160
5000
para colocar de forma crua, e é por isso que gostamos de açúcar.
02:56
Honey is sweet because we like it, not "we like it because honey is sweet."
36
176160
7000
Mel é doce porque gostamos dele, não "nós gostamos dele porque mel é doce."
03:03
There’s nothing intrinsically sweet about honey.
37
183160
5000
Não há nada de intrinsecamente doce sobre o mel.
03:08
If you looked at glucose molecules till you were blind,
38
188160
4000
Se você olhasse para moléculas de glicose até cansar,
03:12
you wouldn’t see why they tasted sweet.
39
192160
3000
você não veria porque elas são doces.
03:15
You have to look in our brains to understand why they’re sweet.
40
195160
6000
Você deve olhar dentro do cérebro para entender porque elas são doces.
03:21
So if you think first there was sweetness,
41
201160
2000
Então se você acha que primeiro existia a doçura,
03:23
and then we evolved to like sweetness,
42
203160
2000
e depois nós evoluímos para gostar de doçura,
03:25
you’ve got it backwards; that’s just wrong. It’s the other way round.
43
205160
4000
você entendeu invertido; isso é simplesmente errado. É o contrário.
03:29
Sweetness was born with the wiring which evolved.
44
209160
4000
Doçura nasceu com a fiação que evoluiu.
03:33
And there’s nothing intrinsically sexy about these young ladies.
45
213160
4000
E não existe nada intrinsecamente sensual sobre estas jovens.
03:37
And it’s a good thing that there isn’t, because if there were,
46
217160
5000
E é bom que não existe, porque se existisse,
03:42
then Mother Nature would have a problem:
47
222160
4000
então a Mãe Natureza teria um problema:
03:46
How on earth do you get chimps to mate?
48
226160
5000
Como conseguir fazer chimpanzés acasalarem?
03:53
Now you might think, ah, there’s a solution: hallucinations.
49
233160
8000
Agora você talvez pense, ah, existe uma solução: alucinações.
04:01
That would be one way of doing it, but there’s a quicker way.
50
241160
4000
Isso seria uma maneira de fazer, mas há uma maneira mais rápida.
04:05
Just wire the chimps up to love that look,
51
245160
3000
Apenas faça com que os chimpanzés gostem daquele aspecto,
04:08
and apparently they do.
52
248160
3000
e aparentemente eles gostam.
04:11
That’s all there is to it.
53
251160
4000
Isso é tudo.
04:16
Over six million years, we and the chimps evolved our different ways.
54
256160
4000
Ao longo de seis milhões de anos, nós e os chimpanzés evoluímos nossos caminhos diferentes.
04:20
We became bald-bodied, oddly enough;
55
260160
3000
Nós ficamos sem pelos, curiosamente;
04:23
for one reason or another, they didn’t.
56
263160
4000
por uma ou outra razão, eles não ficaram.
04:27
If we hadn’t, then probably this would be the height of sexiness.
57
267160
12000
Se nós não tivéssemos, então provavelmente esse seria o auge do sexy.
04:39
Our sweet tooth is an evolved and instinctual preference for high-energy food.
58
279160
5000
Nosso apetite por doce é uma evoluída e instintiva preferência por alimentos energéticos.
04:44
It wasn’t designed for chocolate cake.
59
284160
3000
Ele não foi programado para bolo de chocolate.
04:47
Chocolate cake is a supernormal stimulus.
60
287160
3000
Bolo de chocolate é um estímulo supranormal.
04:50
The term is owed to Niko Tinbergen,
61
290160
2000
O termo pertence a Niko Tinbergen,
04:52
who did his famous experiments with gulls,
62
292160
2000
que fez seus famosos experimentos com gaivotas,
04:54
where he found that that orange spot on the gull’s beak --
63
294160
4000
onde ele verificou que aquela mancha laranja no bico da gaivota --
04:58
if he made a bigger, oranger spot
64
298160
2000
se ele fizesse uma maior, mancha laranja
05:00
the gull chicks would peck at it even harder.
65
300160
2000
os filhotes de gaivota bicariam nela ainda mais forte.
05:02
It was a hyperstimulus for them, and they loved it.
66
302160
3000
Isso foi um hiper estímulo para eles, e eles adoraram.
05:05
What we see with, say, chocolate cake
67
305160
4000
O que nós vemos com, digamos, bolo de chocolate
05:09
is it’s a supernormal stimulus to tweak our design wiring.
68
309160
5000
é um estímulo supranormal para ajustar nosso projeto de fiação.
05:14
And there are lots of supernormal stimuli; chocolate cake is one.
69
314160
3000
E existem muitos estímulos supranormais; bolo de chocolate é um.
05:17
There's lots of supernormal stimuli for sexiness.
70
317160
3000
Existem muitos estímulos supranormais para a sensualidade.
05:20
And there's even supernormal stimuli for cuteness. Here’s a pretty good example.
71
320160
6000
E existem até estímulo supranormal para fofura. Aqui está um bom exemplo.
05:26
It’s important that we love babies, and that we not be put off by, say, messy diapers.
72
326160
5000
É importante que adoremos bebês, e que não seja adiado por, digamos, fraudas sujas.
05:31
So babies have to attract our affection and our nurturing, and they do.
73
331160
6000
Então bebês tem que atrair nosso afeto e nossa proteção, e eles atraem.
05:37
And, by the way, a recent study shows that mothers
74
337160
4000
E, por sinal, um estudo recente mostra que mães
05:41
prefer the smell of the dirty diapers of their own baby.
75
341160
3000
preferem o cheiro das fraudas sujas do seu próprio bebê.
05:44
So nature works on many levels here.
76
344160
3000
Então a natureza trabalha em vários níveis aqui.
05:47
But now, if babies didn’t look the way they do -- if babies looked like this,
77
347160
5000
Mas agora, se bebês não parecessem do jeito que são, se bebês parecessem com isto,
05:52
that’s what we would find adorable, that’s what we would find --
78
352160
4000
Isso seria o que nós acharíamos adorável, isso seria o que nós encontraríamos --
05:56
we would think, oh my goodness, do I ever want to hug that.
79
356160
6000
nós pensaríamos, nossa, eu jamais iria querer abraçar aquilo.
06:02
This is the strange inversion.
80
362160
2000
Isto é a estranha inversão.
06:04
Well now, finally what about funny. My answer is, it’s the same story, the same story.
81
364160
7000
Bem agora, finalmente o que dizer sobre graça. Minha resposta é, é a mesma estória, a mesma estória.
06:11
This is the hard one, the one that isn’t obvious. That’s why I leave it to the end.
82
371160
4000
Esta é a mais difícil, a que não é óbvia. Por isso que eu deixei ela para o final.
06:15
And I won’t be able to say too much about it.
83
375160
2000
E eu não vou ser capaz de falar muito sobre ela.
06:17
But you have to think evolutionarily, you have to think, what hard job that has to be done --
84
377160
6000
Mas você deve pensar evolutivamente, você deve pensar, que trabalho duro tem que ser feito --
06:23
it’s dirty work, somebody’s got to do it --
85
383160
3000
É um trabalho sujo, alguém tem que fazer --
06:26
is so important to give us such a powerful, inbuilt reward for it when we succeed.
86
386160
8000
é tão importante nos dar uma recompensa tão poderosa e incorporada para isso quando formos bem sucedidos.
06:34
Now, I think we've found the answer -- I and a few of my colleagues.
87
394160
4000
Agora, eu acho que nós encontramos a resposta, eu e alguns dos meus colegas.
06:38
It’s a neural system that’s wired up to reward the brain
88
398160
4000
É um sistema neural que é conectado para recompensar o cérebro
06:42
for doing a grubby clerical job.
89
402160
5000
por fazer um trabalho administrativo sujo.
06:48
Our bumper sticker for this view is
90
408160
4000
Nossa mensagem para este ponto de vista é
06:52
that this is the joy of debugging.
91
412160
3000
que isto é o prazer da depuração.
06:55
Now I’m not going to have time to spell it all out,
92
415160
2000
Agora eu não vou ter tempo para esclarecer tudo,
06:57
but I’ll just say that only some kinds of debugging get the reward.
93
417160
5000
mas eu vou apenas dizer que só alguns tipos de depuração recebem recompensa.
07:02
And what we’re doing is we’re using humor as a sort of neuroscientific probe
94
422160
8000
E o que nós estamos fazendo é usar o humor como um tipo de sonda neurocientífica
07:10
by switching humor on and off, by turning the knob on a joke --
95
430160
4000
por ligar e desligar o humor, por classificar uma piada --
07:14
now it’s not funny ... oh, now it’s funnier ...
96
434160
2000
Agora não é engraçado ... oh, agora é mais engraçado ...
07:16
now we’ll turn a little bit more ... now it’s not funny --
97
436160
2000
agora nós vamos girar o botão um pouco mais ... agora não é engraçado --
07:18
in this way, we can actually learn something
98
438160
3000
desta forma, poderemos realmente aprender algo
07:21
about the architecture of the brain,
99
441160
2000
sobre a arquitetura do cérebro,
07:23
the functional architecture of the brain.
100
443160
2000
a arquitetura funcional do cérebro.
07:25
Matthew Hurley is the first author of this. We call it the Hurley Model.
101
445160
5000
Matthew Hurley é o primeiro autor disto. Nós o chamamos de o Modelo Hurley.
07:30
He’s a computer scientist, Reginald Adams a psychologist, and there I am,
102
450160
4000
Ele é um cientista da computação, Reginald Adams é psicólogo, e lá estou eu,
07:34
and we’re putting this together into a book.
103
454160
2000
e nós estamos juntando isso em um livro.
07:36
Thank you very much.
104
456160
3000
Muito obrigado.
Sobre este site

Este site apresentará a você vídeos do YouTube que são úteis para o aprendizado do inglês. Você verá aulas de inglês ministradas por professores de primeira linha de todo o mundo. Clique duas vezes nas legendas em inglês exibidas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas rolarão em sincronia com a reprodução do vídeo. Se você tiver algum comentário ou solicitação, por favor, entre em contato conosco usando este formulário de contato.

https://forms.gle/WvT1wiN1qDtmnspy7