Dan Dennett: Cute, sexy, sweet, funny

Dan Dennett: Mignon, sexy, sucré, drôle

273,301 views ・ 2009-03-16

TED


Veuillez double-cliquer sur les sous-titres anglais ci-dessous pour lire la vidéo.

Traducteur: Natasha Latysheva Relecteur: Matthieu Coville
00:12
I’m going around the world giving talks about Darwin,
0
12160
3000
Je voyage autour du monde et donne des conférences sur Darwin,
00:15
and usually what I’m talking about
1
15160
2000
et d'habitude, ce dont je parle
00:17
is Darwin’s strange inversion of reasoning.
2
17160
3000
c'est de la bizarre inversion du raisonnement de Darwin.
00:20
Now that title, that phrase, comes from a critic, an early critic,
3
20160
5000
Bon, ce titre, cette phrase, provient d'une critique, une des premières critiques,
00:25
and this is a passage that I just love, and would like to read for you.
4
25160
4000
et voilà un passage que j'adore vraiment, et que j'aimerais vous lire.
00:29
"In the theory with which we have to deal, Absolute Ignorance is the artificer;
5
29160
5000
"Dans la théorie à laquelle nous avons affaire, l'Ignorance Absolue est l'artisan;
00:34
so that we may enunciate as the fundamental principle of the whole system,
6
34160
5000
si bien qu'on pourrait énoncer comme principe fondamental du système entier,
00:39
that, in order to make a perfect and beautiful machine,
7
39160
3000
que, afin de créer une machine parfaite et belle,
00:42
it is not requisite to know how to make it.
8
42160
3000
il n'est pas nécessaire de savoir comment la fabriquer.
00:45
This proposition will be found on careful examination to express,
9
45160
4000
Après un examen approfondi, on s'apercevra que cette proposition exprime
00:49
in condensed form, the essential purport of the Theory,
10
49160
4000
sous forme condensée, le but essentiel de la Théorie,
00:53
and to express in a few words all Mr. Darwin’s meaning;
11
53160
4000
et exprime en quelques mots toute la réflexion de M. Darwin;
00:57
who, by a strange inversion of reasoning,
12
57160
4000
qui, par une bizarre inversion du raisonnement,
01:01
seems to think Absolute Ignorance fully qualified
13
61160
3000
semble penser que l'Ignorance Absolue est pleinement qualifiée
01:04
to take the place of Absolute Wisdom in the achievements of creative skill."
14
64160
6000
pour remplacer la Sagesse Absolue dans les réussites de la créativité."
01:10
Exactly. Exactly. And it is a strange inversion.
15
70160
7000
Précisément. Précisément. Et c'est vraiment une inversion bizarre.
01:17
A creationist pamphlet has this wonderful page in it:
16
77160
4000
Une brochure créationniste contient cette merveilleuse page:
01:21
"Test Two:
17
81160
2000
"Test Deux:
01:23
Do you know of any building that didn’t have a builder? Yes/No.
18
83160
4000
Connaissez-vous un immeuble qui n'ait pas eu de bâtisseur ? Oui Non.
01:27
Do you know of any painting that didn’t have a painter? Yes/No.
19
87160
3000
Connaissez-vous une peinture qui n'ait pas eu de peintre ? Oui Non.
01:30
Do you know of any car that didn’t have a maker? Yes/No.
20
90160
4000
Connaissez-vous une voiture qui n'ait pas eu de constructeur ? Oui Non.
01:34
If you answered 'Yes' for any of the above, give details."
21
94160
5000
Si vous avez répondu "Oui" à l'une des questions ci-dessus, veuillez fournir des détails.
01:39
A-ha! I mean, it really is a strange inversion of reasoning.
22
99160
6000
Aha! Je veux dire, c'est véritablement une bizarre inversion du raisonnement.
01:45
You would have thought it stands to reason
23
105160
4000
On pourrait penser que cela tombe sous le sens
01:49
that design requires an intelligent designer.
24
109160
4000
que la conception nécessite un concepteur intelligent.
01:53
But Darwin shows that it’s just false.
25
113160
2000
Mais Darwin nous montre que c'est tout simplement faux.
01:55
Today, though, I’m going to talk about Darwin’s other strange inversion,
26
115160
5000
Aujourd'hui, toutefois, je vais parler de l'autre bizarre inversion de Darwin,
02:00
which is equally puzzling at first, but in some ways just as important.
27
120160
6000
qui est tout aussi déroutante au premier abord, mais à certains égards est tout aussi importante.
02:06
It stands to reason that we love chocolate cake because it is sweet.
28
126160
7000
Il va sans dire que nous aimons le gâteau au chocolat parce que c'est sucré.
02:13
Guys go for girls like this because they are sexy.
29
133160
6000
Les mecs choisissent des filles comme ça parce qu'elles sont sexy.
02:19
We adore babies because they’re so cute.
30
139160
4000
Nous adorons les bébés parce qu'ils sont si mignons.
02:23
And, of course, we are amused by jokes because they are funny.
31
143160
9000
Et, bien sûr, on se divertit avec des blagues parce qu'elles sont drôles.
02:32
This is all backwards. It is. And Darwin shows us why.
32
152160
7000
Tout cela est à l'envers. Vraiment. Et Darwin nous montre pourquoi.
02:39
Let’s start with sweet. Our sweet tooth is basically an evolved sugar detector,
33
159160
8000
Commençons avec "sucré". Notre goût pour les sucreries est au fond un détecteur de sucre évolué,
02:47
because sugar is high energy, and it’s just been wired up to the preferer,
34
167160
4000
parce que le sucre est riche en énergie, cette préférence est inscrite dans nos branchements,
02:51
to put it very crudely, and that’s why we like sugar.
35
171160
5000
pour dire les choses crûment, et c'est pour ça que nous aimons le sucre.
02:56
Honey is sweet because we like it, not "we like it because honey is sweet."
36
176160
7000
Le miel est sucré parce qu'on l'aime. Ce n'est pas "on aime le miel parce que c'est sucré".
03:03
There’s nothing intrinsically sweet about honey.
37
183160
5000
Il n'y a rien d'intrinsèquement sucré dans le miel.
03:08
If you looked at glucose molecules till you were blind,
38
188160
4000
Si vous regardiez des molécules de glucose jusqu'à en devenir aveugle,
03:12
you wouldn’t see why they tasted sweet.
39
192160
3000
vous ne verriez pas pourquoi elles ont un goût sucré.
03:15
You have to look in our brains to understand why they’re sweet.
40
195160
6000
Il faut regarder dans nos cervelles pour comprendre pourquoi elles sont sucrées.
03:21
So if you think first there was sweetness,
41
201160
2000
Donc si vous croyez que le sucré a existé d'abord,
03:23
and then we evolved to like sweetness,
42
203160
2000
et que nous avons évolué ensuite pour aimer le sucré,
03:25
you’ve got it backwards; that’s just wrong. It’s the other way round.
43
205160
4000
vous raisonnez à l'envers; c'est tout simplement faux. C'est l'inverse.
03:29
Sweetness was born with the wiring which evolved.
44
209160
4000
Le sucré est né avec l'évolution de notre branchement.
03:33
And there’s nothing intrinsically sexy about these young ladies.
45
213160
4000
Et il n'y a rien d'intrinsèquement sexy chez ces jeunes filles.
03:37
And it’s a good thing that there isn’t, because if there were,
46
217160
5000
Et heureusement que c'est le cas, parce qu'autrement,
03:42
then Mother Nature would have a problem:
47
222160
4000
Mère Nature aurait un problème :
03:46
How on earth do you get chimps to mate?
48
226160
5000
Comment diable faire s'accoupler les chimpanzés ?
03:53
Now you might think, ah, there’s a solution: hallucinations.
49
233160
8000
Alors vous vous dites peut-être : "Ah, mais il y a une solution: les hallucinations"
04:01
That would be one way of doing it, but there’s a quicker way.
50
241160
4000
Ce serait une manière d'y arriver, mais il y a un moyen plus rapide :
04:05
Just wire the chimps up to love that look,
51
245160
3000
Simplement brancher les chimpanzés de telle manière qu'ils aiment cet aspect,
04:08
and apparently they do.
52
248160
3000
et apparemment, ils l'aiment.
04:11
That’s all there is to it.
53
251160
4000
C'est pas plus compliqué que ça.
04:16
Over six million years, we and the chimps evolved our different ways.
54
256160
4000
Pendant six millions d'années, les chimpanzés et nous, nous avons évolué de différentes manières.
04:20
We became bald-bodied, oddly enough;
55
260160
3000
Curieusement, nos corps sont devenus glabres;
04:23
for one reason or another, they didn’t.
56
263160
4000
et pour une raison ou pour une autre, pas chez eux.
04:27
If we hadn’t, then probably this would be the height of sexiness.
57
267160
12000
Dans le cas contraire, ceci serait donc probablement pour nous le comble du sexy.
04:39
Our sweet tooth is an evolved and instinctual preference for high-energy food.
58
279160
5000
Notre goût pour les sucreries est une préférence évoluée et instinctuelle pour la nourriture riche en énergie.
04:44
It wasn’t designed for chocolate cake.
59
284160
3000
Il n'a pas été conçu pour le gâteau au chocolat.
04:47
Chocolate cake is a supernormal stimulus.
60
287160
3000
Le gâteau au chocolat est un stimulus supranormal.
04:50
The term is owed to Niko Tinbergen,
61
290160
2000
On doit ce terme à Niko Tinbergen,
04:52
who did his famous experiments with gulls,
62
292160
2000
qui a effectué ses expériences célèbres avec des mouettes,
04:54
where he found that that orange spot on the gull’s beak --
63
294160
4000
au cours desquelles il a découvert que la tâche orange sur le bec de la mouette,
04:58
if he made a bigger, oranger spot
64
298160
2000
s'il en faisait une plus grande et d'un orange plus vif,
05:00
the gull chicks would peck at it even harder.
65
300160
2000
les petites mouettes y donnaient des coups de bec encore plus violents.
05:02
It was a hyperstimulus for them, and they loved it.
66
302160
3000
C'était un hyperstimulus pour elles, et elles aimaient ça.
05:05
What we see with, say, chocolate cake
67
305160
4000
Ce que nous voyons en, disons, un gâteau au chocolat
05:09
is it’s a supernormal stimulus to tweak our design wiring.
68
309160
5000
c'est un stimulus supranormal qui modifie un peu notre branchement initial.
05:14
And there are lots of supernormal stimuli; chocolate cake is one.
69
314160
3000
Et il y a des tas des stimulus supranormaux; le gâteau au chocolat en est un.
05:17
There's lots of supernormal stimuli for sexiness.
70
317160
3000
Il y a beaucoup des stimulus supranormaux pour ce qui est sexy.
05:20
And there's even supernormal stimuli for cuteness. Here’s a pretty good example.
71
320160
6000
Et il existe même des stimulus supranormaux pour ce qui est mignon. Voici un assez bon exemple.
05:26
It’s important that we love babies, and that we not be put off by, say, messy diapers.
72
326160
5000
Il est important que nous aimions les bébés, que nous ne soyons pas rebutés par, disons, des couches sales.
05:31
So babies have to attract our affection and our nurturing, and they do.
73
331160
6000
Donc les bébés doivent attirer notre affection et nos soins, et c'est ce qu'ils font.
05:37
And, by the way, a recent study shows that mothers
74
337160
4000
Au fait, une étude récente montre que les mères préfèrent
05:41
prefer the smell of the dirty diapers of their own baby.
75
341160
3000
l'odeur des couches sales de leur propre bébé.
05:44
So nature works on many levels here.
76
344160
3000
Donc la nature est à l'œuvre à différents niveaux.
05:47
But now, if babies didn’t look the way they do -- if babies looked like this,
77
347160
5000
Maintenant, si les bébés avaient une apparence différente, s'ils ressemblaient à ça,
05:52
that’s what we would find adorable, that’s what we would find --
78
352160
4000
c'est ça que l'on trouverait adorable, c'est ça que nous trouverions...
05:56
we would think, oh my goodness, do I ever want to hug that.
79
356160
6000
on penserait, oh mon dieu, je veux vraiment serrer ça dans mes bras.
06:02
This is the strange inversion.
80
362160
2000
Voilà la bizarre inversion.
06:04
Well now, finally what about funny. My answer is, it’s the same story, the same story.
81
364160
7000
Bon, et maintenant, parlons de ce qui est drôle. Ma réponse, c'est que c'est toujours la même histoire, toujours la même histoire.
06:11
This is the hard one, the one that isn’t obvious. That’s why I leave it to the end.
82
371160
4000
Celle-ci est la plus difficile, celle qui n'est pas évidente. C'est pourquoi je la mets à la fin.
06:15
And I won’t be able to say too much about it.
83
375160
2000
Et je ne pourrai pas trop en dire à ce sujet.
06:17
But you have to think evolutionarily, you have to think, what hard job that has to be done --
84
377160
6000
Mais il faut penser en termes d'évolution, il faut se dire : quel travail ingrat qui doit être réalisé --
06:23
it’s dirty work, somebody’s got to do it --
85
383160
3000
c'est du sale boulot, mais quelqu'un doit le faire --
06:26
is so important to give us such a powerful, inbuilt reward for it when we succeed.
86
386160
8000
est assez important pour nous fournir une récompense intrinsèque aussi puissante quand on réussit à l'accomplir.
06:34
Now, I think we've found the answer -- I and a few of my colleagues.
87
394160
4000
Bon, je pense que nous avons trouvé la solution, quelques-uns de mes collègues et moi.
06:38
It’s a neural system that’s wired up to reward the brain
88
398160
4000
C'est un système neural qui est programmé pour récompenser le cerveau
06:42
for doing a grubby clerical job.
89
402160
5000
pour avoir fait un travail administratif inintéressant.
06:48
Our bumper sticker for this view is
90
408160
4000
Notre autocollant de pare-chocs serait ainsi
06:52
that this is the joy of debugging.
91
412160
3000
que c'est ça la joie du débogage.
06:55
Now I’m not going to have time to spell it all out,
92
415160
2000
Je ne vais pas avoir le temps de détailler tout ça,
06:57
but I’ll just say that only some kinds of debugging get the reward.
93
417160
5000
mais je dirai juste que seuls certains types de débogage sont récompensés.
07:02
And what we’re doing is we’re using humor as a sort of neuroscientific probe
94
422160
8000
Et que nous utilisons l'humour comme une espèce de sonde neuroscientifique
07:10
by switching humor on and off, by turning the knob on a joke --
95
430160
4000
en activant ou désactivant l'humour, en tournant le bouton sur une blague --
07:14
now it’s not funny ... oh, now it’s funnier ...
96
434160
2000
là, ce n'est pas drôle ... ah, là, c'est plus drôle...
07:16
now we’ll turn a little bit more ... now it’s not funny --
97
436160
2000
maintenant on va tourner un petit peu plus.. là c'est pas drôle --
07:18
in this way, we can actually learn something
98
438160
3000
de cette manière, on peut en fait apprendre quelque chose
07:21
about the architecture of the brain,
99
441160
2000
sur l'architecture du cerveau,
07:23
the functional architecture of the brain.
100
443160
2000
l'architecture fonctionnelle du cerveau.
07:25
Matthew Hurley is the first author of this. We call it the Hurley Model.
101
445160
5000
Matthew Hurley est le premier auteur de cela. Nous l'appelons le modèle de Hurley.
07:30
He’s a computer scientist, Reginald Adams a psychologist, and there I am,
102
450160
4000
Il est informaticien, et Reginald Adams est psychologue, et me voilà,
07:34
and we’re putting this together into a book.
103
454160
2000
et nous sommes en train d'assembler tout cela dans un livre.
07:36
Thank you very much.
104
456160
3000
Merci beaucoup.
À propos de ce site Web

Ce site vous présentera des vidéos YouTube utiles pour apprendre l'anglais. Vous verrez des leçons d'anglais dispensées par des professeurs de premier ordre du monde entier. Double-cliquez sur les sous-titres anglais affichés sur chaque page de vidéo pour lire la vidéo à partir de là. Les sous-titres défilent en synchronisation avec la lecture de la vidéo. Si vous avez des commentaires ou des demandes, veuillez nous contacter en utilisant ce formulaire de contact.

https://forms.gle/WvT1wiN1qDtmnspy7