Dan Dennett: Cute, sexy, sweet, funny

274,911 views ・ 2009-03-16

TED


Fare doppio clic sui sottotitoli in inglese per riprodurre il video.

Traduttore: Gabriele Romano Revisore: Diego Bazzano
00:12
I’m going around the world giving talks about Darwin,
0
12160
3000
Giro per il mondo tenendo conferenze su Darwin
00:15
and usually what I’m talking about
1
15160
2000
e di solito quello di cui parlo
00:17
is Darwin’s strange inversion of reasoning.
2
17160
3000
è la strana inversione del ragionamento di Darwin.
00:20
Now that title, that phrase, comes from a critic, an early critic,
3
20160
5000
Ora questo titolo, questa frase, vengono da un critico, da uno dei primi critici,
00:25
and this is a passage that I just love, and would like to read for you.
4
25160
4000
e questo è un passaggio che amo molto, e vorrei leggerlvelo.
00:29
"In the theory with which we have to deal, Absolute Ignorance is the artificer;
5
29160
5000
"Nella teoria con cui ci stiamo confrontando, l'Assoluta Ignoranza è l'artefice;
00:34
so that we may enunciate as the fundamental principle of the whole system,
6
34160
5000
tanto che possiamo enunciare questo principio fondamentale dell'intero sistema:
00:39
that, in order to make a perfect and beautiful machine,
7
39160
3000
per creare una macchina perfetta e bella,
00:42
it is not requisite to know how to make it.
8
42160
3000
non è necessario sapere come realizzarla.
00:45
This proposition will be found on careful examination to express,
9
45160
4000
Se si esamina attentamente, si troverà che questa proposizione esprime,
00:49
in condensed form, the essential purport of the Theory,
10
49160
4000
in forma sintetica, il significato essenziale della Teoria,
00:53
and to express in a few words all Mr. Darwin’s meaning;
11
53160
4000
ed esprime in poche parole tutto il ragionamento del signor Darwin;
00:57
who, by a strange inversion of reasoning,
12
57160
4000
il quale, attraverso una bizzarra inversione del ragionamento,
01:01
seems to think Absolute Ignorance fully qualified
13
61160
3000
sembra pensare che l'Assoluta Ignoranza sia pienamente qualificata
01:04
to take the place of Absolute Wisdom in the achievements of creative skill."
14
64160
6000
a prendere il posto dell'Assoluta Conoscenza nel raggiungimento dell'abilità creativa."
01:10
Exactly. Exactly. And it is a strange inversion.
15
70160
7000
Esattamente. Esattamente. È proprio un'inversione bizzarra.
01:17
A creationist pamphlet has this wonderful page in it:
16
77160
4000
Un opuscolo creazionista contiene questa pagina meravigliosa:
01:21
"Test Two:
17
81160
2000
"Test n.2:
01:23
Do you know of any building that didn’t have a builder? Yes/No.
18
83160
4000
Conosci qualche costruzione che non ha avuto un costruttore? Sì - No.
01:27
Do you know of any painting that didn’t have a painter? Yes/No.
19
87160
3000
Conosci qualche dipinto che non ha avuto un pittore? Sì - No.
01:30
Do you know of any car that didn’t have a maker? Yes/No.
20
90160
4000
Conosci qualche automobile che non ha avuto un progettista? Sì - No.
01:34
If you answered 'Yes' for any of the above, give details."
21
94160
5000
Se hai risposto "Sì" a una o più domande qui sopra, dai maggiori dettagli."
01:39
A-ha! I mean, it really is a strange inversion of reasoning.
22
99160
6000
A-ha! Voglio dire, è davvero una strana inversione del ragionamento.
01:45
You would have thought it stands to reason
23
105160
4000
Potete pensare che sia ragionevole
01:49
that design requires an intelligent designer.
24
109160
4000
il fatto che un progetto richieda un progettista intelligente.
01:53
But Darwin shows that it’s just false.
25
113160
2000
Ma Darwin mostra che questo è semplicemente falso.
01:55
Today, though, I’m going to talk about Darwin’s other strange inversion,
26
115160
5000
Oggi, tuttavia, vi parlerò dell'altra bizzarra inversione del ragionamento di Darwin,
02:00
which is equally puzzling at first, but in some ways just as important.
27
120160
6000
che è ugualmente sconcertante, ma in qualche modo altrettanto importante.
02:06
It stands to reason that we love chocolate cake because it is sweet.
28
126160
7000
È il ragionamento secondo il quale amiamo la torta al cioccolato perché è dolce.
02:13
Guys go for girls like this because they are sexy.
29
133160
6000
I ragazzi cercano ragazze come queste perché sono sexy.
02:19
We adore babies because they’re so cute.
30
139160
4000
Amiamo i bambini perché sono così carini.
02:23
And, of course, we are amused by jokes because they are funny.
31
143160
9000
E, certamente, ci fanno divertire le barzellette perché fanno ridere.
02:32
This is all backwards. It is. And Darwin shows us why.
32
152160
7000
È tutto il contrario. Davvero. E Darwin ci mostra perché.
02:39
Let’s start with sweet. Our sweet tooth is basically an evolved sugar detector,
33
159160
8000
Iniziamo con il dolce. La nostra golosità per i dolci è fondamentalmente un rilevatore evoluto di zucchero.
02:47
because sugar is high energy, and it’s just been wired up to the preferer,
34
167160
4000
Perché lo zucchero è ricco di energia: questo è ciò che ce lo fa preferire.
02:51
to put it very crudely, and that’s why we like sugar.
35
171160
5000
Per dirla in parole povere: ecco perché ci piace lo zucchero.
02:56
Honey is sweet because we like it, not "we like it because honey is sweet."
36
176160
7000
Il miele è dolce perché ci piace, non è che "ci piace perchè è dolce."
03:03
There’s nothing intrinsically sweet about honey.
37
183160
5000
Non c'è niente di intrinsecamente dolce nel miele.
03:08
If you looked at glucose molecules till you were blind,
38
188160
4000
Se guardaste la molecola di glucosio fino a diventare ciechi,
03:12
you wouldn’t see why they tasted sweet.
39
192160
3000
non trovereste il motivo per cui è dolce.
03:15
You have to look in our brains to understand why they’re sweet.
40
195160
6000
Per capire perché queste cose sono dolci dovete guardare nel nostro cervello.
03:21
So if you think first there was sweetness,
41
201160
2000
Dunque, se pensate che in principio c'era la dolcezza,
03:23
and then we evolved to like sweetness,
42
203160
2000
e poi noi siamo evoluti per amare la dolcezza,
03:25
you’ve got it backwards; that’s just wrong. It’s the other way round.
43
205160
4000
la pensate al contrario. Questo è semplicemente sbagliato: è vero l'inverso.
03:29
Sweetness was born with the wiring which evolved.
44
209160
4000
La dolcezza è nata insieme alle connessioni cerebrali, le quali sono evolute.
03:33
And there’s nothing intrinsically sexy about these young ladies.
45
213160
4000
E non c'è niente di intrinsecamente sexy in queste giovani donne.
03:37
And it’s a good thing that there isn’t, because if there were,
46
217160
5000
Ed è un bene che sia così, perché altrimenti
03:42
then Mother Nature would have a problem:
47
222160
4000
Madre Natura avrebbe avuto un problema:
03:46
How on earth do you get chimps to mate?
48
226160
5000
come diavolo far accoppiare gli scimpanzé?
03:53
Now you might think, ah, there’s a solution: hallucinations.
49
233160
8000
Ora, si potrebbe pensare: ah! C'è una soluzione: allucinazioni.
04:01
That would be one way of doing it, but there’s a quicker way.
50
241160
4000
Questo potrebbe essere un modo, ma ne esiste uno più veloce.
04:05
Just wire the chimps up to love that look,
51
245160
3000
Semplicemente fare in modo che gli scimpanzé amino quell'aspetto,
04:08
and apparently they do.
52
248160
3000
e apparentemente lo fanno.
04:11
That’s all there is to it.
53
251160
4000
Tutto qui.
04:16
Over six million years, we and the chimps evolved our different ways.
54
256160
4000
In 6 milioni di anni, noi e gli scimpanzé siamo evoluti in modi diversi.
04:20
We became bald-bodied, oddly enough;
55
260160
3000
Noi siamo diventati glabri, curiosamente.
04:23
for one reason or another, they didn’t.
56
263160
4000
Per una qualche ragione, loro no.
04:27
If we hadn’t, then probably this would be the height of sexiness.
57
267160
12000
Se non fossimo diventati così, questo sarebbe probabilmente il massimo dell'erotismo.
04:39
Our sweet tooth is an evolved and instinctual preference for high-energy food.
58
279160
5000
La nostra attrazione per i dolci è una preferenza evoluta e istintiva per i cibi ad alto contenuto energetico.
04:44
It wasn’t designed for chocolate cake.
59
284160
3000
Non è stata concepita per la torta al cioccolato.
04:47
Chocolate cake is a supernormal stimulus.
60
287160
3000
La torta al cioccolato è un super-stimolo.
04:50
The term is owed to Niko Tinbergen,
61
290160
2000
Questo termine è stato inventato da Niko Tinbergen,
04:52
who did his famous experiments with gulls,
62
292160
2000
che fece i suoi famosi esperimenti sui gabbiani.
04:54
where he found that that orange spot on the gull’s beak --
63
294160
4000
Studiando quella macchia arancione sul loro becco scoprì che
04:58
if he made a bigger, oranger spot
64
298160
2000
facendo una macchia più grande e più arancione
05:00
the gull chicks would peck at it even harder.
65
300160
2000
i pulcini di gabbiano beccano con più forza.
05:02
It was a hyperstimulus for them, and they loved it.
66
302160
3000
Questo è un iper-stimolo per loro, e a loro piace.
05:05
What we see with, say, chocolate cake
67
305160
4000
Quello che noi vediamo, per esempio, in una torta al cioccolato
05:09
is it’s a supernormal stimulus to tweak our design wiring.
68
309160
5000
è un super-stimolo che modifica le nostre connessioni.
05:14
And there are lots of supernormal stimuli; chocolate cake is one.
69
314160
3000
Esistono moltissimi super-stimoli. La torta al cioccolato è uno.
05:17
There's lots of supernormal stimuli for sexiness.
70
317160
3000
Ci sono moltissimi super-stimoli legati all'erotismo.
05:20
And there's even supernormal stimuli for cuteness. Here’s a pretty good example.
71
320160
6000
E ci sono perfino super-stimoli legati alla bellezza. Questo è un buon esempio.
05:26
It’s important that we love babies, and that we not be put off by, say, messy diapers.
72
326160
5000
È importante amare i bambini e non essere disgustati, diciamo, dai pannolini sporchi.
05:31
So babies have to attract our affection and our nurturing, and they do.
73
331160
6000
Quindi i bambini devono attrarre il nostro affetto e le nostre attenzioni, e lo fanno.
05:37
And, by the way, a recent study shows that mothers
74
337160
4000
A questo proposito, uno studio recente mostra che le madri
05:41
prefer the smell of the dirty diapers of their own baby.
75
341160
3000
preferiscono l'odore dei pannolini sporchi del loro bambino.
05:44
So nature works on many levels here.
76
344160
3000
Qui la natura lavora su più livelli.
05:47
But now, if babies didn’t look the way they do -- if babies looked like this,
77
347160
5000
Ma se i bambini non avessero l'aspetto che hanno, se apparissero così,
05:52
that’s what we would find adorable, that’s what we would find --
78
352160
4000
questo è ciò che noi troveremmo adorabile.
05:56
we would think, oh my goodness, do I ever want to hug that.
79
356160
6000
Penseremmo: o mio Dio, lo voglio davvero abbracciare.
06:02
This is the strange inversion.
80
362160
2000
Questa è la strana inversione.
06:04
Well now, finally what about funny. My answer is, it’s the same story, the same story.
81
364160
7000
E infine, che cosa dire dell'umorismo. La mia risposta è: è la stessa storia, la stessa storia.
06:11
This is the hard one, the one that isn’t obvious. That’s why I leave it to the end.
82
371160
4000
Questo è il caso più difficile, il meno ovvio. Per questo l'ho tenuto per ultimo.
06:15
And I won’t be able to say too much about it.
83
375160
2000
E non sarò in grado di dire molto su questo.
06:17
But you have to think evolutionarily, you have to think, what hard job that has to be done --
84
377160
6000
Ma dovete pensare in termini evoluzionistici. Dovete pensare che lavoro duro va fatto...
06:23
it’s dirty work, somebody’s got to do it --
85
383160
3000
È un lavoro sporco, ma qualcuno deve farlo.
06:26
is so important to give us such a powerful, inbuilt reward for it when we succeed.
86
386160
8000
È talmente importante da avere una potente e intrinseca ricompensa una volta avuto successo.
06:34
Now, I think we've found the answer -- I and a few of my colleagues.
87
394160
4000
Ora, io e alcuni miei colleghi pensiamo di aver trovato la risposta.
06:38
It’s a neural system that’s wired up to reward the brain
88
398160
4000
È un sistema neurale che si è evoluto per ricompensare il cervello
06:42
for doing a grubby clerical job.
89
402160
5000
per svolgere un lavoro sporco, ma importante.
06:48
Our bumper sticker for this view is
90
408160
4000
Lo slogan per questa nostra visione è
06:52
that this is the joy of debugging.
91
412160
3000
che questa è la gioia del debugging.
06:55
Now I’m not going to have time to spell it all out,
92
415160
2000
Ora non ho tempo per spiegare bene questo concetto
06:57
but I’ll just say that only some kinds of debugging get the reward.
93
417160
5000
ma dico solamente che solo alcuni tipi di debugging prevedono una ricompensa.
07:02
And what we’re doing is we’re using humor as a sort of neuroscientific probe
94
422160
8000
E quello che stiamo facendo è usare l'umorismo come una sorta di strumento di indagine neuroscientifica
07:10
by switching humor on and off, by turning the knob on a joke --
95
430160
4000
accendendo e spegnendo l'umorismo, ruotando la manopola su una barzelletta.
07:14
now it’s not funny ... oh, now it’s funnier ...
96
434160
2000
Ora non è divertente... Oh, ora è più divertente...
07:16
now we’ll turn a little bit more ... now it’s not funny --
97
436160
2000
Ora la ruoteremo un po' di più... ora non è divertente...
07:18
in this way, we can actually learn something
98
438160
3000
In questo modo possiamo davvero imparare qualcosa
07:21
about the architecture of the brain,
99
441160
2000
sull'architettura del cervello,
07:23
the functional architecture of the brain.
100
443160
2000
l'architettura funzionale del cervello.
07:25
Matthew Hurley is the first author of this. We call it the Hurley Model.
101
445160
5000
Matthew Hurley è stato il primo a lavorare su questo. Noi lo chiamiamo il modello Hurley.
07:30
He’s a computer scientist, Reginald Adams a psychologist, and there I am,
102
450160
4000
Lui è uno scienziato informatico, Reginald Adams è uno psicologo, e poi ci sono io,
07:34
and we’re putting this together into a book.
103
454160
2000
e stiamo mettendo tutto questo studio in un libro.
07:36
Thank you very much.
104
456160
3000
Molte grazie.
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7