Dan Dennett: Cute, sexy, sweet, funny

Dan Dennett: Niedlich, sexy, süß, witzig

274,911 views ・ 2009-03-16

TED


Bitte doppelklicken Sie auf die englischen Untertitel unten, um das Video abzuspielen.

Übersetzung: R K Lektorat: Judith Matz
00:12
I’m going around the world giving talks about Darwin,
0
12160
3000
Ich reise um die Welt und halte Vorträge über Darwin,
00:15
and usually what I’m talking about
1
15160
2000
und normalerweise rede ich über
00:17
is Darwin’s strange inversion of reasoning.
2
17160
3000
Darwins "seltsame Umkehrung des Denkens".
00:20
Now that title, that phrase, comes from a critic, an early critic,
3
20160
5000
Nun, dieser Titel, dieser Ausdruck, kommt von einem Kritiker, einem frühen Kritiker
00:25
and this is a passage that I just love, and would like to read for you.
4
25160
4000
und dies ist eine Passage, die ich einfach liebe, und ich würde sie Ihnen gerne vorlesen:
00:29
"In the theory with which we have to deal, Absolute Ignorance is the artificer;
5
29160
5000
"In der Theorie, mit der wir uns beschäftigen, ist absolute Ignoranz der Schöpfer;
00:34
so that we may enunciate as the fundamental principle of the whole system,
6
34160
5000
um das fundamentale Prinzip des gesamten Systems auszudrücken;
00:39
that, in order to make a perfect and beautiful machine,
7
39160
3000
um eine perfekte und wunderschöne Maschine herzustellen,
00:42
it is not requisite to know how to make it.
8
42160
3000
ist es nicht notwendig zu wissen, wie man sie herstellt.
00:45
This proposition will be found on careful examination to express,
9
45160
4000
Bei sorgfältiger Untersuchung wird sich diese Behauptung finden lassen,
00:49
in condensed form, the essential purport of the Theory,
10
49160
4000
den essenziellen Inhalt der Theorie zusammengefasst auszudrücken,
00:53
and to express in a few words all Mr. Darwin’s meaning;
11
53160
4000
und um in einigen Worten den gesamten Sinngehalt von Mr. Darwin auszudrücken,
00:57
who, by a strange inversion of reasoning,
12
57160
4000
der, mit einer seltsamen Inversion des Denkens,
01:01
seems to think Absolute Ignorance fully qualified
13
61160
3000
anscheinend denkt, absolute Ignoranz könne völlig ausreichen,
01:04
to take the place of Absolute Wisdom in the achievements of creative skill."
14
64160
6000
um in der Ausführung kreativer Fertigkeit den Platz absoluter Weisheit einzunehmen.
01:10
Exactly. Exactly. And it is a strange inversion.
15
70160
7000
Genau. Genau. Und es ist eine seltsame Umkehrung.
01:17
A creationist pamphlet has this wonderful page in it:
16
77160
4000
Ein kreationistisches Pamphlet hat diese wundervolle Seite:
01:21
"Test Two:
17
81160
2000
"Test Zwei:
01:23
Do you know of any building that didn’t have a builder? Yes/No.
18
83160
4000
Kennen Sie ein Gebäude, das keinen Erbauer hat? Ja Nein.
01:27
Do you know of any painting that didn’t have a painter? Yes/No.
19
87160
3000
kennen Sie ein Gemälde, das keinen Maler hat? Ja Nein.
01:30
Do you know of any car that didn’t have a maker? Yes/No.
20
90160
4000
Kennen Sie ein Auto, das keinen Hersteller hat? Ja Nein.
01:34
If you answered 'Yes' for any of the above, give details."
21
94160
5000
Falls Sie mit "Ja" geantwortet haben, bitte geben Sie Details an."
01:39
A-ha! I mean, it really is a strange inversion of reasoning.
22
99160
6000
A-ha! I finde, es ist eine wirklich seltsame Inversion des Denkens.
01:45
You would have thought it stands to reason
23
105160
4000
Man sollte meinen, es leuchte ein,
01:49
that design requires an intelligent designer.
24
109160
4000
dass Design einen intelligenten Designer benötigt.
01:53
But Darwin shows that it’s just false.
25
113160
2000
Aber Darwin zeigte, dass das einfach falsch ist.
01:55
Today, though, I’m going to talk about Darwin’s other strange inversion,
26
115160
5000
Heute jedoch werde ich über die andere seltsame Inversion von Darwin sprechen,
02:00
which is equally puzzling at first, but in some ways just as important.
27
120160
6000
die Anfangs genau so verwirrend ist, aber in mancher Hinsicht genau so wichtig.
02:06
It stands to reason that we love chocolate cake because it is sweet.
28
126160
7000
Es leuchtet ein, dass wir Schokoladenkuchen lieben, weil er süß ist.
02:13
Guys go for girls like this because they are sexy.
29
133160
6000
Jungs stehen auf Mädchen wie diese, weil sie sexy sind.
02:19
We adore babies because they’re so cute.
30
139160
4000
Wir sind vernarrt in Babies, weil sie so niedlich sind.
02:23
And, of course, we are amused by jokes because they are funny.
31
143160
9000
Und, natürlich, amüsieren uns Witze, weil sie lustig sind.
02:32
This is all backwards. It is. And Darwin shows us why.
32
152160
7000
Dies ist alles falschrum. Ist es wirklich. Und Darwin zeigt uns warum.
02:39
Let’s start with sweet. Our sweet tooth is basically an evolved sugar detector,
33
159160
8000
Lassen Sie uns mit "süß" anfangen. Dass wir Süßes lieben, liegt an einem entwickelten Zucker-Detektor,
02:47
because sugar is high energy, and it’s just been wired up to the preferer,
34
167160
4000
weil Zucker energiereich ist, und so wurden wir verkabelt,
02:51
to put it very crudely, and that’s why we like sugar.
35
171160
5000
salopp gesagt, das ist der Grund, aus dem wir Zucker mögen.
02:56
Honey is sweet because we like it, not "we like it because honey is sweet."
36
176160
7000
Honig ist süß, weil wir ihn mögen, und nicht "wir mögen ihn weil Honig süß ist."
03:03
There’s nothing intrinsically sweet about honey.
37
183160
5000
Dem Honig ist keine Süße inne.
03:08
If you looked at glucose molecules till you were blind,
38
188160
4000
Sie können sich Glukose-Moleküle angucken bis Sie erblinden,
03:12
you wouldn’t see why they tasted sweet.
39
192160
3000
würden Sie nicht sehen, warum sie süß schmecken.
03:15
You have to look in our brains to understand why they’re sweet.
40
195160
6000
Sie müssen in unsere Gehirne sehen um zu verstehen, warum etwas süß schmeckt.
03:21
So if you think first there was sweetness,
41
201160
2000
Also wenn Sie denken, zuerst war die Süße,
03:23
and then we evolved to like sweetness,
42
203160
2000
und dann entwickelten wir einen Sinn, Süßes zu mögen,
03:25
you’ve got it backwards; that’s just wrong. It’s the other way round.
43
205160
4000
ist es verkehrtherum; es ist einfach falsch. Es ist umgekehrt.
03:29
Sweetness was born with the wiring which evolved.
44
209160
4000
Die Süße wurde geboren mit der Verkabelung, die wir evolutionär entwickelten.
03:33
And there’s nothing intrinsically sexy about these young ladies.
45
213160
4000
Und diesen jungen Damen ist auch keine Sexiness inne.
03:37
And it’s a good thing that there isn’t, because if there were,
46
217160
5000
Und das ist eine gute Sache, denn wenn es so wäre,
03:42
then Mother Nature would have a problem:
47
222160
4000
hätte Mutter Natur ein Problem:
03:46
How on earth do you get chimps to mate?
48
226160
5000
Wie um alles in der Welt bekommen wir Schimpansen dazu, sich zu paaren?
03:53
Now you might think, ah, there’s a solution: hallucinations.
49
233160
8000
Jetzt könnten Sie denken, ah, es gibt eine Lösung: Halluzinationen.
04:01
That would be one way of doing it, but there’s a quicker way.
50
241160
4000
Und das wäre eine Möglichkeit das zu lösen, aber es gibt eine schnellere Art.
04:05
Just wire the chimps up to love that look,
51
245160
3000
Verkabeln Sie einfach die Schimpansen so, dass sie diesen Look lieben,
04:08
and apparently they do.
52
248160
3000
und anscheinend tun sie es.
04:11
That’s all there is to it.
53
251160
4000
Und das ist alles worum es geht.
04:16
Over six million years, we and the chimps evolved our different ways.
54
256160
4000
Über sechs Millionen Jahre entwickelten wir und die Schimpansen uns unterschiedlich.
04:20
We became bald-bodied, oddly enough;
55
260160
3000
Wir verloren unsere Haare, seltsamerweise,
04:23
for one reason or another, they didn’t.
56
263160
4000
und aus dem einen oder anderen Grund, taten sie es nicht.
04:27
If we hadn’t, then probably this would be the height of sexiness.
57
267160
12000
Wenn wir es nicht getan hätten, wäre jetzt wahrscheinlich das hier die Höhe der Sexiness.
04:39
Our sweet tooth is an evolved and instinctual preference for high-energy food.
58
279160
5000
Unser Geschmack für Süßes ist eine evolutionär entwickelte, instinktive Präferenz für Nahrung mit viel Energie.
04:44
It wasn’t designed for chocolate cake.
59
284160
3000
Es wurde nicht für Schokoladenkuchen geschaffen.
04:47
Chocolate cake is a supernormal stimulus.
60
287160
3000
Schokolade ist ein supernormaler Stimulus.
04:50
The term is owed to Niko Tinbergen,
61
290160
2000
Dieser Ausdruck ist von Niko Tinbergen,
04:52
who did his famous experiments with gulls,
62
292160
2000
der ein berühmtes Experiment mit Möwen durchführte,
04:54
where he found that that orange spot on the gull’s beak --
63
294160
4000
in dem er herausfand, dass dieser orangefarbene Punkt auf dem Schnabel der Möwe --
04:58
if he made a bigger, oranger spot
64
298160
2000
wenn er einen noch größeren und noch farbigeren Punkt malte,
05:00
the gull chicks would peck at it even harder.
65
300160
2000
dieser die Möwenküken veranlasste, noch mehr daran zu picken.
05:02
It was a hyperstimulus for them, and they loved it.
66
302160
3000
Es war ein Hyperstimulus für sie, und sie liebten es.
05:05
What we see with, say, chocolate cake
67
305160
4000
Was wir mit, sagen wir mal, Schokoladenkuchen haben
05:09
is it’s a supernormal stimulus to tweak our design wiring.
68
309160
5000
ist ein supernormaler Stimulus, optimiert für unsere Verkabelung.
05:14
And there are lots of supernormal stimuli; chocolate cake is one.
69
314160
3000
Und es gibt viele supernormale Stimuli, Schokoladenkuchen ist nur einer davon.
05:17
There's lots of supernormal stimuli for sexiness.
70
317160
3000
Es gibt viele supernormale Stimuli für Sexiness.
05:20
And there's even supernormal stimuli for cuteness. Here’s a pretty good example.
71
320160
6000
Und es gibt sogar supernormale Stimuli für Niedlichkeit. Hier ist ein gutes Beispiel.
05:26
It’s important that we love babies, and that we not be put off by, say, messy diapers.
72
326160
5000
Es ist wichtig, dass wir Babies lieb haben, und uns nicht von - sagen wir mal - dreckigen Windeln abschrecken lassen.
05:31
So babies have to attract our affection and our nurturing, and they do.
73
331160
6000
Also müssen Babies unsere Zuneigung und Pflege anziehen, und sie tun es.
05:37
And, by the way, a recent study shows that mothers
74
337160
4000
Und, übrigens, eine aktuelle Studie zeigt, dass Mütter
05:41
prefer the smell of the dirty diapers of their own baby.
75
341160
3000
den Geruch einer dreckigen Windel ihres eigenen Kindes bevorzugen.
05:44
So nature works on many levels here.
76
344160
3000
Also ist die Natur auf vielen Ebenen am Werk.
05:47
But now, if babies didn’t look the way they do -- if babies looked like this,
77
347160
5000
Und wenn Babies nicht so aussähen wie sie es tun, sondern so hier,
05:52
that’s what we would find adorable, that’s what we would find --
78
352160
4000
dann wäre dies, was wir niedlich finden würden, wir würden denken --
05:56
we would think, oh my goodness, do I ever want to hug that.
79
356160
6000
Oh meine Güte, das will ich doch gleich umarmen.
06:02
This is the strange inversion.
80
362160
2000
Dies ist eine seltsame Inversion.
06:04
Well now, finally what about funny. My answer is, it’s the same story, the same story.
81
364160
7000
Nun gut, zuletzt "lustig". Meine Antwort ist, es ist die gleiche Sache.
06:11
This is the hard one, the one that isn’t obvious. That’s why I leave it to the end.
82
371160
4000
Das ist der schwierigste Teil, der, der nicht offensichtlich ist. Und daher habe ich es für den Schluss aufgehoben.
06:15
And I won’t be able to say too much about it.
83
375160
2000
Und ich werde nicht viel dazu sagen können.
06:17
But you have to think evolutionarily, you have to think, what hard job that has to be done --
84
377160
6000
Aber Sie müssen evolutionär denken, Sie müssen sich fragen, welcher harte Job muss erledigt werden --
06:23
it’s dirty work, somebody’s got to do it --
85
383160
3000
es ist schmutzige Arbeit und jemand muss es tun --
06:26
is so important to give us such a powerful, inbuilt reward for it when we succeed.
86
386160
8000
Also welcher Job ist so wichtig, dass er uns eine solch mächtige, eingebaute Belohnung für den Erfolg verschafft.
06:34
Now, I think we've found the answer -- I and a few of my colleagues.
87
394160
4000
Nun, ich denke, wir haben die Antwort gefunden, ich und einige meiner Kollegen.
06:38
It’s a neural system that’s wired up to reward the brain
88
398160
4000
Es ist ein neurales Netzwerk, verkabelt, um unser Hirn dafür zu belohnen,
06:42
for doing a grubby clerical job.
89
402160
5000
dass es einen schmuddeligen Bürojob erledigt.
06:48
Our bumper sticker for this view is
90
408160
4000
Unser Autoaufkleber für diese Sichtweise ist
06:52
that this is the joy of debugging.
91
412160
3000
dass dies "Die Freude des Debugging", des Fehlerbehebens, ist.
06:55
Now I’m not going to have time to spell it all out,
92
415160
2000
Ich habe jetzt keine Zeit, das ausführlich zu erklären,
06:57
but I’ll just say that only some kinds of debugging get the reward.
93
417160
5000
aber ich werde sagen, dass nur manche Arten des Debuggings die Belohnung bekommen.
07:02
And what we’re doing is we’re using humor as a sort of neuroscientific probe
94
422160
8000
Und wir benutzen Humor als neurowissenschaftliche Prüfung,
07:10
by switching humor on and off, by turning the knob on a joke --
95
430160
4000
indem wir Humor an- und ausschalten, wie ein Knopf an einem Witz --
07:14
now it’s not funny ... oh, now it’s funnier ...
96
434160
2000
Jetzt ist es nicht witzig... oh, jetzt ist es witziger...
07:16
now we’ll turn a little bit more ... now it’s not funny --
97
436160
2000
Jetzt drehen wir ihn ein bisschen mehr... jetzt ist es nicht witzig --
07:18
in this way, we can actually learn something
98
438160
3000
auf diese Art können wir tatsächlich etwas über
07:21
about the architecture of the brain,
99
441160
2000
die Architektur des Gehirns erfahren,
07:23
the functional architecture of the brain.
100
443160
2000
die funktionelle Architektur des Gehirns.
07:25
Matthew Hurley is the first author of this. We call it the Hurley Model.
101
445160
5000
Matthey Hurley ist der Erstautor, wir nennen es das Hurley-Modell.
07:30
He’s a computer scientist, Reginald Adams a psychologist, and there I am,
102
450160
4000
Er ist ein Informatiker, Reginald Adams ist ein Psychologe, und hier bin ich,
07:34
and we’re putting this together into a book.
103
454160
2000
und wir werden all dies in einem Buch zusammenfassen.
07:36
Thank you very much.
104
456160
3000
Vielen Dank.
Über diese Website

Auf dieser Seite finden Sie YouTube-Videos, die zum Englischlernen nützlich sind. Sie sehen Englischlektionen, die von hochkarätigen Lehrern aus der ganzen Welt unterrichtet werden. Doppelklicken Sie auf die englischen Untertitel, die auf jeder Videoseite angezeigt werden, um das Video von dort aus abzuspielen. Die Untertitel laufen synchron mit der Videowiedergabe. Wenn Sie irgendwelche Kommentare oder Wünsche haben, kontaktieren Sie uns bitte über dieses Kontaktformular.

https://forms.gle/WvT1wiN1qDtmnspy7