Science can answer moral questions | Sam Harris

2,864,552 views ・ 2010-03-22

TED


A videó lejátszásához kattintson duplán az alábbi angol feliratokra.

Fordító: Zeta Mansart Lektor: Laszlo Kereszturi
00:15
I'm going to speak today about the relationship
0
15260
3000
A tudomány és az emberi értékek
00:18
between science and human values.
1
18260
4000
kapcsolatáról fogok ma beszélni.
00:22
Now, it's generally understood that
2
22260
2000
Manapság általánosan elfogadott tény,
00:24
questions of morality --
3
24260
2000
hogy az erkölcs kérdéseiben,
00:26
questions of good and evil and right and wrong --
4
26260
2000
a jó és rossz, helyes és helytelen kérdéseiben,
00:28
are questions about which science officially has no opinion.
5
28260
3000
a tudománynak nincs hivatalos álláspontja.
00:31
It's thought that science can help us
6
31260
3000
Úgy véljük, a tudomány segít megszereznünk
00:34
get what we value,
7
34260
2000
az értékeinket,
00:36
but it can never tell us what we ought to value.
8
36260
3000
de sosem befolyásolhatja értékrendbéli választásunkat.
00:39
And, consequently, most people -- I think most people
9
39260
2000
Ennélfogva, a legtöbb ember, valószínűleg
00:41
probably here -- think that science will never answer
10
41260
3000
a legtöbb ember itt, úgy gondolja, hogy a tudomány
00:44
the most important questions in human life:
11
44260
3000
sosem fogja megválaszolni az emberi élet fontos kérdéseit:
00:47
questions like, "What is worth living for?"
12
47260
2000
hogy miért érdemes élnünk,
00:49
"What is worth dying for?"
13
49260
2000
miért érdemes meghalnunk,
00:51
"What constitutes a good life?"
14
51260
2000
és milyen a jó élet.
00:53
So, I'm going to argue
15
53260
2000
Arról fogok tehát beszélni,
00:55
that this is an illusion -- that the separation between
16
55260
2000
hogy a választóvonal a tudomány
00:57
science and human values is an illusion --
17
57260
2000
és az emberi értékek között csupán illúzió,
00:59
and actually quite a dangerous one
18
59260
3000
méghozzá egy veszélyes illúzió
01:02
at this point in human history.
19
62260
2000
az emberiség történelmének jelen pillanatában.
01:04
Now, it's often said that science
20
64260
2000
Gyakran halljuk, hogy a tudomány
01:06
cannot give us a foundation for morality and human values,
21
66260
3000
nem szolgálhat erkölcsi alapul az emberi értékek terén,
01:09
because science deals with facts,
22
69260
3000
mert a tudomány tényekkel foglalkozik,
01:12
and facts and values seem to belong to different spheres.
23
72260
4000
és a tények és értékek más-más területekre tartoznak.
01:16
It's often thought that there's no description
24
76260
3000
Gyakran gondoljuk, hogy nem írható le,
01:19
of the way the world is
25
79260
2000
milyen a világ,
01:21
that can tell us how the world ought to be.
26
81260
4000
így nem is tudhatjuk, milyennek kellene lennie.
01:25
But I think this is quite clearly untrue.
27
85260
2000
Szerintem ez egyértelműen nem igaz.
01:27
Values are a certain kind of fact.
28
87260
4000
Az értékek is egyfajta tények.
01:31
They are facts about the well-being of conscious creatures.
29
91260
4000
Az értelmes lények jólétének tényei.
01:35
Why is it that we don't have ethical obligations toward rocks?
30
95260
4000
Miért nincs erkölcsi kötelezettségünk a kövek felé?
01:39
Why don't we feel compassion for rocks?
31
99260
3000
Miért nem szánjuk a köveket?
01:42
It's because we don't think rocks can suffer. And if we're more
32
102260
2000
Mert szerintünk a kövek nem szenvednek. És ha jobban érdekel
01:44
concerned about our fellow primates
33
104260
2000
a többi emberszabású élete,
01:46
than we are about insects, as indeed we are,
34
106260
3000
mint a rovaroké, ami igaz is,
01:49
it's because we think they're exposed to a greater range
35
109260
2000
az azért van, mert úgy gondoljuk, hogy ők sokkal több
01:51
of potential happiness and suffering.
36
111260
3000
boldogságot és szenvedést élnek át.
01:54
Now, the crucial thing to notice here
37
114260
3000
Ezen a ponton fontos megjegyeznünk,
01:57
is that this is a factual claim:
38
117260
2000
hogy ez is egy tényszerű kijelentés:
01:59
This is something that we could be right or wrong about. And if we
39
119260
2000
lehet, hogy igazunk van, lehet, hogy tévedünk. Ha félreértjük
02:01
have misconstrued the relationship between biological complexity
40
121260
3000
a biológiai bonyolultság és a tapasztalat szülte lehetőségek
02:04
and the possibilities of experience
41
124260
3000
közötti kapcsolatot,
02:07
well then we could be wrong about the inner lives of insects.
42
127260
3000
akkor tévedhetünk a rovarok belső életével kapcsolatban.
02:10
And there's no notion,
43
130260
4000
Nincs olyan elképzelés,
02:14
no version of human morality
44
134260
2000
olyan változata az emberi erkölcsnek
02:16
and human values that I've ever come across
45
136260
3000
és az emberi értékeknek, amivel valaha találkoztam,
02:19
that is not at some point reducible
46
139260
2000
mely ne lenne visszavezethető
02:21
to a concern about conscious experience
47
141260
3000
a tudat tapasztalataival és lehetséges változásaival
02:24
and its possible changes.
48
144260
2000
kapcsolatos aggodalmainkra.
02:26
Even if you get your values from religion,
49
146260
3000
Még ha a vallásunkból vesszük is értékeinket,
02:29
even if you think that good and evil ultimately
50
149260
2000
még ha azt hisszük is, hogy a jó és a gonosz
02:31
relate to conditions after death --
51
151260
2000
a halál utáni állapotokra utal,
02:33
either to an eternity of happiness with God
52
153260
3000
akár egy örökké tartó boldogságra Istennel,
02:36
or an eternity of suffering in hell --
53
156260
2000
vagy örökké tartó szenvedésre a pokolban,
02:38
you are still concerned about consciousness and its changes.
54
158260
4000
mégis aggódunk a tudatállapot és annak változásai miatt.
02:42
And to say that such changes can persist after death
55
162260
3000
Azt állítani, hogy ezek a változások a halál után
02:45
is itself a factual claim,
56
165260
2000
is léteznek, maga is egy tényszerű
02:47
which, of course, may or may not be true.
57
167260
3000
kijelentés, ami lehet igaz vagy hamis.
02:50
Now, to speak about the conditions of well-being
58
170260
3000
Ami a jólét állapotait illeti ebben az életben,
02:53
in this life, for human beings,
59
173260
2000
az emberi lények esetében,
02:55
we know that there is a continuum of such facts.
60
175260
3000
tudjuk, hogy ezek a tények széles skálán mozognak.
02:58
We know that it's possible to live in a failed state,
61
178260
3000
Tudjuk, hogy lehetséges egy sikertelen helyzetben élni,
03:01
where everything that can go wrong does go wrong --
62
181260
2000
melyben minden, ami elromolhat, el is romlik:
03:03
where mothers cannot feed their children,
63
183260
3000
melyben az anyák nem tudják etetni gyerekeiket,
03:06
where strangers cannot find the basis for peaceful collaboration,
64
186260
4000
az idegenek nem tudnak békésen együttműködni,
03:10
where people are murdered indiscriminately.
65
190260
3000
és az embereket válogatás nélkül legyilkolják.
03:13
And we know that it's possible to move along this continuum
66
193260
3000
És tudjuk, hogy a skála túlsó végére is el lehet jutni,
03:16
towards something quite a bit more idyllic,
67
196260
2000
egy sokkal idillibb állapot felé,
03:18
to a place where a conference like this is even conceivable.
68
198260
5000
ahol egy ilyen konferencia egyáltalán elképzelhető.
03:23
And we know -- we know --
69
203260
3000
És tudjuk,
03:26
that there are right and wrong answers
70
206260
2000
hogy vannak jó és rossz válaszok
03:28
to how to move in this space.
71
208260
2000
arra, hogyan mozogjunk ezen a skálán.
03:30
Would adding cholera to the water be a good idea?
72
210260
6000
Jó ötlet lenne kolerával megfertőzni a vizet?
03:36
Probably not.
73
216260
2000
Valószínűleg nem.
03:38
Would it be a good idea for everyone to believe in the evil eye,
74
218260
3000
Jó ötlet lenne, ha mindenki hinne a szemmelverésben,
03:41
so that when bad things happened to them
75
221260
2000
hogy amikor valami rossz történik velük,
03:43
they immediately blame their neighbors? Probably not.
76
223260
4000
azonnal a szomszédjukat okolják? Valószínűleg nem.
03:47
There are truths to be known
77
227260
2000
Léteznek megismerhető igazságok
03:49
about how human communities flourish,
78
229260
3000
arról, hogyan virágozhatnak az emberi közösségek,
03:52
whether or not we understand these truths.
79
232260
2000
akár megértjük őket, akár nem.
03:54
And morality relates to these truths.
80
234260
3000
És az erkölcs összefügg ezekkel az igazságokkal.
03:57
So, in talking about values we are talking about facts.
81
237260
4000
Tehát ha értékekről beszélünk, tényekről beszélünk.
04:01
Now, of course our situation in the world can be understood at many levels --
82
241260
3000
A világban betöltött helyünket több szinten is megérthetjük,
04:04
from the level of the genome
83
244260
2000
kezdve a génállomány szintjétől
04:06
on up to the level of economic systems
84
246260
2000
a gazdasági és politikai rendszerek
04:08
and political arrangements.
85
248260
2000
szintjéig.
04:10
But if we're going to talk about human well-being
86
250260
2000
De ha az emberi jólétről akarunk beszélni,
04:12
we are, of necessity, talking about the human brain.
87
252260
3000
akkor óhatatlanul is az emberi agyról beszélünk.
04:15
Because we know that our experience of the world and of ourselves within it
88
255260
3000
Mert tudjuk, hogy az, hogy hogyan fogjuk fel a világot és benne önmagunkat,
04:18
is realized in the brain --
89
258260
3000
az agyban jön létre,
04:21
whatever happens after death.
90
261260
2000
bármi történjék is a halál után.
04:23
Even if the suicide bomber does get 72 virgins in the afterlife,
91
263260
5000
Még ha valóban kap is 72 szüzet az öngyilkos merénylő a túlvilágon,
04:28
in this life, his personality --
92
268260
3000
ebben az életben a személyisége,
04:31
his rather unfortunate personality --
93
271260
2000
a meglehetősen szerencsétlen személyisége
04:33
is the product of his brain.
94
273260
3000
saját elméjének a terméke.
04:36
So the contributions of culture --
95
276260
3000
Tehát, ami a kultúra hozzájárulását illeti,
04:39
if culture changes us, as indeed it does,
96
279260
2000
ha a kultúra megváltoztat minket, ami igaz,
04:41
it changes us by changing our brains.
97
281260
2000
valójában az elménket változtatja meg.
04:43
And so therefore whatever cultural variation there is
98
283260
3000
Így aztán az emberi lények fejlődésének
04:46
in how human beings flourish
99
286260
2000
bármely kulturális változását
04:48
can, at least in principle, be understood
100
288260
2000
megérthetjük, legalábbis elméletben,
04:50
in the context of a maturing science of the mind --
101
290260
3000
az elmével foglalkozó fejlődő tudományágak:
04:53
neuroscience, psychology, etc.
102
293260
3000
neurológia, pszichológia, stb. segítségével.
04:56
So, what I'm arguing is that
103
296260
2000
Tehát véleményem szerint
04:58
value's reduced to facts --
104
298260
2000
az érték levezethető tényekre,
05:00
to facts about the conscious experience
105
300260
2000
a tudatos lények tudatos tapasztalatainak
05:02
of conscious beings.
106
302260
3000
tényeire.
05:05
And we can therefore visualize a space
107
305260
3000
Tehát megjeleníthetjük
05:08
of possible changes in the experience of these beings.
108
308260
3000
ezen lények tapasztalatainak a lehetséges változásait.
05:11
And I think of this as kind of a moral landscape,
109
311260
2000
Egyfajta erkölcsi tájra gondolok,
05:13
with peaks and valleys that correspond
110
313260
2000
hegyekkel és völgyekkel, melyek
05:15
to differences in the well-being of conscious creatures,
111
315260
3000
a tudatos lények jólétének különbségeit jelképezik,
05:18
both personal and collective.
112
318260
2000
egyéni és közösségi szinten.
05:20
And one thing to notice is that perhaps
113
320260
2000
Érdemes megjegyeznünk, hogy talán
05:22
there are states of human well-being
114
322260
2000
vannak olyan állapotok az emberi jólétben,
05:24
that we rarely access, that few people access.
115
324260
3000
melyekhez alig férünk hozzá, vagy csak kevesen.
05:27
And these await our discovery.
116
327260
2000
Ezeket még fel kell fedeznünk.
05:29
Perhaps some of these states can be appropriately called
117
329260
2000
Talán némelyiket nevezhetjük találóan
05:31
mystical or spiritual.
118
331260
2000
misztikusnak vagy spirituálisnak.
05:33
Perhaps there are other states that we can't access
119
333260
2000
Esetleg vannak mások is, amikhez nem férünk hozzá
05:35
because of how our minds are structured
120
335260
3000
az elménk felépítése miatt,
05:38
but other minds possibly could access them.
121
338260
4000
de más elmék talán hozzáférhetnek.
05:42
Now, let me be clear about what I'm not saying. I'm not saying
122
342260
2000
Szeretném világosan kifejezni magam. Nem azt mondom,
05:44
that science is guaranteed to map this space,
123
344260
5000
hogy a tudomány garantáltan feltérképezi ezt a tájat,
05:49
or that we will have scientific answers to every
124
349260
2000
vagy hogy valaha is meg tudjuk tudományosan válaszolni
05:51
conceivable moral question.
125
351260
2000
az összes elképzelhető erkölcsi kérdést.
05:53
I don't think, for instance, that you will one day consult
126
353260
2000
Például nem hiszem, hogy egy nap majd egy szuperszámítógéptől
05:55
a supercomputer to learn whether you should have a second child,
127
355260
4000
fogjuk megérdezni, hogy vállaljunk-e második gyereket is,
05:59
or whether we should bomb Iran's nuclear facilities,
128
359260
4000
vagy hogy lebombázzuk-e Irán atomerőműveit,
06:03
or whether you can deduct the full cost of TED as a business expense.
129
363260
4000
vagy hogy levonhatjuk-e az adóból a TED teljes költségét üzleti kiadás címén.
06:07
(Laughter)
130
367260
2000
(Nevetés)
06:09
But if questions affect human well-being
131
369260
2000
De ha a kérdések befolyásolják az emberi jólétet,
06:11
then they do have answers, whether or not we can find them.
132
371260
3000
akkor léteznek válaszok is, akár megtaláljuk őket, akár nem.
06:14
And just admitting this --
133
374260
2000
És azáltal, hogy elismerjük,
06:16
just admitting that there are right and wrong answers
134
376260
2000
hogy léteznek jó és rossz válaszok
06:18
to the question of how humans flourish --
135
378260
2000
az emberi jólét kérdéseire,
06:20
will change the way we talk about morality,
136
380260
2000
megváltozik az, ahogyan az erkölcsről beszélünk,
06:22
and will change our expectations
137
382260
2000
és megváltoznak az emberi együttműködéssel
06:24
of human cooperation in the future.
138
384260
4000
kapcsolatos elvárásaink is a jövőben.
06:28
For instance, there are 21 states in our country
139
388260
4000
Például, hazánk 21 államában
06:32
where corporal punishment in the classroom is legal,
140
392260
3000
törvényes a testi fenyítés az osztályteremben:
06:35
where it is legal for a teacher to beat a child with a wooden board, hard,
141
395260
6000
egy tanár törvényesen megverhet egy gyereket fapálcával, keményen,
06:41
and raising large bruises and blisters and even breaking the skin.
142
401260
4000
jókora sebeket és hólyagokat okozva, akár még a bőrt is fölrepesztve.
06:45
And hundreds of thousands of children, incidentally,
143
405260
2000
És minden évben több százezer gyermek
06:47
are subjected to this every year.
144
407260
2000
van ennek kitéve.
06:49
The locations of these enlightened districts, I think, will fail to surprise you.
145
409260
5000
Azt hiszem, nem fog meglepni senkit ezeknek a felvilágosult helyeknek a holléte.
06:54
We're not talking about Connecticut.
146
414260
3000
Nem Connecticutról beszélünk.
06:57
And the rationale for this behavior is explicitly religious.
147
417260
4000
És ennek a viselkedésnek az alapja nyíltan vallási eredetű.
07:01
The creator of the universe himself
148
421260
2000
Maga a Teremtő mondta,
07:03
has told us not to spare the rod,
149
423260
2000
hogy ne sajnáljuk megvesszőzni
07:05
lest we spoil the child --
150
425260
2000
a gyereket, különben félreneveljük:
07:07
this is in Proverbs 13 and 20, and I believe, 23.
151
427260
5000
Példabeszédek 13, 20, és 23.
07:12
But we can ask the obvious question:
152
432260
2000
De feltehetjük a nyilvánvaló kérdést:
07:14
Is it a good idea, generally speaking,
153
434260
4000
Valóban jó ötlet, általánosságban beszélve,
07:18
to subject children to pain
154
438260
3000
hogy fájdalomnak, erőszaknak,
07:21
and violence and public humiliation
155
441260
3000
és nyilvános megaláztatásnak kitéve
07:24
as a way of encouraging healthy emotional development
156
444260
2000
ösztönözzük a gyerekeket az egészséges érzelmi fejlődésre
07:26
and good behavior?
157
446260
2000
és helyes viselkedésre?
07:28
(Laughter)
158
448260
1000
(Nevetés)
07:29
Is there any doubt
159
449260
4000
Kételkedhet-e bárki,
07:33
that this question has an answer,
160
453260
2000
hogy van válasz erre a kérdésre,
07:35
and that it matters?
161
455260
3000
és hogy ez lényeges?
07:38
Now, many of you might worry
162
458260
2000
Sokan aggódhatunk,
07:40
that the notion of well-being is truly undefined,
163
460260
3000
hogy a jólét képzete meghatározatlan,
07:43
and seemingly perpetually open to be re-construed.
164
463260
3000
és látszólag folyamatosan megváltoztatható.
07:46
And so, how therefore can there be an
165
466260
2000
Így azonban hogyan lehetne
07:48
objective notion of well-being?
166
468260
3000
elfogulatlan képzetünk a jólétről?
07:51
Well, consider by analogy, the concept of physical health.
167
471260
3000
Nos, vizsgáljuk meg elképzelésünket a testi egészségről.
07:54
The concept of physical health is undefined.
168
474260
3000
A testi egészség képzete meghatározhatatlan.
07:57
As we just heard from Michael Specter, it has changed over the years.
169
477260
3000
És amint Michael Spectertől megtudtuk, meg is változott az évek során.
08:00
When this statue was carved
170
480260
2000
Amikor ezt a szobrot kifaragták,
08:02
the average life expectancy was probably 30.
171
482260
3000
az átlag életkor valószínűleg 30 volt.
08:05
It's now around 80 in the developed world.
172
485260
3000
Ma a fejlett országokban 80 körül van.
08:08
There may come a time when we meddle with our genomes
173
488260
3000
Lehet, hogy egy nap majd belepiszkálunk a génjeinkbe,
08:11
in such a way that not being able to run a marathon
174
491260
3000
és ennek következményeként, aki nem tud majd 200 évesen
08:14
at age 200 will be considered a profound disability.
175
494260
4000
maratont futni, azt borzasztóan nyomoréknak tartják majd.
08:18
People will send you donations when you're in that condition.
176
498260
3000
Adományokat fognak küldeni annak, aki ilyen állapotban lesz.
08:21
(Laughter)
177
501260
2000
(Nevetés)
08:23
Notice that the fact that the concept of health
178
503260
4000
Figyeljük meg, hogy az a tény, hogy az egészségről
08:27
is open, genuinely open for revision,
179
507260
3000
alkotott fogalmunk nyitott a változtatásra,
08:30
does not make it vacuous.
180
510260
2000
még nem teszi értelmetlenné.
08:32
The distinction between a healthy person
181
512260
3000
Az egészséges és a halott ember
08:35
and a dead one
182
515260
2000
közti különbség
08:37
is about as clear and consequential as any we make in science.
183
517260
3000
olyan egyértelmű és következetes, mint bármi a tudományban.
08:43
Another thing to notice is there may be many peaks on the moral landscape:
184
523260
3000
A másik figyelemreméltó dolog, hogy lehetnek hegyek is az erkölcsi tájban:
08:46
There may be equivalent ways to thrive;
185
526260
3000
Lehetnek egyenértékű lehetőségek a fejlődésre,
08:49
there may be equivalent ways to organize a human society
186
529260
2000
egyenértékű módok az emberi társadalom szervezésére,
08:51
so as to maximize human flourishing.
187
531260
2000
az emberi jólétet fejlesztése érdekében.
08:53
Now, why wouldn't this
188
533260
2000
És ez miért ne ásna alá
08:55
undermine an objective morality?
189
535260
4000
egy objektív erkölcsiséget?
08:59
Well think of how we talk about food:
190
539260
3000
Gondoljunk arra, hogy beszélünk az ételről:
09:02
I would never be tempted to argue to you
191
542260
3000
sosem próbálnék bárkivel arról vitázni,
09:05
that there must be one right food to eat.
192
545260
2000
hogy létezik egyetlen jó étel, amit ehetünk.
09:07
There is clearly a range of materials
193
547260
2000
Hiszen ennivalók egész sora
09:09
that constitute healthy food.
194
549260
2000
alkotja az egészséges táplálkozást.
09:11
But there's nevertheless a clear distinction
195
551260
2000
Mégis egyértelmű a különbség
09:13
between food and poison.
196
553260
2000
étel és méreg között.
09:15
The fact that there are many right answers
197
555260
3000
Az a tény, hogy számos jó választ adhatunk
09:18
to the question, "What is food?"
198
558260
2000
arra a kérdésre, hogy mi ehető,
09:20
does not tempt us
199
560260
3000
még nem jelenti azt,
09:23
to say that there are no truths to be known about human nutrition.
200
563260
5000
hogy nem léteznek megismerhető igazságok az emberi táplálkozásról.
09:28
Many people worry
201
568260
2000
Sok embert aggaszt,
09:30
that a universal morality would require
202
570260
3000
hogy egy általános erkölcsiség
09:33
moral precepts that admit of no exceptions.
203
573260
3000
kivételek nélküli erkölcsi szabályokat kívánna meg.
09:36
So, for instance, if it's really wrong to lie,
204
576260
2000
Például, ha valóban helytelen hazudni,
09:38
it must always be wrong to lie,
205
578260
2000
akkor mindig helytelen hazudni,
09:40
and if you can find an exception,
206
580260
2000
és ha találunk ez alól kivételt,
09:42
well then there's no such thing as moral truth.
207
582260
3000
az azt jelenti, hogy nincs erkölcsi igazság.
09:45
Why would we think this?
208
585260
2000
Miért hisszük ezt?
09:47
Consider, by analogy, the game of chess.
209
587260
3000
Gondoljunk a sakkjátékra.
09:50
Now, if you're going to play good chess,
210
590260
2000
Ha jól akarunk sakkozni, akkor érdemes
09:52
a principle like, "Don't lose your Queen,"
211
592260
2000
követni az olyan elveket, mint például,
09:54
is very good to follow.
212
594260
2000
hogy ne veszítsük el a királynőnket.
09:56
But it clearly admits some exceptions.
213
596260
2000
De még az alól is vannak kivételek.
09:58
There are moments when losing your Queen is a brilliant thing to do.
214
598260
3000
Vannak pillanatok, amikor a királynő elvesztése egy zseniális lépés.
10:01
There are moments when it is the only good thing you can do.
215
601260
4000
Vannak pillanatok, amikor ez az egyetlen jó lépés.
10:05
And yet, chess is a domain of perfect objectivity.
216
605260
4000
Ugyanakkor a sakk a tökéletes tárgyilagosság birodalma.
10:09
The fact that there are exceptions here does not
217
609260
2000
Ezen semmit sem változtat az a tény,
10:11
change that at all.
218
611260
3000
hogy vannak kivételek.
10:14
Now, this brings us to the sorts of moves
219
614260
3000
Ezzel el is jutottunk azokhoz a lépésekhez
10:17
that people are apt to make in the moral sphere.
220
617260
3000
amiket az emberek megtehetnek az erkölcsi szférában.
10:20
Consider the great problem of women's bodies:
221
620260
5000
Gondoljunk csak a női test nagy problémájára:
10:25
What to do about them?
222
625260
2000
mihez kezdjünk vele?
10:27
Well this is one thing you can do about them:
223
627260
2000
Az egyik dolog, amit tehetünk,
10:29
You can cover them up.
224
629260
2000
hogy elfedjük.
10:31
Now, it is the position, generally speaking, of our intellectual community
225
631260
2000
Általánosságban véve, jelenlegi helyzetünkben, saját intellektuális
10:33
that while we may not like this,
226
633260
4000
közösségünkben ezt talán nem szeretjük,
10:37
we might think of this as "wrong"
227
637260
2000
helytelennek ítélhetjük
10:39
in Boston or Palo Alto,
228
639260
2000
Bostonban vagy Palo Altóban,
10:41
who are we to say
229
641260
2000
de hogyan szólhatnánk bele abba,
10:43
that the proud denizens of an ancient culture
230
643260
3000
hogy egy ősi kultúra büszke tagjai
10:46
are wrong to force their wives and daughters
231
646260
3000
helytelenül kényszerítik asszonyaikat és lányaikat,
10:49
to live in cloth bags?
232
649260
2000
hogy zsákokban éljenek?
10:51
And who are we to say, even, that they're wrong
233
651260
2000
És hogy állíthatjuk, hogy helytelen
10:53
to beat them with lengths of steel cable,
234
653260
2000
acélkábellel megverni őket,
10:55
or throw battery acid in their faces
235
655260
2000
vagy savat önteni az arcukra,
10:57
if they decline the privilege of being smothered in this way?
236
657260
4000
ha ellenkezni mernek?
11:01
Well, who are we not to say this?
237
661260
3000
Már hogy ne tiltakoznánk?
11:04
Who are we to pretend
238
664260
2000
Nem tehetünk úgy, mintha
11:06
that we know so little about human well-being
239
666260
4000
olyan keveset tudnánk az emberi jólétről,
11:10
that we have to be non-judgmental about a practice like this?
240
670260
4000
hogy egy ilyen szokással szemben nem vagyunk kritikusak.
11:14
I'm not talking about voluntary wearing of a veil --
241
674260
4000
Nem a fátyol önkéntes viseléséről beszélek,
11:18
women should be able to wear whatever they want, as far as I'm concerned.
242
678260
2000
részemről a nők azt viselhetnek, amit csak akarnak.
11:20
But what does voluntary mean
243
680260
3000
De mit jelent az önkéntes szó
11:23
in a community where,
244
683260
2000
egy olyan közösségben,
11:25
when a girl gets raped,
245
685260
3000
ahol az apa első érzésre,
11:28
her father's first impulse,
246
688260
2000
meglehetősen gyakran,
11:30
rather often, is to murder her out of shame?
247
690260
5000
megerőszakolt lányát megöli szégyenből?
11:35
Just let that fact detonate in your brain for a minute:
248
695260
7000
Hagyják egy pillanatig, hogy robbanjon ez a tény az elméjükben:
11:42
Your daughter gets raped,
249
702260
2000
A lányukat megerőszakolják,
11:44
and what you want to do is kill her.
250
704260
3000
és Önök meg akarják őt ölni ezért.
11:52
What are the chances that represents
251
712260
2000
Mekkorák az esélyei annak, hogy ez
11:54
a peak of human flourishing?
252
714260
5000
az emberi jólét csúcsa?
12:02
Now, to say this is not to say that we have got the
253
722260
2000
Ezzel nem azt állítom, hogy saját társadalmunkban
12:04
perfect solution in our own society.
254
724260
4000
már létezik a tökéletes megoldás.
12:08
For instance,
255
728260
2000
Például,
12:10
this is what it's like to go to a newsstand almost anywhere
256
730260
2000
ezt látjuk, ha leszaladunk az újságoshoz
12:12
in the civilized world.
257
732260
2000
bárhol a civilizált világban.
12:14
Now, granted, for many men
258
734260
2000
Sokaknak filozófia diplomára
12:16
it may require a degree in philosophy to see something wrong with these images.
259
736260
3000
lehet szüksége, hogy megértse, mi a baj ezekkel a képekkel.
12:19
(Laughter)
260
739260
3000
(Nevetés)
12:22
But if we are in a reflective mood,
261
742260
3000
De ha jobban belegondolunk,
12:25
we can ask,
262
745260
2000
feltehetjük a kérdést:
12:27
"Is this the perfect expression
263
747260
2000
Ez lenne a pszichológiai egyensúly
12:29
of psychological balance
264
749260
2000
tökéletes kifejezése
12:31
with respect to variables like youth and beauty and women's bodies?"
265
751260
3000
olyan tényezőkkel, mint a fiatalság, a szépség, és a női test?
12:34
I mean, is this the optimal environment
266
754260
2000
Úgy értem, ez lenne az ideális környezet
12:36
in which to raise our children?
267
756260
4000
gyermekeink fölnevelésére?
12:40
Probably not. OK, so perhaps there's some place
268
760260
2000
Valószínűleg nem. De talán létezhet egy hely
12:42
on the spectrum
269
762260
2000
ezen a skálán
12:44
between these two extremes
270
764260
2000
e között a két véglet között,
12:46
that represents a place of better balance.
271
766260
3000
ami egy jobb egyensúlyt jelképez.
12:49
(Applause)
272
769260
8000
(Taps)
12:57
Perhaps there are many such places --
273
777260
2000
Talán több ilyen hely is van,
12:59
again, given other changes in human culture
274
779260
3000
emlékszünk, más változásokkal a kultúrában
13:02
there may be many peaks on the moral landscape.
275
782260
2000
számos hegycsúcs létezhet az erkölcsi tájban.
13:04
But the thing to notice is that there will be
276
784260
2000
De észre kell vennünk, hogy van számtalan
13:06
many more ways not to be on a peak.
277
786260
5000
más mód a csúcsok elkerülésére.
13:11
Now the irony, from my perspective,
278
791260
2000
Az én szemszögemből nézve ironikus,
13:13
is that the only people who seem to generally agree with me
279
793260
3000
hogy azok, akik általában egyet értenek velem,
13:16
and who think that there are right and wrong answers to moral questions
280
796260
3000
akik szerint vannak jó és rossz válaszok az erkölcsi kérdésekre,
13:19
are religious demagogues of one form or another.
281
799260
3000
azok valamilyen vallás demagógjai.
13:22
And of course they think they have right answers to moral questions
282
802260
3000
És persze úgy gondolják, ők tudják a jó válaszokat az erkölcsi kérdésekre,
13:25
because they got these answers from a voice in a whirlwind,
283
805260
4000
mert egy hang a förgetegből megválaszolta őket,
13:29
not because they made an intelligent analysis of the causes
284
809260
2000
és nem azért, mert elvégeztek egy intelligens elemzést
13:31
and condition of human and animal well-being.
285
811260
4000
az emberi és állati jólét okairól és feltételeiről.
13:35
In fact, the endurance of religion
286
815260
2000
Sőt, a vallás állhatatossága,
13:37
as a lens through which most people view moral questions
287
817260
4000
melyen keresztül sok ember tekint az erkölcsi kérdésekre,
13:41
has separated most moral talk
288
821260
3000
külön választotta a legtöbb erkölcsi beszédet
13:44
from real questions of human and animal suffering.
289
824260
4000
az emberi és állati szenvedés valós kérdéseitől.
13:48
This is why we spend our time
290
828260
2000
Ezért töltjük az időnket azzal, hogy
13:50
talking about things like gay marriage
291
830260
2000
például inkább a meleg házasságról vitázunk,
13:52
and not about genocide or nuclear proliferation
292
832260
4000
mint a népirtásról, atomfegyverkezésről,
13:56
or poverty or any other hugely consequential issue.
293
836260
5000
szegénységről, és más, súlyos következményekkel járó témákról.
14:01
But the demagogues are right about one thing: We need
294
841260
2000
De a demagógoknak egy dologban igazuk van,
14:03
a universal conception of human values.
295
843260
4000
szükségünk van egy általános emberi értékrendre.
14:07
Now, what stands in the way of this?
296
847260
2000
Mi áll ennek az útjában?
14:09
Well, one thing to notice is that we
297
849260
2000
Érdemes megfigyelni, hogy
14:11
do something different when talking about morality --
298
851260
2000
az erkölcsről másképpen beszélünk,
14:13
especially secular, academic, scientist types.
299
853260
4000
különösen a világi, akademikus, tudományos esetekben.
14:17
When talking about morality we value differences of opinion
300
857260
3000
Az erkölccsel kapcsolatban a vélemény különbségeket másképpen értékeljük,
14:20
in a way that we don't in any other area of our lives.
301
860260
3000
ellentétben az élet más területeivel.
14:23
So, for instance the Dalai Lama gets up every morning
302
863260
2000
Például a Dalai Láma minden reggel fölkel,
14:25
meditating on compassion,
303
865260
2000
és az együttérzésről meditál,
14:27
and he thinks that helping other human beings is an integral component
304
867260
2000
és szerinte más emberek megsegítése az emberi boldogság
14:29
of human happiness.
305
869260
3000
szerves alkotórésze.
14:32
On the other hand, we have someone like Ted Bundy;
306
872260
2000
Másrészről viszont ott van Ted Bundy,
14:34
Ted Bundy was very fond of abducting and raping
307
874260
2000
aki rajongott a fiatal nők elrablásáért,
14:36
and torturing and killing young women.
308
876260
2000
megerőszakolásáért, megkínzásáért és meggyilkolásáért.
14:38
So, we appear to have a genuine difference of opinion
309
878260
2000
Tehát úgy tűnik, őszintén eltérőek a vélemények
14:40
about how to profitably use one's time.
310
880260
3000
arról, hogyan töltsük hasznosan az időnket.
14:43
(Laughter)
311
883260
2000
(Nevetés)
14:45
Most Western intellectuals
312
885260
2000
A legtöbb nyugati értelmiségi
14:47
look at this situation
313
887260
2000
a következőképpen vélekedik erről:
14:49
and say, "Well, there's nothing for the Dalai Lama
314
889260
2000
nincs semmi
14:51
to be really right about -- really right about --
315
891260
3000
a Dalai Láma igazában,
14:54
or for Ted Bundy to be really wrong about
316
894260
3000
vagy Ted Bundy tévedésében,
14:57
that admits of a real argument
317
897260
4000
ami vitára bocsátható,
15:01
that potentially falls within the purview of science.
318
901260
3000
ami a tudomány hatáskörébe tartozna.
15:04
He likes chocolate, he likes vanilla.
319
904260
3000
Az egyik a csokit szereti, a másik a vaníliát.
15:07
There's nothing that one should be able to say to the other
320
907260
3000
Egyik sem tudna semmi olyat mondani a másiknak,
15:10
that should persuade the other."
321
910260
3000
amivel meggyőzhetné a másikat.
15:13
Notice that we don't do this in science.
322
913260
3000
Figyeljük meg, hogy ez nem fordul elő a tudományban.
15:16
On the left you have Edward Witten.
323
916260
2000
A baloldali képen Edward Wittent láthatjuk.
15:18
He's a string theorist.
324
918260
3000
A húrelmélet szakértője.
15:21
If you ask the smartest physicists around
325
921260
2000
Ha megkérdeznénk a legokosabb fizikusokat,
15:23
who is the smartest physicist around,
326
923260
2000
hogy ki a legokosabb fizikus,
15:25
in my experience half of them will say Ed Witten.
327
925260
3000
tapasztalatom szerint egyik felük azt válaszolja: Ed Witten.
15:28
The other half will tell you they don't like the question.
328
928260
3000
A másik felük azt válaszolja, hogy nem tetszik neki a kérdés.
15:31
(Laughter)
329
931260
3000
(Nevetés)
15:34
So, what would happen if I showed up at a physics conference
330
934260
4000
Tehát, mi történne, ha megjelennék egy fizika konferencián,
15:38
and said,"String theory is bogus.
331
938260
2000
és azt mondanám, hogy a húrelmélet hülyeség?
15:40
It doesn't resonate with me. It's not how I chose to
332
940260
2000
Nem pendülök vele egy húron. Nem ilyennek akarom
15:42
view the universe at a small scale.
333
942260
3000
látni az univerzumot kicsiben.
15:45
I'm not a fan."
334
945260
2000
Nem rajongok érte.
15:47
(Laughter)
335
947260
3000
(Nevetés)
15:50
Well, nothing would happen because I'm not a physicist;
336
950260
2000
Nos, semmi sem történne, mert nem vagyok fizikus,
15:52
I don't understand string theory.
337
952260
2000
nem értem a húrelméletet.
15:54
I'm the Ted Bundy of string theory.
338
954260
2000
Én a húrelmélet Ted Bundyja vagyok.
15:56
(Laughter)
339
956260
3000
(Nevetés)
15:59
I wouldn't want to belong to any string theory club that would have me as a member.
340
959260
3000
Nem akarnék olyan húrelmélet-klubhoz tartozni, ami elfogadna engem tagnak.
16:02
But this is just the point.
341
962260
2000
De pont ez a lényeg.
16:04
Whenever we are talking about facts
342
964260
3000
Amikor tényekről beszélünk,
16:07
certain opinions must be excluded.
343
967260
2000
bizonyos véleményeket ki kell zárnunk.
16:09
That is what it is to have a domain of expertise.
344
969260
3000
Ezért létezik szakvélemény.
16:12
That is what it is for knowledge to count.
345
972260
3000
Ezért létezik olyan tudás, ami számít.
16:15
How have we convinced ourselves
346
975260
3000
Hogyan győztük meg magunkat arról,
16:18
that in the moral sphere there is no such thing as moral expertise,
347
978260
4000
hogy az erkölcs terén nem létezik erkölcsi szakvélemény,
16:22
or moral talent, or moral genius even?
348
982260
3000
erkölcsi tehetség, vagy akár erkölcsi zseni?
16:25
How have we convinced ourselves
349
985260
2000
Hogyan győztük meg magunkat arról,
16:27
that every opinion has to count?
350
987260
2000
hogy minden vélemény számít?
16:29
How have we convinced ourselves
351
989260
2000
Hogyan győztük meg magunkat arról,
16:31
that every culture has a point of view
352
991260
2000
hogy minden kultúrának van figyelemre méltó
16:33
on these subjects worth considering?
353
993260
3000
állásfoglalása ezen a téren?
16:36
Does the Taliban
354
996260
2000
Van a Talibánnak
16:38
have a point of view on physics
355
998260
2000
figyelemre méltó állásfoglalása
16:40
that is worth considering? No.
356
1000260
3000
a fizika terén? Nincs.
16:43
(Laughter)
357
1003260
5000
(Nevetés)
16:48
How is their ignorance any less obvious
358
1008260
3000
Hogy lehetne az emberi jólét terén
16:51
on the subject of human well-being?
359
1011260
2000
a tudatlanságuk kevésbé nyilvánvaló?
16:53
(Applause)
360
1013260
6000
(Taps)
16:59
So, this, I think, is what the world needs now.
361
1019260
4000
Szerintem erre van most szüksége a világnak.
17:03
It needs people like ourselves to admit
362
1023260
3000
Hozzánk hasonló embereknek kell elismernie,
17:06
that there are right and wrong answers
363
1026260
3000
hogy vannak jó és rossz válaszok
17:09
to questions of human flourishing,
364
1029260
2000
az emberi jólét kérdéseire,
17:11
and morality relates
365
1031260
2000
és az erkölcs
17:13
to that domain of facts.
366
1033260
2000
ezekkel a tényekkel függ össze.
17:15
It is possible
367
1035260
2000
Lehetséges egyéni szinten,
17:17
for individuals, and even for whole cultures,
368
1037260
4000
és akár egész kultúrák szintjén
17:21
to care about the wrong things,
369
1041260
2000
a rossz dolgokkal törődni:
17:23
which is to say that it's possible for them
370
1043260
3000
azaz lehetséges számukra,
17:26
to have beliefs and desires that reliably lead
371
1046260
2000
hogy olyan hiteket és vágyakat tápláljanak,
17:28
to needless human suffering.
372
1048260
2000
melyek szükségtelen emberi szenvedéshez vezetnek.
17:30
Just admitting this will transform our discourse about morality.
373
1050260
5000
Már ennek a beismerése is megváltoztatja erkölcsi vitáinkat.
17:35
We live in a world in which
374
1055260
3000
Olyan világban élünk, melyben
17:38
the boundaries between nations mean less and less,
375
1058260
3000
a nemzetek közti határok egyre vékonyodnak,
17:41
and they will one day mean nothing.
376
1061260
3000
és egy nap végleg eltűnnek.
17:44
We live in a world filled with destructive technology,
377
1064260
2000
Egy pusztító technológiákkal teli világban élünk,
17:46
and this technology cannot be uninvented;
378
1066260
2000
melyek felfedezését nem tudjuk visszacsinálni,
17:48
it will always be easier
379
1068260
2000
mindig egyszerűbb
17:50
to break things than to fix them.
380
1070260
4000
eltörni a dolgokat, mint megjavítani.
17:54
It seems to me, therefore, patently obvious
381
1074260
2000
Számomra ez azt jelenti, hogy nyilvánvalóan
17:56
that we can no more
382
1076260
4000
soha többé nem tisztelhetjük
18:00
respect and tolerate
383
1080260
2000
és nem tolerálhatjuk
18:02
vast differences in notions of human well-being
384
1082260
4000
az emberi jólétről alkotott eltérő nézeteket,
18:06
than we can respect or tolerate vast differences
385
1086260
3000
ahogy nem tiszteljük vagy toleráljuk az eltérő
18:09
in the notions about how disease spreads,
386
1089260
3000
nézeteket a betegségek terjedéséről,
18:12
or in the safety standards of buildings and airplanes.
387
1092260
3000
vagy az épületek és repülők biztonsági előirásairól.
18:15
We simply must converge
388
1095260
3000
Csak meg kell egyeznünk
18:18
on the answers we give to the most important questions in human life.
389
1098260
4000
az emberi élet legfontosabb kérdéseire adott válaszokban.
18:22
And to do that, we have to admit that these questions have answers.
390
1102260
5000
És hogy ezt elérjük, be kell látnunk, hogy van válasz ezekre a kérdésekre.
18:27
Thank you very much.
391
1107260
2000
Köszönöm szépen.
18:29
(Applause)
392
1109260
23000
(Taps)
18:52
Chris Anderson: So, some combustible material there.
393
1132260
4000
Chris Anderson: Ez aztán a vérlázító téma.
18:56
Whether in this audience or people elsewhere in the world,
394
1136260
3000
Ezek után akár a közönség sorai közt,
18:59
hearing some of this, may well be doing the
395
1139260
2000
akár máshol a világban lehetnek emberek, akik
19:01
screaming-with-rage thing, after as well, some of them.
396
1141260
5000
őrjöngenek dühükben.
19:06
Language seems to be really important here.
397
1146260
2000
A nyelv pedig itt nagyon fontosnak tűnik.
19:08
When you're talking about the veil,
398
1148260
2000
Amikor a fátyolról beszéltél,
19:10
you're talking about women dressed in cloth bags.
399
1150260
3000
zsákokat viselő nőkről beszéltél.
19:13
I've lived in the Muslim world, spoken with a lot of Muslim women.
400
1153260
4000
Én éltem muszlim területen, és rengeteg muszlim nővel beszéltem.
19:17
And some of them would say something else. They would say,
401
1157260
2000
És néhányan egészen másképp fogták fel ezt az egészet.
19:19
"No, you know, this is a celebration
402
1159260
3000
Szerintük ez a női különlegesség
19:22
of female specialness,
403
1162260
3000
ünneplése,
19:25
it helps build that and it's a result of the fact that" --
404
1165260
2000
azt jelenti, és annak a következménye, hogy
19:27
and this is arguably a sophisticated psychological view --
405
1167260
4000
- és az egy vitathatóan kifinomult pszichológiai nézet, -
19:31
"that male lust is not to be trusted."
406
1171260
3000
hogy a férfi vágy nem megbízható.
19:34
I mean, can you engage in a conversation
407
1174260
3000
Úgy értem, hogy tudod ezt megvitatni
19:37
with that kind of woman without seeming kind of cultural imperialist?
408
1177260
5000
egy ilyen nővel anélkül, hogy kulturális imperialistának tűnnél a szemében?
19:42
Sam Harris: Yeah, well I think I tried to broach this in a sentence,
409
1182260
3000
Sam Harris: Igen, azt hiszem ezt megpróbáltam egyetlen mondatba belesűríteni,
19:45
watching the clock ticking,
410
1185260
2000
miközben az órát figyeltem,
19:47
but the question is:
411
1187260
2000
de a kérdés az,
19:49
What is voluntary in a context
412
1189260
3000
hogy mi tekinthető önkéntesnek ott,
19:52
where men have certain expectations,
413
1192260
2000
ahol a férfiaknak vannak bizonyos elvárásaik,
19:54
and you're guaranteed to be treated in a certain way
414
1194260
4000
és ha nem fátyolozod el magad, számíthatsz rá,
19:58
if you don't veil yourself?
415
1198260
2000
hogy bizonyos bánásmódban részesítenek?
20:00
And so, if anyone in this room
416
1200260
2000
Úgyhogy, ha bárki ebben a teremben
20:02
wanted to wear a veil,
417
1202260
2000
fátylat akarna viselni,
20:04
or a very funny hat, or tattoo their face --
418
1204260
3000
vagy egy vicces kalapot, vagy tetoválást az arcán,
20:07
I think we should be free to voluntarily do whatever we want,
419
1207260
3000
szerintem jogunk van önként bármit megtenni,
20:10
but we have to be honest about
420
1210260
3000
de őszintén kell beszélnünk
20:13
the constraints that these women are placed under.
421
1213260
2000
arról a kényszerről, amelynek ezek a nők alá vannak vetve.
20:15
And so I think we shouldn't be so eager
422
1215260
3000
És szerintem nem kellene olyan lelkesen
20:18
to always take their word for it,
423
1218260
2000
elhinnünk, amit erről mondanak,
20:20
especially when it's 120 degrees out
424
1220260
2000
különösen, ha 50 fok van odakint,
20:22
and you're wearing a full burqa.
425
1222260
3000
és burkát kell viselniük.
20:25
CA: A lot of people want to believe in this
426
1225260
2000
C.A.: Sok ember szeretne hinni
20:27
concept of moral progress.
427
1227260
2000
ebben az erkölcsi haladásban.
20:29
But can you reconcile that?
428
1229260
2000
De hogy tudod ezt elfogadtatni?
20:31
I think I understood you to say that you could
429
1231260
2000
Ha jól értettem, azt mondtad, hogy össze tudnád
20:33
reconcile that with a world that doesn't become
430
1233260
2000
ezt egyeztetni egy olyan világgal, ami nem válik
20:35
one dimensional, where we all have to think the same.
431
1235260
3000
egyoldalúvá, ahol mindenkinek ugyanúgy kell gondolkodnia.
20:38
Paint your picture of what
432
1238260
2000
Vázold fel nekünk,
20:40
rolling the clock 50 years forward,
433
1240260
3000
hogy 50 év múlva, vagy akár
20:43
100 years forward, how you would like to think of
434
1243260
2000
100 év múlva, milyennek szeretnéd látni a világot,
20:45
the world, balancing moral progress
435
1245260
3000
egyensúlyban az erkölcsi haladással
20:48
with richness.
436
1248260
3000
és gazdagsággal.
20:51
SH: Well, I think once you admit
437
1251260
2000
S.H.: Szerintem, ha egyszer elfogadjuk,
20:53
that we are on the path toward understanding our minds
438
1253260
3000
hogy jó úton járunk az emberi elme megértésében
20:56
at the level of the brain in some important detail,
439
1256260
3000
az agy szintjén, meglehetősen részletesen,
20:59
then you have to admit
440
1259260
2000
akkor azt is be kell látnunk,
21:01
that we are going to understand all of the positive
441
1261260
4000
hogy sokkal részletesebben fogjuk megérteni
21:05
and negative qualities
442
1265260
2000
az összes pozitív
21:07
of ourselves in much greater detail.
443
1267260
2000
és negatív tulajdonságunkat.
21:09
So, we're going to understand positive social emotion
444
1269260
2000
Meg fogunk érteni olyan pozitív társas érzelmeket,
21:11
like empathy and compassion,
445
1271260
2000
mint az együttérzés és a szánalom,
21:13
and we're going to understand the factors
446
1273260
2000
és megértjük a tényezőket, melyek
21:15
that encourage it -- whether they're genetic,
447
1275260
2000
ezeket keltik bennünk, akár genetikusak,
21:17
whether they're how people talk to one another,
448
1277260
2000
akár attól függnek, hogyan beszélünk egymással,
21:19
whether they're economic systems,
449
1279260
2000
akár a gazdasági rendszerekhez van közük.
21:21
and insofar as we begin to shine light on that
450
1281260
3000
Ahogy elkezdünk fényt deríteni erre,
21:24
we are inevitably going to converge
451
1284260
2000
elkerülhetetlenül el fogunk jutni
21:26
on that fact space.
452
1286260
2000
a tényekhez.
21:28
So, everything is not going to be up for grabs.
453
1288260
2000
Már nem lesz minden elfogadható.
21:30
It's not going to be like
454
1290260
3000
Nem olyan lesz, hogy
21:33
veiling my daughter from birth
455
1293260
2000
ugyanolyan jó elfátyolozni a lányomat
21:35
is just as good as teaching her
456
1295260
3000
születésétől fogva, mint arra tanítani,
21:38
to be confident and well-educated
457
1298260
4000
hogy magabiztos és művelt legyen,
21:42
in the context of men who do desire women.
458
1302260
3000
olyan férfiak közt, akik kívánják a nőket.
21:45
I mean I don't think we need an NSF grant to know
459
1305260
4000
Nem hiszem, hogy az Nemzeti Tudományos Alap támogatására lesz szükségünk,
21:49
that compulsory veiling is a bad idea --
460
1309260
3000
hogy megértsük, hogy a kötelező elfátyolozás rossz ötlet,
21:52
but at a certain point
461
1312260
2000
de egy bizonyos ponton
21:54
we're going to be able to scan the brains of everyone involved
462
1314260
3000
minden érintettnek meg tudjuk majd vizsgálni az agyát,
21:57
and actually interrogate them.
463
1317260
3000
és ki is kérdezzük őket.
22:00
Do people love their daughters
464
1320260
3000
Az emberek ugyanennyire szeretik
22:03
just as much in these systems?
465
1323260
3000
a lányaikat ezekben a rendszerekben is?
22:06
And I think there are clearly right answers to that.
466
1326260
2000
Szerintem vannak erre jó válaszok.
22:08
CA: And if the results come out that actually they do,
467
1328260
3000
C.A.: És ha meglesznek az eredmények,
22:11
are you prepared to shift your instinctive current judgment
468
1331260
3000
készen állsz majd arra, hogy jelenlegi ösztönszerű bírálatodat
22:14
on some of these issues?
469
1334260
2000
ezekre a témákra irányítsd?
22:16
SH: Well yeah, modulo one obvious fact,
470
1336260
3000
S.H.: Igen, kivéve azt a nyilvánvaló tényt,
22:19
that you can love someone
471
1339260
2000
hogy szerethetünk valakit
22:21
in the context of a truly delusional belief system.
472
1341260
3000
egy teljesen megtévesztő hitrendszeren belül is.
22:24
So, you can say like, "Because I knew my gay son
473
1344260
2000
Hogy kijelenthetem, hogy mivel a fiam meleg volt,
22:26
was going to go to hell if he found a boyfriend,
474
1346260
3000
és a pokolra jutott vona, ha partnert talál magának,
22:29
I chopped his head off. And that was the most compassionate thing I could do."
475
1349260
3000
ezért levágtam a fejét. És ez volt a legjobb, amit szeretetből tehettem érte.
22:32
If you get all those parts aligned,
476
1352260
2000
Ha összerakjuk az összes részletet,
22:34
yes I think you could probably be feeling the emotion of love.
477
1354260
3000
akkor szerintem valóban szeretetet érezhet egy ilyen ember.
22:37
But again, then we have to talk about
478
1357260
2000
De, ismétlem, a jólétről
22:39
well-being in a larger context.
479
1359260
2000
nagyobb összefüggésben kell beszélnünk.
22:41
It's all of us in this together,
480
1361260
2000
Mindannyian együtt vagyunk benne,
22:43
not one man feeling ecstasy
481
1363260
4000
nem csak az az egy ember, aki
22:47
and then blowing himself up on a bus.
482
1367260
2000
elragadtatásában felrobbantja magát egy buszon.
22:49
CA: Sam, this is a conversation I would actually love to
483
1369260
2000
C.A.: Nem bánnám, ha ez a beszélgetés
22:51
continue for hours.
484
1371260
2000
még órákig tarthatna.
22:53
We don't have that, but maybe another time. Thank you for coming to TED.
485
1373260
2000
Sajnos azonban most nincs annyi időnk. Köszönjük, hogy eljöttél a TED-re.
22:55
SH: Really an honor. Thank you.
486
1375260
2000
S.H.: Megtiszteltetés volt. Köszönöm.
22:57
(Applause)
487
1377260
3000
(Taps)
Erről a weboldalról

Ez az oldal olyan YouTube-videókat mutat be, amelyek hasznosak az angol nyelvtanuláshoz. A világ minden tájáról származó, kiváló tanárok által tartott angol leckéket láthatsz. Az egyes videók oldalán megjelenő angol feliratokra duplán kattintva onnan játszhatja le a videót. A feliratok a videó lejátszásával szinkronban gördülnek. Ha bármilyen észrevétele vagy kérése van, kérjük, lépjen kapcsolatba velünk ezen a kapcsolatfelvételi űrlapon.

https://forms.gle/WvT1wiN1qDtmnspy7