Science can answer moral questions | Sam Harris

2,835,541 views ・ 2010-03-22

TED


Vă rugăm să faceți dublu clic pe subtitrările în limba engleză de mai jos pentru a reda videoclipul.

Traducător: Ioana Guriţă Corector: Antoniu Gugu
00:15
I'm going to speak today about the relationship
0
15260
3000
Aş vrea să vorbesc astăzi despre relaţia
00:18
between science and human values.
1
18260
4000
dintre ştiinţă şi valorile umane.
00:22
Now, it's generally understood that
2
22260
2000
Opinia general acceptată e aceea că problemele morale,
00:24
questions of morality --
3
24260
2000
00:26
questions of good and evil and right and wrong --
4
26260
2000
distincţia dintre bine şi rău, corect și greșit,
00:28
are questions about which science officially has no opinion.
5
28260
3000
sunt chestiuni în legătură cu care ştiinţa nu are niciun cuvânt de spus.
00:31
It's thought that science can help us
6
31260
3000
Se spune că ştiinţa ne poate ajuta
00:34
get what we value,
7
34260
2000
să obţinem ceea ce preţuim,
00:36
but it can never tell us what we ought to value.
8
36260
3000
dar nu ne poate spune ce ar trebui să preţuim.
00:39
And, consequently, most people -- I think most people
9
39260
2000
Prin urmare, majoritatea oamenilor, probabil majoritatea celor de aici,
00:41
probably here -- think that science will never answer
10
41260
3000
cred că ştiinţa nu va răspunde niciodată
00:44
the most important questions in human life:
11
44260
3000
la cele mai importante întrebări ale vieții umane,
00:47
questions like, "What is worth living for?"
12
47260
2000
întrebări precum: „Pentru ce merită să trăieşti?”,
00:49
"What is worth dying for?"
13
49260
2000
„Pentru ce merită să mori?”,
00:51
"What constitutes a good life?"
14
51260
2000
„Ce reprezintă o viaţă bună?”.
00:53
So, I'm going to argue
15
53260
2000
Eu susţin că aceasta e o iluzie,
00:55
that this is an illusion -- that the separation between
16
55260
2000
că distincţia dintre ştiinţă şi valorile umane e o iluzie,
00:57
science and human values is an illusion --
17
57260
2000
00:59
and actually quite a dangerous one
18
59260
3000
şi încă una destul de periculoasă
01:02
at this point in human history.
19
62260
2000
în acest punct al evoluţiei umanităţii.
01:04
Now, it's often said that science
20
64260
2000
Se spune adeseori că ştiinţa
01:06
cannot give us a foundation for morality and human values,
21
66260
3000
nu ne poate oferi o bază pentru moralitate şi pentru valorile umane
01:09
because science deals with facts,
22
69260
3000
întrucât ştiinţa operează cu date exacte
01:12
and facts and values seem to belong to different spheres.
23
72260
4000
iar datele exact şi valorile par să aparţină unor sfere diferite.
01:16
It's often thought that there's no description
24
76260
3000
Se spune adesea că nu există nicio descriere
01:19
of the way the world is
25
79260
2000
a lumii de azi
01:21
that can tell us how the world ought to be.
26
81260
4000
care să sugereze cum ar trebui să fie lumea de mâine.
01:25
But I think this is quite clearly untrue.
27
85260
2000
Însă eu cred că asta e pur şi simplu neadevărat.
01:27
Values are a certain kind of fact.
28
87260
4000
Valorile sunt şi ele un anumit tip de date exacte.
01:31
They are facts about the well-being of conscious creatures.
29
91260
4000
Ele sunt date despre bunăstarea creaturilor conştiente.
01:35
Why is it that we don't have ethical obligations toward rocks?
30
95260
4000
De ce nu avem obligaţii morale faţă de pietre?
01:39
Why don't we feel compassion for rocks?
31
99260
3000
De ce nu simţim compasiune faţă de pietre?
01:42
It's because we don't think rocks can suffer. And if we're more
32
102260
2000
Pentru că nu credem că pietrele pot suferi.
01:44
concerned about our fellow primates
33
104260
2000
Şi dacă suntem mai preocupaţi de bunăstarea primatelor
01:46
than we are about insects, as indeed we are,
34
106260
3000
decât de cea a insectelor, după cum chiar suntem,
01:49
it's because we think they're exposed to a greater range
35
109260
2000
asta pentru că considerăm că sunt expuse la o paletă mai largă
01:51
of potential happiness and suffering.
36
111260
3000
de potenţiale emoţii, de fericire sau suferinţă.
01:54
Now, the crucial thing to notice here
37
114260
3000
Ceea ce trebuie neapărat observat
01:57
is that this is a factual claim:
38
117260
2000
este că aceasta e o afirmaţie faptică.
01:59
This is something that we could be right or wrong about. And if we
39
119260
2000
E posibil ca noi să ne înşelăm în această privinţă.
02:01
have misconstrued the relationship between biological complexity
40
121260
3000
Şi dacă am interpretat greşit relaţia dintre complexitatea biologică a fiinţelor
02:04
and the possibilities of experience
41
124260
3000
şi capacitatea lor de a simţi,
02:07
well then we could be wrong about the inner lives of insects.
42
127260
3000
atunci se poate să ne înşelăm în privinţa vieţii interioare a insectelor.
02:10
And there's no notion,
43
130260
4000
Nu există nicio concepţie,
02:14
no version of human morality
44
134260
2000
nicio versiune a moralităţii umane
02:16
and human values that I've ever come across
45
136260
3000
şi a valorilor umane pe care să o fi întâlnit vreodată
02:19
that is not at some point reducible
46
139260
2000
care să nu se poată reduce
02:21
to a concern about conscious experience
47
141260
3000
la o grijă faţă de experienţa conştientă
02:24
and its possible changes.
48
144260
2000
şi posibilele ei alterări.
02:26
Even if you get your values from religion,
49
146260
3000
Chiar şi când ne raportăm la valori religioase,
02:29
even if you think that good and evil ultimately
50
149260
2000
chiar şi când credem că binele şi răul se reduc
02:31
relate to conditions after death --
51
151260
2000
la condiţia de după moarte,
02:33
either to an eternity of happiness with God
52
153260
3000
fie o eternitate fericită alături de Dumnezeu,
02:36
or an eternity of suffering in hell --
53
156260
2000
fie o eternitate de suferinţă în iad,
02:38
you are still concerned about consciousness and its changes.
54
158260
4000
şi atunci suntem preocupaţi de percepţia conştientă şi de modificările ei.
02:42
And to say that such changes can persist after death
55
162260
3000
Iar a spune că asemenea schimbări pot persista şi după moarte
02:45
is itself a factual claim,
56
165260
2000
este în sine o afirmaţie factuală,
02:47
which, of course, may or may not be true.
57
167260
3000
care poate, bineînţeles, să fie adevărată sau nu.
02:50
Now, to speak about the conditions of well-being
58
170260
3000
Referindu-ne la condiţiile bunăstării în această viaţă,
02:53
in this life, for human beings,
59
173260
2000
în ceea ce priveşte fiinţele umane,
02:55
we know that there is a continuum of such facts.
60
175260
3000
ştim că există un continuum de asemenea date.
02:58
We know that it's possible to live in a failed state,
61
178260
3000
Ştim că este posibil să trăim într-o stare de eşec,
03:01
where everything that can go wrong does go wrong --
62
181260
2000
unde tot ceea ce poate merge rău chiar merge rău,
03:03
where mothers cannot feed their children,
63
183260
3000
unde mamele nu îşi pot hrăni copiii,
03:06
where strangers cannot find the basis for peaceful collaboration,
64
186260
4000
unde străinii nu pot găsi o punte de legătură pentru o colaborare paşnică,
03:10
where people are murdered indiscriminately.
65
190260
3000
unde oamenii sunt omorâţi la întâmplare.
03:13
And we know that it's possible to move along this continuum
66
193260
3000
Şi ştim că este posibil să avansăm în acest continuum
03:16
towards something quite a bit more idyllic,
67
196260
2000
către un punct ceva mai idilic,
03:18
to a place where a conference like this is even conceivable.
68
198260
5000
către un loc unde o asemenea conferinţă este posibilă.
03:23
And we know -- we know --
69
203260
3000
Şi ştim de asemenea
03:26
that there are right and wrong answers
70
206260
2000
că există direcţii corecte şi direcţii greşite
03:28
to how to move in this space.
71
208260
2000
pentru a ne putea deplasa în acest spaţiu.
03:30
Would adding cholera to the water be a good idea?
72
210260
6000
Ar fi o idee bună să infecta apele cu holeră?
03:36
Probably not.
73
216260
2000
Probabil că nu.
03:38
Would it be a good idea for everyone to believe in the evil eye,
74
218260
3000
Ar fi bine dacă toată lumea ar crede în deochi,
03:41
so that when bad things happened to them
75
221260
2000
aşa încât să-şi acuze imediat apropiaţii
03:43
they immediately blame their neighbors? Probably not.
76
223260
4000
de fiecare dată când li se întâmplă ceva rău? Probabil că nu.
03:47
There are truths to be known
77
227260
2000
Există anumite adevăruri
03:49
about how human communities flourish,
78
229260
3000
despre modul în care comunităţile umane prosperă,
03:52
whether or not we understand these truths.
79
232260
2000
fie că înţelegem aceste adevăruri sau nu.
03:54
And morality relates to these truths.
80
234260
3000
Iar moralitatea are legătură cu aceste adevăruri.
03:57
So, in talking about values we are talking about facts.
81
237260
4000
Aşadar, când vorbim despre valori ne raportăm la date exacte.
04:01
Now, of course our situation in the world can be understood at many levels --
82
241260
3000
Actuala realitate globală poate fi înţeleasă la multe niveluri,
04:04
from the level of the genome
83
244260
2000
de la nivelul genomului
04:06
on up to the level of economic systems
84
246260
2000
şi până la nivelul sistemelor economice
04:08
and political arrangements.
85
248260
2000
şi al structurilor politice.
04:10
But if we're going to talk about human well-being
86
250260
2000
Însă dacă e să vorbim despre prosperitatea fiinţelor umane
04:12
we are, of necessity, talking about the human brain.
87
252260
3000
trebuie neapărat să facem referire la creierul uman.
04:15
Because we know that our experience of the world and of ourselves within it
88
255260
3000
Asta deoarece ştim că modul în care percepem lumea şi pe noi înşine
04:18
is realized in the brain --
89
258260
3000
se realizează la nivelul creierului,
04:21
whatever happens after death.
90
261260
2000
indiferent de ceea ce se întâmplă după moarte.
04:23
Even if the suicide bomber does get 72 virgins in the afterlife,
91
263260
5000
Chiar dacă sinucigaşul cu bombă primeşte 72 de fecioare în viaţa de apoi,
04:28
in this life, his personality --
92
268260
3000
personalitatea lui din această viaţă,
04:31
his rather unfortunate personality --
93
271260
2000
personalitatea lui nefericită, aş zice,
04:33
is the product of his brain.
94
273260
3000
este rezultatul creierului său.
04:36
So the contributions of culture --
95
276260
3000
Aşadar, contribuţia culturii,
04:39
if culture changes us, as indeed it does,
96
279260
2000
care are cu adevărat o influenţă considerabilă,
04:41
it changes us by changing our brains.
97
281260
2000
ne schimbă pe noi, schimbându-ne creierele.
04:43
And so therefore whatever cultural variation there is
98
283260
3000
Aşadar, orice variaţie culturală apare
04:46
in how human beings flourish
99
286260
2000
în modul de dezvoltare al oamenilor
04:48
can, at least in principle, be understood
100
288260
2000
poate, cel puţin în principiu, să fie înţeleasă
04:50
in the context of a maturing science of the mind --
101
290260
3000
în contextul unei ştiinţe a minţii în plină dezvoltare,
04:53
neuroscience, psychology, etc.
102
293260
3000
neuroştiinţe, psihologie, etc.
04:56
So, what I'm arguing is that
103
296260
2000
Ceea ce vreau să spun e că valorile pot fi reduse la date exacte,
04:58
value's reduced to facts --
104
298260
2000
05:00
to facts about the conscious experience
105
300260
2000
la fapte privind experienţa conştientă
05:02
of conscious beings.
106
302260
3000
a fiinţelor conştiente.
05:05
And we can therefore visualize a space
107
305260
3000
Aşadar putem întrevedea un spaţiu
05:08
of possible changes in the experience of these beings.
108
308260
3000
al potenţialelor schimbări în modul de a simţi al acestor fiinţe.
05:11
And I think of this as kind of a moral landscape,
109
311260
2000
Eu privesc acest spaţiu ca pe un peisaj moral
05:13
with peaks and valleys that correspond
110
313260
2000
cu vârfuri şi văi care corespund
05:15
to differences in the well-being of conscious creatures,
111
315260
3000
diferitelor grade de prosperitate ale creaturilor conştiente,
05:18
both personal and collective.
112
318260
2000
atât cea individuală cât şi cea colectivă.
05:20
And one thing to notice is that perhaps
113
320260
2000
Iar un lucru care transpare e că poate
05:22
there are states of human well-being
114
322260
2000
există unele stări ale bunăstării umane
05:24
that we rarely access, that few people access.
115
324260
3000
la care ajungem foarte rar, la care puţini oameni ajung.
05:27
And these await our discovery.
116
327260
2000
Iar aceste stări aşteaptă să fie descoperite.
05:29
Perhaps some of these states can be appropriately called
117
329260
2000
Poate că unele dintre aceste stări pot fi denumite
05:31
mystical or spiritual.
118
331260
2000
mistice sau spirituale.
05:33
Perhaps there are other states that we can't access
119
333260
2000
Poate există şi alte stări pe care nu le putem accesa
05:35
because of how our minds are structured
120
335260
3000
din cauza structurii noastre mintale,
05:38
but other minds possibly could access them.
121
338260
4000
dar la care alte minţi ar putea avea acces.
05:42
Now, let me be clear about what I'm not saying. I'm not saying
122
342260
2000
Aş vrea să fie clar un lucru: nu susţin
05:44
that science is guaranteed to map this space,
123
344260
5000
că ştiinţa poate cu certitudine să cartografieze acest spaţiu,
05:49
or that we will have scientific answers to every
124
349260
2000
sau că ştiinţa va avea vreodată răspunsuri pentru orice
05:51
conceivable moral question.
125
351260
2000
problemă morală imaginabilă.
05:53
I don't think, for instance, that you will one day consult
126
353260
2000
Spre exemplu, nu cred că va fi posibil să consultăm
05:55
a supercomputer to learn whether you should have a second child,
127
355260
4000
un supercomputer pentru a şti dacă să ai sau nu un al doilea copil,
05:59
or whether we should bomb Iran's nuclear facilities,
128
359260
4000
sau dacă trebuie să bombardăm facilităţile nucleare ale Iranului,
06:03
or whether you can deduct the full cost of TED as a business expense.
129
363260
4000
sau dacă costul unei conferinţe TED
poate fi considerat o cheltuială deductibilă.
06:07
(Laughter)
130
367260
2000
(Râsete)
06:09
But if questions affect human well-being
131
369260
2000
Dar dacă o întrebare afectează bunăstarea fiinţelor umane,
06:11
then they do have answers, whether or not we can find them.
132
371260
3000
atunci trebuie să aibă un răspuns, fie că îl putem găsi sau nu.
06:14
And just admitting this --
133
374260
2000
Iar simplul fapt de a recunoaşte
06:16
just admitting that there are right and wrong answers
134
376260
2000
că există răspunsuri corecte şi greşite
06:18
to the question of how humans flourish --
135
378260
2000
privitoare la bunăstarea umane
06:20
will change the way we talk about morality,
136
380260
2000
va schimba modul în care vorbim despre moralitate
06:22
and will change our expectations
137
382260
2000
şi ne va schimba aşteptările
06:24
of human cooperation in the future.
138
384260
4000
privitoare la cooperarea interumană pe viitor.
06:28
For instance, there are 21 states in our country
139
388260
4000
Spre exemplu, există 21 de state în ţara noastră
06:32
where corporal punishment in the classroom is legal,
140
392260
3000
în care este legală aplicarea de pedepse corporale în şcoală.
06:35
where it is legal for a teacher to beat a child with a wooden board, hard,
141
395260
6000
E legal ca un profesor să lovească un copil cu o scândură,
06:41
and raising large bruises and blisters and even breaking the skin.
142
401260
4000
provocându-i vânătăi şi răni, uneori până ţâşneşte sângele.
06:45
And hundreds of thousands of children, incidentally,
143
405260
2000
În fiecare an, sute şi mii de copii
06:47
are subjected to this every year.
144
407260
2000
sunt supuşi la asemenea tratamente.
06:49
The locations of these enlightened districts, I think, will fail to surprise you.
145
409260
5000
Nu cred că poziţia acestor state luminate vă va surprinde.
06:54
We're not talking about Connecticut.
146
414260
3000
Nu este vorba despre Connecticut.
06:57
And the rationale for this behavior is explicitly religious.
147
417260
4000
Iar unui asemenea comportament i se găseşte justificarea în religie.
07:01
The creator of the universe himself
148
421260
2000
Însuşi Creatorul universului ne-a spus:
07:03
has told us not to spare the rod,
149
423260
2000
„Cine cruţă nuiaua, urăşte pe fiul său,
07:05
lest we spoil the child --
150
425260
2000
dar cine-l iubeşte, îl pedepseşte îndată”.
07:07
this is in Proverbs 13 and 20, and I believe, 23.
151
427260
5000
Găsim astfel de îndemnuri în Proverbe 13, 20 şi 23, cred.
07:12
But we can ask the obvious question:
152
432260
2000
Însă putem adresa întrebarea evidentă:
07:14
Is it a good idea, generally speaking,
153
434260
4000
Este o idee bună, în general,
07:18
to subject children to pain
154
438260
3000
să supunem copiii la durere
07:21
and violence and public humiliation
155
441260
3000
şi violenţă şi umilire publică
07:24
as a way of encouraging healthy emotional development
156
444260
2000
pentru a încuraja o dezvoltare emoţională sănătoasă
07:26
and good behavior?
157
446260
2000
şi un comportament de dorit?
07:28
(Laughter)
158
448260
1000
(Râsete)
07:29
Is there any doubt
159
449260
4000
Se îndoieşte cineva
07:33
that this question has an answer,
160
453260
2000
că această întrebare are un răspuns,
07:35
and that it matters?
161
455260
3000
şi că acest răspuns contează?
07:38
Now, many of you might worry
162
458260
2000
Mulţi dintre voi vor spune
07:40
that the notion of well-being is truly undefined,
163
460260
3000
că noţiunea de bunăstare rămâne nedefinită
07:43
and seemingly perpetually open to be re-construed.
164
463260
3000
şi că poate fi mereu supusă revizuirilor.
07:46
And so, how therefore can there be an
165
466260
2000
Cum poate aşadar exista
07:48
objective notion of well-being?
166
468260
3000
o noţiune obiectivă de bunăstare?
07:51
Well, consider by analogy, the concept of physical health.
167
471260
3000
Să ne gândim, prin analogie, la conceptul de sănătate fizică.
07:54
The concept of physical health is undefined.
168
474260
3000
Conceptul de sănătate fizică nu e definit.
07:57
As we just heard from Michael Specter, it has changed over the years.
169
477260
3000
După cum tocmai ne-a spus Michael Specter, a suferit modificări de-a lungul anilor.
08:00
When this statue was carved
170
480260
2000
În vremea când această statuie a fost sculptată,
08:02
the average life expectancy was probably 30.
171
482260
3000
speranţa de viaţă era în jur de 30 de ani.
08:05
It's now around 80 in the developed world.
172
485260
3000
Acum este în jur de 80 de ani în ţările dezvoltate.
08:08
There may come a time when we meddle with our genomes
173
488260
3000
La cum ne amestecăm în treburile geneticii, s-ar putea să ajungem
08:11
in such a way that not being able to run a marathon
174
491260
3000
nişte vremuri când faptul de a nu putea termina un maraton
08:14
at age 200 will be considered a profound disability.
175
494260
4000
la vârsta de 200 de ani va fi considerat o groaznică dizabilitate.
08:18
People will send you donations when you're in that condition.
176
498260
3000
Genul acela de afecţiune pentru care oamenii organizează acţiuni caritabile.
08:21
(Laughter)
177
501260
2000
(Râsete)
08:23
Notice that the fact that the concept of health
178
503260
4000
Simplul fapt că noţiunea de sănătate
08:27
is open, genuinely open for revision,
179
507260
3000
este mereu supusă revizuirii
08:30
does not make it vacuous.
180
510260
2000
nu înseamnă că e golită de înţeles.
08:32
The distinction between a healthy person
181
512260
3000
Distincţia dintre o persoană sănătoasă
08:35
and a dead one
182
515260
2000
şi una moartă
08:37
is about as clear and consequential as any we make in science.
183
517260
3000
e la fel de clară şi de consecventă ca oricare altă distincţie ştiinţifică.
08:43
Another thing to notice is there may be many peaks on the moral landscape:
184
523260
3000
Mai trebuie observat că pot exista mai multe piscuri în acest peisaj moral.
08:46
There may be equivalent ways to thrive;
185
526260
3000
Pot exista mai multe moduri la fel de bune în care oamenii să prospere.
08:49
there may be equivalent ways to organize a human society
186
529260
2000
Pot exista mai multe moduri de a organiza o societate umană
08:51
so as to maximize human flourishing.
187
531260
2000
pentru a maximiza nivelul de bunăstare.
08:53
Now, why wouldn't this
188
533260
2000
Este oare astfel subminată
08:55
undermine an objective morality?
189
535260
4000
noţiunea obiectivă de moralitate?
08:59
Well think of how we talk about food:
190
539260
3000
Să ne gândim la cum vorbim despre mâncare.
09:02
I would never be tempted to argue to you
191
542260
3000
Nu aş putea susţine niciodată
09:05
that there must be one right food to eat.
192
545260
2000
că există un singur mod sănătos de a mânca.
09:07
There is clearly a range of materials
193
547260
2000
Există cu siguranţă o gamă largă de produse
09:09
that constitute healthy food.
194
549260
2000
care pot constitui o alimentaţie sănătoasă.
09:11
But there's nevertheless a clear distinction
195
551260
2000
Însă există în orice caz o distincţie clară
09:13
between food and poison.
196
553260
2000
între mâncare şi otravă.
09:15
The fact that there are many right answers
197
555260
3000
Faptul că există multe răspunsuri corecte
09:18
to the question, "What is food?"
198
558260
2000
la întrebarea „Ce putem mânca?”
09:20
does not tempt us
199
560260
3000
nu ne duce la concluzia
09:23
to say that there are no truths to be known about human nutrition.
200
563260
5000
că nu există adevăruri care pot fi descoperite despre nutriţia umană.
09:28
Many people worry
201
568260
2000
Mulţi oameni se tem
09:30
that a universal morality would require
202
570260
3000
că o ordine morală universală presupune
09:33
moral precepts that admit of no exceptions.
203
573260
3000
precepte morale care nu admit excepţii.
09:36
So, for instance, if it's really wrong to lie,
204
576260
2000
Deci, spre exemplu, dacă este greşit să minţi,
09:38
it must always be wrong to lie,
205
578260
2000
atunci trebuie să fie întotdeauna greşit să minţi,
09:40
and if you can find an exception,
206
580260
2000
iar dacă poţi găsi o excepţie,
09:42
well then there's no such thing as moral truth.
207
582260
3000
atunci nu există conceptul de adevăr moral.
09:45
Why would we think this?
208
585260
2000
De ce am crede aşa ceva?
09:47
Consider, by analogy, the game of chess.
209
587260
3000
Să ne referim, prin analogie, la jocul de şah.
09:50
Now, if you're going to play good chess,
210
590260
2000
Dacă vrei să joci şah cu succes,
09:52
a principle like, "Don't lose your Queen,"
211
592260
2000
un principiu de bază ar fi
09:54
is very good to follow.
212
594260
2000
"Nu renunţa la regină".
09:56
But it clearly admits some exceptions.
213
596260
2000
Dar în mod evident pot exista şi excepţii.
09:58
There are moments when losing your Queen is a brilliant thing to do.
214
598260
3000
Câteodată, a renunţa la regină este o mutare genială.
10:01
There are moments when it is the only good thing you can do.
215
601260
4000
Câteodată, a renunţa la regină este singurul lucru bun de făcut.
10:05
And yet, chess is a domain of perfect objectivity.
216
605260
4000
Şi totuşi, şahul este un domeniul al completei obiectivităţi.
10:09
The fact that there are exceptions here does not
217
609260
2000
Faptul că există şi excepţii
10:11
change that at all.
218
611260
3000
nu schimbă asta cu nimic.
10:14
Now, this brings us to the sorts of moves
219
614260
3000
Acum ajungem la diferitele tipuri de mutări
10:17
that people are apt to make in the moral sphere.
220
617260
3000
pe care le putem face în sfera moralului.
10:20
Consider the great problem of women's bodies:
221
620260
5000
Să ne gândim la spinoasa problemă a corpurilor femeilor.
10:25
What to do about them?
222
625260
2000
Ce să ne facem cu ele?
10:27
Well this is one thing you can do about them:
223
627260
2000
Uite un lucru pe care putem să-l facem:
10:29
You can cover them up.
224
629260
2000
putem să le acoperim.
10:31
Now, it is the position, generally speaking, of our intellectual community
225
631260
2000
Poziţia generală a comunităţii noastre intelectuale este că,
10:33
that while we may not like this,
226
633260
4000
deşi poate nu ne place,
10:37
we might think of this as "wrong"
227
637260
2000
deşi am considera asta „greşit”
10:39
in Boston or Palo Alto,
228
639260
2000
în Boston sau Palo Alto,
10:41
who are we to say
229
641260
2000
nu ţine de noi să judecăm
10:43
that the proud denizens of an ancient culture
230
643260
3000
mândrii membrii ai unei culturi străvechi
10:46
are wrong to force their wives and daughters
231
646260
3000
care îşi forţează soţiile şi fiicele
10:49
to live in cloth bags?
232
649260
2000
să se acopere cu saci de pânză.
10:51
And who are we to say, even, that they're wrong
233
651260
2000
Şi cine suntem noi să spunem că este greşit
10:53
to beat them with lengths of steel cable,
234
653260
2000
ca ei să le bată cu cabluri de oţel,
10:55
or throw battery acid in their faces
235
655260
2000
sau să le arunce cu acid sulfuric în faţă
10:57
if they decline the privilege of being smothered in this way?
236
657260
4000
dacă ele refuză privilegiul de a fi sufocate în acest fel?
11:01
Well, who are we not to say this?
237
661260
3000
Sau dimpotrivă, cine suntem noi să nu spunem aşa ceva?
11:04
Who are we to pretend
238
664260
2000
Cine suntem noi să ne prefacem
11:06
that we know so little about human well-being
239
666260
4000
că ştim atât de puţin despre bunăstarea umană
11:10
that we have to be non-judgmental about a practice like this?
240
670260
4000
încât să ne abţinem de la a judeca astfel de practici?
11:14
I'm not talking about voluntary wearing of a veil --
241
674260
4000
Nu vorbesc despre purtarea de bunăvoie a unui văl,
11:18
women should be able to wear whatever they want, as far as I'm concerned.
242
678260
2000
femeile ar trebui să poată purta orice doresc, din punctul meu de vedere.
11:20
But what does voluntary mean
243
680260
3000
Dar ce înseamnă „de bunăvoie”
11:23
in a community where,
244
683260
2000
într-o comunitate unde,
11:25
when a girl gets raped,
245
685260
3000
atunci când o fată este violată,
11:28
her father's first impulse,
246
688260
2000
primul instinct al tatălui său este
11:30
rather often, is to murder her out of shame?
247
690260
5000
să o ucidă pentru că l-a dezonorat?
11:35
Just let that fact detonate in your brain for a minute:
248
695260
7000
Lăsaţi gândul acesta să vi se înfiripeze în minte pentru o clipă.
11:42
Your daughter gets raped,
249
702260
2000
Fiica voastră este violată,
11:44
and what you want to do is kill her.
250
704260
3000
şi voi vreţi să o omorâţi.
11:52
What are the chances that represents
251
712260
2000
Care sunt şansele ca acesta să reprezinte
11:54
a peak of human flourishing?
252
714260
5000
o culme al bunăstării umane?
12:02
Now, to say this is not to say that we have got the
253
722260
2000
Prin asta nu vreau să spun că noi avem
12:04
perfect solution in our own society.
254
724260
4000
soluţia perfectă în societatea noastră.
12:08
For instance,
255
728260
2000
Spre exemplu,
12:10
this is what it's like to go to a newsstand almost anywhere
256
730260
2000
aşa arată un stand de ziare aproape oriunde
12:12
in the civilized world.
257
732260
2000
în lumea civilizată.
12:14
Now, granted, for many men
258
734260
2000
Ce-i drept, pentru mulţi bărbaţi
12:16
it may require a degree in philosophy to see something wrong with these images.
259
736260
3000
ar fi nevoie de o diplomă în filozofie pentru a vedea ce e în neregulă cu aceste imagini.
12:19
(Laughter)
260
739260
3000
(Râsete)
12:22
But if we are in a reflective mood,
261
742260
3000
Dar dacă suntem într-o dispoziţie reflexivă
12:25
we can ask,
262
745260
2000
putem să ne întrebăm:
12:27
"Is this the perfect expression
263
747260
2000
Este aceasta cea mai bună expresie
12:29
of psychological balance
264
749260
2000
a echilibrului psihologic
12:31
with respect to variables like youth and beauty and women's bodies?"
265
751260
3000
în ceea ce priveşte noţiuni precum tinereţea şi frumuseţea şi trupurile femeilor?”
12:34
I mean, is this the optimal environment
266
754260
2000
Este acesta mediul optim
12:36
in which to raise our children?
267
756260
4000
pentru a ne creşte copiii?
12:40
Probably not. OK, so perhaps there's some place
268
760260
2000
Probabil că nu. Atunci, poate că există un punct
12:42
on the spectrum
269
762260
2000
în spectrul
12:44
between these two extremes
270
764260
2000
delimitat de aceste două extreme
12:46
that represents a place of better balance.
271
766260
3000
care se situează mai aproape de echilibru.
12:49
(Applause)
272
769260
8000
(Aplauze)
12:57
Perhaps there are many such places --
273
777260
2000
Poate că există multe asemenea puncte.
12:59
again, given other changes in human culture
274
779260
3000
Repet, luând în considerare alte schimbări în cultura umană,
13:02
there may be many peaks on the moral landscape.
275
782260
2000
ar putea exista multe piscuri în peisajul moral.
13:04
But the thing to notice is that there will be
276
784260
2000
Dar ce trebuie remarcat este că avem
13:06
many more ways not to be on a peak.
277
786260
5000
mult mai multe moduri de a nu ajunge pe un pisc.
13:11
Now the irony, from my perspective,
278
791260
2000
Ceea ce eu personal găsesc ironic
13:13
is that the only people who seem to generally agree with me
279
793260
3000
este faptul că singurii oameni care sunt în principiu de acord cu mine
13:16
and who think that there are right and wrong answers to moral questions
280
796260
3000
şi care cred că există răspunsuri corecte şi greşite la întrebările morale
13:19
are religious demagogues of one form or another.
281
799260
3000
sunt, într-un fel sau altul, demagogi religioşi.
13:22
And of course they think they have right answers to moral questions
282
802260
3000
Bineînţeles, ei cred că au răspunsurile corecte la problemele morale
13:25
because they got these answers from a voice in a whirlwind,
283
805260
4000
pentru că şi-au primit răspunsurile de la o voce dintr-un vârtej
13:29
not because they made an intelligent analysis of the causes
284
809260
2000
şi nu pentru că au făcut o analiză inteligentă a premiselor
13:31
and condition of human and animal well-being.
285
811260
4000
şi condiţiilor bunăstării oamenilor şi a animalelor.
13:35
In fact, the endurance of religion
286
815260
2000
De fapt, permanentizarea religiei
13:37
as a lens through which most people view moral questions
287
817260
4000
cu rolul de lentilă prin care majoritatea oamenilor privesc problemele morale
13:41
has separated most moral talk
288
821260
3000
a dus la separarea discuţiilor morale
13:44
from real questions of human and animal suffering.
289
824260
4000
de întrebările reale referitoare la suferinţa fiinţelor vii.
13:48
This is why we spend our time
290
828260
2000
De asta ne pierdem timpul
13:50
talking about things like gay marriage
291
830260
2000
vorbind despre căsătoria între persoane de acelaşi sex
13:52
and not about genocide or nuclear proliferation
292
832260
4000
şi nu despre genocid sau despre proliferarea nucleară
13:56
or poverty or any other hugely consequential issue.
293
836260
5000
sau sărăcie sau orice altă problemă cu consecinţe enorme.
14:01
But the demagogues are right about one thing: We need
294
841260
2000
Dar demagogii au dreptate într-o privinţă, şi anume:
14:03
a universal conception of human values.
295
843260
4000
avem nevoie de o viziune universală asupra valorilor umane.
14:07
Now, what stands in the way of this?
296
847260
2000
Ce ne împiedică să avem aşa ceva?
14:09
Well, one thing to notice is that we
297
849260
2000
Un lucru de remarcat este faptul că
14:11
do something different when talking about morality --
298
851260
2000
facem ceva diferit când vorbim despre moralitate,
14:13
especially secular, academic, scientist types.
299
853260
4000
mai ales dintr-o perspectivă seculară, academică, ştiinţifică.
14:17
When talking about morality we value differences of opinion
300
857260
3000
Când vorbim despre moralitate, respectăm diferenţele de opinie
14:20
in a way that we don't in any other area of our lives.
301
860260
3000
mai mult decât în orice alt domeniu al vieţii noastre.
14:23
So, for instance the Dalai Lama gets up every morning
302
863260
2000
Spre exemplu, Dalai Lama se trezeşte în fiecare dimineaţă
14:25
meditating on compassion,
303
865260
2000
meditând la compasiune
14:27
and he thinks that helping other human beings is an integral component
304
867260
2000
El crede că a-ţi ajuta semenii este o componentă integrantă
14:29
of human happiness.
305
869260
3000
a fericirii umane.
14:32
On the other hand, we have someone like Ted Bundy;
306
872260
2000
Pe de altă parte îl avem pe Ted Bundy,
14:34
Ted Bundy was very fond of abducting and raping
307
874260
2000
căruia îi făcea o plăcere deosebită să răpească şi să violeze
14:36
and torturing and killing young women.
308
876260
2000
şi să tortureze femei tinere.
14:38
So, we appear to have a genuine difference of opinion
309
878260
2000
S-ar putea spune că cei doi au o reală diferenţă de opinii
14:40
about how to profitably use one's time.
310
880260
3000
privitoare la cum e mai bine să-ţi petreci timpul.
14:43
(Laughter)
311
883260
2000
(Râsete)
14:45
Most Western intellectuals
312
885260
2000
Majoritatea intelectualilor occidentali
14:47
look at this situation
313
887260
2000
văd o asemenea situaţie
14:49
and say, "Well, there's nothing for the Dalai Lama
314
889260
2000
şi spun: „Păi, nu există nimic care să arate că Dalai Lama
14:51
to be really right about -- really right about --
315
891260
3000
procedează bine cu adevărat, nu cu adevărat
14:54
or for Ted Bundy to be really wrong about
316
894260
3000
sau că Ted Bundy chiar procedează greşit
14:57
that admits of a real argument
317
897260
4000
şi care permite o dezbatere reală
15:01
that potentially falls within the purview of science.
318
901260
3000
ce ar putea ţine de domeniul ştiinţei.
15:04
He likes chocolate, he likes vanilla.
319
904260
3000
Unuia îi place ciocolata, celuilalt vanilia.
15:07
There's nothing that one should be able to say to the other
320
907260
3000
N-ar trebui să existe nimic ce unul ar putea spune celuilalt
15:10
that should persuade the other."
321
910260
3000
în aşa fel încât să-l convingă."
15:13
Notice that we don't do this in science.
322
913260
3000
Observaţi că nu facem asta în domeniul ştiinţei.
15:16
On the left you have Edward Witten.
323
916260
2000
În stânga îl vedem pe Edward Witten,
15:18
He's a string theorist.
324
918260
3000
expert în teoria corzilor.
15:21
If you ask the smartest physicists around
325
921260
2000
Dacă îi întrebi pe cei mai buni fizicieni contemporani
15:23
who is the smartest physicist around,
326
923260
2000
care e cel mai bun fizician contemporan,
15:25
in my experience half of them will say Ed Witten.
327
925260
3000
jumătate vor spune că acela e Ed Witten.
15:28
The other half will tell you they don't like the question.
328
928260
3000
Cealaltă jumătate vor spune că nu le place întrebarea.
15:31
(Laughter)
329
931260
3000
(Râsete)
15:34
So, what would happen if I showed up at a physics conference
330
934260
4000
Aşadar, ce s-ar întâmpla dacă m-aş duce la o conferinţă a fizicienilor
15:38
and said,"String theory is bogus.
331
938260
2000
şi aş spune: „Teoria corzilor e o tâmpenie.
15:40
It doesn't resonate with me. It's not how I chose to
332
940260
2000
Nu pot să rezonez cu ea. Eu personal
15:42
view the universe at a small scale.
333
942260
3000
aleg să văd microuniversul altfel.
15:45
I'm not a fan."
334
945260
2000
Nu îmi place şi gata.”
15:47
(Laughter)
335
947260
3000
(Râsete)
15:50
Well, nothing would happen because I'm not a physicist;
336
950260
2000
Ei bine, nimic nu s-ar întâmpla, pentru că nu sunt un fizician,
15:52
I don't understand string theory.
337
952260
2000
nu înţeleg teoria corzilor.
15:54
I'm the Ted Bundy of string theory.
338
954260
2000
Sunt un Ted Bundy al teoriei corzilor.
15:56
(Laughter)
339
956260
3000
(Râsete)
15:59
I wouldn't want to belong to any string theory club that would have me as a member.
340
959260
3000
Nu aş vrea să fiu într-un club de teoria corzilor care e dispus să mă accepte ca membru.
16:02
But this is just the point.
341
962260
2000
Dar tocmai asta e ideea.
16:04
Whenever we are talking about facts
342
964260
3000
Când vine vorba despre fapte,
16:07
certain opinions must be excluded.
343
967260
2000
opiniile personale trebuie ignorate.
16:09
That is what it is to have a domain of expertise.
344
969260
3000
Asta implică existenţa unui domeniu de expertiză.
16:12
That is what it is for knowledge to count.
345
972260
3000
Aşa se întâmplă atunci când cunoştinţele contează.
16:15
How have we convinced ourselves
346
975260
3000
Cum am reuşit să ne convingem
16:18
that in the moral sphere there is no such thing as moral expertise,
347
978260
4000
că în sfera moralului nu există expertiză morală,
16:22
or moral talent, or moral genius even?
348
982260
3000
sau talent moral sau chiar geniu moral?
16:25
How have we convinced ourselves
349
985260
2000
Cum anume ne-am convins
16:27
that every opinion has to count?
350
987260
2000
că fiecare opinie trebuie să conteze?
16:29
How have we convinced ourselves
351
989260
2000
Cum anume ne-am convins
16:31
that every culture has a point of view
352
991260
2000
că fiecare cultură are un punct de vedere aparte
16:33
on these subjects worth considering?
353
993260
3000
care merită luat în considerare?
16:36
Does the Taliban
354
996260
2000
Au talibanii un punct de vedere aparte
16:38
have a point of view on physics
355
998260
2000
în ceea ce priveşte fizica
16:40
that is worth considering? No.
356
1000260
3000
pe care ar trebui să-l luăm în considerare? Nu.
16:43
(Laughter)
357
1003260
5000
(Râsete)
16:48
How is their ignorance any less obvious
358
1008260
3000
De ce ar fi ignoranţa lor mai puţin strigătoare
16:51
on the subject of human well-being?
359
1011260
2000
în ceea ce priveşte bunăstarea oamenilor?
16:53
(Applause)
360
1013260
6000
(Aplauze)
16:59
So, this, I think, is what the world needs now.
361
1019260
4000
De asta cred eu că are nevoie lumea acum.
17:03
It needs people like ourselves to admit
362
1023260
3000
E nevoie ca oamenii ca noi să recunoască
17:06
that there are right and wrong answers
363
1026260
3000
faptul că există răspunsuri corecte şi greşite
17:09
to questions of human flourishing,
364
1029260
2000
la întrebările despre bunăstarea oamenilor,
17:11
and morality relates
365
1031260
2000
şi că moralitatea depinde
17:13
to that domain of facts.
366
1033260
2000
de aceste răspunsuri.
17:15
It is possible
367
1035260
2000
Este posibil
17:17
for individuals, and even for whole cultures,
368
1037260
4000
ca unii indivizi sau chiar ca unele culturi întregi
17:21
to care about the wrong things,
369
1041260
2000
să aibă valori greşite.
17:23
which is to say that it's possible for them
370
1043260
3000
Ceea ce înseamnă că e posibil ca ei
17:26
to have beliefs and desires that reliably lead
371
1046260
2000
să aibă credinţe şi aspiraţii care cu siguranţă
17:28
to needless human suffering.
372
1048260
2000
vor duce la suferinţă umană inutilă.
17:30
Just admitting this will transform our discourse about morality.
373
1050260
5000
Simplul fapt de a recunoaşte asta ne va schimba discursul despre moralitate.
17:35
We live in a world in which
374
1055260
3000
Trăim într-o lume în care
17:38
the boundaries between nations mean less and less,
375
1058260
3000
graniţele dintre naţiuni înseamnă din ce în ce mai puţin,
17:41
and they will one day mean nothing.
376
1061260
3000
iar într-o zi nu vor mai însemna nimic.
17:44
We live in a world filled with destructive technology,
377
1064260
2000
Trăim într-o lume plină de tehnologii distructive,
17:46
and this technology cannot be uninvented;
378
1066260
2000
iar acest rău nu mai poate fi îndreptat,
17:48
it will always be easier
379
1068260
2000
întotdeauna va fi mai uşor
17:50
to break things than to fix them.
380
1070260
4000
să distrugem decât să reparăm.
17:54
It seems to me, therefore, patently obvious
381
1074260
2000
Mi se pare aşadar mai mult decât evident
17:56
that we can no more
382
1076260
4000
că nu mai putem
18:00
respect and tolerate
383
1080260
2000
respecta şi tolera
18:02
vast differences in notions of human well-being
384
1082260
4000
viziunile semnificativ diferite asupra bunăstării umane
18:06
than we can respect or tolerate vast differences
385
1086260
3000
mai mult decât respectăm şi tolerăm viziunile semnificativ diferite
18:09
in the notions about how disease spreads,
386
1089260
3000
referitoare la modul în care se răspândesc bolile
18:12
or in the safety standards of buildings and airplanes.
387
1092260
3000
sau la normele de siguranţă pentru construcţii şi avioane.
18:15
We simply must converge
388
1095260
3000
Pur şi simplu trebuie să cădem de acord
18:18
on the answers we give to the most important questions in human life.
389
1098260
4000
cu privire la cele mai importante întrebări despre viaţă.
18:22
And to do that, we have to admit that these questions have answers.
390
1102260
5000
Iar pentru a realiza asta, trebuie să recunoaştem că aceste întrebări au răspunsuri.
18:27
Thank you very much.
391
1107260
2000
Vă mulţumesc foarte mult.
18:29
(Applause)
392
1109260
23000
(Aplauze)
18:52
Chris Anderson: So, some combustible material there.
393
1132260
4000
Chris Anderson: Ăsta da discurs controversat.
18:56
Whether in this audience or people elsewhere in the world,
394
1136260
3000
Membri ai acestui public sau oameni de oriunde altundeva din lume
18:59
hearing some of this, may well be doing the
395
1139260
2000
s-ar putea să strige de furie când aud asta,
19:01
screaming-with-rage thing, after as well, some of them.
396
1141260
5000
sau, în fine, unii dintre ei…
19:06
Language seems to be really important here.
397
1146260
2000
Alegerea cuvintelor pare să fie foarte importantă aici.
19:08
When you're talking about the veil,
398
1148260
2000
Când vorbeai despre văl,
19:10
you're talking about women dressed in cloth bags.
399
1150260
3000
despre femeile îmbrăcate în saci de pânză,
19:13
I've lived in the Muslim world, spoken with a lot of Muslim women.
400
1153260
4000
eu am trăit în lumea musulmană, am vorbit cu multe femei musulmane.
19:17
And some of them would say something else. They would say,
401
1157260
2000
Şi unele dintre ele ar fi zis altceva. Ar fi zis,
19:19
"No, you know, this is a celebration
402
1159260
3000
„De fapt, asta e o încununare
19:22
of female specialness,
403
1162260
3000
a specificităţii feminine,
19:25
it helps build that and it's a result of the fact that" --
404
1165260
2000
ajută la construirea ei şi este un rezultat al faptului că…” -
19:27
and this is arguably a sophisticated psychological view --
405
1167260
4000
şi aceasta este poate o viziune psihologică sofisticată -
19:31
"that male lust is not to be trusted."
406
1171260
3000
„nu te poţi încrede în poftele bărbatului.”
19:34
I mean, can you engage in a conversation
407
1174260
3000
Vreau să spun, poţi să porţi o conversaţie
19:37
with that kind of woman without seeming kind of cultural imperialist?
408
1177260
5000
cu o astfel de femeie fără a părea un fel de imperialist cultural?
19:42
Sam Harris: Yeah, well I think I tried to broach this in a sentence,
409
1182260
3000
Sam Harris: Înţeleg, eu am încercat să rezum totul într-o frază
19:45
watching the clock ticking,
410
1185260
2000
spusă contracronometru,
19:47
but the question is:
411
1187260
2000
dar problema se pune,
19:49
What is voluntary in a context
412
1189260
3000
ce înseamnă „de bunăvoie” în contextul
19:52
where men have certain expectations,
413
1192260
2000
în care bărbaţii au anumite aşteptări
19:54
and you're guaranteed to be treated in a certain way
414
1194260
4000
şi cu siguranţă vei fi tratată într-un anume fel
19:58
if you don't veil yourself?
415
1198260
2000
dacă nu te acoperi cu vălul?
20:00
And so, if anyone in this room
416
1200260
2000
Dacă cineva din sala aceasta
20:02
wanted to wear a veil,
417
1202260
2000
ar vrea să poarte un văl
20:04
or a very funny hat, or tattoo their face --
418
1204260
3000
sau o pălărie foarte haioasă sau să se tatueze pe faţă…
20:07
I think we should be free to voluntarily do whatever we want,
419
1207260
3000
Cred că ar trebui să fim liberi să facem de bunăvoie orice vrem,
20:10
but we have to be honest about
420
1210260
3000
dar trebuie să fim sinceri în legătură cu
20:13
the constraints that these women are placed under.
421
1213260
2000
constrângerile la care sunt supuse aceste femei.
20:15
And so I think we shouldn't be so eager
422
1215260
3000
Şi deci cred că nu trebuie să ne grăbim
20:18
to always take their word for it,
423
1218260
2000
să le credem întotdeauna pe cuvânt,
20:20
especially when it's 120 degrees out
424
1220260
2000
mai ales când afară sunt 48 de grade
20:22
and you're wearing a full burqa.
425
1222260
3000
şi ele poartă o burqua lungă până în pământ.
20:25
CA: A lot of people want to believe in this
426
1225260
2000
C.A.: Multă lume ar vrea să creadă
20:27
concept of moral progress.
427
1227260
2000
în acest concept de progres moral.
20:29
But can you reconcile that?
428
1229260
2000
Dar cum se împacă asta cu teoria ta?
20:31
I think I understood you to say that you could
429
1231260
2000
Din câte am înţeles, poţi împăca asta
20:33
reconcile that with a world that doesn't become
430
1233260
2000
cu o lume care să nu devină astfel
20:35
one dimensional, where we all have to think the same.
431
1235260
3000
uni-dimensională, unde toţi trebuie să gândim la fel.
20:38
Paint your picture of what
432
1238260
2000
Descrie-ne cum,
20:40
rolling the clock 50 years forward,
433
1240260
3000
călătorind în viitor cu 50 de ani,
20:43
100 years forward, how you would like to think of
434
1243260
2000
cu 100 de ani, cum ţi-ai imagina tu lumea,
20:45
the world, balancing moral progress
435
1245260
3000
echilibrând progresul moral
20:48
with richness.
436
1248260
3000
cu bogăţia.
20:51
SH: Well, I think once you admit
437
1251260
2000
S.H.: Cred că odată ce recunoaştem
20:53
that we are on the path toward understanding our minds
438
1253260
3000
că suntem pe cale să înţelegem minţile noastre
20:56
at the level of the brain in some important detail,
439
1256260
3000
la nivelul creierului, şi deci foarte detaliat,
20:59
then you have to admit
440
1259260
2000
atunci trebuie să recunoaştem
21:01
that we are going to understand all of the positive
441
1261260
4000
că o să înţelegem şi toate caracteristicile noastre
21:05
and negative qualities
442
1265260
2000
pozitive şi negative
21:07
of ourselves in much greater detail.
443
1267260
2000
până în cel mai mic detaliu.
21:09
So, we're going to understand positive social emotion
444
1269260
2000
Aşadar, vom reuşi să înţelegem emoţii sociale pozitive
21:11
like empathy and compassion,
445
1271260
2000
precum empatia şi compasiunea,
21:13
and we're going to understand the factors
446
1273260
2000
şi vom înţelege şi factorii
21:15
that encourage it -- whether they're genetic,
447
1275260
2000
care le cauzează, fie ei genetici,
21:17
whether they're how people talk to one another,
448
1277260
2000
fie că depind de modul cum oamenii îşi vorbesc unul altuia,
21:19
whether they're economic systems,
449
1279260
2000
fie că depind de un anumit sistem economic.
21:21
and insofar as we begin to shine light on that
450
1281260
3000
Pe măsură ce începem să clarificăm asta,
21:24
we are inevitably going to converge
451
1284260
2000
vom cădea în mod inevitabil de acord
21:26
on that fact space.
452
1286260
2000
în ceea ce priveşte aceste fapte.
21:28
So, everything is not going to be up for grabs.
453
1288260
2000
Nu o să fie totul după bunul plac al fiecăruia.
21:30
It's not going to be like
454
1290260
3000
N-o să putem spune, ştiu eu,
21:33
veiling my daughter from birth
455
1293260
2000
a-mi face fata să poarte vălul încă de la naştere
21:35
is just as good as teaching her
456
1295260
3000
e la fel de bine ca a o învăţa
21:38
to be confident and well-educated
457
1298260
4000
să fie încrezătoare şi bine educată
21:42
in the context of men who do desire women.
458
1302260
3000
într-o lume în care bărbaţii doresc femei.
21:45
I mean I don't think we need an NSF grant to know
459
1305260
4000
Nu e nevoie de o bursă de performanţă ştiinţifică ca să-ţi dai seama
21:49
that compulsory veiling is a bad idea --
460
1309260
3000
că a forţa femeile să se acopere e o idee rea.
21:52
but at a certain point
461
1312260
2000
Dar la un moment dat
21:54
we're going to be able to scan the brains of everyone involved
462
1314260
3000
vom putea să scanăm creierele tuturor celor implicaţi
21:57
and actually interrogate them.
463
1317260
3000
şi pur şi simplu să-i interogăm.
22:00
Do people love their daughters
464
1320260
3000
Putem spune că oamenii din aceste sisteme
22:03
just as much in these systems?
465
1323260
3000
îşi iubesc fiicele la fel de mult?
22:06
And I think there are clearly right answers to that.
466
1326260
2000
Şi cred că sunt răspunsuri evidente la această întrebare.
22:08
CA: And if the results come out that actually they do,
467
1328260
3000
C.A.: Şi dacă rezultatele arată că într-adevăr le iubesc,
22:11
are you prepared to shift your instinctive current judgment
468
1331260
3000
eşti gata să îţi schimbi poziţia pe care acum instinctiv o adopţi
22:14
on some of these issues?
469
1334260
2000
faţă de aceste chestiuni?
22:16
SH: Well yeah, modulo one obvious fact,
470
1336260
3000
S.H.: Da, este evident
22:19
that you can love someone
471
1339260
2000
că poţi iubi pe cineva
22:21
in the context of a truly delusional belief system.
472
1341260
3000
în condiţiile unui sistem complet delirant.
22:24
So, you can say like, "Because I knew my gay son
473
1344260
2000
Se poate spune: „Pentru că ştiam că fiul meu homosexual
22:26
was going to go to hell if he found a boyfriend,
474
1346260
3000
avea să ajungă in iad dacă îşi găsea un iubit,
22:29
I chopped his head off. And that was the most compassionate thing I could do."
475
1349260
3000
i-am retezat capul. Iar acesta a fost cel mai mărinimos lucru pe care îl puteam face.”
22:32
If you get all those parts aligned,
476
1352260
2000
Dacă pui toate astea cap la cap
22:34
yes I think you could probably be feeling the emotion of love.
477
1354260
3000
da, cred că reiese sentimentul de dragoste.
22:37
But again, then we have to talk about
478
1357260
2000
Însă, din nou, trebuie să ne gândim
22:39
well-being in a larger context.
479
1359260
2000
la bunăstare într-un context mai larg.
22:41
It's all of us in this together,
480
1361260
2000
E vorba despre noi toţi,
22:43
not one man feeling ecstasy
481
1363260
4000
nu despre un singur om exaltat
22:47
and then blowing himself up on a bus.
482
1367260
2000
care se aruncă în aer în autobuz.
22:49
CA: Sam, this is a conversation I would actually love to
483
1369260
2000
C.A.: Chiar mi-ar plăcea să continuăm conversaţia
22:51
continue for hours.
484
1371260
2000
pentru ore în şir.
22:53
We don't have that, but maybe another time. Thank you for coming to TED.
485
1373260
2000
Nu avem aşa ceva la dispoziţie, poate cu altă ocazie. Mulţumim că ai participat la TED.
22:55
SH: Really an honor. Thank you.
486
1375260
2000
S.H.: A fost o onoare. Vă mulţumesc.
22:57
(Applause)
487
1377260
3000
(Aplauze)
Despre acest site

Acest site vă va prezenta videoclipuri de pe YouTube care sunt utile pentru a învăța limba engleză. Veți vedea lecții de engleză predate de profesori de top din întreaga lume. Faceți dublu clic pe subtitrările în limba engleză afișate pe fiecare pagină video pentru a reda videoclipul de acolo. Subtitrările se derulează în sincron cu redarea videoclipului. Dacă aveți comentarii sau solicitări, vă rugăm să ne contactați folosind acest formular de contact.

https://forms.gle/WvT1wiN1qDtmnspy7