Nick Bostrom: Humanity's biggest problems aren't what you think they are

111,744 views ・ 2007-05-16

TED


Vă rugăm să faceți dublu clic pe subtitrările în limba engleză de mai jos pentru a reda videoclipul.

Traducător: Ariana Bleau Lugo Corector: Brandusa Gheorghe
00:25
I want to talk today about --
0
25000
3000
Vreau să vorbesc azi despre --
00:28
I've been asked to take the long view, and I'm going to tell you what
1
28000
6000
Mi s-a cerut să adopt o perspectivă de viitor, vă voi expune
00:34
I think are the three biggest problems for humanity
2
34000
4000
care cred că sunt problemele cele mai mari ale umanității
00:38
from this long point of view.
3
38000
3000
din această perspectivă cu bătaie lungă.
00:41
Some of these have already been touched upon by other speakers,
4
41000
3000
Unele probleme au fost deja atinse de alți vorbitori,
00:44
which is encouraging.
5
44000
2000
ceea ce e încurajator.
00:46
It seems that there's not just one person
6
46000
2000
Se pare că nu există doar o singură persoană
00:48
who thinks that these problems are important.
7
48000
2000
care crede că aceste probleme sunt importante.
00:50
The first is -- death is a big problem.
8
50000
4000
Prima -- moartea e o problemă mare.
00:54
If you look at the statistics,
9
54000
3000
Dacă te uiți la statistici,
00:57
the odds are not very favorable to us.
10
57000
2000
șansele nu ne sunt prea favorabile.
00:59
So far, most people who have lived have also died.
11
59000
4000
Până în prezent, majoritatea care au trăit au și murit.
01:03
Roughly 90 percent of everybody who has been alive has died by now.
12
63000
4000
Aproximativ 90% din cei ce au trăit au murit până acum.
01:07
So the annual death rate adds up to 150,000 --
13
67000
6000
Deci rata anuală de deces se ridică la 150.000 --
01:13
sorry, the daily death rate -- 150,000 people per day,
14
73000
3000
scuze, rata zilnică --- 150.000 oameni/ zi
01:16
which is a huge number by any standard.
15
76000
3000
un număr uriaș după orice standard.
01:19
The annual death rate, then, becomes 56 million.
16
79000
5000
Rata anuală de deces, atunci, devine 56 milioane.
01:24
If we just look at the single, biggest cause of death -- aging --
17
84000
5000
Dacă ne uităm la cea mai mare cauză a morții -- îmbătrânirea --
01:30
it accounts for roughly two-thirds of all human people who die.
18
90000
5000
răspunde de aproximativ 2/3 din toți oamenii care mor.
01:35
That adds up to an annual death toll
19
95000
3000
Asta ridică pierderea anuală prin deces
01:38
of greater than the population of Canada.
20
98000
2000
la mai mult decât populația Canadei.
01:40
Sometimes, we don't see a problem
21
100000
2000
Uneori nu vedem o problemă
01:42
because either it's too familiar or it's too big.
22
102000
4000
fie pentru că e prea familiară, fie că e prea mare.
01:46
Can't see it because it's too big.
23
106000
2000
N-o vedem pentru că e prea mare.
01:48
I think death might be both too familiar and too big
24
108000
3000
Cred că moartea e și prea familiară și prea mare
01:51
for most people to see it as a problem.
25
111000
3000
pentru ca majoritatea oamenilor să o perceapă ca problemă.
01:54
Once you think about it, you see this is not statistical points;
26
114000
2000
Când te gândești vezi că astea nu sunt doar statistici.
01:56
these are -- let's see, how far have I talked?
27
116000
2000
Acestea sunt --- să vedem, cât am vorbit?
01:58
I've talked for three minutes.
28
118000
3000
Vorbesc de 3 minute.
02:01
So that would be, roughly, 324 people have died since I've begun speaking.
29
121000
7000
Deci asta ar fi, aproximativ 324 oameni au murit de când am început să vorbesc.
02:08
People like -- it's roughly the population in this room has just died.
30
128000
4000
Oameni cam -- aproximativ populația din această sală a murit.
02:13
Now, the human cost of that is obvious,
31
133000
2000
Acum, costul uman al acestei pierderi e evident.
02:15
once you start to think about it -- the suffering, the loss --
32
135000
3000
Când începi să te gândești -- suferința, pierderea --
02:18
it's also, economically, enormously wasteful.
33
138000
3000
şi economic, o irosire enormă.
02:21
I just look at the information, and knowledge, and experience
34
141000
3000
Mă uit doar la informația, cunoștințele și experiența
02:24
that is lost due to natural causes of death in general,
35
144000
3000
care se pierd datorită cauzelor morții în general,
02:27
and aging, in particular.
36
147000
2000
și a îmbătrânirii în particular.
02:29
Suppose we approximated one person with one book?
37
149000
3000
Să presupunem că am aproxima o persoană cu o carte?
02:32
Now, of course, this is an underestimation.
38
152000
2000
Bineînțeles, asta-i o subestimare.
02:34
A person's lifetime of learning and experience
39
154000
6000
Viața de studiu și experiență a unei persoane
02:40
is a lot more than you could put into a single book.
40
160000
2000
e mult mai cuprinzătoare decât poți pune într-o carte.
02:42
But let's suppose we did this.
41
162000
2000
Dar să presupunem că am face asta.
02:45
52 million people die of natural causes each year
42
165000
5000
52 milioane de oameni mor din cauze naturale în fiecare an
02:50
corresponds, then, to 52 million volumes destroyed.
43
170000
4000
corespunde, deci, cu 52 milioane volume distruse.
02:54
Library of Congress holds 18 million volumes.
44
174000
3000
Library of Congress deține 18 milioane volume.
02:58
We are upset about the burning of the Library of Alexandria.
45
178000
3000
Suntem tulburați de arderea Bibliotecii din Alexandria.
03:01
It's one of the great cultural tragedies
46
181000
2000
E una din uriașele tragedii culturale
03:03
that we remember, even today.
47
183000
3000
pe care ne-o amintim, chiar și azi.
03:07
But this is the equivalent of three Libraries of Congress --
48
187000
2000
Dar acesta e echivalentul a 3 Libraries of Congress --
03:09
burnt down, forever lost -- each year.
49
189000
3000
incendiate, pierdute iremediabil -- în fiecare an.
03:12
So that's the first big problem.
50
192000
2000
Deci asta e prima mare problemă.
03:14
And I wish Godspeed to Aubrey de Grey,
51
194000
3000
Îi urez success și noroc lui Aubrey de Grey,
03:17
and other people like him,
52
197000
2000
și altor oameni ca el,
03:19
to try to do something about this as soon as possible.
53
199000
3000
să reușească ceva în legătură cu asta cât de repede posibil.
03:23
Existential risk -- the second big problem.
54
203000
3000
Risc existențial -- a doua problemă mare .
03:26
Existential risk is a threat to human survival, or to the long-term potential of our species.
55
206000
7000
Riscul existențial e o amenințare a supraviețuirii umane, a potențialului de lungă durată a speciei noastre.
03:33
Now, why do I say that this is a big problem?
56
213000
2000
De ce spun că asta e o mare problemă?
03:35
Well, let's first look at the probability --
57
215000
4000
Ei bine, să ne uităm întâi la probabilități --
03:39
and this is very, very difficult to estimate --
58
219000
3000
și asta e foarte dificil de estimat --
03:42
but there have been only four studies on this in recent years,
59
222000
3000
au existat recent doar 4 studii despre asta,
03:45
which is surprising.
60
225000
2000
ceea ce-i surprinzător.
03:47
You would think that it would be of some interest
61
227000
3000
Ai crede că ar fi de-un oarecare interes
03:50
to try to find out more about this given that the stakes are so big,
62
230000
4000
să aflăm mai multe despre asta considerând un potențial de risc așa mare,
03:54
but it's a very neglected area.
63
234000
2000
dar e un domeniu foarte neglijat.
03:56
But there have been four studies --
64
236000
2000
Dar au fost 4 studii --
03:58
one by John Lesley, wrote a book on this.
65
238000
2000
unul de John Lesley, a scris o carte despre asta.
04:00
He estimated a probability that we will fail
66
240000
2000
El a estimat probabilitatea de-a nu reuși
04:02
to survive the current century: 50 percent.
67
242000
3000
să supraviețuim acestui secol -- 50%.
04:05
Similarly, the Astronomer Royal, whom we heard speak yesterday,
68
245000
5000
Similar, Astronomer Royal, pe care l-am auzit vorbind ieri,
04:10
also has a 50 percent probability estimate.
69
250000
3000
are şi el o estimare a probabilității: 50%.
04:13
Another author doesn't give any numerical estimate,
70
253000
3000
Un alt autor nu dă nici o estimare numerică,
04:16
but says the probability is significant that it will fail.
71
256000
3000
dar spune că probabilitatea de eșec e semnificativă.
04:19
I wrote a long paper on this.
72
259000
3000
Am scris o lucrare lungă despre acest subiect.
04:22
I said assigning a less than 20 percent probability would be a mistake
73
262000
4000
Am spus că atribuind un procent mai mic de 20% ar fi o greșeală
04:26
in light of the current evidence we have.
74
266000
3000
în lumina dovezilor curente pe care le avem.
04:29
Now, the exact figures here,
75
269000
2000
Acum, cifrele exacte aici,
04:31
we should take with a big grain of salt,
76
271000
2000
ar trebui să le privim cu oarecare îndoială,
04:33
but there seems to be a consensus that the risk is substantial.
77
273000
3000
dar se pare că există un consens că riscul e substanțial.
04:36
Everybody who has looked at this and studied it agrees.
78
276000
3000
Toți cei care au considerat și studiat asta, sunt de acord.
04:39
Now, if we think about what just reducing
79
279000
2000
Acum, dacă ne gândim la reducerea
04:41
the probability of human extinction by just one percentage point --
80
281000
5000
probabilității de extincție umană cu doar 1% --
04:46
not very much -- so that's equivalent to 60 million lives saved,
81
286000
5000
nu pare mult -- asta-i echivalent cu 60 milioane vieți salvate,
04:51
if we just count the currently living people, the current generation.
82
291000
4000
dacă numărăm doar oamenii care trăiesc în prezent, generația actuală.
04:55
Now one percent of six billion people is equivalent to 60 million.
83
295000
4000
1% din 6 miliarde e echivalent cu 60 milioane.
04:59
So that's a large number.
84
299000
2000
Ăsta-i un număr mare.
05:01
If we were to take into account future generations
85
301000
3000
Dacă ar fi să luăm în considerare generațiile viitoare
05:04
that will never come into existence if we blow ourselves up,
86
304000
5000
care nu vor exista dacă ne aruncăm în aer,
05:09
then the figure becomes astronomical.
87
309000
3000
atunci cifrele devin astronomice.
05:12
If we could eventually colonize a chunk of the universe --
88
312000
3000
Dacă am putea, în cele din urmă, coloniza o parte din univers --
05:15
the Virgo supercluster --
89
315000
2000
constelația Fecioarei --
05:17
maybe it will take us 100 million years to get there,
90
317000
2000
poate ne va lua 100 milioane de ani să ajungem acolo,
05:19
but if we go extinct we never will.
91
319000
3000
dar dacă omenirea dispare nu vom ajunge.
05:22
Then, even a one percentage point reduction
92
322000
3000
Atunci, chiar și 1% reducție
05:25
in the extinction risk could be equivalent
93
325000
4000
în riscul de extincție ar putea fi echivalat
05:29
to this astronomical number -- 10 to the power of 32.
94
329000
3000
cu acest număr astronomic -- 10 la puterea 32.
05:32
So if you take into account future generations as much as our own,
95
332000
4000
Dacă luați în considerare egal și generațiile viitoare și a noastră,
05:36
every other moral imperative of philanthropic cost just becomes irrelevant.
96
336000
5000
jumătate din imperativele morale ale costului filantropic devin irelevante.
05:41
The only thing you should focus on
97
341000
2000
Singurul lucru pe care ar trebui să-l considerați
05:43
would be to reduce existential risk
98
343000
2000
ar fi reducerea riscului existențial
05:45
because even the tiniest decrease in existential risk
99
345000
4000
deoarece chiar și cea mai măruntă reducere a riscului existențial
05:49
would just overwhelm any other benefit you could hope to achieve.
100
349000
4000
ar copleși orice alt avantaj pe care ai putea spera să-l obții.
05:53
And even if you just look at the current people,
101
353000
2000
Și chiar dacă iei în considerare doar oamenii actuali,
05:55
and ignore the potential that would be lost if we went extinct,
102
355000
5000
și ignori potențialul ce s-ar pierde în caz de extincție,
06:00
it should still have a high priority.
103
360000
2000
tot ar avea o mare prioritate.
06:02
Now, let me spend the rest of my time on the third big problem,
104
362000
5000
Acum, dați-mi voie să folosesc restul timpului pentru a 3-a problemă
06:07
because it's more subtle and perhaps difficult to grasp.
105
367000
5000
pentru că e mai subtilă și mai dificil de prins.
06:13
Think about some time in your life --
106
373000
4000
Gândiți-vă la o perioadă din viața voastră --
06:17
some people might never have experienced it -- but some people,
107
377000
3000
unii oameni n-au experimentat poate niciodată -- doar unii,
06:20
there are just those moments that you have experienced
108
380000
3000
există acele momente pe care le-ați trăit
06:23
where life was fantastic.
109
383000
2000
când viața a fost fantastică.
06:25
It might have been at the moment of some great, creative inspiration
110
385000
7000
Posibil să fi fost într-un moment de mare inspirație creativă
06:32
you might have had when you just entered this flow stage.
111
392000
2000
pe care să-l fi avut când ai intrat în această stare de transă.
06:34
Or when you understood something you had never done before.
112
394000
2000
Sau când ai înțeles ceva ce n-ai reușit niciodată înainte.
06:36
Or perhaps in the ecstasy of romantic love.
113
396000
4000
Ori poate în extazul iubirii romantice.
06:40
Or an aesthetic experience -- a sunset or a great piece of art.
114
400000
5000
Sau o experiență estetică -- un apus de soare sau o operă de artă genială.
06:45
Every once in a while we have these moments,
115
405000
2000
Din când în când avem aceste momente,
06:47
and we realize just how good life can be when it's at its best.
116
407000
4000
și realizăm cât de fantastică poate fi viața când e pe culmi.
06:51
And you wonder, why can't it be like that all the time?
117
411000
5000
Și te întrebi de ce nu poate fi așa tot timpul?
06:56
You just want to cling onto this.
118
416000
2000
Vrei pur și simplu să te agăți de acea clipă.
06:58
And then, of course, it drifts back into ordinary life and the memory fades.
119
418000
4000
Și apoi, bineînțeles, alunecă înapoi în viața obișnuită și amintirea pălește.
07:02
And it's really difficult to recall, in a normal frame of mind,
120
422000
4000
Și e chiar greu să-ți reamintești, în starea mintală obișnuită,
07:06
just how good life can be at its best.
121
426000
3000
cât de bună poate fi viața pe culmi.
07:09
Or how bad it can be at its worst.
122
429000
3000
Sau cât de rea poate fi în suferință.
07:12
The third big problem is that life isn't usually
123
432000
3000
A 3-a mare problemă e că viața nu e de obicei
07:15
as wonderful as it could be.
124
435000
2000
așa de minunată cum ar putea fi.
07:17
I think that's a big, big problem.
125
437000
4000
Cred că asta e o mare, mare problemă.
07:21
It's easy to say what we don't want.
126
441000
2000
E ușor să spunem ce nu dorim.
07:24
Here are a number of things that we don't want --
127
444000
3000
Iată un număr de lucruri pe care nu le dorim:
07:27
illness, involuntary death, unnecessary suffering, cruelty,
128
447000
3000
boală, moarte accidentală, suferință inutilă, cruzime,
07:30
stunted growth, memory loss, ignorance, absence of creativity.
129
450000
5000
creștere blocată, pierdere de memorie, ignoranță, lipsă de creativitate.
07:36
Suppose we fixed these things -- we did something about all of these.
130
456000
3000
Să presupunem că le reparăm -- am făcut câte ceva pentru toate astea.
07:39
We were very successful.
131
459000
2000
Reușim cu totul.
07:41
We got rid of all of these things.
132
461000
2000
Am scăpat de toate astea.
07:43
We might end up with something like this,
133
463000
3000
S-ar putea să reușim ceva asemănator.
07:46
which is -- I mean, it's a heck of a lot better than that.
134
466000
4000
Adică -- Poate chiar mai bine decât toate astea.
07:50
But is this really the best we can dream of?
135
470000
5000
Dar e acesta într-adevăr cel mai frumos vis pe care-l putem spera?
07:55
Is this the best we can do?
136
475000
2000
E asta tot ce putem face?
07:57
Or is it possible to find something a little bit more inspiring to work towards?
137
477000
6000
Sau e posibil să găsim ceva mai inspirat în care să investim?
08:03
And if we think about this,
138
483000
2000
Și dacă ne gândim,
08:05
I think it's very clear that there are ways
139
485000
4000
cred că e foarte clar că există căi
08:09
in which we could change things, not just by eliminating negatives,
140
489000
3000
în care am putea schimba lucrurile, nu doar prin a elimina negativele,
08:12
but adding positives.
141
492000
2000
dar prin a adăuga pozitive.
08:14
On my wish list, at least, would be:
142
494000
2000
Pe lista mea de dorințe ar fi cel puțin:
08:16
much longer, healthier lives, greater subjective well-being,
143
496000
5000
vieți mai lungi, mai sănătoase, bunăstare personală mai mare,
08:21
enhanced cognitive capacities, more knowledge and understanding,
144
501000
5000
capacitate cognitivă îmbunătățită, mai multe cunoștințe și înțelegere,
08:26
unlimited opportunity for personal growth
145
506000
2000
oportunități nelimitate pentru realizare personală
08:28
beyond our current biological limits, better relationships,
146
508000
4000
peste limitele biologice actuale, relații mai bune,
08:32
an unbounded potential for spiritual, moral
147
512000
2000
un potențial nelimitat pentru dezvoltare
08:34
and intellectual development.
148
514000
2000
morală și intelectuală.
08:36
If we want to achieve this, what, in the world, would have to change?
149
516000
8000
Dacă vrem să realizăm astea, ce oare ar trebui să se schimbe?
08:44
And this is the answer -- we would have to change.
150
524000
5000
Și iată răspunsul -- noi ar trebui să ne schimbăm.
08:49
Not just the world around us, but we, ourselves.
151
529000
3000
Nu doar lumea din jurul nostru, ci noi, noi înșine.
08:52
Not just the way we think about the world, but the way we are -- our very biology.
152
532000
4000
Nu doar cum gândim despre lume, ci felul în care suntem -- propria noastră biologie.
08:56
Human nature would have to change.
153
536000
2000
Natura umană ar trebui să se schimbe.
08:58
Now, when we think about changing human nature,
154
538000
2000
Acum, când ne gândim să schimbăm natura umană
09:00
the first thing that comes to mind
155
540000
2000
primul gând care vine în minte
09:02
are these human modification technologies --
156
542000
4000
sunt aceste tehnologii de modificare umană:
09:06
growth hormone therapy, cosmetic surgery,
157
546000
2000
terapia cu hormoni de creștere, chirurgia cosmetică,
09:08
stimulants like Ritalin, Adderall, anti-depressants,
158
548000
3000
stimulatori ca Ritalin, Adderall, anti-depresivi,
09:11
anabolic steroids, artificial hearts.
159
551000
2000
steroizi anabolici, inimi artificiale.
09:13
It's a pretty pathetic list.
160
553000
3000
E o listă destul de jalnică.
09:16
They do great things for a few people
161
556000
2000
Astea sunt bune pentru câțiva oameni
09:18
who suffer from some specific condition,
162
558000
2000
care suferă de anumite condiții.
09:20
but for most people, they don't really transform
163
560000
5000
Dar pentru majoritatea oamenilor nu transformă
09:25
what it is to be human.
164
565000
2000
cu adevărat ce înseamnă să fii uman.
09:27
And they also all seem a little bit --
165
567000
2000
Și de asemenea, toate par cam --
09:29
most people have this instinct that, well, sure,
166
569000
3000
majoritatea oamenilor au acest instinct că, desigur,
09:32
there needs to be anti-depressants for the really depressed people.
167
572000
2000
trebuie să existe anti-depresive pentru oamenii cu adevărat depresivi.
09:34
But there's a kind of queasiness
168
574000
2000
Dar există un fel de greață
09:36
that these are unnatural in some way.
169
576000
3000
pentru că sunt nenaturale.
09:39
It's worth recalling that there are a lot of other
170
579000
2000
Merită să ne reamintim că există o mulțime de alte
09:41
modification technologies and enhancement technologies that we use.
171
581000
3000
tehnologii de modificare și îmbunătățire pe care le folosim.
09:44
We have skin enhancements, clothing.
172
584000
4000
Avem accesorii pentru piele, hainele.
09:48
As far as I can see, all of you are users of this
173
588000
4000
Pe cât pot vedea toți sunteți utilizatori ai acestei
09:52
enhancement technology in this room, so that's a great thing.
174
592000
5000
tehnologii de accesorii în această sală, asta-i bine.
09:57
Mood modifiers have been used from time immemorial --
175
597000
3000
Modificatoare de dispoziție au fost folosite din timpuri străvechi:
10:00
caffeine, alcohol, nicotine, immune system enhancement,
176
600000
5000
cafeină, alcool, nicotină, întăritoare de sistem imunitar,
10:05
vision enhancement, anesthetics --
177
605000
2000
întăritoare de vedere, anestetice.
10:07
we take that very much for granted,
178
607000
2000
Luăm astea ca de la sine înțeles,
10:09
but just think about how great progress that is --
179
609000
4000
dar gândiți-vă ce progres mare sunt --
10:13
like, having an operation before anesthetics was not fun.
180
613000
4000
să ai o operație înainte de anestezice nu era distractiv.
10:17
Contraceptives, cosmetics and brain reprogramming techniques --
181
617000
6000
Contraceptive, cosmetice și tehnici de reprogramare mintală --
10:23
that sounds ominous,
182
623000
2000
par a fi de rău augur.
10:25
but the distinction between what is a technology --
183
625000
4000
Dar distincția între tehnologie --
10:29
a gadget would be the archetype --
184
629000
2000
un dispozitiv ar fi un prototip ---
10:31
and other ways of changing and rewriting human nature is quite subtle.
185
631000
4000
și alte căi de modificare și rescriere a naturii umane e subtilă.
10:35
So if you think about what it means to learn arithmetic or to learn to read,
186
635000
4000
Dacă te gândești la ce înseamnă să înveți aritmetica sau cititul,
10:39
you're actually, literally rewriting your own brain.
187
639000
3000
îți rescrii, literalmente, propriul creier.
10:42
You're changing the microstructure of your brain as you go along.
188
642000
3000
Îți restructurezi micro-structura creierului pe masură ce înveți.
10:46
So in a broad sense, we don't need to think about technology
189
646000
3000
Deci în sens larg, nu-i nevoie să ne gândim la tehnologie
10:49
as only little gadgets, like these things here,
190
649000
2000
ca la mici dispozitive, ca aceste obiecte de aici.
10:51
but even institutions and techniques,
191
651000
4000
Ci chiar și la instituții și tehnici,
10:55
psychological methods and so forth.
192
655000
2000
la metode psihologice, ș.a.m.d.
10:57
Forms of organization can have a profound impact on human nature.
193
657000
5000
Formele de organizare pot avea un impact profund asupra naturii umane.
11:02
Looking ahead, there is a range of technologies
194
662000
2000
Privind înainte, există tehnologii
11:04
that are almost certain to be developed sooner or later.
195
664000
3000
care vor fi dezvoltate în mod cert mai devreme sau mai târziu.
11:07
We are very ignorant about what the time scale for these things are,
196
667000
4000
Suntem foarte ignoranți despre scara timpului în privința acestora.
11:11
but they all are consistent with everything we know
197
671000
2000
Dar toate sunt consecvente cu tot ce știm
11:13
about physical laws, laws of chemistry, etc.
198
673000
4000
despre legile fizicii, legile chimiei, etc.
11:17
It's possible to assume,
199
677000
2000
Poate, să presupunem,
11:19
setting aside a possibility of catastrophe,
200
679000
3000
lăsând la o parte posibilitatea unei catastrofe,
11:22
that sooner or later we will develop all of these.
201
682000
3000
vom desăvârși toate astea mai devreme sau mai târziu.
11:25
And even just a couple of these would be enough
202
685000
3000
Chiar numai două din astea și ar fi destul
11:28
to transform the human condition.
203
688000
2000
să transformăm condiția umană.
11:30
So let's look at some of the dimensions of human nature
204
690000
5000
Să ne uităm la câteva dimensiuni ale naturii umane
11:35
that seem to leave room for improvement.
205
695000
3000
care pot fi îmbunătăţite.
11:38
Health span is a big and urgent thing,
206
698000
2000
Răstimpul sănătății e o mare urgență,
11:40
because if you're not alive,
207
700000
2000
pentru că dacă nu ești viu,
11:42
then all the other things will be to little avail.
208
702000
3000
atunci toate celelalte sunt fără rost.
11:45
Intellectual capacity -- let's take that box,
209
705000
2000
Capacitatea intelectuală -- să luăm cutia aceea,
11:47
which falls into a lot of different sub-categories:
210
707000
5000
care cuprinde multe sub-categorii diferite:
11:52
memory, concentration, mental energy, intelligence, empathy.
211
712000
3000
memorie, concentrare, energie intelectuală, inteligență, empatie.
11:55
These are really great things.
212
715000
2000
Astea sunt toate lucruri grozave.
11:57
Part of the reason why we value these traits
213
717000
2000
Parte din motivul pentru care prețuim aceste trăsături
11:59
is that they make us better at competing with other people --
214
719000
4000
e pentru că ne fac mai competitivi în comparație cu alți oameni --
12:03
they're positional goods.
215
723000
2000
sunt trăsături poziționale.
12:05
But part of the reason --
216
725000
2000
Dar o altă parte din motiv --
12:07
and that's the reason why we have ethical ground for pursuing these --
217
727000
4000
și de-asta avem o bază etică pentru a le urma --
12:11
is that they're also intrinsically valuable.
218
731000
3000
e pentru că ele sunt și valoroase în esența lor.
12:14
It's just better to be able to understand more of the world around you
219
734000
4000
E pur și simplu mai bine să fii în stare să înțelegi mai mult din
12:18
and the people that you are communicating with,
220
738000
2000
lumea înconjurătoare și oamenii cu care comunici,
12:20
and to remember what you have learned.
221
740000
4000
și să-ți amintești ce ai învățat.
12:24
Modalities and special faculties.
222
744000
2000
Modalități și facultăți deosebite.
12:26
Now, the human mind is not a single unitary information processor,
223
746000
5000
Acum, mintea umană nu e un singur procesor unitar de informație,
12:31
but it has a lot of different, special, evolved modules
224
751000
4000
ci are multe module diferite, special evoluate
12:35
that do specific things for us.
225
755000
2000
care îndeplinesc atribuții specifice.
12:37
If you think about what we normally take as giving life a lot of its meaning --
226
757000
4000
Dacă te gândești la ceea ce considerm în mod normal că dă sens vieții:
12:41
music, humor, eroticism, spirituality, aesthetics,
227
761000
4000
muzică, umor, iubire, spiritualitate, estetică,
12:45
nurturing and caring, gossip, chatting with people --
228
765000
5000
creștere și îngrijire, zvonuri, conversația cu alți oameni.
12:50
all of these, very likely, are enabled by a special circuitry
229
770000
4000
Toate astea, foarte probabil, sunt îngăduite de circuite speciale
12:54
that we humans have,
230
774000
2000
pe care noi oamenii le avem,
12:56
but that you could have another intelligent life form that lacks these.
231
776000
3000
dar ai putea avea o altă formă de viață inteligentă în care să-ți lipsească astea.
12:59
We're just lucky that we have the requisite neural machinery
232
779000
3000
Suntem norocoși să avem mașinăria neurală necesară
13:02
to process music and to appreciate it and enjoy it.
233
782000
4000
care să proceseze, să aprecieze și să se bucure de muzică.
13:06
All of these would enable, in principle -- be amenable to enhancement.
234
786000
3000
Toate astea ar permite, în principiu -- să fie supuse la îmbunătățire.
13:09
Some people have a better musical ability
235
789000
2000
Unii oameni au abilități muzicale și
13:11
and ability to appreciate music than others have.
236
791000
2000
capacitatăți de-a aprecia muzica mai bune decât alții.
13:13
It's also interesting to think about what other things are --
237
793000
3000
E interesant să considerăm şi alte lucruri --
13:16
so if these all enabled great values,
238
796000
3000
dacă toate aceste valori excepționale ar fi validate
13:20
why should we think that evolution has happened to provide us
239
800000
3000
de ce n-am gândi că evoluția s-a petrecut ca să ne ofere
13:23
with all the modalities we would need to engage
240
803000
3000
toate modalitățile de care am avea nevoie pentru a angaja
13:26
with other values that there might be?
241
806000
2000
alte valori care ar putea exista?
13:28
Imagine a species
242
808000
2000
Imaginați-vă o specie care pur și simplu
13:30
that just didn't have this neural machinery for processing music.
243
810000
4000
n-ar fi avut această mașinărie neurală de procesare a muzicii.
13:34
And they would just stare at us with bafflement
244
814000
3000
Și s-ar holba la noi cu consternare
13:37
when we spend time listening to a beautiful performance,
245
817000
4000
când petrecem timp audiind un spectacol frumos,
13:41
like the one we just heard -- because of people making stupid movements,
246
821000
2000
ca cel pe care chiar l-am ascultat -- crezând că oamenii fac mișcări prostești.
13:43
and they would be really irritated and wouldn't see what we were up to.
247
823000
3000
Și ar fi realmente iritați și n-ar înțelege ce intenționăm să facem.
13:46
But maybe they have another faculty, something else
248
826000
3000
Dar poate ei au alte aptitudini, altceva
13:49
that would seem equally irrational to us,
249
829000
3000
ce nouă ni s-ar părea la fel de irațional,
13:52
but they actually tap into some great possible value there.
250
832000
3000
când în realitate ei captează niște lucruri valoroase acolo,
13:55
But we are just literally deaf to that kind of value.
251
835000
4000
în timp ce noi suntem literalmente surzi la acea valoare.
13:59
So we could think of adding on different,
252
839000
2000
Deci ne-am putea gândi să adăugăm diferite
14:01
new sensory capacities and mental faculties.
253
841000
4000
capacități senzoriale și facultăți mintale noi.
14:05
Bodily functionality and morphology and affective self-control.
254
845000
5000
Funcționalitate și morfologie corporală și auto-control emoțional.
14:10
Greater subjective well-being.
255
850000
2000
O bunăstare personală mai bună.
14:12
Be able to switch between relaxation and activity --
256
852000
3000
Să fim în stare să trecem din relaxare în activitate --
14:15
being able to go slow when you need to do that, and to speed up.
257
855000
4000
fiind în stare să încetinim și să accelerăm când e necesar.
14:19
Able to switch back and forth more easily
258
859000
2000
Să fim capabili să trecem de la o stare la alta mai ușor,
14:21
would be a neat thing to be able to do --
259
861000
2000
ar fi grozav să fim în stare --
14:23
easier to achieve the flow state,
260
863000
2000
să obții mai ușor fluxul creativ,
14:25
when you're totally immersed in something you are doing.
261
865000
4000
când ești imersat complet în ceea ce faci.
14:29
Conscientiousness and sympathy.
262
869000
2000
Conștiință și solidaritate.
14:31
The ability to -- it's another interesting application
263
871000
3000
Capacitatea de a -- e o altă aplicație interesantă
14:34
that would have large social ramification, perhaps.
264
874000
3000
care ar avea ramificații sociale adânci .
14:37
If you could actually choose to preserve your romantic attachments to one person,
265
877000
6000
Dacă ai putea să alegi să păstrezi atașamentul romantic pentru o persoană,
14:43
undiminished through time,
266
883000
2000
nealterat în timp,
14:45
so that wouldn't have to -- love would never have to fade if you didn't want it to.
267
885000
3000
astfel să nu -- dragostea n-ar trebui niciodată să pălească dacă nu dorești.
14:50
That's probably not all that difficult.
268
890000
3000
Asta probabil nu-i chiar așa dificil.
14:53
It might just be a simple hormone or something that could do this.
269
893000
3000
Ar putea fi doar un hormon ori ceva răspunzător pentru asta.
14:58
It's been done in voles.
270
898000
2000
A fost realizat la rozătoarele de câmp.
15:02
You can engineer a prairie vole to become monogamous
271
902000
3000
Poți reconfigura un rozător de preerie să devină monogam
15:05
when it's naturally polygamous.
272
905000
2000
când el în mod natural e poligam.
15:07
It's just a single gene.
273
907000
2000
E doar o singură genă.
15:09
Might be more complicated in humans, but perhaps not that much.
274
909000
2000
Poate-ar fi mai complicat la oameni, dar poate nu foarte.
15:11
This is the last picture that I want to --
275
911000
2000
Asta e ultima poză --
15:14
now we've got to use the laser pointer.
276
914000
2000
acum trebuie să folosim indicatorul cu laser.
15:17
A possible mode of being here would be a way of life --
277
917000
3000
Un mod de existență aici ar fi un fel de viață --
15:20
a way of being, experiencing, thinking, seeing,
278
920000
4000
un fel de existență, experiență, gândire, percepere,
15:24
interacting with the world.
279
924000
2000
interacționând cu lumea.
15:26
Down here in this little corner, here, we have the little sub-space
280
926000
5000
Aici jos în colț avem un mic sub-spațiu
15:31
of this larger space that is accessible to human beings --
281
931000
4000
al acestui spațiu mai larg care e accesibil ființei umane --
15:35
beings with our biological capacities.
282
935000
3000
ființe cu capacitățile noastre biologice.
15:38
It's a part of the space that's accessible to animals;
283
938000
3000
E parte din spațiul accesibil animalelor --
15:41
since we are animals, we are a subset of that.
284
941000
3000
și pentru că suntem animale suntem un sub-set al acestuia.
15:44
And then you can imagine some enhancements of human capacities.
285
944000
4000
Iar apoi vă puteți imagina niște îmbunătățiri ale capacităților umane.
15:48
There would be different modes of being you could experience
286
948000
3000
Ar fi modalități diferite de existență pe care le-ai putea trăi
15:51
if you were able to stay alive for, say, 200 years.
287
951000
3000
dacă ai putea rămâne în viață, să zicem, 200 ani.
15:54
Then you could live sorts of lives and accumulate wisdoms
288
954000
4000
Atunci ai putea trăi feluri de viață și acumula înțelepciune
15:58
that are just not possible for humans as we currently are.
289
958000
3000
care pur și simplu nu-s posibile oamenilor așa cum suntem în prezent.
16:01
So then, you move off to this larger sphere of "human +,"
290
961000
4000
Deci atunci te muți în această sferă mai largă al omului plus,
16:05
and you could continue that process and eventually
291
965000
3000
și ai putea să continui acel proces și în cele din urmă
16:08
explore a lot of this larger space of possible modes of being.
292
968000
4000
să explorezi mare parte din acest spațiu mai larg de modalități posibile de existență.
16:12
Now, why is that a good thing to do?
293
972000
2000
Acum, de ce e asta un lucru bun?
16:14
Well, we know already that in this little human circle there,
294
974000
4000
Ei bine, deja știm că în acest cerc restrâns al omului de aici,
16:18
there are these enormously wonderful and worthwhile modes of being --
295
978000
4000
există aceste modalități de existență fantastic de minunate și valoroase --
16:22
human life at its best is wonderful.
296
982000
3000
viața umană pe culmi e minunată.
16:25
We have no reason to believe that within this much, much larger space
297
985000
5000
Nu avem vreun motiv să credem că în cadrul acestui spațiu mai larg
16:30
there would not also be extremely worthwhile modes of being,
298
990000
4000
n-ar fi de asemenea modalități de existență valoroase.
16:34
perhaps ones that would be way beyond our wildest ability
299
994000
6000
Posibil unele care ar fi mult peste puterea noastră
16:40
even to imagine or dream about.
300
1000000
2000
de a ni le imagina sau visa.
16:42
And so, to fix this third problem,
301
1002000
2000
Și astfel pentru a repara această a 3-a problemă
16:44
I think we need -- slowly, carefully, with ethical wisdom and constraint --
302
1004000
6000
Cred că trebuie -- încet, cu grijă, cu înțelepciune etică și reținere --
16:50
develop the means that enable us to go out in this larger space and explore it
303
1010000
5000
să dezvoltăm mijloacele care ne îngăduie să pășim în spațiul mai larg și să-l explorăm.
16:55
and find the great values that might hide there.
304
1015000
2000
Și să găsim marile valori care s-ar putea să existe acolo.
16:57
Thanks.
305
1017000
2000
Mulțumesc.
Despre acest site

Acest site vă va prezenta videoclipuri de pe YouTube care sunt utile pentru a învăța limba engleză. Veți vedea lecții de engleză predate de profesori de top din întreaga lume. Faceți dublu clic pe subtitrările în limba engleză afișate pe fiecare pagină video pentru a reda videoclipul de acolo. Subtitrările se derulează în sincron cu redarea videoclipului. Dacă aveți comentarii sau solicitări, vă rugăm să ne contactați folosind acest formular de contact.

https://forms.gle/WvT1wiN1qDtmnspy7