Nick Bostrom: Humanity's biggest problems aren't what you think they are

111,124 views ・ 2007-05-16

TED


A videó lejátszásához kattintson duplán az alábbi angol feliratokra.

Fordító: Péter Pallós Lektor: Beatrix Turán
Ma szeretnék beszélni a...
Arra kértek, tekintsek a jövőbe, ezért arról fogok beszélni,
hogy nézetem szerint mi az emberiség három fő gondja
e hosszú távú kitekintésben.
00:25
I want to talk today about --
0
25000
3000
Némelyiket más előadók már érintették,
00:28
I've been asked to take the long view, and I'm going to tell you what
1
28000
6000
és ez biztató.
Nem állok egyedül a véleményemmel,
00:34
I think are the three biggest problems for humanity
2
34000
4000
hogy ezek fontos kérdések.
Az első nagy kérdés – a halál.
00:38
from this long point of view.
3
38000
3000
Ha megnézzük a statisztikát,
00:41
Some of these have already been touched upon by other speakers,
4
41000
3000
esélyeink nemigen kedvezőek.
00:44
which is encouraging.
5
44000
2000
A legtöbben azok közül, akik valaha éltek, mára már halottak.
00:46
It seems that there's not just one person
6
46000
2000
00:48
who thinks that these problems are important.
7
48000
2000
A valaha éltek 90%-a mára már halott.
00:50
The first is -- death is a big problem.
8
50000
4000
Évente... elnézést, naponta
00:54
If you look at the statistics,
9
54000
3000
00:57
the odds are not very favorable to us.
10
57000
2000
00:59
So far, most people who have lived have also died.
11
59000
4000
150 000 ember hal meg.
Ez minden szempontból nagy szám.
01:03
Roughly 90 percent of everybody who has been alive has died by now.
12
63000
4000
Ebből adódik, hogy évente 56 milliónyian halnak meg.
01:07
So the annual death rate adds up to 150,000 --
13
67000
6000
Ha csupán az egyszerű s legnagyobb okot, az öregedést vesszük,
01:13
sorry, the daily death rate -- 150,000 people per day,
14
73000
3000
01:16
which is a huge number by any standard.
15
76000
3000
ez teszi ki a halálesetek kétharmadát.
01:19
The annual death rate, then, becomes 56 million.
16
79000
5000
Évente többen halnak meg az öregedés miatt,
01:24
If we just look at the single, biggest cause of death -- aging --
17
84000
5000
mint Kanada lélekszáma.
Néha nem vesszük észre a problémát,
mert vagy túl ismert, vagy túl kiterjedt.
01:30
it accounts for roughly two-thirds of all human people who die.
18
90000
5000
A fától nem látjuk az erdőt.
A halálra mindkettő igaz lehet: túl ismert és túl nagy kérdés ahhoz,
01:35
That adds up to an annual death toll
19
95000
3000
01:38
of greater than the population of Canada.
20
98000
2000
hogy a legtöbben problémaként kezeljék.
01:40
Sometimes, we don't see a problem
21
100000
2000
Látható, hogy a lényeg nem a statisztika...
01:42
because either it's too familiar or it's too big.
22
102000
4000
...mióta beszélek?
Három perce.
01:46
Can't see it because it's too big.
23
106000
2000
Ez idő alatt kb. 324-en haltak meg.
01:48
I think death might be both too familiar and too big
24
108000
3000
01:51
for most people to see it as a problem.
25
111000
3000
01:54
Once you think about it, you see this is not statistical points;
26
114000
2000
Kb. annyian, ahányan itt ülnek a teremben.
01:56
these are -- let's see, how far have I talked?
27
116000
2000
01:58
I've talked for three minutes.
28
118000
3000
Az emberi veszteség nyilvánvaló,
02:01
So that would be, roughly, 324 people have died since I've begun speaking.
29
121000
7000
ha meggondoljuk: szenvedés, veszteség –,
gazdaságilag is hatalmas tékozlás.
Tekintsük csak az információt, tudást és tapasztalatot,
02:08
People like -- it's roughly the population in this room has just died.
30
128000
4000
ami általában természetes halálok miatt ment veszendőbe,
02:13
Now, the human cost of that is obvious,
31
133000
2000
konkrétan öregedés miatt.
02:15
once you start to think about it -- the suffering, the loss --
32
135000
3000
Tegyük föl, hogy egy személy megfelel egy könyvnek.
02:18
it's also, economically, enormously wasteful.
33
138000
3000
Ezzel persze alulértékeljük a személyt,
02:21
I just look at the information, and knowledge, and experience
34
141000
3000
hiszen az élete során megszerzett tudás és tapasztalat sokkal többet ér,
02:24
that is lost due to natural causes of death in general,
35
144000
3000
mint amennyi egy könyvbe beleférhetne.
02:27
and aging, in particular.
36
147000
2000
De azért tételezzük föl.
02:29
Suppose we approximated one person with one book?
37
149000
3000
Évente 52 milliónyian halnak meg természetes okok miatt.
02:32
Now, of course, this is an underestimation.
38
152000
2000
02:34
A person's lifetime of learning and experience
39
154000
6000
ez 52 millió kötetnek felel meg.
02:40
is a lot more than you could put into a single book.
40
160000
2000
A Kongresszusi Könyvtár 18 millió kötetes.
02:42
But let's suppose we did this.
41
162000
2000
Föl vagyunk dúlva amiatt, hogy leégett az alexandriai könyvtár.
02:45
52 million people die of natural causes each year
42
165000
5000
Ez egyike a nagy kulturális tragédiáknak,
amire még ma is emlékszünk.
02:50
corresponds, then, to 52 million volumes destroyed.
43
170000
4000
De az 3 leégett, örökre elveszett
02:54
Library of Congress holds 18 million volumes.
44
174000
3000
Kongresszusi Könyvtárral ér föl – évente.
02:58
We are upset about the burning of the Library of Alexandria.
45
178000
3000
Ez lenne az első óriási kérdés.
Isten vezérelje Aubrey de Greyt, sok sikert kívánok neki
03:01
It's one of the great cultural tragedies
46
181000
2000
03:03
that we remember, even today.
47
183000
3000
hogy minél előbb megoldást találjanak.
03:07
But this is the equivalent of three Libraries of Congress --
48
187000
2000
03:09
burnt down, forever lost -- each year.
49
189000
3000
A másik nagy kérdés az egzisztenciális kockázat.
03:12
So that's the first big problem.
50
192000
2000
Az egzisztenciális kockázat az emberi faj fönnmaradását fenyegeti.
03:14
And I wish Godspeed to Aubrey de Grey,
51
194000
3000
03:17
and other people like him,
52
197000
2000
03:19
to try to do something about this as soon as possible.
53
199000
3000
Miért tartom ezt nagy problémának?
Nézzük elsőként a valószínűséget,
03:23
Existential risk -- the second big problem.
54
203000
3000
noha azt nagyon nehéz felbecsülni,
03:26
Existential risk is a threat to human survival, or to the long-term potential of our species.
55
206000
7000
de erről meglepő módon csak négy tanulmány készült
az utóbbi időkben.
03:33
Now, why do I say that this is a big problem?
56
213000
2000
Gondolhatnák, hogy érdekes lenne
03:35
Well, let's first look at the probability --
57
215000
4000
jobban megismerni a témát, ha már ekkora a tét.
03:39
and this is very, very difficult to estimate --
58
219000
3000
De e témát nemigen kutatják.
03:42
but there have been only four studies on this in recent years,
59
222000
3000
A négy kutatás közül az egyik
John Lesley-é, aki könyvet írt róla.
03:45
which is surprising.
60
225000
2000
Annak valószínűségét, hogy nem éljük túl
03:47
You would think that it would be of some interest
61
227000
3000
a 21. századot, 50%-ra becsülte.
03:50
to try to find out more about this given that the stakes are so big,
62
230000
4000
A tegnap hallott királyi csillagász is
03:54
but it's a very neglected area.
63
234000
2000
03:56
But there have been four studies --
64
236000
2000
50%-ot jelölt meg.
03:58
one by John Lesley, wrote a book on this.
65
238000
2000
Egy másik szerző ugyan nem számszerűsíti,
04:00
He estimated a probability that we will fail
66
240000
2000
04:02
to survive the current century: 50 percent.
67
242000
3000
de szerinte a valószínűség szignifikánsan a "nem éljük túl".
04:05
Similarly, the Astronomer Royal, whom we heard speak yesterday,
68
245000
5000
Hosszú cikkemben azt írtam erről,
hogy 20%-nál kisebb valószínűséget tulajdonítani neki hiba lenne
04:10
also has a 50 percent probability estimate.
69
250000
3000
a rendelkezésünkre álló bizonyítékok fényében.
04:13
Another author doesn't give any numerical estimate,
70
253000
3000
A pontos számok rendelkezésre állnak,
04:16
but says the probability is significant that it will fail.
71
256000
3000
ám óvatosan kell értékelnünk őket;
04:19
I wrote a long paper on this.
72
259000
3000
bár abban megegyezhetünk, hogy a kockázat jelentős.
04:22
I said assigning a less than 20 percent probability would be a mistake
73
262000
4000
Aki e munkákat ismeri, mind egyetért vele.
Ha arra gondolunk, mi csökkenti
04:26
in light of the current evidence we have.
74
266000
3000
az emberiség kihalásának esélyét nem sokkal, csupán 1 százalékponttal,
04:29
Now, the exact figures here,
75
269000
2000
04:31
we should take with a big grain of salt,
76
271000
2000
ez egyenlő 60 millió megmentett emberi élettel,
04:33
but there seems to be a consensus that the risk is substantial.
77
273000
3000
04:36
Everybody who has looked at this and studied it agrees.
78
276000
3000
ha csak a mai nemzedéket, a jelenleg élőket vesszük számításba.
04:39
Now, if we think about what just reducing
79
279000
2000
04:41
the probability of human extinction by just one percentage point --
80
281000
5000
A 6 milliárd 1%-a 60 millió.
Ez óriási szám.
04:46
not very much -- so that's equivalent to 60 million lives saved,
81
286000
5000
Ha a jövendő nemzedékeket is tekintjük,
amelyek sohasem születnek meg, ha elpusztítjuk magunkat,
04:51
if we just count the currently living people, the current generation.
82
291000
4000
04:55
Now one percent of six billion people is equivalent to 60 million.
83
295000
4000
rögtön csillagászati számot kapunk.
Ha végül gyarmatosítjuk az univerzum jó részét,
04:59
So that's a large number.
84
299000
2000
05:01
If we were to take into account future generations
85
301000
3000
pl. a Szűz csillagképet,
lehet, hogy 100 millió év alatt érünk oda,
05:04
that will never come into existence if we blow ourselves up,
86
304000
5000
de ha kihalunk, tényleg soha nem érünk oda.
A kihalási kockázat csökkenésének 1%-a
05:09
then the figure becomes astronomical.
87
309000
3000
egyenlő lehet
05:12
If we could eventually colonize a chunk of the universe --
88
312000
3000
05:15
the Virgo supercluster --
89
315000
2000
ezzel a csillagászati számmal: 10³².
05:17
maybe it will take us 100 million years to get there,
90
317000
2000
Ha a jövő nemzedékeit is figyelembe vesszük, mint a miénket,
05:19
but if we go extinct we never will.
91
319000
3000
05:22
Then, even a one percentage point reduction
92
322000
3000
akkor minden más emberbaráti erkölcsi kényszerítő erő semmissé válik.
05:25
in the extinction risk could be equivalent
93
325000
4000
Akkor csakis
05:29
to this astronomical number -- 10 to the power of 32.
94
329000
3000
az egzisztenciális kockázat csökkentésével kell törődnünk,
mert szemernyi csökkenés is
05:32
So if you take into account future generations as much as our own,
95
332000
4000
ellensúlyozza az összes többi remélt előnyt.
05:36
every other moral imperative of philanthropic cost just becomes irrelevant.
96
336000
5000
A jelenlegi emberiség láttán
05:41
The only thing you should focus on
97
341000
2000
és figyelmen kívül hagyva az elvesző lehetőségeket, ha kihalnánk,
05:43
would be to reduce existential risk
98
343000
2000
05:45
because even the tiniest decrease in existential risk
99
345000
4000
nem vitás, melyiket válasszuk.
A maradék időt a harmadik nagy gondra fordítom,
05:49
would just overwhelm any other benefit you could hope to achieve.
100
349000
4000
05:53
And even if you just look at the current people,
101
353000
2000
mert az kényesebb, szövevényesebb és nehezebben megfogható.
05:55
and ignore the potential that would be lost if we went extinct,
102
355000
5000
Gondoljanak életük olyan időszakára,
06:00
it should still have a high priority.
103
360000
2000
06:02
Now, let me spend the rest of my time on the third big problem,
104
362000
5000
– egyesek talán soha nem éreztek ilyet, de mások igen –,
amikor rövid időre úgy érezték,
06:07
because it's more subtle and perhaps difficult to grasp.
105
367000
5000
hogy az élet nagyszerű.
Lehet, hogy ez valami nagy alkotói ihlet állapotában fordult elő,
06:13
Think about some time in your life --
106
373000
4000
06:17
some people might never have experienced it -- but some people,
107
377000
3000
amikor belecsöppentek a flow-élmény állapotába.
06:20
there are just those moments that you have experienced
108
380000
3000
Vagy amikor hirtelen megértettek valamit.
Vagy a romantikus szerelem mámorában.
06:23
where life was fantastic.
109
383000
2000
06:25
It might have been at the moment of some great, creative inspiration
110
385000
7000
Vagy esztétikai élmény idején: naplemente vagy nagyszerű műalkotás láttán.
E pillanatokban rádöbbenünk,
06:32
you might have had when you just entered this flow stage.
111
392000
2000
hogy milyen nagyszerű az élet a maga pompájában.
06:34
Or when you understood something you had never done before.
112
394000
2000
06:36
Or perhaps in the ecstasy of romantic love.
113
396000
4000
Azon tűnődünk, miért nincs ez így mindig.
06:40
Or an aesthetic experience -- a sunset or a great piece of art.
114
400000
5000
Foggal-körömmel kapaszkodnánk belé.
Aztán persze, minden visszacsúszik a megszokottba, és az álomkép elillan.
06:45
Every once in a while we have these moments,
115
405000
2000
06:47
and we realize just how good life can be when it's at its best.
116
407000
4000
Normál lelkiállapotban tényleg nehéz fölidézni,
06:51
And you wonder, why can't it be like that all the time?
117
411000
5000
hogy milyen nagyszerű az élet a maga pompájában.
Vagy milyen szörnyű, amikor csapás csapást ér.
06:56
You just want to cling onto this.
118
416000
2000
06:58
And then, of course, it drifts back into ordinary life and the memory fades.
119
418000
4000
A harmadik nagy gond, hogy az élet nem oly csodás,
mint amilyen lehetne.
07:02
And it's really difficult to recall, in a normal frame of mind,
120
422000
4000
Ezt nagy gondnak tartom.
07:06
just how good life can be at its best.
121
426000
3000
Könnyű elmondani, mit nem akarunk.
07:09
Or how bad it can be at its worst.
122
429000
3000
Van egy pár nemszeretem dolog:
07:12
The third big problem is that life isn't usually
123
432000
3000
betegség, váratlan haláleset, fölös szenvedés, bántalmazás,
07:15
as wonderful as it could be.
124
435000
2000
fejlődési hiba, emlékezetvesztés, tudatlanság, kreativitáshiány.
07:17
I think that's a big, big problem.
125
437000
4000
07:21
It's easy to say what we don't want.
126
441000
2000
Tegyük föl, hogy ezeket megoldottuk, valamit kezdtünk mindegyikkel.
07:24
Here are a number of things that we don't want --
127
444000
3000
Sikeresek voltunk.
07:27
illness, involuntary death, unnecessary suffering, cruelty,
128
447000
3000
Megszabadultunk ezektől.
Valami ilyesmit tehettünk volna.
07:30
stunted growth, memory loss, ignorance, absence of creativity.
129
450000
5000
Sokkal jobb a helyzet, mint korábban,
07:36
Suppose we fixed these things -- we did something about all of these.
130
456000
3000
de tényleg ez a legjobb, az, amiről álmodoztunk?
07:39
We were very successful.
131
459000
2000
07:41
We got rid of all of these things.
132
461000
2000
Ennyit tudunk csak elérni?
07:43
We might end up with something like this,
133
463000
3000
Vagy van valami lelkesítőbb, amire törekedhetnénk?
07:46
which is -- I mean, it's a heck of a lot better than that.
134
466000
4000
Ha belegondolunk,
07:50
But is this really the best we can dream of?
135
470000
5000
igenis vannak módszereink, amikkel változtathatunk a helyzeten;
07:55
Is this the best we can do?
136
475000
2000
nemcsak a negatívumok eltörlésével,
07:57
Or is it possible to find something a little bit more inspiring to work towards?
137
477000
6000
hanem pozitívumok hozzáadásával is.
A szűk kívánságlistámon ez áll:
sokkal hosszabb és egészségesebb élet, több boldogság, nagyobb jólét,
08:03
And if we think about this,
138
483000
2000
08:05
I think it's very clear that there are ways
139
485000
4000
a kognitív képességek bővítése, több tudás és megértés,
08:09
in which we could change things, not just by eliminating negatives,
140
489000
3000
08:12
but adding positives.
141
492000
2000
biológiai adottságainkon túli korlátlan lehetőségek
08:14
On my wish list, at least, would be:
142
494000
2000
a személyiségfejlődésben, jobb emberi kapcsolatok,
08:16
much longer, healthier lives, greater subjective well-being,
143
496000
5000
korlátlan lehetőségek a szellemi,
erkölcsi és értelmi fejlődésre.
08:21
enhanced cognitive capacities, more knowledge and understanding,
144
501000
5000
Ennek eléréséhez mit kell változtatnunk a világon?
08:26
unlimited opportunity for personal growth
145
506000
2000
08:28
beyond our current biological limits, better relationships,
146
508000
4000
A válasz a következő: magunkon kell változtatnunk.
08:32
an unbounded potential for spiritual, moral
147
512000
2000
08:34
and intellectual development.
148
514000
2000
Nem pusztán a világon, hanem saját magunkon.
08:36
If we want to achieve this, what, in the world, would have to change?
149
516000
8000
Nemcsak világfölfogásunkon, hanem magunkon, önnön biológiánkon.
Az emberi természetnek kell megváltoznia.
08:44
And this is the answer -- we would have to change.
150
524000
5000
Amikor az emberi természet módosításáról van szó,
elsőként
az ember megváltoztatásának technikája jut eszünkbe:
08:49
Not just the world around us, but we, ourselves.
151
529000
3000
08:52
Not just the way we think about the world, but the way we are -- our very biology.
152
532000
4000
a növekedéshormon-terápia, plasztikai sebészet,
serkentőszerek, antidepresszánsok,
08:56
Human nature would have to change.
153
536000
2000
anabolikus szteroidok, műszívek.
08:58
Now, when we think about changing human nature,
154
538000
2000
Eléggé szánalmas lista.
09:00
the first thing that comes to mind
155
540000
2000
09:02
are these human modification technologies --
156
542000
4000
Segítenek egy adott embercsoporton,
amely egy bizonyos helyzettől szenved.
09:06
growth hormone therapy, cosmetic surgery,
157
546000
2000
De a legtöbbjüknek nem változtatnak azon,
09:08
stimulants like Ritalin, Adderall, anti-depressants,
158
548000
3000
09:11
anabolic steroids, artificial hearts.
159
551000
2000
mit jelent embernek lenni.
09:13
It's a pretty pathetic list.
160
553000
3000
Ők mind egy kissé...
A legtöbben ösztönösen úgy érzik,
09:16
They do great things for a few people
161
556000
2000
09:18
who suffer from some specific condition,
162
558000
2000
hogy a leverteknek kellenek az antidepresszánsok.
09:20
but for most people, they don't really transform
163
560000
5000
De úgy érezzük, hogy van ebben
valami természetellenes.
09:25
what it is to be human.
164
565000
2000
Ne feledjük, hogy sok más módosító
09:27
And they also all seem a little bit --
165
567000
2000
és tökéletesítő technológia is létezik; használjuk is őket.
09:29
most people have this instinct that, well, sure,
166
569000
3000
Pl. a bőrjavító: ez a ruházat.
09:32
there needs to be anti-depressants for the really depressed people.
167
572000
2000
09:34
But there's a kind of queasiness
168
574000
2000
Ha nem tévedek, a teremben ülők közül
09:36
that these are unnatural in some way.
169
576000
3000
mindenki használja e technológiát; tehát a dolog bevált.
09:39
It's worth recalling that there are a lot of other
170
579000
2000
09:41
modification technologies and enhancement technologies that we use.
171
581000
3000
Időtlen idők óta használjuk a hangulatjavítókat:
09:44
We have skin enhancements, clothing.
172
584000
4000
koffeint, szeszt, nikotint, immunrendszer-erősítőket,
09:48
As far as I can see, all of you are users of this
173
588000
4000
látásjavítókat, érzéstelenítőket.
09:52
enhancement technology in this room, so that's a great thing.
174
592000
5000
Maguktól értetődőnek vesszük őket,
de gondoljanak arra, hogy ez micsoda haladás,
09:57
Mood modifiers have been used from time immemorial --
175
597000
3000
hiszen az érzéstelenítés nélküli műtét nem volt leányálom.
10:00
caffeine, alcohol, nicotine, immune system enhancement,
176
600000
5000
Fogamzásgátlók, kozmetikumok és az agy átprogramozása...
10:05
vision enhancement, anesthetics --
177
605000
2000
10:07
we take that very much for granted,
178
607000
2000
10:09
but just think about how great progress that is --
179
609000
4000
ez baljóslatúan hangzik,
de hajszálnyi a különbség a technológia,
10:13
like, having an operation before anesthetics was not fun.
180
613000
4000
a prototípus
10:17
Contraceptives, cosmetics and brain reprogramming techniques --
181
617000
6000
és az emberi természet átírása között.
Ha a számolás vagy az olvasás megtanulására gondolnak,
10:23
that sounds ominous,
182
623000
2000
10:25
but the distinction between what is a technology --
183
625000
4000
voltaképpen átírják az agyukat.
Eközben módosítják agyuk mikroszerkezetét.
10:29
a gadget would be the archetype --
184
629000
2000
10:31
and other ways of changing and rewriting human nature is quite subtle.
185
631000
4000
Szélesebb értelemben a technológiára
10:35
So if you think about what it means to learn arithmetic or to learn to read,
186
635000
4000
nem csak mint kütyükre kell gondolnunk,
hanem mint intézményekre, technikára,
10:39
you're actually, literally rewriting your own brain.
187
639000
3000
pszichológiai módszerekre stb. is.
10:42
You're changing the microstructure of your brain as you go along.
188
642000
3000
A szervezeti formáknak döntő hatásuk lehet az emberi természetre.
10:46
So in a broad sense, we don't need to think about technology
189
646000
3000
A jövőt tekintve, számos technológiát
10:49
as only little gadgets, like these things here,
190
649000
2000
előbb-utóbb biztosan kifejlesztenek.
10:51
but even institutions and techniques,
191
651000
4000
Nem ismerjük a megvalósulásuk idejét,
10:55
psychological methods and so forth.
192
655000
2000
10:57
Forms of organization can have a profound impact on human nature.
193
657000
5000
de mind igazodnak az általunk ismert
fizikai, kémiai stb. törvényszerűségekhez.
11:02
Looking ahead, there is a range of technologies
194
662000
2000
Okkal föltételezhetjük –
11:04
that are almost certain to be developed sooner or later.
195
664000
3000
kizárva a katasztrófa lehetőségét –,
11:07
We are very ignorant about what the time scale for these things are,
196
667000
4000
hogy előbb-utóbb kifejlesztjük őket.
11:11
but they all are consistent with everything we know
197
671000
2000
S csupán egynéhányuk elég lesz
11:13
about physical laws, laws of chemistry, etc.
198
673000
4000
az ember megváltoztatásához.
Nézzük az emberi természet néhány vonását,
11:17
It's possible to assume,
199
677000
2000
11:19
setting aside a possibility of catastrophe,
200
679000
3000
amelyeken javíthatunk.
11:22
that sooner or later we will develop all of these.
201
682000
3000
Az egészséges életszakasz nagy és sürgős ügy,
11:25
And even just a couple of these would be enough
202
685000
3000
mert ha nem vagyunk életben,
11:28
to transform the human condition.
203
688000
2000
akkor minden mással nem sokra megyünk.
11:30
So let's look at some of the dimensions of human nature
204
690000
5000
Az értelmi képesség
több részből tevődik össze: emlékezőképesség,
11:35
that seem to leave room for improvement.
205
695000
3000
11:38
Health span is a big and urgent thing,
206
698000
2000
összpontosítás, szellemi energia, intelligencia, beleérzés.
11:40
because if you're not alive,
207
700000
2000
Kétségtelenül fontos dolgok.
11:42
then all the other things will be to little avail.
208
702000
3000
Részben azért értékeljük e jellemvonásokat,
11:45
Intellectual capacity -- let's take that box,
209
705000
2000
mert versenyképesebbé válunk tőlük:
11:47
which falls into a lot of different sub-categories:
210
707000
5000
ezek pozicionáló árucikkek.
Másrészt, és ez az etikai alapja,
11:52
memory, concentration, mental energy, intelligence, empathy.
211
712000
3000
amiért e jellemvonásokra törekszünk,
11:55
These are really great things.
212
715000
2000
11:57
Part of the reason why we value these traits
213
717000
2000
hogy valódi értéket képviselnek.
11:59
is that they make us better at competing with other people --
214
719000
4000
Milyen jó mind többet érteni a köröttünk lévő világból,
12:03
they're positional goods.
215
723000
2000
a velünk kapcsolatban álló emberekből
12:05
But part of the reason --
216
725000
2000
és emlékezni a megszerzett tudásunkra!
12:07
and that's the reason why we have ethical ground for pursuing these --
217
727000
4000
Körülmények és különleges készségek.
12:11
is that they're also intrinsically valuable.
218
731000
3000
Elménk nem egyszerűen információ-földolgozó gép,
12:14
It's just better to be able to understand more of the world around you
219
734000
4000
hanem rengeteg különleges, fejlett,
12:18
and the people that you are communicating with,
220
738000
2000
12:20
and to remember what you have learned.
221
740000
4000
meghatározott rendeltetésű egysége van.
Gondoljunk csak azokra, amelyek értelmet adnak életünknek:
12:24
Modalities and special faculties.
222
744000
2000
12:26
Now, the human mind is not a single unitary information processor,
223
746000
5000
zene, humor, erotika, szellemiség, esztétika,
12:31
but it has a lot of different, special, evolved modules
224
751000
4000
nevelés és gondoskodás, pletyka, fecsegés...
12:35
that do specific things for us.
225
755000
2000
ezeket valószínűleg olyan különleges áramkörök teszik lehetővé,
12:37
If you think about what we normally take as giving life a lot of its meaning --
226
757000
4000
amelyek megvannak bennünk.
12:41
music, humor, eroticism, spirituality, aesthetics,
227
761000
4000
De nélkülük is lehet intelligens életmódunk.
12:45
nurturing and caring, gossip, chatting with people --
228
765000
5000
Szerencsések vagyunk, hogy megvan a kellő idegi fölépítésünk
hogy földolgozhassuk, értékelhessük és élvezhessük a zenét.
12:50
all of these, very likely, are enabled by a special circuitry
229
770000
4000
Ez tesz bennünket képessé a továbbfejlődésre.
12:54
that we humans have,
230
774000
2000
Van, akinek jobbak a zenei képességei,
12:56
but that you could have another intelligent life form that lacks these.
231
776000
3000
és másoknál jobban élvezik a zenét.
12:59
We're just lucky that we have the requisite neural machinery
232
779000
3000
Érdekes eltöprengeni rajta, mik lehetnek az egyéb dolgok...
13:02
to process music and to appreciate it and enjoy it.
233
782000
4000
Ha azok nagy jelentőségűek,
13:06
All of these would enable, in principle -- be amenable to enhancement.
234
786000
3000
miért higgyük, hogy az evolúció megadott nekünk
13:09
Some people have a better musical ability
235
789000
2000
az esetleges egyéb értékek megszerzéséhez kellő
13:11
and ability to appreciate music than others have.
236
791000
2000
minden feltételt?
13:13
It's also interesting to think about what other things are --
237
793000
3000
Képzeljünk el egy fajt, amely híján van
13:16
so if these all enabled great values,
238
796000
3000
a zene élvezetére szolgáló idegi berendezésnek.
13:20
why should we think that evolution has happened to provide us
239
800000
3000
Értetlenül bámulnának, hogy mi jó lehet
13:23
with all the modalities we would need to engage
240
803000
3000
az általunk hallgatott gyönyörű zeneszámban, meg abban,
13:26
with other values that there might be?
241
806000
2000
hogy ott a zenészek hülyén hadonásznak.
13:28
Imagine a species
242
808000
2000
Idegesítené őket, és nem értenék, mire ez a nagy felhajtás.
13:30
that just didn't have this neural machinery for processing music.
243
810000
4000
De meglehet, hogy más képességük
13:34
And they would just stare at us with bafflement
244
814000
3000
nekünk ugyanolyan észszerűtlen lenne,
13:37
when we spend time listening to a beautiful performance,
245
817000
4000
ám az ő szemükben értéket képviselne.
13:41
like the one we just heard -- because of people making stupid movements,
246
821000
2000
De a szó szoros értelmében süketek lennénk azokra az értékekre.
13:43
and they would be really irritated and wouldn't see what we were up to.
247
823000
3000
Más, új érzékszervi képességek
13:46
But maybe they have another faculty, something else
248
826000
3000
és mentális képességek hozzáadására gondolhatunk,
13:49
that would seem equally irrational to us,
249
829000
3000
testi funkciókra és formákra, és érzelmi önkontrollra,
13:52
but they actually tap into some great possible value there.
250
832000
3000
13:55
But we are just literally deaf to that kind of value.
251
835000
4000
szubjektíve nagyobb jólétre.
Legyünk képesek váltani a pihenés és a tevékenység között,
13:59
So we could think of adding on different,
252
839000
2000
14:01
new sensory capacities and mental faculties.
253
841000
4000
legyük képesek lassítani vagy gyorsítani; mikor mire van szükség.
14:05
Bodily functionality and morphology and affective self-control.
254
845000
5000
A könnyebb átállás képessége
elősegítené
a flow állapotba jutást,
14:10
Greater subjective well-being.
255
850000
2000
amikor teljesen elmerülünk a teendőnkben.
14:12
Be able to switch between relaxation and activity --
256
852000
3000
14:15
being able to go slow when you need to do that, and to speed up.
257
855000
4000
Lelkiismeretesség és részvét.
Képesség... ez is érdekes alkalmazás,
14:19
Able to switch back and forth more easily
258
859000
2000
amelynek fontos társadalmi következményei lehetnek,
14:21
would be a neat thing to be able to do --
259
861000
2000
14:23
easier to achieve the flow state,
260
863000
2000
ha azonos hőfokon meg akarjuk őrizni
14:25
when you're totally immersed in something you are doing.
261
865000
4000
valakihez fűződő romantikus kapcsolatunkat.
14:29
Conscientiousness and sympathy.
262
869000
2000
14:31
The ability to -- it's another interesting application
263
871000
3000
A szerelem soha nem csillapulna, hacsak nem akarnánk.
14:34
that would have large social ramification, perhaps.
264
874000
3000
Ez bizonyára nem nehéz.
14:37
If you could actually choose to preserve your romantic attachments to one person,
265
877000
6000
Lehet, hogy egyszerű hormonnal vagy ilyesfélével ez elérhető.
14:43
undiminished through time,
266
883000
2000
14:45
so that wouldn't have to -- love would never have to fade if you didn't want it to.
267
885000
3000
A mezei pockokkal már megcsinálták.
A mezei pockok kezelés hatására monogámmá váltak,
14:50
That's probably not all that difficult.
268
890000
3000
noha természetüknél fogva poligámok.
14:53
It might just be a simple hormone or something that could do this.
269
893000
3000
Egyszerű génről van szó.
Esetleg velünk bonyolultabb lesz, de talán nem nagyon.
Ez az utolsó kép,
14:58
It's been done in voles.
270
898000
2000
a lézermutatót kell hozzá használnom.
15:02
You can engineer a prairie vole to become monogamous
271
902000
3000
Egy lehetséges életforma lehet
15:05
when it's naturally polygamous.
272
905000
2000
a létezés, a tapasztalás, a gondolkodás,
15:07
It's just a single gene.
273
907000
2000
15:09
Might be more complicated in humans, but perhaps not that much.
274
909000
2000
a látás és a világgal való kapcsolat.
15:11
This is the last picture that I want to --
275
911000
2000
Az alsó sarokban van egy kis terület,
15:14
now we've got to use the laser pointer.
276
914000
2000
15:17
A possible mode of being here would be a way of life --
277
917000
3000
amely az emberiségnek,
15:20
a way of being, experiencing, thinking, seeing,
278
920000
4000
azaz a mi biológiai adottságunknak elérhető.
15:24
interacting with the world.
279
924000
2000
Ez az állatoknak elérhető térség egy része,
15:26
Down here in this little corner, here, we have the little sub-space
280
926000
5000
mivel az állatok részhalmaza vagyunk.
Képzeljék el az emberi készségek tökéletesítését.
15:31
of this larger space that is accessible to human beings --
281
931000
4000
A létezés különféle formáit tapasztalhatjuk meg,
15:35
beings with our biological capacities.
282
935000
3000
ha képesek leszünk, mondjuk, 200 évig életben maradni.
15:38
It's a part of the space that's accessible to animals;
283
938000
3000
Akkor más-más életeket élhetünk meg, s annyi bölcsességet gyűjthetünk be,
15:41
since we are animals, we are a subset of that.
284
941000
3000
15:44
And then you can imagine some enhancements of human capacities.
285
944000
4000
amennyi a mai embernek nem áll módjában.
Akkor eljuthatnánk az "Ember+" térfelére,
15:48
There would be different modes of being you could experience
286
948000
3000
15:51
if you were able to stay alive for, say, 200 years.
287
951000
3000
folytathatnánk a folyamatot,
15:54
Then you could live sorts of lives and accumulate wisdoms
288
954000
4000
s végül bővebb létformákat fedezhetnénk föl.
15:58
that are just not possible for humans as we currently are.
289
958000
3000
Mi ebben a jó?
Már tudjuk, hogy ebben a kis emberi körben találhatók
16:01
So then, you move off to this larger sphere of "human +,"
290
961000
4000
a lét csodálatos formái, amelyek megérik a fáradságot:
16:05
and you could continue that process and eventually
291
965000
3000
16:08
explore a lot of this larger space of possible modes of being.
292
968000
4000
az emberi élet csodálatos a maga pompájában.
Miért hinnénk, hogy abban a sokkal nagyobb térben
16:12
Now, why is that a good thing to do?
293
972000
2000
16:14
Well, we know already that in this little human circle there,
294
974000
4000
nem lesznek különlegesen figyelemre méltó létformák,
16:18
there are these enormously wonderful and worthwhile modes of being --
295
978000
4000
talán olyanok, amelyek túl vannak
16:22
human life at its best is wonderful.
296
982000
3000
16:25
We have no reason to believe that within this much, much larger space
297
985000
5000
legvadabb elképzelésünkön vagy ábrándunkon.
A harmadik probléma megoldásához
16:30
there would not also be extremely worthwhile modes of being,
298
990000
4000
lassan, óvatosan, etikus bölcsességgel és visszafogottsággal
16:34
perhaps ones that would be way beyond our wildest ability
299
994000
6000
fejlesztenünk kell a tágabb térbe kijutást lehetővé tevő eszközöket,
16:40
even to imagine or dream about.
300
1000000
2000
s rá kell lelnünk az ott megbúvó értékekre.
16:42
And so, to fix this third problem,
301
1002000
2000
16:44
I think we need -- slowly, carefully, with ethical wisdom and constraint --
302
1004000
6000
Köszönöm.
16:50
develop the means that enable us to go out in this larger space and explore it
303
1010000
5000
16:55
and find the great values that might hide there.
304
1015000
2000
16:57
Thanks.
305
1017000
2000
Erről a weboldalról

Ez az oldal olyan YouTube-videókat mutat be, amelyek hasznosak az angol nyelvtanuláshoz. A világ minden tájáról származó, kiváló tanárok által tartott angol leckéket láthatsz. Az egyes videók oldalán megjelenő angol feliratokra duplán kattintva onnan játszhatja le a videót. A feliratok a videó lejátszásával szinkronban gördülnek. Ha bármilyen észrevétele vagy kérése van, kérjük, lépjen kapcsolatba velünk ezen a kapcsolatfelvételi űrlapon.

https://forms.gle/WvT1wiN1qDtmnspy7