Nick Bostrom: Humanity's biggest problems aren't what you think they are

111,909 views ・ 2007-05-16

TED


Proszę kliknąć dwukrotnie na poniższe angielskie napisy, aby odtworzyć film.

Tłumaczenie: Bartlomiej Chomanski Korekta: Krystian Aparta
00:25
I want to talk today about --
0
25000
3000
Opowiem dzisiaj o trzech największych,
00:28
I've been asked to take the long view, and I'm going to tell you what
1
28000
6000
w moim mniemaniu, problemach ludzkości,
00:34
I think are the three biggest problems for humanity
2
34000
4000
w długoterminowej perspektywie,
00:38
from this long point of view.
3
38000
3000
o której przyjęcie mnie tu poproszono.
00:41
Some of these have already been touched upon by other speakers,
4
41000
3000
Część z nich poruszali inni prelegenci,
00:44
which is encouraging.
5
44000
2000
co nastraja zachęcająco,
00:46
It seems that there's not just one person
6
46000
2000
bo nie tylko ja uważam te problemy za istotne.
00:48
who thinks that these problems are important.
7
48000
2000
bo nie tylko ja uważam te problemy za istotne.
00:50
The first is -- death is a big problem.
8
50000
4000
Pierwszym z nich jest śmierć - to duży problem.
00:54
If you look at the statistics,
9
54000
3000
Jeśli spojrzeć na statystyki,
00:57
the odds are not very favorable to us.
10
57000
2000
jesteśmy na straconej pozycji.
00:59
So far, most people who have lived have also died.
11
59000
4000
Jak dotąd, większość tych, którzy żyli - umiera.
01:03
Roughly 90 percent of everybody who has been alive has died by now.
12
63000
4000
Zmarło 90% kiedykolwiek żyjących ludzi.
01:07
So the annual death rate adds up to 150,000 --
13
67000
6000
Zatem roczna śmiertelność wynosi około 150 tysięcy,
01:13
sorry, the daily death rate -- 150,000 people per day,
14
73000
3000
nie, przepraszam, to dzienna śmiertelność.
01:16
which is a huge number by any standard.
15
76000
3000
Jakby nie liczyć, to ogromna liczba.
01:19
The annual death rate, then, becomes 56 million.
16
79000
5000
Roczna śmiertelność w skali globalnej to 56 milionów.
01:24
If we just look at the single, biggest cause of death -- aging --
17
84000
5000
Najczęstsza przyczyna śmierci, starzenie się,
01:30
it accounts for roughly two-thirds of all human people who die.
18
90000
5000
odpowiada za około 2/3 wszystkich zgonów,
01:35
That adds up to an annual death toll
19
95000
3000
co w skali roku wynosi więcej
01:38
of greater than the population of Canada.
20
98000
2000
niż ilość mieszkańców Kanady.
01:40
Sometimes, we don't see a problem
21
100000
2000
Czasem nie widać problemu,
01:42
because either it's too familiar or it's too big.
22
102000
4000
bo jest zbyt powszechny, dobrze znany
01:46
Can't see it because it's too big.
23
106000
2000
albo zbyt wielki.
01:48
I think death might be both too familiar and too big
24
108000
3000
Myślę, że śmierć jest zbyt powszechna,
01:51
for most people to see it as a problem.
25
111000
3000
by większość z nas widziała w niej problem.
01:54
Once you think about it, you see this is not statistical points;
26
114000
2000
Ale kiedy o niej myślimy,
01:56
these are -- let's see, how far have I talked?
27
116000
2000
przestaje być statystyką.
01:58
I've talked for three minutes.
28
118000
3000
Mówię już od trzech minut,
02:01
So that would be, roughly, 324 people have died since I've begun speaking.
29
121000
7000
a zatem od początku wykładu zmarło ok. 324 ludzi,
02:08
People like -- it's roughly the population in this room has just died.
30
128000
4000
czyli mniej więcej tyle, ile jest w tej sali.
02:13
Now, the human cost of that is obvious,
31
133000
2000
Koszty śmierci są wielkie.
02:15
once you start to think about it -- the suffering, the loss --
32
135000
3000
Proszę pomyśleć - cierpienie, strata bliskich
02:18
it's also, economically, enormously wasteful.
33
138000
3000
i ogromne marnotrawstwo w sensie ekonomicznym.
02:21
I just look at the information, and knowledge, and experience
34
141000
3000
Tracimy tyle informacji, wiedzy i doświadczenia
02:24
that is lost due to natural causes of death in general,
35
144000
3000
w wyniku śmierci z przyczyn naturalnych,
02:27
and aging, in particular.
36
147000
2000
głównie śmierci ze starości.
02:29
Suppose we approximated one person with one book?
37
149000
3000
Przyrównajmy jedną osobę do jednej książki.
02:32
Now, of course, this is an underestimation.
38
152000
2000
To uproszczenie,
02:34
A person's lifetime of learning and experience
39
154000
6000
bo doświadczenie i wiedza zbierane przez całe życie
02:40
is a lot more than you could put into a single book.
40
160000
2000
przerastają objętość książki.
02:42
But let's suppose we did this.
41
162000
2000
Ale załóżmy, człowiek=książka.
02:45
52 million people die of natural causes each year
42
165000
5000
Corocznie z przyczyn naturalnych umiera 25 mln osób,
02:50
corresponds, then, to 52 million volumes destroyed.
43
170000
4000
co odpowiadałoby utracie 52 milionów książek.
02:54
Library of Congress holds 18 million volumes.
44
174000
3000
Biblioteka Kongresu mieści 18 milionów.
02:58
We are upset about the burning of the Library of Alexandria.
45
178000
3000
Wzburza nas spalenie Biblioteki Aleksandryjskiej.
03:01
It's one of the great cultural tragedies
46
181000
2000
To jedna z tragedii kultury,
03:03
that we remember, even today.
47
183000
3000
które do dziś wspominamy.
03:07
But this is the equivalent of three Libraries of Congress --
48
187000
2000
Ale tu tracimy corocznie
03:09
burnt down, forever lost -- each year.
49
189000
3000
zawartość trzech bibliotek Kongresu.
03:12
So that's the first big problem.
50
192000
2000
To pierwszy wielki problem.
03:14
And I wish Godspeed to Aubrey de Grey,
51
194000
3000
I życzę pomyślności Aubrey'owi de Grey
03:17
and other people like him,
52
197000
2000
i innym jemu podobnym.
03:19
to try to do something about this as soon as possible.
53
199000
3000
Niech jak najszybciej coś z tym zrobią.
03:23
Existential risk -- the second big problem.
54
203000
3000
Drugi problem to zagrożenie egzystencji.
03:26
Existential risk is a threat to human survival, or to the long-term potential of our species.
55
206000
7000
Zagrożenie przetrwania lub przyszłego rozwoju gatunku.
03:33
Now, why do I say that this is a big problem?
56
213000
2000
Czy to wielki problem?
03:35
Well, let's first look at the probability --
57
215000
4000
Spójrzmy najpierw na jego prawdopodobieństwo,
03:39
and this is very, very difficult to estimate --
58
219000
3000
które trudno oszacować, ale co zaskakujące,
03:42
but there have been only four studies on this in recent years,
59
222000
3000
istnieją tylko 4 nowe opracowania naukowe
03:45
which is surprising.
60
225000
2000
tego tematu.
03:47
You would think that it would be of some interest
61
227000
3000
To dziwne, że badania tego problemu
03:50
to try to find out more about this given that the stakes are so big,
62
230000
4000
cieszą się tak nikłym zainteresowaniem, zważywszy na to,
03:54
but it's a very neglected area.
63
234000
2000
że stawka jest ogromna.
03:56
But there have been four studies --
64
236000
2000
Są jednak 4 opracowania.
03:58
one by John Lesley, wrote a book on this.
65
238000
2000
Jedno, książka Johna Lesleya,
04:00
He estimated a probability that we will fail
66
240000
2000
szacuje prawdopodobieństwo
04:02
to survive the current century: 50 percent.
67
242000
3000
zagłady ludzkiej w obecnym stuleciu na 50%.
04:05
Similarly, the Astronomer Royal, whom we heard speak yesterday,
68
245000
5000
Królewski Astronom, którego słuchaliśmy wcześniej,
04:10
also has a 50 percent probability estimate.
69
250000
3000
ocenia to prawdopodobieństwo tak samo.
04:13
Another author doesn't give any numerical estimate,
70
253000
3000
Kolejny autor nie podaje liczb, ale twierdzi,
04:16
but says the probability is significant that it will fail.
71
256000
3000
że prawdopodobieństwo zagłady jest znaczne.
04:19
I wrote a long paper on this.
72
259000
3000
Sam napisałem o tym długi artykuł.
04:22
I said assigning a less than 20 percent probability would be a mistake
73
262000
4000
Twierdzę, że prawdopodobieństwo to przynajmniej 20%,
04:26
in light of the current evidence we have.
74
266000
3000
w świetle obecnych dowodów.
04:29
Now, the exact figures here,
75
269000
2000
Rzecz jasna, takie wyliczenia
04:31
we should take with a big grain of salt,
76
271000
2000
trzeba przyjąć z dystansem,
04:33
but there seems to be a consensus that the risk is substantial.
77
273000
3000
ale chyba zgadzamy się, że ryzyko jest znaczne.
04:36
Everybody who has looked at this and studied it agrees.
78
276000
3000
Każdy, kto się tym zajmuje, jest tego zdania.
04:39
Now, if we think about what just reducing
79
279000
2000
Pomyślcie - zmniejszenie
04:41
the probability of human extinction by just one percentage point --
80
281000
5000
tego ryzyka o zaledwie jeden punkt procentowy
04:46
not very much -- so that's equivalent to 60 million lives saved,
81
286000
5000
równałoby się ocaleniu 60 milionów istnień,
04:51
if we just count the currently living people, the current generation.
82
291000
4000
licząc tylko ludzi żyjących obecnie.
04:55
Now one percent of six billion people is equivalent to 60 million.
83
295000
4000
Jeden procent z 6 miliardów to 60 milionów.
04:59
So that's a large number.
84
299000
2000
To ogromna liczba.
05:01
If we were to take into account future generations
85
301000
3000
A biorąc pod uwagę pokolenia,
05:04
that will never come into existence if we blow ourselves up,
86
304000
5000
których nie będzie, jeśli my wysadzimy się w powietrze,
05:09
then the figure becomes astronomical.
87
309000
3000
otrzymujemy liczbę astronomiczna.
05:12
If we could eventually colonize a chunk of the universe --
88
312000
3000
Może uda się skolonizować kawałek kosmosu,
05:15
the Virgo supercluster --
89
315000
2000
Supergromadę w Pannie,
05:17
maybe it will take us 100 million years to get there,
90
317000
2000
choćby trwało to 100 mln lat,
05:19
but if we go extinct we never will.
91
319000
3000
ale jeśli wyginiemy, nigdy tego nie dokonamy.
05:22
Then, even a one percentage point reduction
92
322000
3000
Zatem tylko jednoprocentowa redukcja
05:25
in the extinction risk could be equivalent
93
325000
4000
prawdopodobieństwa naszej zagłady,
05:29
to this astronomical number -- 10 to the power of 32.
94
329000
3000
to oszałamiająca liczba, 10 do potęgi 32.
05:32
So if you take into account future generations as much as our own,
95
332000
4000
Uwzględniając także przyszłe pokolenia, widzimy,
05:36
every other moral imperative of philanthropic cost just becomes irrelevant.
96
336000
5000
że to najwyższy imperatyw moralny dotyczący kosztów ludzkich.
05:41
The only thing you should focus on
97
341000
2000
Zostaje jeden cel,
05:43
would be to reduce existential risk
98
343000
2000
bo nawet najmniejsza
05:45
because even the tiniest decrease in existential risk
99
345000
4000
redukcja prawdopodobieństwa zagłady
05:49
would just overwhelm any other benefit you could hope to achieve.
100
349000
4000
przewyższa wszystkie inne możliwe korzyści.
05:53
And even if you just look at the current people,
101
353000
2000
Nawet jeśli zapomnimy
05:55
and ignore the potential that would be lost if we went extinct,
102
355000
5000
o stracie potencjału przyszłych pokoleń, uniknięcie zagłady
06:00
it should still have a high priority.
103
360000
2000
to wciąż wysoki priorytet.
06:02
Now, let me spend the rest of my time on the third big problem,
104
362000
5000
Resztę wykładu poświęcę trzeciemu problemowi,
06:07
because it's more subtle and perhaps difficult to grasp.
105
367000
5000
bo jest bardziej subtelny i może trudniejszy do zrozumienia.
06:13
Think about some time in your life --
106
373000
4000
Przypomnijcie sobie jakąś chwilę...
06:17
some people might never have experienced it -- but some people,
107
377000
3000
Niektórzy może tego nie doświadczyli,
06:20
there are just those moments that you have experienced
108
380000
3000
ale bywają w życiu chwile, kiedy czujemy,
06:23
where life was fantastic.
109
383000
2000
że jest ono wspaniałe.
06:25
It might have been at the moment of some great, creative inspiration
110
385000
7000
Na przykład moment wielkiej twórczej inspiracji,
06:32
you might have had when you just entered this flow stage.
111
392000
2000
kiedy czuliście "flow"
06:34
Or when you understood something you had never done before.
112
394000
2000
albo nagle uzyskaliście wgląd
06:36
Or perhaps in the ecstasy of romantic love.
113
396000
4000
albo byliście w uniesieniu miłosnym.
06:40
Or an aesthetic experience -- a sunset or a great piece of art.
114
400000
5000
Może przeżycie estetyczne - zachód słońca, dzieło sztuki.
06:45
Every once in a while we have these moments,
115
405000
2000
W takich chwilach
06:47
and we realize just how good life can be when it's at its best.
116
407000
4000
czujemy, jak wspaniałe może być życie.
06:51
And you wonder, why can't it be like that all the time?
117
411000
5000
I zastanawiamy się, dlaczego nie może być tak cały czas?
06:56
You just want to cling onto this.
118
416000
2000
Chciałoby się, by ta chwila trwała.
06:58
And then, of course, it drifts back into ordinary life and the memory fades.
119
418000
4000
Potem wraca normalność i o tym zapominamy.
07:02
And it's really difficult to recall, in a normal frame of mind,
120
422000
4000
W nastroju "codzienności" trudno przypomnieć sobie,
07:06
just how good life can be at its best.
121
426000
3000
jak wspaniałe może być życie,
07:09
Or how bad it can be at its worst.
122
429000
3000
lub jak podłe, w chwilach najgorszych.
07:12
The third big problem is that life isn't usually
123
432000
3000
Trzeci problem polega na tym, że życie
07:15
as wonderful as it could be.
124
435000
2000
nie zawsze jest tak cudowne.
07:17
I think that's a big, big problem.
125
437000
4000
Uważam, że to naprawdę poważny problem.
07:21
It's easy to say what we don't want.
126
441000
2000
Wiemy, czego nie chcemy.
07:24
Here are a number of things that we don't want --
127
444000
3000
Oto kilka przykładów niechcianych spraw:
07:27
illness, involuntary death, unnecessary suffering, cruelty,
128
447000
3000
choroba, śmierć, niepotrzebne cierpienie, okrucieństwo,
07:30
stunted growth, memory loss, ignorance, absence of creativity.
129
450000
5000
ograniczenia, utrata pamięci, niewiedza, twórcza niemoc.
07:36
Suppose we fixed these things -- we did something about all of these.
130
456000
3000
A gdyby udało się to wszystko naprawić?
07:39
We were very successful.
131
459000
2000
Osiągnęlibyśmy sukces,
07:41
We got rid of all of these things.
132
461000
2000
pozbyli się tych okropieństw.
07:43
We might end up with something like this,
133
463000
3000
Możliwe, że wyszłoby nam coś takiego.
07:46
which is -- I mean, it's a heck of a lot better than that.
134
466000
4000
To oczywiście lepsze, niż to co mamy teraz,
07:50
But is this really the best we can dream of?
135
470000
5000
ale czy to naprawdę życie naszych marzeń?
07:55
Is this the best we can do?
136
475000
2000
Nie da się zrobić nic lepiej?
07:57
Or is it possible to find something a little bit more inspiring to work towards?
137
477000
6000
Czy możemy obrać sobie bardziej inspirujący cel?
08:03
And if we think about this,
138
483000
2000
Gdy się nad tym zastanowić,
08:05
I think it's very clear that there are ways
139
485000
4000
okazuje się jasne, że zmieniać świat na lepsze
08:09
in which we could change things, not just by eliminating negatives,
140
489000
3000
można nie tylko eliminując to co złe,
08:12
but adding positives.
141
492000
2000
ale też dodając coś dobrego.
08:14
On my wish list, at least, would be:
142
494000
2000
Ja na przykład życzyłbym sobie
08:16
much longer, healthier lives, greater subjective well-being,
143
496000
5000
dłuższego, zdrowszego życia, lepszego samopoczucia,
08:21
enhanced cognitive capacities, more knowledge and understanding,
144
501000
5000
lepszych zdolności poznawczych, więcej wiedzy i zrozumienia
08:26
unlimited opportunity for personal growth
145
506000
2000
nieograniczonego rozwoju
08:28
beyond our current biological limits, better relationships,
146
508000
4000
poza ograniczenia biologiczne, lepszych relacji
08:32
an unbounded potential for spiritual, moral
147
512000
2000
i wzrostu duchowego, moralnego
08:34
and intellectual development.
148
514000
2000
i intelektualnego, bez granic.
08:36
If we want to achieve this, what, in the world, would have to change?
149
516000
8000
Co w świecie trzeba zmienić, żeby to osiągnąć?
08:44
And this is the answer -- we would have to change.
150
524000
5000
Musielibyśmy zmienić siebie samych.
08:49
Not just the world around us, but we, ourselves.
151
529000
3000
Nie tylko świat wokół nas, ale nas samych.
08:52
Not just the way we think about the world, but the way we are -- our very biology.
152
532000
4000
Nie tylko nasz obraz świata, ale biologiczne uwarunkowania.
08:56
Human nature would have to change.
153
536000
2000
Zmienić ludzką naturę.
08:58
Now, when we think about changing human nature,
154
538000
2000
Zmiana natury ludzkiej kojarzy się po pierwsze
09:00
the first thing that comes to mind
155
540000
2000
Zmiana natury ludzkiej kojarzy się po pierwsze
09:02
are these human modification technologies --
156
542000
4000
z technologiami modyfikacji człowieka:
09:06
growth hormone therapy, cosmetic surgery,
157
546000
2000
terapia hormonalna,
09:08
stimulants like Ritalin, Adderall, anti-depressants,
158
548000
3000
operacje plastyczne, stymulanty, antydepresanty,
09:11
anabolic steroids, artificial hearts.
159
551000
2000
sztuczne serca, sterydy.
09:13
It's a pretty pathetic list.
160
553000
3000
Lista jest dość żałosna.
09:16
They do great things for a few people
161
556000
2000
Pomagają tylko, kiedy chodzi o określone schorzenie.
09:18
who suffer from some specific condition,
162
558000
2000
Pomagają tylko, kiedy chodzi o określone schorzenie.
09:20
but for most people, they don't really transform
163
560000
5000
Ale dla większości z nas technologie te nie zmieniają
09:25
what it is to be human.
164
565000
2000
istoty człowieczeństwa.
09:27
And they also all seem a little bit --
165
567000
2000
Przy tym wydają się one nieco...
09:29
most people have this instinct that, well, sure,
166
569000
3000
Wydaje się, że owszem, antydepresanty są dobre
09:32
there needs to be anti-depressants for the really depressed people.
167
572000
2000
dla chorych na depresję.
09:34
But there's a kind of queasiness
168
574000
2000
Ale niepokoi nas poczucie,
09:36
that these are unnatural in some way.
169
576000
3000
że taka terapia jest jakby nienaturalna.
09:39
It's worth recalling that there are a lot of other
170
579000
2000
Używamy wielu innych ulepszaczy i modyfikacji.
09:41
modification technologies and enhancement technologies that we use.
171
581000
3000
Używamy wielu innych ulepszaczy i modyfikacji.
09:44
We have skin enhancements, clothing.
172
584000
4000
Na przykład ulepszenia skóry, ubrania.
09:48
As far as I can see, all of you are users of this
173
588000
4000
Jak widać, wszyscy korzystacie z tej technologii,
09:52
enhancement technology in this room, so that's a great thing.
174
592000
5000
a zatem to dobra rzecz.
09:57
Mood modifiers have been used from time immemorial --
175
597000
3000
Poprawiacze nastroju są z nami od zawsze:
10:00
caffeine, alcohol, nicotine, immune system enhancement,
176
600000
5000
kofeina, alkohol, nikotyna, wzmacniacze odporności
10:05
vision enhancement, anesthetics --
177
605000
2000
czy wzroku, środki przeciwbólowe.
10:07
we take that very much for granted,
178
607000
2000
Wszystko to uznajemy za oczywiste,
10:09
but just think about how great progress that is --
179
609000
4000
ale zastanówmy się, jak wielki nastąpił postęp.
10:13
like, having an operation before anesthetics was not fun.
180
613000
4000
Operacja przez anestezją nie była przyjemna.
10:17
Contraceptives, cosmetics and brain reprogramming techniques --
181
617000
6000
Antykoncepcja, kosmetyki, programowanie mózgu w szkole...
10:23
that sounds ominous,
182
623000
2000
Brzmi to złowrogo.
10:25
but the distinction between what is a technology --
183
625000
4000
Ale różnica między technologią, której archetypem
10:29
a gadget would be the archetype --
184
629000
2000
byłby "gadżet",
10:31
and other ways of changing and rewriting human nature is quite subtle.
185
631000
4000
a innymi sposobami zmiany natury ludzkiej jest płynna.
10:35
So if you think about what it means to learn arithmetic or to learn to read,
186
635000
4000
Kiedy uczymy się liczyć czy czytać,
10:39
you're actually, literally rewriting your own brain.
187
639000
3000
w zasadzie przeprogramowujemy mózg.
10:42
You're changing the microstructure of your brain as you go along.
188
642000
3000
Zmieniamy mikro-strukturę mózgu.
10:46
So in a broad sense, we don't need to think about technology
189
646000
3000
Więc technologia w ogólnym ujęciu,
10:49
as only little gadgets, like these things here,
190
649000
2000
to nie tylko gadżety,
10:51
but even institutions and techniques,
191
651000
4000
ale także instytucje, techniki, metody psychologiczne, itd.
10:55
psychological methods and so forth.
192
655000
2000
ale także instytucje, techniki, metody psychologiczne, itd.
10:57
Forms of organization can have a profound impact on human nature.
193
657000
5000
Organizacja może głęboko wpływać na ludzką naturę.
11:02
Looking ahead, there is a range of technologies
194
662000
2000
Jest szereg technologii,
11:04
that are almost certain to be developed sooner or later.
195
664000
3000
które na pewno kiedyś zostaną wprowadzone.
11:07
We are very ignorant about what the time scale for these things are,
196
667000
4000
Nie wiemy, kiedy dokładnie ich postęp nastąpi,
11:11
but they all are consistent with everything we know
197
671000
2000
ale żadna z nich nie łamie
11:13
about physical laws, laws of chemistry, etc.
198
673000
4000
żadnych praw fizyki, chemii itd.
11:17
It's possible to assume,
199
677000
2000
Więc można założyć, że jeśli katastrofa nie nastąpi,
11:19
setting aside a possibility of catastrophe,
200
679000
3000
Więc można założyć, że jeśli katastrofa nie nastąpi,
11:22
that sooner or later we will develop all of these.
201
682000
3000
w końcu wszystkie te technologie powstaną.
11:25
And even just a couple of these would be enough
202
685000
3000
Tak naprawdę tylko kilka z nich wystarczyłoby,
11:28
to transform the human condition.
203
688000
2000
żeby zmienić kondycję ludzką.
11:30
So let's look at some of the dimensions of human nature
204
690000
5000
Spójrzmy zatem na te obszary natury ludzkiej,
11:35
that seem to leave room for improvement.
205
695000
3000
gdzie istnieje możliwość poprawy.
11:38
Health span is a big and urgent thing,
206
698000
2000
Długość życia to palący problem,
11:40
because if you're not alive,
207
700000
2000
bo jeśli nie żyjesz,
11:42
then all the other things will be to little avail.
208
702000
3000
reszta technologi nie zda się na nic.
11:45
Intellectual capacity -- let's take that box,
209
705000
2000
Możliwości intelektualne,
11:47
which falls into a lot of different sub-categories:
210
707000
5000
wśród których wyróżniamy wiele różnych kategorii:
11:52
memory, concentration, mental energy, intelligence, empathy.
211
712000
3000
pamięć, uwaga, inteligencja, empatia, żywotność umysłu.
11:55
These are really great things.
212
715000
2000
To naprawdę wspaniałe rzeczy.
11:57
Part of the reason why we value these traits
213
717000
2000
Cenimy je także dlatego,
11:59
is that they make us better at competing with other people --
214
719000
4000
że dają nam przewagę w konkurowaniu z innymi,
12:03
they're positional goods.
215
723000
2000
to tak zwane dobra pozycjonalne.
12:05
But part of the reason --
216
725000
2000
Ale w pewnej mierze,
12:07
and that's the reason why we have ethical ground for pursuing these --
217
727000
4000
co daje etyczne przesłanki, by ich pragnąć,
12:11
is that they're also intrinsically valuable.
218
731000
3000
są one dobrem samym w sobie.
12:14
It's just better to be able to understand more of the world around you
219
734000
4000
Lepiej jest móc pojąć jak najwięcej ze świata
12:18
and the people that you are communicating with,
220
738000
2000
i ludzi, z którymi mamy kontakt,
12:20
and to remember what you have learned.
221
740000
4000
jak i zapamiętać to, czego się nauczyliśmy.
12:24
Modalities and special faculties.
222
744000
2000
Zmysły i specjalne zdolności.
12:26
Now, the human mind is not a single unitary information processor,
223
746000
5000
Umysł ludzki to nie jednolity przetwarzacz informacji.
12:31
but it has a lot of different, special, evolved modules
224
751000
4000
Jest w nim wiele różnych modułów, przystosowanych
12:35
that do specific things for us.
225
755000
2000
do konkretnych zadań.
12:37
If you think about what we normally take as giving life a lot of its meaning --
226
757000
4000
Sprawy w większości odpowiedzialne za sens życia,
12:41
music, humor, eroticism, spirituality, aesthetics,
227
761000
4000
muzyka, humor, erotyka, duchowość, estetyka,
12:45
nurturing and caring, gossip, chatting with people --
228
765000
5000
wychowywanie, opieka, plotki, rozmowa...
12:50
all of these, very likely, are enabled by a special circuitry
229
770000
4000
Możliwe, że umożliwiają je obwody mózgowe,
12:54
that we humans have,
230
774000
2000
które posiadają ludzie,
12:56
but that you could have another intelligent life form that lacks these.
231
776000
3000
ale inne inteligentne istoty mogłyby ich nie mieć.
12:59
We're just lucky that we have the requisite neural machinery
232
779000
3000
To fart, że mamy neurologiczną maszynerię,
13:02
to process music and to appreciate it and enjoy it.
233
782000
4000
wymaganą, by docenić muzykę i się nią cieszyć.
13:06
All of these would enable, in principle -- be amenable to enhancement.
234
786000
3000
Takie moduły mogą w zasadzie być ulepszone.
13:09
Some people have a better musical ability
235
789000
2000
Są ludzie z wybitnymi zdolnościami muzycznymi.
13:11
and ability to appreciate music than others have.
236
791000
2000
Są ludzie z wybitnymi zdolnościami muzycznymi.
13:13
It's also interesting to think about what other things are --
237
793000
3000
Ciekawe jest również, że inne rzeczy...
13:16
so if these all enabled great values,
238
796000
3000
Ewolucja dała nam umiejętność docenienia
13:20
why should we think that evolution has happened to provide us
239
800000
3000
pewnych wartości, ale dlaczego zakładać,
13:23
with all the modalities we would need to engage
240
803000
3000
że we wszechświecie nie ma wartości
13:26
with other values that there might be?
241
806000
2000
nam niedostępnych?
13:28
Imagine a species
242
808000
2000
Wyobraźmy sobie gatunek,
13:30
that just didn't have this neural machinery for processing music.
243
810000
4000
któremu brak układów odpowiedzialnych za rozumienie muzyki.
13:34
And they would just stare at us with bafflement
244
814000
3000
Patrzyliby z osłupieniem na ludzi,
13:37
when we spend time listening to a beautiful performance,
245
817000
4000
którzy zachwycają się grą na instrumentach,
13:41
like the one we just heard -- because of people making stupid movements,
246
821000
2000
bo to tylko "dziwne ruchy".
13:43
and they would be really irritated and wouldn't see what we were up to.
247
823000
3000
Wkurzaliby się, nie wiedząc, o co nam chodzi.
13:46
But maybe they have another faculty, something else
248
826000
3000
Ale możliwe, że mieliby jakiś zmysł,
13:49
that would seem equally irrational to us,
249
829000
3000
nam wydający się nieracjonalnym.
13:52
but they actually tap into some great possible value there.
250
832000
3000
Mogliby doświadczyć czegoś bardzo wartościowego,
13:55
But we are just literally deaf to that kind of value.
251
835000
4000
na co my pozostawalibyśmy głusi.
13:59
So we could think of adding on different,
252
839000
2000
Więc moglibyśmy dodać sobie
14:01
new sensory capacities and mental faculties.
253
841000
4000
nowe zmysły i zdolności umysłowe.
14:05
Bodily functionality and morphology and affective self-control.
254
845000
5000
Funkcje i morfologia ciała, kontrola emocji.
14:10
Greater subjective well-being.
255
850000
2000
Lepsze samopoczucie.
14:12
Be able to switch between relaxation and activity --
256
852000
3000
Łatwe przechodzenie od aktywności do spoczynku,
14:15
being able to go slow when you need to do that, and to speed up.
257
855000
4000
zwalnianie lub przyśpieszanie, zależnie od potrzeb.
14:19
Able to switch back and forth more easily
258
859000
2000
Takie szybkie przełączanie
14:21
would be a neat thing to be able to do --
259
861000
2000
byłoby naprawdę świetne.
14:23
easier to achieve the flow state,
260
863000
2000
Łatwiej osiągnąć "flow",
14:25
when you're totally immersed in something you are doing.
261
865000
4000
kiedy jest się absolutnie zatopionym w swoich zajęciach.
14:29
Conscientiousness and sympathy.
262
869000
2000
Sumienność, współczucie.
14:31
The ability to -- it's another interesting application
263
871000
3000
Kolejne interesujące zastosowanie,
14:34
that would have large social ramification, perhaps.
264
874000
3000
z ogromnym wpływem na problemy społeczne.
14:37
If you could actually choose to preserve your romantic attachments to one person,
265
877000
6000
Gdyby można utrzymać miłość do innej osoby
14:43
undiminished through time,
266
883000
2000
niezmienną przez lata,
14:45
so that wouldn't have to -- love would never have to fade if you didn't want it to.
267
885000
3000
miłość nie znikałaby wbrew naszej woli.
14:50
That's probably not all that difficult.
268
890000
3000
Prawdopodobnie nie byłoby to trudne.
14:53
It might just be a simple hormone or something that could do this.
269
893000
3000
Być może to kwestia jednego hormonu.
14:58
It's been done in voles.
270
898000
2000
Osiągnięto to u norników.
15:02
You can engineer a prairie vole to become monogamous
271
902000
3000
Potrafimy z poligamicznego nornika preriowego
15:05
when it's naturally polygamous.
272
905000
2000
uczynić monogamistę.
15:07
It's just a single gene.
273
907000
2000
To kwestia jednego genu.
15:09
Might be more complicated in humans, but perhaps not that much.
274
909000
2000
Może u ludzi będzie podobnie.
15:11
This is the last picture that I want to --
275
911000
2000
To ostatni slajd,
15:14
now we've got to use the laser pointer.
276
914000
2000
będę używał wskaźnika.
15:17
A possible mode of being here would be a way of life --
277
917000
3000
Sposób przeżywania, to sposób życia,
15:20
a way of being, experiencing, thinking, seeing,
278
920000
4000
doświadczania, myślenia, widzenia,
15:24
interacting with the world.
279
924000
2000
interakcje ze światem.
15:26
Down here in this little corner, here, we have the little sub-space
280
926000
5000
W tym rogu jest mały podzbiór,
15:31
of this larger space that is accessible to human beings --
281
931000
4000
część zbioru sposobów przeżywania dostępna istotom
15:35
beings with our biological capacities.
282
935000
3000
o naszych biologicznych możliwościach.
15:38
It's a part of the space that's accessible to animals;
283
938000
3000
Wycinek przestrzeni dostępnej zwierzętom,
15:41
since we are animals, we are a subset of that.
284
941000
3000
jako zwierzęta, jesteśmy jej podzbiorem.
15:44
And then you can imagine some enhancements of human capacities.
285
944000
4000
Ale wyobraźmy sobie ulepszenia naszych zdolności.
15:48
There would be different modes of being you could experience
286
948000
3000
Gdybyśmy dożywali 200 lat, pojawiłyby się
15:51
if you were able to stay alive for, say, 200 years.
287
951000
3000
nowe sposoby przeżywania życia.
15:54
Then you could live sorts of lives and accumulate wisdoms
288
954000
4000
Żylibyśmy, zbieralibyśmy wiedzę w sposób
15:58
that are just not possible for humans as we currently are.
289
958000
3000
obecnie jest dla nas niedostępny.
16:01
So then, you move off to this larger sphere of "human +,"
290
961000
4000
Przeszlibyśmy w obszar "człowiek plus",
16:05
and you could continue that process and eventually
291
965000
3000
a proces ten można by kontynuować,
16:08
explore a lot of this larger space of possible modes of being.
292
968000
4000
poszerzając dostępne sposoby przeżywania.
16:12
Now, why is that a good thing to do?
293
972000
2000
Ale czy to coś dobrego?
16:14
Well, we know already that in this little human circle there,
294
974000
4000
Jak wiemy, nawet w tym małym podzbiorze ludzkim
16:18
there are these enormously wonderful and worthwhile modes of being --
295
978000
4000
jest tyle wspaniałych, wartościowych sposobów przeżywania.
16:22
human life at its best is wonderful.
296
982000
3000
Życie ludzkie w swej najlepszej formie jest cudowne.
16:25
We have no reason to believe that within this much, much larger space
297
985000
5000
Ale nie ma powodów, by zakładać, że na większym obszarze
16:30
there would not also be extremely worthwhile modes of being,
298
990000
4000
nie znaleźlibyśmy czegoś jeszcze wartościowszego,
16:34
perhaps ones that would be way beyond our wildest ability
299
994000
6000
czego jeszcze nie jesteśmy nawet w stanie
16:40
even to imagine or dream about.
300
1000000
2000
objąć wyobraźnią.
16:42
And so, to fix this third problem,
301
1002000
2000
By rozwiązać trzeci problem,
16:44
I think we need -- slowly, carefully, with ethical wisdom and constraint --
302
1004000
6000
uważam, że musimy powoli, rozważnie i moralnie
16:50
develop the means that enable us to go out in this larger space and explore it
303
1010000
5000
rozwijać środki, które pozwolą wyruszyć w większy obszar
16:55
and find the great values that might hide there.
304
1015000
2000
i odnaleźć tam wielkie wartości.
16:57
Thanks.
305
1017000
2000
Dziękuję.
O tej stronie

Na tej stronie poznasz filmy z YouTube, które są przydatne do nauki języka angielskiego. Zobaczysz lekcje angielskiego prowadzone przez najlepszych nauczycieli z całego świata. Kliknij dwukrotnie na angielskie napisy wyświetlane na stronie każdego filmu, aby odtworzyć film od tego miejsca. Napisy przewijają się synchronicznie z odtwarzaniem filmu. Jeśli masz jakieś uwagi lub prośby, skontaktuj się z nami za pomocą formularza kontaktowego.

https://forms.gle/WvT1wiN1qDtmnspy7