What are the most important moral problems of our time? | Will MacAskill

373,190 views ・ 2018-10-03

TED


Ве молиме кликнете двапати на англискиот титл подолу за да го репродуцирате видеото.

Translator: Marina Karova Reviewer: Julia Kalaputi
00:12
This is a graph
0
12857
1479
Ова е графикон
00:14
that represents the economic history of human civilization.
1
14360
3659
кој ја претставува економската историја на човековата цивилизација.
00:18
[World GDP per capita over the last 200,000 years]
2
18043
2400
[Светски БДП по глава на жител во последните 200.000 години]
00:23
There's not much going on, is there.
3
23757
2003
Ако некаде не се случува ништо, тоа е овде.
00:26
For the vast majority of human history,
4
26751
2347
Зa мнозинството во човечката историја,
00:29
pretty much everyone lived on the equivalent of one dollar per day,
5
29835
4048
кога речиси сите живееле во просек со еден долар на ден,
00:33
and not much changed.
6
33907
1286
не се променило многу.
00:36
But then, something extraordinary happened:
7
36757
2777
Но тогаш, се случило нешто неочекувано:
00:40
the Scientific and Industrial Revolutions.
8
40677
2811
научната и индустриската револуција.
00:43
And the basically flat graph you just saw
9
43512
2785
И всушност рамниот графикон што го видовте
00:46
transforms into this.
10
46321
2675
се претвора во ова.
00:50
What this graph means is that, in terms of power to change the world,
11
50612
4635
Графиконот покажува дека во услови на моќ за да го промениме светот,
00:55
we live in an unprecedented time in human history,
12
55271
3438
живееме во невиден момент на човековата историја
00:58
and I believe our ethical understanding hasn't yet caught up with this fact.
13
58733
3944
и верувам дека нашето етичко разбирање се`уште не се помирило со овој факт.
01:03
The Scientific and Industrial Revolutions
14
63716
1984
Научните и индустриски револуции
01:05
transformed both our understanding of the world
15
65724
2909
го променија нашето разбирање за светот
01:08
and our ability to alter it.
16
68657
1669
и нашата умешност да го промениме.
01:11
What we need is an ethical revolution
17
71505
3667
Она што ни треба е етичка револуција
01:15
so that we can work out
18
75196
1548
за да можеме да откриеме
01:16
how do we use this tremendous bounty of resources
19
76768
3152
како да го искористиме ова огромно богатство на ресурси
01:19
to improve the world.
20
79944
1395
за да го подобриме светот.
01:22
For the last 10 years,
21
82249
1591
Во последните 10 години,
01:23
my colleagues and I have developed a philosophy and research program
22
83864
3833
со моите колеги создадовме филозофија и истражувачка програма
01:27
that we call effective altruism.
23
87721
1835
која ја нарековме Ефективен алтруизам.
01:30
It tries to respond to these radical changes in our world,
24
90366
3595
Тој се труди да одговори на радикалните промени во светот,
01:33
uses evidence and careful reasoning to try to answer this question:
25
93985
4476
користи евиденција и внимателно се обидува да одговори на следното прашање:
01:40
How can we do the most good?
26
100173
2278
Како може да го направиме најдоброто?
01:44
Now, there are many issues you've got to address
27
104265
3221
Сега, овде има многу прашања кои треба да се земат во предвид
01:47
if you want to tackle this problem:
28
107510
2263
ако сакате да се справите со овој проблем:
01:49
whether to do good through your charity
29
109797
2031
Дали да го сторите тоа со вашата добротворна организација
01:51
or your career or your political engagement,
30
111852
2152
или преку кариера или политички ангажман,
01:54
what programs to focus on, who to work with.
31
114028
2395
на кои програми да се фокусирате, со кој ќе работите.
01:57
But what I want to talk about
32
117624
1476
Но она за што сакам да зборувам
01:59
is what I think is the most fundamental problem.
33
119124
2872
е она што мислам дека е најфундаментален проблем.
02:02
Of all the many problems that the world faces,
34
122020
2693
Од сите проблеми со кои светот се соочува,
02:05
which should we be focused on trying to solve first?
35
125962
2659
на кој треба да се фокусираме за да да го решиме прв?
02:10
Now, I'm going to give you a framework for thinking about this question,
36
130668
3468
Сега, ќе ви дадам рамка за размислување околу ова прашање
02:14
and the framework is very simple.
37
134160
1936
а рамката е многу едноставна.
02:16
A problem's higher priority,
38
136842
1699
Најважниот приоритет на проблемот,
02:19
the bigger, the more easily solvable and the more neglected it is.
39
139416
4063
колку е поголем, толку е полесен за решавање и позапоставен е.
02:24
Bigger is better,
40
144694
1642
Подобро да е поголем,
02:26
because we've got more to gain if we do solve the problem.
41
146360
2841
затоа што имаме поголема корист ако го решиме проблемот.
02:30
More easily solvable is better
42
150221
1569
Лесно решливиот проблем е подобар
02:31
because I can solve the problem with less time or money.
43
151814
2824
бидејќи можеме да го решеме со помалку време или пари.
02:35
And most subtly,
44
155737
2063
И она што е најсуптилно,
02:38
more neglected is better, because of diminishing returns.
45
158681
2849
ако е запоставен е подобро зашто поретко се враќа назад.
02:42
The more resources that have already been invested into solving a problem,
46
162285
3714
Колку повеќе извори се инвестирани во решавање на проблем,
толку потешко ќе биде да направиме дополнителен напредок.
02:46
the harder it will be to make additional progress.
47
166023
2905
02:50
Now, the key thing that I want to leave with you is this framework,
48
170560
4059
Сега, клучната работа која сакам да ја споделам со вас е оваа рамка,
02:54
so that you can think for yourself
49
174643
1984
па така ќе можете да размислите
02:56
what are the highest global priorities.
50
176651
2321
кој се највисоките глобални приоритети според вас.
02:59
But I and others in the effective altruism community
51
179954
2692
Но јас и другите од заедницата на Ефективен алтруизам
03:02
have converged on three moral issues that we believe are unusually important,
52
182670
5879
се фокусиравме на три морални прашања кои веруваме дека се мошне значајни
03:08
score unusually well in this framework.
53
188573
2182
и чии резултати се прилилно добри во рамката.
03:11
First is global health.
54
191151
2813
Прво е глобалното здравје.
03:13
This is supersolvable.
55
193988
2411
Ова е суперрешавачко.
03:16
We have an amazing track record in global health.
56
196423
3397
Имаме неверојатен учинок во глобалното здравје.
03:19
Rates of death from measles, malaria, diarrheal disease
57
199844
5420
Стапките на смртност од мали сипаници, маларија, дијареа
03:25
are down by over 70 percent.
58
205288
2246
се намалени за повеќе од 70 проценти.
03:29
And in 1980, we eradicated smallpox.
59
209534
2789
И во 1980, ги искоренавме малите сипаници.
03:33
I estimate we thereby saved over 60 million lives.
60
213815
3667
Моја проценка е дека така зачувавме преку 60 милиони животи.
03:37
That's more lives saved than if we'd achieved world peace
61
217506
3064
Тоа се повеќе зачувани животи отколку ако достигневме светски мир
03:40
in that same time period.
62
220594
1697
во истиот временски период.
03:43
On our current best estimates,
63
223893
2325
Според нашите најдобри сегашни проценки,
03:46
we can save a life by distributing long-lasting insecticide-treated bed nets
64
226242
4128
може да спасиме живот со дистрибуција на долготрајни инсектицидни мрежи
03:50
for just a few thousand dollars.
65
230394
1903
за само неколку илјади долари.
03:52
This is an amazing opportunity.
66
232911
1667
Ова е неверојатна можност.
03:55
The second big priority is factory farming.
67
235594
2515
Вториот голем приоритет е фабричкото земјоделство.
03:58
This is superneglected.
68
238681
1563
Ова е натприродно.
04:00
There are 50 billion land animals used every year for food,
69
240768
4143
50 милијарди копнени животни се искористуваат за храна секоја година,
04:05
and the vast majority of them are factory farmed,
70
245625
2548
и големо мнозинство од нив се во фабрички фарми,
04:08
living in conditions of horrific suffering.
71
248197
2380
живеат во услови на ужасни страдања.
04:10
They're probably among the worst-off creatures on this planet,
72
250601
3151
Тие се веројатно меѓу најлошо одгледаните суштества на планетата
04:13
and in many cases, we could significantly improve their lives
73
253776
2858
и во многу случаи, би можеле значително да ги подобриме нивните животи
04:16
for just pennies per animal.
74
256658
1602
за само еден денар по животно.
04:19
Yet this is hugely neglected.
75
259123
2082
Сепак, ова е многу запоставено.
04:21
There are 3,000 times more animals in factory farms
76
261229
3810
Постојат 3.000 пати повеќе животни во фабричките фарми
04:25
than there are stray pets,
77
265063
1561
отколку што има скитници,
04:28
but yet, factory farming gets one fiftieth of the philanthropic funding.
78
268600
4373
но, фабричкото фармерство добива 1/50 од филантропското финансирање.
04:34
That means additional resources in this area
79
274211
2128
Тоа значи, додатните извори во оваа област
04:36
could have a truly transformative impact.
80
276363
2150
може да имаат трансформирачко влијание.
04:39
Now the third area is the one that I want to focus on the most,
81
279458
2985
Третата област е таа на која сакам да се фокусирам најмногу,
04:42
and that's the category of existential risks:
82
282467
2984
а тоа е категоријата на постоечки ризици:
04:45
events like a nuclear war or a global pandemic
83
285475
3873
настаните како нуклеарната војна или глобалната пандемија
04:50
that could permanently derail civilization
84
290824
2611
кој би можеле трајно да ја потиснат цивилизацијата.
04:54
or even lead to the extinction of the human race.
85
294156
2436
дури и да доведат до истребување на човечката раса.
04:57
Let me explain why I think this is such a big priority
86
297882
2540
Ќе објаснам зошто мислам дека ова голем приоритет
05:00
in terms of this framework.
87
300446
1337
во однос на оваа рамка.
05:02
First, size.
88
302992
1412
Прво, големината.
05:05
How bad would it be if there were a truly existential catastrophe?
89
305341
3889
Колку би било лошо ако навистина би имало катастрофа?
05:10
Well, it would involve the deaths of all seven billion people on this planet
90
310920
6342
Па, тоа би било смрт за сите седум милијарди луѓе на оваа планета
05:17
and that means you and everyone you know and love.
91
317286
3119
а тоа значи вие и сите што ги познавате и сакате.
05:21
That's just a tragedy of unimaginable size.
92
321214
2579
Тоа е трагедија од незамисливи размери.
05:25
But then, what's more,
93
325684
1976
Но, што е уште поважно,
05:27
it would also mean the curtailment of humanity's future potential,
94
327684
3605
тоа би значело ограничување на идниот потенцијал на човештвото
05:31
and I believe that humanity's potential is vast.
95
331313
2952
а јас верувам дека човечкиот потенцијал е огромен.
05:35
The human race has been around for about 200,000 years,
96
335551
3451
Човечката раса постои околу 200.000 години
05:39
and if she lives as long as a typical mammalian species,
97
339026
2883
и ако живее толку долго како типичен вид на цицачи,
05:41
she would last for about two million years.
98
341933
2298
таа ќе трае околу две милиони години.
05:46
If the human race were a single individual,
99
346884
2691
Ако човечката раса беше поединец
05:49
she would be just 10 years old today.
100
349599
2419
таа би имала само 10 години денес.
05:53
And what's more, the human race isn't a typical mammalian species.
101
353526
4166
И што е поважно, човечката раса не е типичен вид на цицачи.
05:58
There's no reason why, if we're careful,
102
358950
1906
Ако внимаваме, не постои причина зошто
06:00
we should die off after only two million years.
103
360880
2205
би изумреле после само милиони години.
06:03
The earth will remain habitable for 500 million years to come.
104
363839
4040
Земјата ќе остане погодна за живеење за следните 500 милиони години.
06:08
And if someday, we took to the stars,
105
368696
1944
И ако некој ден, стигнеме до ѕвездите.
06:11
the civilization could continue for billions more.
106
371640
2516
цивилизацијата ќе може да продолжи повеќе милијарди.
06:16
So I think the future is going to be really big,
107
376193
2388
Сметам дека иднината ќе биде навистина голема,
06:19
but is it going to be good?
108
379669
1802
но дали ќе биде добра?
06:21
Is the human race even really worth preserving?
109
381495
2817
Дали човечката раса навистина вреди да се зачува?
06:26
Well, we hear all the time about how things have been getting worse,
110
386540
3929
Па, цело време слушаме како работите одат на полошо,
06:31
but I think that when we take the long run,
111
391459
2693
но јас мислам дека на подолг временски рок
06:34
things have been getting radically better.
112
394176
2031
работите се радикално подобри.
06:37
Here, for example, is life expectancy over time.
113
397453
2294
Овде, на пример, е животниот век низ времето.
06:40
Here's the proportion of people not living in extreme poverty.
114
400892
3023
Ова е процентот на луѓе кои не живеат во екстремна сиромаштија.
06:45
Here's the number of countries over time that have decriminalized homosexuality.
115
405106
4095
Овие се државите кои со текот на времето ја декриминализираа хомосексуалноста.
06:50
Here's the number of countries over time that have become democratic.
116
410848
3269
Овде е бројот на држави кои со текот на времето станаа демократски.
06:55
Then, when we look to the future, there could be so much more to gain again.
117
415015
4619
Значи, ако погледнеме во иднината, има многу повеќе што би можеле да добиеме.
06:59
We'll be so much richer,
118
419658
1228
Ќе бидеме многу побогати,
07:00
we can solve so many problems that are intractable today.
119
420910
3595
ќе можеме да решиме толку многу проблеми кои се неподносливи денес.
07:05
So if this is kind of a graph of how humanity has progressed
120
425389
4445
Ова е вид на графикон за тоа колку човештвото напредувало
07:09
in terms of total human flourishing over time,
121
429858
2890
во услови на целосен човечки напредок,
07:12
well, this is what we would expect future progress to look like.
122
432772
3355
и ова е како би изгледал напредокот во иднина.
07:16
It's vast.
123
436881
1150
Ова е многу.
07:18
Here, for example,
124
438953
1198
Овде на пример,
07:20
is where we would expect no one to live in extreme poverty.
125
440175
3746
е кога никој не би живеел во екстремна сиромаштија.
07:25
Here is where we would expect everyone to be better off
126
445930
3202
Овде, би требало сите да бидат побогати
07:29
than the richest person alive today.
127
449156
1853
од најбогатиот жив човек денес.
07:32
Perhaps here is where we would discover the fundamental natural laws
128
452081
3192
Можеби овде би ги откриле основните закони на природата
07:35
that govern our world.
129
455297
1268
кои владеат во светот.
07:37
Perhaps here is where we discover an entirely new form of art,
130
457516
3705
Можеби овде е местото каде би откриле сосема нова форма на уметност,
07:41
a form of music we currently lack the ears to hear.
131
461245
3040
форма на музика за која во моментов немаме слух.
07:45
And this is just the next few thousand years.
132
465072
2222
Ова е само за следните неколку илјади години.
07:47
Once we think past that,
133
467827
2205
Кога ќе помислиме на минатото,
07:50
well, we can't even imagine the heights that human accomplishment might reach.
134
470056
4167
не можеме ниту да ги замислиме височините на човечките достигнувања.
07:54
So the future could be very big and it could be very good,
135
474247
3040
Значи, иднината може да е многу голема, и тоа ќе е добро
07:57
but are there ways we could lose this value?
136
477311
2086
но, можеме да ја изгубиме оваа вредност?
08:00
And sadly, I think there are.
137
480366
1826
За жал, мислам дека можеме.
08:02
The last two centuries brought tremendous technological progress,
138
482216
4053
Последните два века донесоа огромен технолошки напредок,
08:06
but they also brought the global risks of nuclear war
139
486293
2622
но донесоа и глобални ризици од нуклеарна војна
08:08
and the possibility of extreme climate change.
140
488939
2157
и можнност за екстремни климатски промени.
08:11
When we look to the coming centuries,
141
491725
1767
Ако погледнеме кон идните векови,
08:13
we should expect to see the same pattern again.
142
493516
2647
би очекувале да ја видиме истата шема повторно.
08:16
And we can see some radically powerful technologies on the horizon.
143
496187
3356
И можеме да видиме радикално моќни технологии на хоризонтот.
08:20
Synthetic biology might give us the power to create viruses
144
500132
2849
Синтетичката биологија ни овозможува да креираме вируси
08:23
of unprecedented contagiousness and lethality.
145
503005
3047
со невидена заразност и леталност.
08:27
Geoengineering might give us the power to dramatically alter the earth's climate.
146
507131
4643
Геоинжинеринг ни дава моќ драстично да ја смениме климата на земјата.
08:31
Artificial intelligence might give us the power to create intelligent agents
147
511798
4199
Вештачката интелигенција ни дава моќ да создадеме интелигентни агенти
08:36
with abilities greater than our own.
148
516021
2142
со способности поголеми од нашите.
08:40
Now, I'm not saying that any of these risks are particularly likely,
149
520222
3888
Сега, не велам дека сите овие ризици се веројатно можни,
08:44
but when there's so much at stake,
150
524134
1644
но кога се толку многу во прашање,
08:45
even small probabilities matter a great deal.
151
525802
2967
дури и најмалата веројатност е многу важна.
08:49
Imagine if you're getting on a plane and you're kind of nervous,
152
529568
3001
Замислете, се качувате на авион и имате малку паника.
08:52
and the pilot reassures you by saying,
153
532593
3444
и пилотот ве уверува со зборовите,
08:56
"There's only a one-in-a-thousand chance of crashing. Don't worry."
154
536061
4634
,,Има само една во илјада шанси за уривање. Не грижете се.“
09:02
Would you feel reassured?
155
542157
1554
Би се чуствувале ли сигурно?
09:04
For these reasons, I think that preserving the future of humanity
156
544509
4088
Поради овие причини, мислам дека зачувувањето на иднината на човештвото
09:08
is among the most important problems that we currently face.
157
548621
2984
е меѓу најважните проблеми со кој моментално се соочуваме.
09:12
But let's keep using this framework.
158
552546
2150
Но, да продолжиме со употребата на оваа рамка.
09:14
Is this problem neglected?
159
554720
1310
Дали овој проблем е занемарен?
09:18
And I think the answer is yes,
160
558085
2282
Мислам дека одговорот е да,
09:20
and that's because problems that affect future generations
161
560391
3325
а тоа е така затоа што проблемите кои ги засегаат идните генерации
09:23
are often hugely neglected.
162
563740
1651
често се занемаруваат.
09:26
Why?
163
566930
1406
Зошто?
09:28
Because future people don't participate in markets today.
164
568360
3478
Затоа што идните луѓе не учествуваат на пазарите денес.
09:31
They don't have a vote.
165
571862
1522
Тие немаат глас.
09:33
It's not like there's a lobby representing the interests
166
573931
2673
Тоа е како да нема лоби кое ги претставува интересите
09:36
of those born in 2300 AD.
167
576628
2023
на оние родени во 2300 н.е.
09:40
They don't get to influence the decisions we make today.
168
580313
3242
Тие не можат да влијаат на одлуките кои ги носиме денес.
09:43
They're voiceless.
169
583995
1191
Тие се безгласни.
09:46
And that means we still spend a paltry amount on these issues:
170
586490
3445
А тоа значи дека ние сеуште трошиме несоодветен износ на овие прашања:
09:49
nuclear nonproliferation,
171
589959
1799
нуклеарно неширење,
09:51
geoengineering, biorisk,
172
591782
2330
геоинжинеринг, биоризик,
09:55
artificial intelligence safety.
173
595414
1642
безбедност од вештачка интелигенција.
09:57
All of these receive only a few tens of millions of dollars
174
597923
2874
Сите овие добиваат само неколку десетици милиони од доларите
10:00
of philanthropic funding every year.
175
600821
1927
на филантропското финансирање секоја година.
Тоа не може да се спореди со 390 милијарди долари
10:04
That's tiny compared to the 390 billion dollars
176
604044
3929
10:08
that's spent on US philanthropy in total.
177
608790
2261
кои се трошат на вкупната американска филантропија.
10:13
The final aspect of our framework then:
178
613885
2484
Последниот аспект од нашата рамка:
10:17
Is this solvable?
179
617083
1190
Дали ова може да се реши?
10:19
I believe it is.
180
619289
1289
Јас верувам дека е.
10:21
You can contribute with your money,
181
621014
3047
Можете да придонесете со вашите пари,
10:24
your career or your political engagement.
182
624085
2644
вашата кариера или вашиот политички ангажман.
10:28
With your money, you can support organizations
183
628225
2175
Со вашите пари, може да поддржите организации
10:30
that focus on these risks,
184
630424
1302
фокусирани на овие ризици,
10:31
like the Nuclear Threat Initiative,
185
631750
2555
како што е Инцијативата за нуклеарната закана,
10:34
which campaigns to take nuclear weapons off hair-trigger alert,
186
634329
3660
која се залага за отстранување на нуклеарното оружје,
10:38
or the Blue Ribbon Panel, which develops policy to minimize the damage
187
638013
3571
или Панелот сина лента, кој води политика за минимизирање на штетите
10:41
from natural and man-made pandemics,
188
641608
2095
од природните и вештачки пандемии,
10:45
or the Center for Human-Compatible AI, which does technical research
189
645158
3260
или Центарот за човечки компатибилен ПИ, кој врши техничко истражување
10:48
to ensure that AI systems are safe and reliable.
190
648442
2747
да ја утврди сигурноста и безбедноста на ПИ системите.
10:52
With your political engagement,
191
652652
1516
Со вашиот политички ангажман,
10:54
you can vote for candidates that care about these risks,
192
654192
3096
можете да гласате за кандидати кои се грижат за овие ризици,
10:57
and you can support greater international cooperation.
193
657312
2586
и можете да поддржите поголема меѓународна соработка.
11:01
And then with your career, there is so much that you can do.
194
661767
3542
И за крај, со вашата кариера, има многу нешта кои можете да ги направите.
11:05
Of course, we need scientists and policymakers and organization leaders,
195
665333
3672
Се разбира, нам ни се потребни научници и почитичари и организатори,
11:09
but just as importantly,
196
669865
1152
но исто важно е дека,
11:11
we also need accountants and managers and assistants
197
671041
4117
имаме потреба од книговодители, менаџери и асистенти
11:16
to work in these organizations that are tackling these problems.
198
676691
3754
да работат во организациите кои се справуваат со овие проблеми.
11:20
Now, the research program of effective altruism
199
680469
3492
Сега, истражувачката програма на ефективен алтруизам
11:25
is still in its infancy,
200
685191
1444
е се`уште во зачеток,
11:27
and there's still a huge amount that we don't know.
201
687262
2524
и се`уште има многу работи кои не ни се познати.
11:31
But even with what we've learned so far,
202
691173
2343
Но, дури и со ова што го научивме досега,
11:34
we can see that by thinking carefully
203
694748
2183
ако размислуваме внимателно
11:37
and by focusing on those problems that are big, solvable and neglected,
204
697494
4873
и се фокусираме на проблемите кои се големи, решливи и запоставени
11:43
we can make a truly tremendous difference to the world
205
703152
2708
можеме да направиме навистина огромна разлика во светот
11:45
for thousands of years to come.
206
705884
1631
за илјадниците години кои доаѓаат.
11:47
Thank you.
207
707963
1151
Ви благодарам.
11:49
(Applause)
208
709138
4560
(Аплауз)
About this website

Оваа страница ќе ве запознае со видеата на YouTube кои се корисни за учење англиски јазик. Ќе гледате часови по англиски јазик кои ги учат врвни наставници од целиот свет. Кликнете двапати на англиските преводи прикажани на секоја видео страница за да го репродуцирате видеото од таму. Преводите се движат синхронизирано со репродукцијата на видеото. Ако имате какви било коментари или барања, ве молиме контактирајте не користејќи ја оваа контакт форма.

https://forms.gle/WvT1wiN1qDtmnspy7