What are the most important moral problems of our time? | Will MacAskill

372,422 views ・ 2018-10-03

TED


A videó lejátszásához kattintson duplán az alábbi angol feliratokra.

Fordító: Zsuzsanna Lőrincz Lektor: Andi Vida
00:12
This is a graph
0
12857
1479
Ez a grafikon
00:14
that represents the economic history of human civilization.
1
14360
3659
az emberi civilizáció gazdaságtörténetét ábrázolja.
00:18
[World GDP per capita over the last 200,000 years]
2
18043
2400
[A világ egy főre eső GDP-je az elmúlt 200 000 évben]
00:23
There's not much going on, is there.
3
23757
2003
Nem nagy a mozgás, igaz?
00:26
For the vast majority of human history,
4
26751
2347
Az emberiség történetének nagy részében
00:29
pretty much everyone lived on the equivalent of one dollar per day,
5
29835
4048
jóformán mindenki napi egy dollárnak megfelelő összegből élt,
00:33
and not much changed.
6
33907
1286
és nem sok minden változott.
00:36
But then, something extraordinary happened:
7
36757
2777
De aztán valami rendkívüli történt:
00:40
the Scientific and Industrial Revolutions.
8
40677
2811
a tudományos és ipari forradalom.
00:43
And the basically flat graph you just saw
9
43512
2785
Az egyenletes vonal, amit az imént láttak,
00:46
transforms into this.
10
46321
2675
hirtelen felszökken.
00:50
What this graph means is that, in terms of power to change the world,
11
50612
4635
A grafikonon látszik, hogy a világ befolyásolhatósága szempontjából
00:55
we live in an unprecedented time in human history,
12
55271
3438
az emberiség történetének példa nélküli időszakát éljük,
00:58
and I believe our ethical understanding hasn't yet caught up with this fact.
13
58733
3944
és úgy gondolom, etikailag még nem ismertük fel ezt a tényt.
01:03
The Scientific and Industrial Revolutions
14
63716
1984
A tudományos és ipari forradalmak
01:05
transformed both our understanding of the world
15
65724
2909
átalakították a világról alkotott képünket és azt a képességünket,
01:08
and our ability to alter it.
16
68657
1669
hogy magunk is alakítsuk a világot.
01:11
What we need is an ethical revolution
17
71505
3667
Etikai forradalomra van szükségünk,
01:15
so that we can work out
18
75196
1548
hogy kidolgozzuk,
01:16
how do we use this tremendous bounty of resources
19
76768
3152
hogyan használjuk fel ezt a mérhetetlen anyagi forrást
01:19
to improve the world.
20
79944
1395
a világ jobbá tételére.
01:22
For the last 10 years,
21
82249
1591
Az elmúlt tíz évben
01:23
my colleagues and I have developed a philosophy and research program
22
83864
3833
kollégáimmal kialakítottunk egy filozófiát és kutatási programot,
01:27
that we call effective altruism.
23
87721
1835
amit hatékony altruizmusnak nevezünk.
01:30
It tries to respond to these radical changes in our world,
24
90366
3595
Megközelítésünk próbál igazodni a világ radikális változásaihoz,
01:33
uses evidence and careful reasoning to try to answer this question:
25
93985
4476
és tényekkel, körültekintő érveléssel igyekszik megválaszolni a kérdést:
01:40
How can we do the most good?
26
100173
2278
Hogyan tehetjük a lehető legtöbb jót?
01:44
Now, there are many issues you've got to address
27
104265
3221
Sokféle területet kell megvizsgálni,
01:47
if you want to tackle this problem:
28
107510
2263
hogy eldönthessük a kérdést:
01:49
whether to do good through your charity
29
109797
2031
milyen programokat támogassunk, kinek dolgozzunk,
01:51
or your career or your political engagement,
30
111852
2152
hogy adományunkkal, munkánkkal, politikai részvételünkkel
01:54
what programs to focus on, who to work with.
31
114028
2395
jót cselekedjünk?
01:57
But what I want to talk about
32
117624
1476
De amiről beszélni szeretnék,
01:59
is what I think is the most fundamental problem.
33
119124
2872
az a legalapvetőbb kérdés, úgy gondolom.
02:02
Of all the many problems that the world faces,
34
122020
2693
A sok probléma közül, amellyel a világ szembesül,
02:05
which should we be focused on trying to solve first?
35
125962
2659
melyiket próbáljuk megoldani először?
02:10
Now, I'm going to give you a framework for thinking about this question,
36
130668
3468
Adok önöknek egy elméleti keretet, hogy mérlegeljék ezt a kérdést,
02:14
and the framework is very simple.
37
134160
1936
a keret pedig igen egyszerű.
02:16
A problem's higher priority,
38
136842
1699
Minél súlyosabb, minél könnyebben megoldható vagy elhanyagoltabb
02:19
the bigger, the more easily solvable and the more neglected it is.
39
139416
4063
egy probléma, annál nagyobb prioritást kap.
02:24
Bigger is better,
40
144694
1642
A nagyobb azért jobb,
02:26
because we've got more to gain if we do solve the problem.
41
146360
2841
mert jelentősebb változást érünk el, ha sikerül megoldanunk a problémát.
02:30
More easily solvable is better
42
150221
1569
A könnyebben megoldható azért jobb,
02:31
because I can solve the problem with less time or money.
43
151814
2824
mert a megoldás kevesebb időt és pénzt vesz igénybe.
02:35
And most subtly,
44
155737
2063
És különösképpen
02:38
more neglected is better, because of diminishing returns.
45
158681
2849
az elhanyagoltabb probléma jobb a megtérülés szempontjából.
02:42
The more resources that have already been invested into solving a problem,
46
162285
3714
Minél több erőforrást fektettünk ez idáig egy probléma megoldásába,
02:46
the harder it will be to make additional progress.
47
166023
2905
annál nehezebb további haladást elérni.
02:50
Now, the key thing that I want to leave with you is this framework,
48
170560
4059
Ez az elméleti keret a lényeg, amit szeretnék átadni,
02:54
so that you can think for yourself
49
174643
1984
hogy megítéljék,
02:56
what are the highest global priorities.
50
176651
2321
milyen globális ügyek számítanak elsődleges fontosságúnak.
02:59
But I and others in the effective altruism community
51
179954
2692
Hatékony altruista mozgalmunkban nagyjából egyetértünk abban,
03:02
have converged on three moral issues that we believe are unusually important,
52
182670
5879
hogy három morális kérdés van, melyek különösen fontosak,
ezek kiemelt helyet kapnak ebben a keretben.
03:08
score unusually well in this framework.
53
188573
2182
03:11
First is global health.
54
191151
2813
Az első a globális egészségügy.
03:13
This is supersolvable.
55
193988
2411
Megoldása végtelenül egyszerű.
03:16
We have an amazing track record in global health.
56
196423
3397
Csodálatos eredményeink vannak a globális egészségügy terén.
03:19
Rates of death from measles, malaria, diarrheal disease
57
199844
5420
A kanyaró, a malária, a hasmenéses járványok halálozási aránya
03:25
are down by over 70 percent.
58
205288
2246
70 százalékkal csökkent.
03:29
And in 1980, we eradicated smallpox.
59
209534
2789
1980-ban felszámoltuk a himlőt,
03:33
I estimate we thereby saved over 60 million lives.
60
213815
3667
ezzel becslésem szerint 60 millió életet mentettünk meg.
03:37
That's more lives saved than if we'd achieved world peace
61
217506
3064
Többet, mintha elértük volna a világbékét
03:40
in that same time period.
62
220594
1697
abban az időszakban.
03:43
On our current best estimates,
63
223893
2325
Jelenlegi becslésünk szerint
03:46
we can save a life by distributing long-lasting insecticide-treated bed nets
64
226242
4128
– tartós, rovarirtóval kezelt szúnyoghálók terjesztésével –
03:50
for just a few thousand dollars.
65
230394
1903
pár ezer dollárból megmenthetünk egy életet.
03:52
This is an amazing opportunity.
66
232911
1667
Ez nagyszerű lehetőség!
03:55
The second big priority is factory farming.
67
235594
2515
A másik kiemelt ügy a nagyüzemi állattartás.
03:58
This is superneglected.
68
238681
1563
Ez végtelenül elhanyagolt.
04:00
There are 50 billion land animals used every year for food,
69
240768
4143
Évente 50 milliárd szárazföldi állatot használunk fel étkezési célra.
04:05
and the vast majority of them are factory farmed,
70
245625
2548
Döntő többségüket állattartó üzemekben nevelik,
04:08
living in conditions of horrific suffering.
71
248197
2380
rettenetes szenvedést okozó körülmények között.
04:10
They're probably among the worst-off creatures on this planet,
72
250601
3151
A legrosszabb sorsú teremtmények közé tartoznak ezen a bolygón,
04:13
and in many cases, we could significantly improve their lives
73
253776
2858
pedig sok esetben elenyésző összegből
04:16
for just pennies per animal.
74
256658
1602
jelentősen javíthatnánk az életükön.
04:19
Yet this is hugely neglected.
75
259123
2082
Mégis roppantul elhanyagolt ez a kérdés.
04:21
There are 3,000 times more animals in factory farms
76
261229
3810
3000-szer több állat él nagyüzemi tartásban,
04:25
than there are stray pets,
77
265063
1561
mint amennyi kóbor állat van,
04:28
but yet, factory farming gets one fiftieth of the philanthropic funding.
78
268600
4373
mégis a nagyüzemi állattartás a felajánlások egyötvened részét kapja.
04:34
That means additional resources in this area
79
274211
2128
Tehát további erőforrások ezen a területen
04:36
could have a truly transformative impact.
80
276363
2150
valódi, gyökeres változást idézhetnének elő.
04:39
Now the third area is the one that I want to focus on the most,
81
279458
2985
A harmadik terület az, amire leginkább szeretnék összpontosítani,
04:42
and that's the category of existential risks:
82
282467
2984
ez pedig az egzisztenciális kockázatok kategóriája:
04:45
events like a nuclear war or a global pandemic
83
285475
3873
olyan események, mint például nukleáris háború, globális járvány,
04:50
that could permanently derail civilization
84
290824
2611
amelyek végleg zátonyra futtathatják a civilizációt,
04:54
or even lead to the extinction of the human race.
85
294156
2436
vagy akár az emberi faj kihalásához vezethetnek.
04:57
Let me explain why I think this is such a big priority
86
297882
2540
Elmagyarázom, miért gondolom, hogy ez kiemelt ügy
05:00
in terms of this framework.
87
300446
1337
a mi elméleti keretünkben.
05:02
First, size.
88
302992
1412
Először is a nagyságrendje miatt.
05:05
How bad would it be if there were a truly existential catastrophe?
89
305341
3889
Mekkora baj lenne, ha lesújtana ránk egy valódi egzisztenciális katasztrófa?
05:10
Well, it would involve the deaths of all seven billion people on this planet
90
310920
6342
A bolygó hétmilliárd fős népességének halálát okozná,
05:17
and that means you and everyone you know and love.
91
317286
3119
beleértve magunkat és mindenkit, akit szeretünk.
05:21
That's just a tragedy of unimaginable size.
92
321214
2579
Elképzelhetetlen mértékű tragédia lenne.
05:25
But then, what's more,
93
325684
1976
De ennél is nagyobb baj,
05:27
it would also mean the curtailment of humanity's future potential,
94
327684
3605
hogy megfosztaná az emberiséget jövőbeli potenciáljától,
05:31
and I believe that humanity's potential is vast.
95
331313
2952
ami úgy gondolom, hatalmas.
05:35
The human race has been around for about 200,000 years,
96
335551
3451
Az emberi faj mintegy 200 000 éve létezik,
05:39
and if she lives as long as a typical mammalian species,
97
339026
2883
és ha addig él, mint az emlősfajok általában,
05:41
she would last for about two million years.
98
341933
2298
akkor még kb. 2 millió évig fennmarad.
05:46
If the human race were a single individual,
99
346884
2691
Ha az emberi fajt egyetlen személynek vennénk,
05:49
she would be just 10 years old today.
100
349599
2419
akkor most 10 éves lenne.
05:53
And what's more, the human race isn't a typical mammalian species.
101
353526
4166
Ráadásul az emberi faj nem egy átlagos emlősfaj.
05:58
There's no reason why, if we're careful,
102
358950
1906
Ha vigyázunk, semmi sem indokolja,
06:00
we should die off after only two million years.
103
360880
2205
hogy 2 millió év után kihaljunk.
06:03
The earth will remain habitable for 500 million years to come.
104
363839
4040
A Föld még 500 millió évig lakható lesz.
06:08
And if someday, we took to the stars,
105
368696
1944
És ha egy nap eljutunk a csillagokig,
06:11
the civilization could continue for billions more.
106
371640
2516
civilizációnk még több milliárd évig folytatódhat.
06:16
So I think the future is going to be really big,
107
376193
2388
Tehát igen hosszú jövő vár ránk,
06:19
but is it going to be good?
108
379669
1802
de vajon jó lesz-e?
06:21
Is the human race even really worth preserving?
109
381495
2817
Érdemes egyáltalán fenntartani az emberi fajt?
06:26
Well, we hear all the time about how things have been getting worse,
110
386540
3929
Folyton azt halljuk, hogy a dolgok egyre rosszabbra fordulnak,
06:31
but I think that when we take the long run,
111
391459
2693
de ha hosszú távon nézzük,
06:34
things have been getting radically better.
112
394176
2031
a dolgok lényegesen jobbra fordulnak.
06:37
Here, for example, is life expectancy over time.
113
397453
2294
Nézzük például a várható élettartam alakulását.
06:40
Here's the proportion of people not living in extreme poverty.
114
400892
3023
Itt azok arányát látjuk, akik nem súlyos szegénységben élnek,
06:45
Here's the number of countries over time that have decriminalized homosexuality.
115
405106
4095
itt azon országok grafikonját, amelyek dekriminalizálták a homoszexualitást,
06:50
Here's the number of countries over time that have become democratic.
116
410848
3269
itt pedig azokét, amelyek a demokrácia útjára léptek.
06:55
Then, when we look to the future, there could be so much more to gain again.
117
415015
4619
Ha a jövőbe tekintünk, annyi mindent érhetünk még el.
06:59
We'll be so much richer,
118
419658
1228
Sokkal gazdagabbak leszünk,
07:00
we can solve so many problems that are intractable today.
119
420910
3595
képesek leszünk megoldani számos, ma még kezelhetetlen problémát.
07:05
So if this is kind of a graph of how humanity has progressed
120
425389
4445
Tehát, ha ez az ábra az emberiség fejlődését mutatja
07:09
in terms of total human flourishing over time,
121
429858
2890
civilizációnk egészének felvirágzása szempontjából,
07:12
well, this is what we would expect future progress to look like.
122
432772
3355
akkor nézzük, milyen fejlődésre számíthatunk a jövőben.
07:16
It's vast.
123
436881
1150
Hatalmasra!
07:18
Here, for example,
124
438953
1198
Itt például eljutunk oda,
07:20
is where we would expect no one to live in extreme poverty.
125
440175
3746
amikor már senki nem él súlyos szegénységben.
07:25
Here is where we would expect everyone to be better off
126
445930
3202
Itt eljutunk oda, amikor várhatóan mindenki jobban él,
07:29
than the richest person alive today.
127
449156
1853
mint a leggazdagabb ember ma.
07:32
Perhaps here is where we would discover the fundamental natural laws
128
452081
3192
Itt talán felfedezzük a természet alapvető törvényeit,
07:35
that govern our world.
129
455297
1268
amelyek szabályozzák a világ működését.
07:37
Perhaps here is where we discover an entirely new form of art,
130
457516
3705
Itt talán felfedezzük a művészet egyik új formáját,
07:41
a form of music we currently lack the ears to hear.
131
461245
3040
olyan zenét, amit jelenleg nem hallhatunk a fülünkkel.
07:45
And this is just the next few thousand years.
132
465072
2222
És ez csak a következő néhány ezer év.
07:47
Once we think past that,
133
467827
2205
Ha még messzebbre tekintünk,
07:50
well, we can't even imagine the heights that human accomplishment might reach.
134
470056
4167
el sem tudjuk képzelni, milyen vívmányokat érhet el az emberiség.
07:54
So the future could be very big and it could be very good,
135
474247
3040
Tehát hosszú jövő várhat ránk, ami nagyon jó is lehet,
07:57
but are there ways we could lose this value?
136
477311
2086
de alakulhat-e úgy, hogy elveszítjük?
08:00
And sadly, I think there are.
137
480366
1826
Sajnos igen.
08:02
The last two centuries brought tremendous technological progress,
138
482216
4053
Az elmúlt két évszázad hatalmas technológiai fejlődést hozott,
08:06
but they also brought the global risks of nuclear war
139
486293
2622
de magával hozta a nukleáris háború globális kockázatát,
08:08
and the possibility of extreme climate change.
140
488939
2157
a szélsőséges klímaváltozás lehetőségét is.
08:11
When we look to the coming centuries,
141
491725
1767
Ha az eljövendő évszázadokra tekintünk,
08:13
we should expect to see the same pattern again.
142
493516
2647
ugyanilyen fejleményekre számíthatunk.
08:16
And we can see some radically powerful technologies on the horizon.
143
496187
3356
Áttörést jelentő technológiákat látunk kialakulóban.
08:20
Synthetic biology might give us the power to create viruses
144
500132
2849
A szintetikus biológia segítségével
08:23
of unprecedented contagiousness and lethality.
145
503005
3047
minden eddiginél fertőzőbb és halálosabb vírusokat hozhatunk létre.
08:27
Geoengineering might give us the power to dramatically alter the earth's climate.
146
507131
4643
A bolygómérnökség segítségével érdemben megváltoztathatjuk a Föld klímáját.
08:31
Artificial intelligence might give us the power to create intelligent agents
147
511798
4199
A mesterséges intelligencia segítségével magunknál jobb képességekkel rendelkező
08:36
with abilities greater than our own.
148
516021
2142
intelligens ágenseket hozhatunk létre.
08:40
Now, I'm not saying that any of these risks are particularly likely,
149
520222
3888
Nem állítom, hogy ezek a kockázatok kifejezetten valószínűek,
08:44
but when there's so much at stake,
150
524134
1644
de ha ilyen hatalmas a tét,
08:45
even small probabilities matter a great deal.
151
525802
2967
a kis valószínűség is nagyon sokat számít.
08:49
Imagine if you're getting on a plane and you're kind of nervous,
152
529568
3001
Képzeljék el, hogy repülőn utaznak, és kissé aggódnak,
08:52
and the pilot reassures you by saying,
153
532593
3444
a pilóta pedig megnyugtatásul közli:
08:56
"There's only a one-in-a-thousand chance of crashing. Don't worry."
154
536061
4634
"Csak egy az ezerhez a valószínűsége, hogy lezuhanunk. Ne aggódjanak!"
09:02
Would you feel reassured?
155
542157
1554
Megnyugodnának?
09:04
For these reasons, I think that preserving the future of humanity
156
544509
4088
Úgy gondolom emiatt, hogy az emberiség jövőjének megvédése
09:08
is among the most important problems that we currently face.
157
548621
2984
a jelenleg előttünk álló egyik legfontosabb probléma.
09:12
But let's keep using this framework.
158
552546
2150
Nézzük meg elméleti keretünk szempontjából.
09:14
Is this problem neglected?
159
554720
1310
Elhanyagolt-e ez a probléma?
09:18
And I think the answer is yes,
160
558085
2282
Szerintem a válasz igen,
09:20
and that's because problems that affect future generations
161
560391
3325
mégpedig azért, mert a jövő generációit érintő problémákat
09:23
are often hugely neglected.
162
563740
1651
gyakran súlyosan elhanyagoljuk.
09:26
Why?
163
566930
1406
Miért?
09:28
Because future people don't participate in markets today.
164
568360
3478
Mert a jövőbeli emberek ma nem piaci szereplők.
09:31
They don't have a vote.
165
571862
1522
Nincs szavazatuk.
09:33
It's not like there's a lobby representing the interests
166
573931
2673
Semmilyen lobbicsoport nem képviseli azok érdekeit,
09:36
of those born in 2300 AD.
167
576628
2023
akik mondjuk 2300-ban születtek.
09:40
They don't get to influence the decisions we make today.
168
580313
3242
Nincs ráhatásuk napjaink döntéseire.
09:43
They're voiceless.
169
583995
1191
Nincs beleszólásuk.
09:46
And that means we still spend a paltry amount on these issues:
170
586490
3445
Emiatt még mindig csekély összeget költünk olyan ügyekre,
09:49
nuclear nonproliferation,
171
589959
1799
mint a nukleáris leszerelés,
09:51
geoengineering, biorisk,
172
591782
2330
bolygómérnökség, biológiai kockázat,
09:55
artificial intelligence safety.
173
595414
1642
mesterséges intelligencia biztonsága.
09:57
All of these receive only a few tens of millions of dollars
174
597923
2874
Ezek az ügyek évente csak pár tízmillió dollárt kapnak
10:00
of philanthropic funding every year.
175
600821
1927
a jótékonysági felajánlásokból.
10:04
That's tiny compared to the 390 billion dollars
176
604044
3929
Elenyésző a 390 milliárd dollárhoz képest,
10:08
that's spent on US philanthropy in total.
177
608790
2261
amit az USA-ban jótékonyságra fordítanak.
10:13
The final aspect of our framework then:
178
613885
2484
A keretünk utolsó szempontját tekintve:
10:17
Is this solvable?
179
617083
1190
Megoldható ez a probléma?
10:19
I believe it is.
180
619289
1289
Azt hiszem, igen.
10:21
You can contribute with your money,
181
621014
3047
Hozzájárulhatunk pénzzel,
10:24
your career or your political engagement.
182
624085
2644
munkánkkal, politikai részvétellel.
Pénzünkkel támogathatjuk
10:28
With your money, you can support organizations
183
628225
2175
az említett kockázatokra összpontosító szervezeteket:
10:30
that focus on these risks,
184
630424
1302
10:31
like the Nuclear Threat Initiative,
185
631750
2555
a Nuclear Threat Initiative például
10:34
which campaigns to take nuclear weapons off hair-trigger alert,
186
634329
3660
a nukleáris fenyegetettség ellen harcol,
10:38
or the Blue Ribbon Panel, which develops policy to minimize the damage
187
638013
3571
a Blue Ribbon Panel programot dolgozott ki a természetes és ember okozta járványok
10:41
from natural and man-made pandemics,
188
641608
2095
következményeinek enyhítésére,
10:45
or the Center for Human-Compatible AI, which does technical research
189
645158
3260
a Center for Human-Compatible AI kutatásokat folytat
10:48
to ensure that AI systems are safe and reliable.
190
648442
2747
az MI-rendszerek biztonságáért, megbízhatóságáért.
10:52
With your political engagement,
191
652652
1516
Politikai részvételünkkel
10:54
you can vote for candidates that care about these risks,
192
654192
3096
olyan jelöltekre szavazhatunk, akik törődnek e kockázatokkal,
10:57
and you can support greater international cooperation.
193
657312
2586
és nagyobb nemzetközi együttműködést szorgalmazhatunk.
11:01
And then with your career, there is so much that you can do.
194
661767
3542
Munkánkkal is rengeteget segíthetünk.
11:05
Of course, we need scientists and policymakers and organization leaders,
195
665333
3672
Természetesen szükségünk van tudósokra, politikaalkotókra, szervezeti vezetőkre,
11:09
but just as importantly,
196
669865
1152
de legalább ilyen fontos,
11:11
we also need accountants and managers and assistants
197
671041
4117
hogy legyenek könyvelők, menedzserek, asszisztensek is
11:16
to work in these organizations that are tackling these problems.
198
676691
3754
ezekben a szervezetekben, amelyek e problémák megoldásán dolgoznak.
11:20
Now, the research program of effective altruism
199
680469
3492
A hatékony altruizmus kutatási programja
11:25
is still in its infancy,
200
685191
1444
egyelőre gyerekcipőben jár,
11:27
and there's still a huge amount that we don't know.
201
687262
2524
és rengeteg dolog van még, amit nem tudunk.
11:31
But even with what we've learned so far,
202
691173
2343
De már abból is, amit eddig megtanultunk,
11:34
we can see that by thinking carefully
203
694748
2183
láthatjuk, hogy körültekintő gondolkodással,
11:37
and by focusing on those problems that are big, solvable and neglected,
204
697494
4873
a nagy, megoldható és elhanyagolt problémákra összpontosítva
11:43
we can make a truly tremendous difference to the world
205
703152
2708
mélyreható változást érhetünk el a világban
11:45
for thousands of years to come.
206
705884
1631
az elkövetkező évezredek számára.
11:47
Thank you.
207
707963
1151
Köszönöm.
11:49
(Applause)
208
709138
4560
(Taps)
Erről a weboldalról

Ez az oldal olyan YouTube-videókat mutat be, amelyek hasznosak az angol nyelvtanuláshoz. A világ minden tájáról származó, kiváló tanárok által tartott angol leckéket láthatsz. Az egyes videók oldalán megjelenő angol feliratokra duplán kattintva onnan játszhatja le a videót. A feliratok a videó lejátszásával szinkronban gördülnek. Ha bármilyen észrevétele vagy kérése van, kérjük, lépjen kapcsolatba velünk ezen a kapcsolatfelvételi űrlapon.

https://forms.gle/WvT1wiN1qDtmnspy7