3 myths about the future of work (and why they're not true) | Daniel Susskind

171,485 views ・ 2018-04-05

TED


A videó lejátszásához kattintson duplán az alábbi angol feliratokra.

Fordító: Péter Pallós Lektor: Reka Lorinczy
00:12
Automation anxiety has been spreading lately,
0
12760
3376
Mind többet nyugtalankodunk, félünk
00:16
a fear that in the future,
1
16160
2656
a jövőbeni automatizálás miatt az utóbbi időben,
00:18
many jobs will be performed by machines
2
18840
2456
miszerint sok munkát gépek végeznek
00:21
rather than human beings,
3
21320
1336
emberi lények helyett,
00:22
given the remarkable advances that are unfolding
4
22680
2936
a mesterséges intelligenciában és a robotikában
00:25
in artificial intelligence and robotics.
5
25640
2776
figyelemre méltóan kibontakozó fejlődés következtében.
00:28
What's clear is that there will be significant change.
6
28440
2816
Annyi világos, hogy jelentős változások várhatók.
00:31
What's less clear is what that change will look like.
7
31280
3616
A változások természete viszont kevésbé világos.
00:34
My research suggests that the future is both troubling and exciting.
8
34920
4936
Kutatásom azt mutatja, hogy a jövő egyszerre aggasztó és lelkesítő.
00:39
The threat of technological unemployment is real,
9
39880
3736
A technológia okozta munkanélküliség valódi,
00:43
and yet it's a good problem to have.
10
43640
2056
de mégis jó, hogy efféle gondunk van.
00:45
And to explain how I came to that conclusion,
11
45720
3216
Hogy elmagyarázzam, hogyan jutottam e következtetésre,
00:48
I want to confront three myths
12
48960
2536
szembesülnünk kell három hiedelemmel,
00:51
that I think are currently obscuring our vision of this automated future.
13
51520
4280
amelyek elhomályosítják az automatizált jövőről alkotott képünket.
00:56
A picture that we see on our television screens,
14
56880
2336
A tévében, könyvekben, filmekben,
00:59
in books, in films, in everyday commentary
15
59240
2216
a mindennapi említésekben
01:01
is one where an army of robots descends on the workplace
16
61480
3696
munkahelyeket elárasztó robotok képe tárul elénk,
01:05
with one goal in mind:
17
65200
1376
melyeknek egyedüli célja:
01:06
to displace human beings from their work.
18
66600
2496
elűzni munkahelyeikről az embereket.
01:09
And I call this the Terminator myth.
19
69120
2696
Ezt hívom terminátorhiedelemnek.
01:11
Yes, machines displace human beings from particular tasks,
20
71840
3976
Igen, a gépek egyes foglalkozásokból kiszorítják az embert,
01:15
but they don't just substitute for human beings.
21
75840
2256
de nem csupán helyettesítik az embert.
01:18
They also complement them in other tasks,
22
78120
1976
Kibővítik a feladatkörüket,
01:20
making that work more valuable and more important.
23
80120
3616
és az elvégzett munka értékesebb és fontosabb lesz.
01:23
Sometimes they complement human beings directly,
24
83760
3336
Néha egyenesen kiegészítik az embert,
01:27
making them more productive or more efficient at a particular task.
25
87120
4016
s bizonyos munkákat termelékenyebbé és hatékonyabbá változtatnak.
01:31
So a taxi driver can use a satnav system to navigate on unfamiliar roads.
26
91160
4616
A taxis műholdas rendszert használhat, mellyel ismeretlen utakon tájékozódhat.
01:35
An architect can use computer-assisted design software
27
95800
3336
Az építész számítógépes tervezőrendszert használhat
01:39
to design bigger, more complicated buildings.
28
99160
3096
nagyobb, bonyolultabb épületekhez.
01:42
But technological progress doesn't just complement human beings directly.
29
102280
3696
De a műszaki fejlődés nem csupán kiegészíti az embert.
01:46
It also complements them indirectly, and it does this in two ways.
30
106000
3336
Közvetett módon is kiegészíti, mégpedig kétféleképpen.
01:49
The first is if we think of the economy as a pie,
31
109360
3336
Az első: ha a gazdaságot sütinek tekintjük,
01:52
technological progress makes the pie bigger.
32
112720
2896
a műszaki fejlődés megnöveli a sütit.
01:55
As productivity increases, incomes rise and demand grows.
33
115640
3856
A termelékenység javulásával a bevételek és a kereslet nő.
01:59
The British pie, for instance,
34
119520
1776
Pl. a brit süti több mint százszorosa
02:01
is more than a hundred times the size it was 300 years ago.
35
121320
3960
a 300 évvel ezelőttinek.
02:05
And so people displaced from tasks in the old pie
36
125920
3216
A régi sütiből kiszorított foglalkozású emberek
02:09
could find tasks to do in the new pie instead.
37
129160
2720
helyette az új sütiben találhattak maguknak állást.
02:12
But technological progress doesn't just make the pie bigger.
38
132800
3936
A műszaki fejlődés nemcsak megnöveli a sütit,
02:16
It also changes the ingredients in the pie.
39
136760
2856
hanem összetevőit is megváltoztatja.
02:19
As time passes, people spend their income in different ways,
40
139640
3456
Az idő előre haladtával az emberek másként költik el jövedelmüket,
02:23
changing how they spread it across existing goods,
41
143120
2816
módosítva a meglévő javak közötti megoszlását,
02:25
and developing tastes for entirely new goods, too.
42
145960
3216
és kifejlődik a teljesen új javak iránti ízlésük.
02:29
New industries are created,
43
149200
1776
Új iparágak születnek,
02:31
new tasks have to be done
44
151000
1816
új feladatok várnak megoldásra,
02:32
and that means often new roles have to be filled.
45
152840
2536
ami gyakran új szerepeket jelent.
02:35
So again, the British pie:
46
155400
1496
Ismétlem, a brit süti:
02:36
300 years ago, most people worked on farms,
47
156920
2976
300 éve a legtöbben a mezőgazdaságban,
02:39
150 years ago, in factories,
48
159920
2336
150 éve gyárakban dolgoztak,
02:42
and today, most people work in offices.
49
162280
2856
ma pedig zömmel irodákban dolgoznak.
02:45
And once again, people displaced from tasks in the old bit of pie
50
165160
4056
Ismétlem, a régi sütiben lévő munkákból kiszorult emberek
02:49
could tumble into tasks in the new bit of pie instead.
51
169240
2800
az új süti munkaköreibe kerülhettek.
02:52
Economists call these effects complementarities,
52
172720
3336
Közgazdászok ezt technológiai komplementaritásnak hívják,
02:56
but really that's just a fancy word to capture the different way
53
176080
3256
de ez csak jópofa szó a különböző módszerek leírására,
02:59
that technological progress helps human beings.
54
179360
3136
amellyel a műszaki fejlődés segíti az embert.
03:02
Resolving this Terminator myth
55
182520
2096
A terminátorhiedelem eloszlatása azt mutatja,
03:04
shows us that there are two forces at play:
56
184640
2336
hogy itt két erő szerepel:
03:07
one, machine substitution that harms workers,
57
187000
3536
az első a helyettesítő gép, amely kárt okoz a munkásoknak,
03:10
but also these complementarities that do the opposite.
58
190560
2880
de a komplementaritás ellentétes hatású.
03:13
Now the second myth,
59
193960
1376
Íme a másik hiedelem,
03:15
what I call the intelligence myth.
60
195360
2280
amelyet intelligenciahiedelemnek hívok.
03:18
What do the tasks of driving a car, making a medical diagnosis
61
198440
4896
Mi a közös az autóvezetésben, az orvosi diagnózis fölállításában
03:23
and identifying a bird at a fleeting glimpse have in common?
62
203360
2920
és madár röpke pillantással való meghatározásában?
03:27
Well, these are all tasks that until very recently,
63
207280
2976
E feladatokról a legutóbbi időkig
03:30
leading economists thought couldn't readily be automated.
64
210280
3336
vezető közgazdászok azt hitték, hogy nem könnyen automatizálhatók.
03:33
And yet today, all of these tasks can be automated.
65
213640
3176
Ma mégis, mindezeket a feladatokat lehet automatizálni.
03:36
You know, all major car manufacturers have driverless car programs.
66
216840
3496
Minden nagy autógyártónak van vezető nélküli programja.
03:40
There's countless systems out there that can diagnose medical problems.
67
220360
3976
Számtalan rendszer képes orvosi diagnosztikára.
03:44
And there's even an app that can identify a bird
68
224360
2416
Még alkalmazás is létezik, amely röpke pillantással
03:46
at a fleeting glimpse.
69
226800
1200
képes madarak maghatározására.
03:48
Now, this wasn't simply a case of bad luck on the part of economists.
70
228920
4376
A közgazdászoknak ez nem csupán peche volt.
03:53
They were wrong,
71
233320
1296
Tévedtek,
03:54
and the reason why they were wrong is very important.
72
234640
2496
és nagyon lényeges, amiért tévedtek.
03:57
They've fallen for the intelligence myth,
73
237160
2256
Az intelligenciahiedelem csapdájába estek,
03:59
the belief that machines have to copy the way
74
239440
2896
miszerint a gépeknek másolniuk kell
04:02
that human beings think and reason
75
242360
2056
az emberi gondolkodást és értelmet,
04:04
in order to outperform them.
76
244440
1776
hogy túltegyenek rajta.
04:06
When these economists were trying to figure out
77
246240
2216
Mikor a közgazdászok igyekeztek rájönni,
04:08
what tasks machines could not do,
78
248480
1856
mely feladatokat képtelenek gépek megoldani,
04:10
they imagined the only way to automate a task
79
250360
2136
a feladatautomatizálás egyetlen módszerének ezt tartották:
04:12
was to sit down with a human being,
80
252520
1816
magyaráztassuk el valakivel,
04:14
get them to explain to you how it was they performed a task,
81
254360
3536
ő hogyan végezné el a feladatot,
04:17
and then try and capture that explanation
82
257920
2656
aztán a magyarázatot fordítsuk le
04:20
in a set of instructions for a machine to follow.
83
260600
2776
a gépnek érthető utasítások sorozatára.
04:23
This view was popular in artificial intelligence at one point, too.
84
263400
4176
E nézet a mesterséges intelligencia területén is népszerű volt.
04:27
I know this because Richard Susskind,
85
267600
2176
Azért tudom, mert apám és társszerzőm,
04:29
who is my dad and my coauthor,
86
269800
2856
Richard Susskind az 1980-as években
04:32
wrote his doctorate in the 1980s on artificial intelligence and the law
87
272680
4056
doktoriját az MI-ből és jogból írta
04:36
at Oxford University,
88
276760
1416
az Oxfordi Egyetemen.
04:38
and he was part of the vanguard.
89
278200
1576
Az élharcosok közé tartozott.
04:39
And with a professor called Phillip Capper
90
279800
2256
Phillip Capper professzorral közösen,
04:42
and a legal publisher called Butterworths,
91
282080
2096
a Butterworths jogi kiadó révén
04:44
they produced the world's first commercially available
92
284200
5896
elkészítették a világ első, kereskedelemben kapható
04:50
artificial intelligence system in the law.
93
290120
2776
jogi MI-rendszerét.
04:52
This was the home screen design.
94
292920
2616
Ez volt a főképernyője.
04:55
He assures me this was a cool screen design at the time.
95
295560
2696
Apám arról győzköd, hogy akkoriban ez menő képernyő volt.
04:58
(Laughter)
96
298280
1016
(Nevetés)
04:59
I've never been entirely convinced.
97
299320
1696
Nem győzött meg teljesen.
05:01
He published it in the form of two floppy disks,
98
301040
2616
Két hajlékony lemezen jelentette meg a rendszert,
05:03
at a time where floppy disks genuinely were floppy,
99
303680
3536
mikor még azok tényleg hajlékonyak voltak.
05:07
and his approach was the same as the economists':
100
307240
2336
Fölfogása egyezett a közgazdászokéval:
05:09
sit down with a lawyer,
101
309600
1256
fogj egy jogászt,
05:10
get her to explain to you how it was she solved a legal problem,
102
310880
3176
magyaráztasd el, hogyan szokott jogi feladatokat megoldani,
05:14
and then try and capture that explanation in a set of rules for a machine to follow.
103
314080
5376
aztán a magyarázatot foglald a gép által követendő szabályokba.
05:19
In economics, if human beings could explain themselves in this way,
104
319480
3616
A közgazdaságban, ha az ember így meg tudja magát értetni,
05:23
the tasks are called routine, and they could be automated.
105
323120
3296
ezeket rutinfeladatnak nevezik, és azok automatizálhatók.
05:26
But if human beings can't explain themselves,
106
326440
2336
De ha nem képesek megértetni magukat,
05:28
the tasks are called non-routine, and they're thought to be out reach.
107
328800
4256
a feladatokat nem szokványosnak nevezik, és megoldhatatlannak tartják.
05:33
Today, that routine-nonroutine distinction is widespread.
108
333080
3296
Manapság közkeletű a rutin és a nem szokványos megkülönböztetése.
05:36
Think how often you hear people say to you
109
336400
2056
Milyen gyakran hallhatjuk:
05:38
machines can only perform tasks that are predictable or repetitive,
110
338480
3256
"a gépek csak előre meghatározható, ismétlődő, szabályokba foglalható
05:41
rules-based or well-defined.
111
341760
1896
s jól definiált feladatokkal boldogulnak".
05:43
Those are all just different words for routine.
112
343680
2936
Ezek csupán a rutin szó szinonimái.
05:46
And go back to those three cases that I mentioned at the start.
113
346640
3976
Térjünk vissza az elején említett három esethez!
05:50
Those are all classic cases of nonroutine tasks.
114
350640
2896
Ezek mind hagyományos nem szokványos esetek.
05:53
Ask a doctor, for instance, how she makes a medical diagnosis,
115
353560
2976
Kérdezzük orvosunkat, hogyan állít föl diagnózist!
05:56
and she might be able to give you a few rules of thumb,
116
356560
2656
Tán fölsorol néhány ökölszabályt,
05:59
but ultimately she'd struggle.
117
359240
1656
de végül kínban lesz.
06:00
She'd say it requires things like creativity and judgment and intuition.
118
360920
4816
Azt mondaná, hogy kreativitás, ítélőképesség és ráérzés kell hozzá.
06:05
And these things are very difficult to articulate,
119
365760
2376
Igen bonyolult ezeket megfogalmazni,
06:08
and so it was thought these tasks would be very hard to automate.
120
368160
3096
ezért gondolták, hogy az efféle feladatokat nehéz automatizálni.
06:11
If a human being can't explain themselves,
121
371280
2536
Ha az ember nem képes megértetni magát,
06:13
where on earth do we begin in writing a set of instructions
122
373840
2896
hogy az ördögbe lássunk hozzá
gépek által végrehajtható utasítások megírásához?
06:16
for a machine to follow?
123
376760
1200
06:18
Thirty years ago, this view was right,
124
378640
2576
Harminc éve e nézet helyes volt,
06:21
but today it's looking shaky,
125
381240
2136
de ma bizonytalannak tűnik,
06:23
and in the future it's simply going to be wrong.
126
383400
2256
és a jövőben pusztán hibás lesz.
06:25
Advances in processing power, in data storage capability
127
385680
3256
A feldolgozási teljesítmény, az adattárolási képesség
06:28
and in algorithm design
128
388960
1656
és az algoritmustervezés fejlődése
06:30
mean that this routine-nonroutine distinction
129
390640
2496
azt jelenti, hogy a rutin és a nem szokványos közötti különbség
06:33
is diminishingly useful.
130
393160
1736
elhanyagolható lesz.
06:34
To see this, go back to the case of making a medical diagnosis.
131
394920
3256
Ennek megértéséhez lássuk ismét a diagnózisfölállítás esetét!
06:38
Earlier in the year,
132
398200
1376
Az év elején
06:39
a team of researchers at Stanford announced they'd developed a system
133
399600
3296
stanfordi tudósok bejelentették, hogy rendszer fejlesztettek ki,
06:42
which can tell you whether or not a freckle is cancerous
134
402920
3056
amely a legjobb bőrgyógyász pontosságával mondja meg,
06:46
as accurately as leading dermatologists.
135
406000
2680
hogy egy folt rákos jellegű-e.
06:49
How does it work?
136
409280
1256
Hogyan?
06:50
It's not trying to copy the judgment or the intuition of a doctor.
137
410560
5296
Nem próbálja orvos ítélőképességét vagy megérzését másolni.
06:55
It knows or understands nothing about medicine at all.
138
415880
3136
Fogalma sincs az orvostudományról.
06:59
Instead, it's running a pattern recognition algorithm
139
419040
2576
129 450 korábbi eseten alapuló
07:01
through 129,450 past cases,
140
421640
4656
mintafelismerő algoritmust használ.
07:06
hunting for similarities between those cases
141
426320
3096
Az adott esetek és a konkrét elváltozás
07:09
and the particular lesion in question.
142
429440
2080
közötti hasonlóságokat keresi.
07:12
It's performing these tasks in an unhuman way,
143
432080
3216
Feladatát nem emberi módszerrel végzi,
07:15
based on the analysis of more possible cases
144
435320
2336
hanem több lehetséges eset elemzésével,
07:17
than any doctor could hope to review in their lifetime.
145
437680
2616
mint amennyi bármely orvos elé kerülhet élete során.
07:20
It didn't matter that that human being,
146
440320
1896
Nem volt jelentősége,
hogy orvos nem volt képes elmagyarázni, hogyan végzi a munkát.
07:22
that doctor, couldn't explain how she'd performed the task.
147
442240
2800
07:25
Now, there are those who dwell upon that the fact
148
445640
2336
Vannak, akik azt firtatják,
hogy e gépek nem a képünkre lettek megalkotva.
07:28
that these machines aren't built in our image.
149
448000
2296
07:30
As an example, take IBM's Watson,
150
450320
2056
Pl. ott van az IBM Watson nevű szuperszámítógépe,
07:32
the supercomputer that went on the US quiz show "Jeopardy!" in 2011,
151
452400
4856
amely részt vett 2011-ben az USA Jeopardy! c. kvízműsorában,
07:37
and it beat the two human champions at "Jeopardy!"
152
457280
3016
és legyőzte a két bajnokot.
07:40
The day after it won,
153
460320
1696
A győzelmet követő napon
07:42
The Wall Street Journal ran a piece by the philosopher John Searle
154
462040
3296
a The Wall Street Journal közölte John Searle filozófus cikkét e címmel:
07:45
with the title "Watson Doesn't Know It Won on 'Jeopardy!'"
155
465360
3376
"Watson nem tudja, hogy nyert a Jeopardyban".
07:48
Right, and it's brilliant, and it's true.
156
468760
1976
Remek cikk, ráadásul igaz is.
07:50
You know, Watson didn't let out a cry of excitement.
157
470760
2456
Watson nem hallatott diadalüvöltést.
07:53
It didn't call up its parents to say what a good job it had done.
158
473240
3096
Nem újságolta el szüleinek remek sikerét.
07:56
It didn't go down to the pub for a drink.
159
476360
2336
Nem tért be a kocsmába egy italra.
07:58
This system wasn't trying to copy the way that those human contestants played,
160
478720
4456
A rendszer nem igyekezett más versenyző viselkedését másolni,
08:03
but it didn't matter.
161
483200
1256
de ez nem is számít.
08:04
It still outperformed them.
162
484480
1976
Mégis túltett rajtuk.
08:06
Resolving the intelligence myth
163
486480
1576
Az intelligenciahiedelem eloszlatása jelzi,
08:08
shows us that our limited understanding about human intelligence,
164
488080
3376
hogy az emberi intelligencia tökéletlen megértése,
08:11
about how we think and reason,
165
491480
1896
a hogyan gondolkodunk és okoskodunk
08:13
is far less of a constraint on automation than it was in the past.
166
493400
3456
ma sokkal kevésbé akadálya az automatizálásnak, mint a múltban.
08:16
What's more, as we've seen,
167
496880
1496
Továbbá az is látható,
08:18
when these machines perform tasks differently to human beings,
168
498400
3416
hogy e gépek az emberhez képest másként végzik feladatukat.
08:21
there's no reason to think
169
501840
1256
Nincs okunk azt hinni,
08:23
that what human beings are currently capable of doing
170
503120
2536
hogy amire ma az ember képes,
08:25
represents any sort of summit
171
505680
1456
a csúcsát jelenti annak,
08:27
in what these machines might be capable of doing in the future.
172
507160
3000
amit e gépek tán megtehetnek a jövőben.
08:31
Now the third myth,
173
511040
1256
Lássuk a harmadikat,
08:32
what I call the superiority myth.
174
512320
2456
amit én felsőbbrendűségi hiedelemnek hívok!
08:34
It's often said that those who forget
175
514800
2216
Gyakran elhangzik,
08:37
about the helpful side of technological progress,
176
517040
2456
hogy aki elfeledkezik a műszaki fejlődés jó oldalairól,
08:39
those complementarities from before,
177
519520
2496
az említett komplementaritásról,
08:42
are committing something known as the lump of labor fallacy.
178
522040
3040
az ún. téves következtetésre jut a munkamennyiségről.
08:45
Now, the problem is the lump of labor fallacy
179
525840
2295
A munkamennyiségről vallott téves következtetés
08:48
is itself a fallacy,
180
528159
1496
önmagában is tévedés.
08:49
and I call this the lump of labor fallacy fallacy,
181
529679
2937
Ezt hívom a munkamennyiség téves következtetése tévedésének,
08:52
or LOLFF, for short.
182
532640
2320
vagy röviden LOLFF-nak
08:56
Let me explain.
183
536000
1416
Megmagyarázom.
08:57
The lump of labor fallacy is a very old idea.
184
537440
2136
A munkamennyiségről vallott téves következtetés igen régi.
08:59
It was a British economist, David Schloss, who gave it this name in 1892.
185
539600
4216
David Schloss brit közgazdász nevezte így el 1892-ben.
09:03
He was puzzled to come across a dock worker
186
543840
2816
Zavarba jött, amikor találkozott az egyik dokkmunkással,
09:06
who had begun to use a machine to make washers,
187
546680
2336
aki csavaralátét-készítő gépet kezdett használni.
09:09
the small metal discs that fasten on the end of screws.
188
549040
3320
Az alátét csavarokhoz használt gyűrű alakú fém alkatrész.
09:13
And this dock worker felt guilty for being more productive.
189
553000
3760
A dokkmunkás bűntudatot érzett, amiért termelékenyebb.
09:17
Now, most of the time, we expect the opposite,
190
557560
2176
Többnyire az ellenkezőjére számítunk:
09:19
that people feel guilty for being unproductive,
191
559760
2216
azért éreznek bűntudatot, mert nem termelékenyek,
09:22
you know, a little too much time on Facebook or Twitter at work.
192
562000
3016
mert pl. túl sokat kütyüznek a munkában.
De a munkás azért érzett bűntudatot, mert termelékenyebb.
09:25
But this worker felt guilty for being more productive,
193
565040
2536
Ezzel indokolta: "Tudom, hogy rosszat teszek.
09:27
and asked why, he said, "I know I'm doing wrong.
194
567600
2296
09:29
I'm taking away the work of another man."
195
569920
2040
Elveszem mások munkáját."
09:32
In his mind, there was some fixed lump of work
196
572760
2976
Tudatában bizonyos fix munkamennyiség oszlott meg
09:35
to be divided up between him and his pals,
197
575760
2136
közte és társai között,
09:37
so that if he used this machine to do more,
198
577920
2056
ezért ha géppel többet termel,
09:40
there'd be less left for his pals to do.
199
580000
2016
társainak kevesebb marad.
09:42
Schloss saw the mistake.
200
582040
1856
Schloss meglátta a hibát.
09:43
The lump of work wasn't fixed.
201
583920
1856
A munkamennyiség nem állandó.
09:45
As this worker used the machine and became more productive,
202
585800
2816
A munkás gépet használt, és termelékenyebb lett.
09:48
the price of washers would fall, demand for washers would rise,
203
588640
2976
Az alátétek ára esni fog, a kereslet iránta megnő,
09:51
more washers would have to be made,
204
591640
1696
több alátét készül,
09:53
and there'd be more work for his pals to do.
205
593360
2096
és így több munka jut a társainak.
09:55
The lump of work would get bigger.
206
595480
1696
A munkamennyiség megnő.
09:57
Schloss called this "the lump of labor fallacy."
207
597200
2680
Schloss ezt "a munkamennyiségről vallott téves következtetés"-nek hívta.
10:00
And today you hear people talk about the lump of labor fallacy
208
600560
2936
E téves következtetésről beszélnek az emberek,
10:03
to think about the future of all types of work.
209
603520
2216
amikor bármiféle munka jövőjéről van szó.
10:05
There's no fixed lump of work out there to be divided up
210
605760
2656
Nem létezik gépek és az ember között
megosztandó fix mennyiségű munka.
10:08
between people and machines.
211
608440
1376
10:09
Yes, machines substitute for human beings, making the original lump of work smaller,
212
609840
4656
Igen, a gépek fölváltják az embert, elvégezve ugyanazt a munkát,
10:14
but they also complement human beings,
213
614520
1856
de ki is egészítik az embert,
10:16
and the lump of work gets bigger and changes.
214
616400
2096
és a munkamennyiség nagyobb lesz és változik.
10:19
But LOLFF.
215
619760
1616
De itt a LOLFF.
10:21
Here's the mistake:
216
621400
1376
Itt a hiba:
10:22
it's right to think that technological progress
217
622800
2216
odáig helyes, hogy a műszaki fejlődés
10:25
makes the lump of work to be done bigger.
218
625040
1976
megnöveli az elvégzendő munkamennyiséget.
10:27
Some tasks become more valuable. New tasks have to be done.
219
627040
3016
Egyes munkák értékesebbé válnak. Új feladatok keletkeznek.
10:30
But it's wrong to think that necessarily,
220
630080
2536
Ám hiba lenne azt gondolni,
hogy szükségképpen az embernek kell ellátnia azokat a feladatokat.
10:32
human beings will be best placed to perform those tasks.
221
632640
3256
10:35
And this is the superiority myth.
222
635920
1616
Ez a felsőbbrendűségi hiedelem.
10:37
Yes, the lump of work might get bigger and change,
223
637560
3416
Igen, a munkamennyiség megnőhet és változhat,
10:41
but as machines become more capable,
224
641000
1976
de ahogy a gépek többre lesznek képesek,
10:43
it's likely that they'll take on the extra lump of work themselves.
225
643000
3896
valószínű, hogy azok végzik el a többletmunkát is.
10:46
Technological progress, rather than complement human beings,
226
646920
3256
A műszaki fejlődés nem az embert egészíti ki,
10:50
complements machines instead.
227
650200
1880
hanem a gépeket.
10:52
To see this, go back to the task of driving a car.
228
652920
3016
Ennek megértéséhez menjünk vissza az autóvezetéshez.
10:55
Today, satnav systems directly complement human beings.
229
655960
4096
Ma a műholdas navigációs rendszerek közvetlenül kiegészítik az embert.
11:00
They make some human beings better drivers.
230
660080
2280
Egyes embereket jobb vezetővé tesznek.
11:02
But in the future,
231
662920
1256
De a jövőben
11:04
software is going to displace human beings from the driving seat,
232
664200
3096
a szoftver kiszorítja a vezetőülésről az embert,
11:07
and these satnav systems, rather than complement human beings,
233
667320
2936
és e rendszerek az emberek kiegészítése helyett
egyszerűen a vezető nélküli autókat változtatják hatékonyabbá,
11:10
will simply make these driverless cars more efficient,
234
670280
2536
11:12
helping the machines instead.
235
672840
1536
a gépeket segítve.
11:14
Or go to those indirect complementarities that I mentioned as well.
236
674400
4056
Vagy nézzük az említett közvetett komplementaritás esetét is.
11:18
The economic pie may get larger,
237
678480
1776
A gazdasági süti talán megnő,
11:20
but as machines become more capable,
238
680280
1736
de ahogy a gépek többre lesznek képesek,
11:22
it's possible that any new demand will fall on goods that machines,
239
682040
3143
meglehet, hogy bármely új kereslet olyan árucikkeket érint,
11:25
rather than human beings, are best placed to produce.
240
685207
2649
amelyek termelésére a gépek alkalmasabbak lesznek.
11:27
The economic pie may change,
241
687880
1896
A gazdasági süti talán megváltozik,
11:29
but as machines become more capable,
242
689800
1896
de ahogy a gépek többre lesznek képesek,
11:31
it's possible that they'll be best placed to do the new tasks that have to be done.
243
691720
4856
lehet, hogy az új feladatokra gépeket jobb lesz beállítani.
11:36
In short, demand for tasks isn't demand for human labor.
244
696600
3696
Röviden: feladatok iránti igény nem azonos az emberi munka irántival.
11:40
Human beings only stand to benefit
245
700320
1936
Az ember csak akkor kovácsolhat előnyt,
11:42
if they retain the upper hand in all these complemented tasks,
246
702280
3816
ha minden kiegészítő feladatban megtartja előnyét,
11:46
but as machines become more capable, that becomes less likely.
247
706120
3720
de ahogy a gépek többre lesznek képesek, ez kevésbé lesz valószínű.
11:50
So what do these three myths tell us then?
248
710760
2016
Miről árulkodik e három hiedelem?
11:52
Well, resolving the Terminator myth
249
712800
1696
A terminátor-hiedelem eloszlatása azt mutatja,
11:54
shows us that the future of work depends upon this balance between two forces:
250
714520
3696
hogy a munka jövője két erő egyensúlyától függ:
11:58
one, machine substitution that harms workers
251
718240
3136
a helyettesítő gépektől, melyek ártanak a munkásoknak,
12:01
but also those complementarities that do the opposite.
252
721400
2576
de az ellenkező hatást kiváltó komplementaritásoktól is.
12:04
And until now, this balance has fallen in favor of human beings.
253
724000
4040
A mérleg eddig az ember felé billent.
12:09
But resolving the intelligence myth
254
729120
1736
Ám az intelligenciahiedelem arra utal,
12:10
shows us that that first force, machine substitution,
255
730880
2496
hogy az első erő,
a helyettesítő gépek ereje gyarapszik.
12:13
is gathering strength.
256
733400
1296
12:14
Machines, of course, can't do everything,
257
734720
1976
A gépek persze nem mindenre képesek,
12:16
but they can do far more,
258
736720
1256
de sokkal többet tehetnek,
12:18
encroaching ever deeper into the realm of tasks performed by human beings.
259
738000
4576
ha egyre mélyebben merészkednek az emberi tevékenység birodalmába.
12:22
What's more, there's no reason to think
260
742600
1896
Továbbá, nincs okunk föltételezni,
12:24
that what human beings are currently capable of
261
744520
2216
hogy amire ma az ember képes,
12:26
represents any sort of finishing line,
262
746760
1856
a végső határt jelenti,
12:28
that machines are going to draw to a polite stop
263
748640
2256
mely előtt a gépek előzékenyen megállnak,
12:30
once they're as capable as us.
264
750920
1816
ha ugyanarra lesznek képesek, mint mi.
12:32
Now, none of this matters
265
752760
1536
Mindaddig ez nem számít,
12:34
so long as those helpful winds of complementarity
266
754320
2816
amíg a komplementaritás jótékony szelei
12:37
blow firmly enough,
267
757160
1736
elég erősen fújnak,
12:38
but resolving the superiority myth
268
758920
1936
de a felsőbbrendűségi hiedelem arra utal,
12:40
shows us that that process of task encroachment
269
760880
3096
hogy a gépek térnyerése a feladatokban
12:44
not only strengthens the force of machine substitution,
270
764000
3936
nemcsak erősíti a helyettesítő gépek erejét,
12:47
but it wears down those helpful complementarities too.
271
767960
3336
hanem a komplementaritás jótékony hatását is fölmorzsolja.
12:51
Bring these three myths together
272
771320
1936
Ha e három hiedelmet összerakjuk,
12:53
and I think we can capture a glimpse of that troubling future.
273
773280
2936
pillantást vethetünk az aggasztó jövőre.
12:56
Machines continue to become more capable,
274
776240
2016
A gépek egyre többre lesznek képesek,
12:58
encroaching ever deeper on tasks performed by human beings,
275
778280
3656
egyre mélyebben merészkedve az emberi tevékenységekbe,
13:01
strengthening the force of machine substitution,
276
781960
2576
fokozva a helyettesítő gépek erejét,
13:04
weakening the force of machine complementarity.
277
784560
3616
gyengítve a gépek kiegészítő erejét.
13:08
And at some point, that balance falls in favor of machines
278
788200
4296
Egykor majd a mérleg az emberről
13:12
rather than human beings.
279
792520
2056
a gépek felé billen.
13:14
This is the path we're currently on.
280
794600
1736
Ma ezen az úton járunk.
13:16
I say "path" deliberately, because I don't think we're there yet,
281
796360
3176
Szándékosan mondok utat, mert bár még nem értünk célt,
13:19
but it is hard to avoid the conclusion that this is our direction of travel.
282
799560
3640
de nehéz elkerülni a következtetést, hogy ez az útirányunk.
13:24
That's the troubling part.
283
804640
1456
Ez a dolog aggasztó része.
13:26
Let me say now why I think actually this is a good problem to have.
284
806120
3520
Megmondom, miért jó ezzel foglalkozni.
13:30
For most of human history, one economic problem has dominated:
285
810520
3536
Történelmünk során egyetlen gazdasági kérdés volt előtérben:
13:34
how to make the economic pie large enough for everyone to live on.
286
814080
4056
hogyan növeljük elég naggyá a gazdasági sütit, hogy mindenkinek jusson belőle.
13:38
Go back to the turn of the first century AD,
287
818160
2176
Menjünk vissza az első századfordulóig.
13:40
and if you took the global economic pie
288
820360
2096
Ha a Föld gazdasági sütijét
13:42
and divided it up into equal slices for everyone in the world,
289
822480
3296
egyforma szeletekre vágjuk, hogy mindenkinek jusson belőle,
13:45
everyone would get a few hundred dollars.
290
825800
2136
egy-egy embernek pár száz dollár jutna.
13:47
Almost everyone lived on or around the poverty line.
291
827960
2760
Majdnem mindenki a szegénységi küszöb táján élne.
13:51
And if you roll forward a thousand years,
292
831320
2176
Ezer év múltán
majdnem ugyanaz a helyzet.
13:53
roughly the same is true.
293
833520
1240
13:55
But in the last few hundred years, economic growth has taken off.
294
835680
3576
De az utóbbi évszázadokban a gazdasági növekedés fölgyorsult.
13:59
Those economic pies have exploded in size.
295
839280
2376
A gazdasági süti robbanásszerűen nőtt.
14:01
Global GDP per head,
296
841680
2056
A világ egy főre eső GDP-je,
14:03
the value of those individual slices of the pie today,
297
843760
3376
egy-egy mai sütiszelet
14:07
they're about 10,150 dollars.
298
847160
2816
mintegy 10 150 dollár.
14:10
If economic growth continues at two percent,
299
850000
2696
Ha a gazdasági fejlődés üteme kétszázalékos marad,
14:12
our children will be twice as rich as us.
300
852720
2056
gyermekeink nálunk kétszer gazdagabbak lesznek.
14:14
If it continues at a more measly one percent,
301
854800
2296
Ha gyengébb, csak egyszázalékos lesz,
14:17
our grandchildren will be twice as rich as us.
302
857120
2656
unokáink lesznek nálunk kétszer gazdagabbak.
14:19
By and large, we've solved that traditional economic problem.
303
859800
3680
Nagyjából megoldottuk a hagyományos gazdasági problémát.
14:24
Now, technological unemployment, if it does happen,
304
864200
3016
Ha mégis előáll a technológiai munkanélküliség,
14:27
in a strange way will be a symptom of that success,
305
867240
3216
az a siker furcsa tünete lesz
14:30
will have solved one problem -- how to make the pie bigger --
306
870480
3856
és egy gondot old meg, nevezetesen: hogyan növeljük meg a sütit,
14:34
but replaced it with another --
307
874360
1816
de a helyébe másik lép:
14:36
how to make sure that everyone gets a slice.
308
876200
2760
miként gondoskodjunk róla, hogy mindenkinek jusson egy szelet.
14:39
As other economists have noted, solving this problem won't be easy.
309
879840
3496
Más közgazdászok megjegyezték: a feladat megoldása nem lesz könnyű.
14:43
Today, for most people,
310
883360
1656
Jelenleg az emberek zöme számára
14:45
their job is their seat at the economic dinner table,
311
885040
2496
az állása belépő a gazdasági vacsoraasztalhoz,
14:47
and in a world with less work or even without work,
312
887560
2416
és ha kevesebb munka lesz vagy egyáltalán nem lesz,
14:50
it won't be clear how they get their slice.
313
890000
2056
kétséges, honnan kapják szeletüket.
14:52
There's a great deal of discussion, for instance,
314
892080
2336
Tág tere van a vitának például
14:54
about various forms of universal basic income
315
894440
2696
a feltétel nélküli alapjövedelem különféle formáiról,
14:57
as one possible approach,
316
897160
1216
ami az egyik lehető megközelítés,
14:58
and there's trials underway
317
898400
1616
és folynak próbálkozások
15:00
in the United States and in Finland and in Kenya.
318
900040
2400
az USA-ban, Finnországban és Kenyában.
15:03
And this is the collective challenge that's right in front of us,
319
903000
3176
Ez közös, küszöbön álló kihívásunk,
15:06
to figure out how this material prosperity generated by our economic system
320
906200
5056
hogy rájöjjünk, a gazdasági rendszerünk teremtette anyagi boldogulást
15:11
can be enjoyed by everyone
321
911280
1976
hogyan élvezhetné mindenki
15:13
in a world in which our traditional mechanism
322
913280
2416
olyan világban,
15:15
for slicing up the pie,
323
915720
1856
amelyben a sütiszeletelés hagyományos mechanizmusa,
15:17
the work that people do,
324
917600
1936
az emberek által végzett munka
15:19
withers away and perhaps disappears.
325
919560
2160
elsorvad és tán el is tűnik.
15:22
Solving this problem is going to require us to think in very different ways.
326
922280
4360
A problémamegoldás más gondolkodásmódot igényel.
15:27
There's going to be a lot of disagreement about what ought to be done,
327
927400
4176
Sok vita lesz még a lehetséges teendőkről,
15:31
but it's important to remember that this is a far better problem to have
328
931600
3416
de tartsuk észben, hogy ez sokkal kellemesebb probléma,
15:35
than the one that haunted our ancestors for centuries:
329
935040
2816
mint ami elődeinket gyötörte századokig:
15:37
how to make that pie big enough in the first place.
330
937880
3376
hogyan növeljék meg elsősorban a sütit.
15:41
Thank you very much.
331
941280
1256
Köszönöm szépen.
15:42
(Applause)
332
942560
3840
(Taps)
Erről a weboldalról

Ez az oldal olyan YouTube-videókat mutat be, amelyek hasznosak az angol nyelvtanuláshoz. A világ minden tájáról származó, kiváló tanárok által tartott angol leckéket láthatsz. Az egyes videók oldalán megjelenő angol feliratokra duplán kattintva onnan játszhatja le a videót. A feliratok a videó lejátszásával szinkronban gördülnek. Ha bármilyen észrevétele vagy kérése van, kérjük, lépjen kapcsolatba velünk ezen a kapcsolatfelvételi űrlapon.

https://forms.gle/WvT1wiN1qDtmnspy7