3 myths about the future of work (and why they're not true) | Daniel Susskind

171,485 views ・ 2018-04-05

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Gözden geçirme: Ozay Ozaydin
Yapay zeka ve robotikteki
kaydadeğer gelişmeler göz önüne alındığında
gelecekte birçok işin insanlar yerine
00:12
Automation anxiety has been spreading lately,
0
12760
3376
makinelerce yapılacağı
korkusundan otomasyon, kaygısı günümüzde yayılıyor.
00:16
a fear that in the future,
1
16160
2656
00:18
many jobs will be performed by machines
2
18840
2456
Kayda değer bir değişim olacağı açık.
00:21
rather than human beings,
3
21320
1336
00:22
given the remarkable advances that are unfolding
4
22680
2936
Değişimin neye benzeyeceği ise belirsiz.
00:25
in artificial intelligence and robotics.
5
25640
2776
Araştırmam, geleceğin hem tedirgin edici
00:28
What's clear is that there will be significant change.
6
28440
2816
hem de heyecan verici olacağını gösteriyor.
00:31
What's less clear is what that change will look like.
7
31280
3616
Teknolojik işsizlik tehdidi bir gerçek
00:34
My research suggests that the future is both troubling and exciting.
8
34920
4936
ama yine de bu, sahip olunacak iyi bir problem.
Bu sonuca nasıl ulaştığımı açıklamak için, otomatik gelecek hakkında
00:39
The threat of technological unemployment is real,
9
39880
3736
şu anki görüşümüzü belirsizleştirdiğini düşündüğüm
00:43
and yet it's a good problem to have.
10
43640
2056
üç efsane ile yüzleştirmek istiyorum.
00:45
And to explain how I came to that conclusion,
11
45720
3216
00:48
I want to confront three myths
12
48960
2536
Televizyon ekranlarında, kitaplarda, filmlerde,
gündelik eleştirilerde gördüğümüz,
00:51
that I think are currently obscuring our vision of this automated future.
13
51520
4280
bir robot ordusunun akılda tek bir amaçla iş yerlerine
00:56
A picture that we see on our television screens,
14
56880
2336
çullandığı bir tablo:
İnsanlığı işlerinden etmek.
00:59
in books, in films, in everyday commentary
15
59240
2216
Ben buna Terminatör efsanesi diyorum.
01:01
is one where an army of robots descends on the workplace
16
61480
3696
Evet, makineler insanları belirli görevlerde yerinden eder,
01:05
with one goal in mind:
17
65200
1376
01:06
to displace human beings from their work.
18
66600
2496
ama yalnızca insanların yerine geçmezler.
01:09
And I call this the Terminator myth.
19
69120
2696
Aynı zamanda onları diğer görevlerde tamamlayarak,
01:11
Yes, machines displace human beings from particular tasks,
20
71840
3976
yapılan işi daha değerli ve daha önemli hale getiriyor.
01:15
but they don't just substitute for human beings.
21
75840
2256
Bazen insanları doğrudan tamamlayarak,
01:18
They also complement them in other tasks,
22
78120
1976
onları belirli bir işte daha üretken ya da daha verimli hale dönüştürürler.
01:20
making that work more valuable and more important.
23
80120
3616
Bir taksici, bilmediği yollar için uydu navigasyon sistemini kullanabilir.
01:23
Sometimes they complement human beings directly,
24
83760
3336
01:27
making them more productive or more efficient at a particular task.
25
87120
4016
Bir mimar daha büyük, daha karmaşık binaları tasarlamak için
bilgisayar destekli tasarım programlarını kullanabilir.
01:31
So a taxi driver can use a satnav system to navigate on unfamiliar roads.
26
91160
4616
Ancak teknolojik ilerleme, insanları sadece doğrudan değil,
01:35
An architect can use computer-assisted design software
27
95800
3336
aynı zamanda dolaylı olarak, her iki yoldan da tamamlıyor.
01:39
to design bigger, more complicated buildings.
28
99160
3096
İlk olarak, ekonomiyi bir turta olarak düşünürsek,
01:42
But technological progress doesn't just complement human beings directly.
29
102280
3696
teknolojik ilerleme turtayı daha da büyütür.
01:46
It also complements them indirectly, and it does this in two ways.
30
106000
3336
Üretkenli̇k arttıkça, gelir ve talep de artar.
01:49
The first is if we think of the economy as a pie,
31
109360
3336
Örneğin, İngiliz turta şimdi, 300 yıl önceki boyutundan
01:52
technological progress makes the pie bigger.
32
112720
2896
100 kat daha büyüktür.
01:55
As productivity increases, incomes rise and demand grows.
33
115640
3856
Yani, eski turtada işinden edilen insanlar
01:59
The British pie, for instance,
34
119520
1776
onun yerine yeni turtada kendilerine iş bulabilirler.
02:01
is more than a hundred times the size it was 300 years ago.
35
121320
3960
Fakat teknolojik ilerleme, yalnızca bu turtayı büyütmekle kalmaz,
02:05
And so people displaced from tasks in the old pie
36
125920
3216
aynı zamanda turtayı malzemelerini de değiştirir.
02:09
could find tasks to do in the new pie instead.
37
129160
2720
Zaman geçtikçe insanlar gelirlerini,
02:12
But technological progress doesn't just make the pie bigger.
38
132800
3936
mevcut ürünlere dağılımı değiştirerek ve tamamen yeni
02:16
It also changes the ingredients in the pie.
39
136760
2856
ürünler için beğeni geliştirerek farklı şekillerde harcarlar.
02:19
As time passes, people spend their income in different ways,
40
139640
3456
Yeni endüstrilerin ortaya çıkmasıyla
yeni görevler tanımlanmış olur
02:23
changing how they spread it across existing goods,
41
143120
2816
ve bu genellikle yeni rollerin doldurulmasını gerektirir.
02:25
and developing tastes for entirely new goods, too.
42
145960
3216
Yine İngiliz turtasına dönelim.
Birçok insan 300 yıl önce tarlalarda,
02:29
New industries are created,
43
149200
1776
02:31
new tasks have to be done
44
151000
1816
150 yıl önce de fabrikalarda çalışıyordu.
02:32
and that means often new roles have to be filled.
45
152840
2536
Bugün, birçok insan ofislerde çalışıyor.
02:35
So again, the British pie:
46
155400
1496
02:36
300 years ago, most people worked on farms,
47
156920
2976
Bir kez daha, eski turtada işinden olan insanlar
02:39
150 years ago, in factories,
48
159920
2336
bunun yerine yeni turtada iş bulabilirler.
02:42
and today, most people work in offices.
49
162280
2856
Ekonomistler bu etkileri tamamlayıcılar olarak adlandırıyor
02:45
And once again, people displaced from tasks in the old bit of pie
50
165160
4056
ama doğrusu bu, teknolojik ilerlemenin
02:49
could tumble into tasks in the new bit of pie instead.
51
169240
2800
yalnızca insanlara yardımının farklı şeklini yansıtan süslü bir kelime.
02:52
Economists call these effects complementarities,
52
172720
3336
Bu Terminatör mitini çözmek,
02:56
but really that's just a fancy word to capture the different way
53
176080
3256
bize oyunda iki güç olduğunu gösterir:
Birincisi, işçilerin yerini alarak, onlara zarar veren makineleşme,
02:59
that technological progress helps human beings.
54
179360
3136
03:02
Resolving this Terminator myth
55
182520
2096
ancak aynı zamanda bunun tersini yapan tamamlayıcılar da var.
03:04
shows us that there are two forces at play:
56
184640
2336
İkincisi ise,
zeka miti olarak adlandırdığım şeydir.
03:07
one, machine substitution that harms workers,
57
187000
3536
Araba sürmenin, tıbbi bir teşhis koymanın
03:10
but also these complementarities that do the opposite.
58
190560
2880
03:13
Now the second myth,
59
193960
1376
ve bakar bakmaz bir kuşu tanımlamanın ortak noktası nedir?
03:15
what I call the intelligence myth.
60
195360
2280
03:18
What do the tasks of driving a car, making a medical diagnosis
61
198440
4896
Bunların hepsi çok yakın zamana kadar önde gelen ekonomistlerin
kolaylıkla otomatikleştirilemeyeceğini düşündüğü şeylerdi.
03:23
and identifying a bird at a fleeting glimpse have in common?
62
203360
2920
Fakat bugün, bunların hepsi otomatikleştirilebilir.
03:27
Well, these are all tasks that until very recently,
63
207280
2976
Başlıca aşlıca araba imalatçıları sürücüsüz araba programlarına sahip olur.
03:30
leading economists thought couldn't readily be automated.
64
210280
3336
Tıbbi problemleri teşhis edebilen sayısız sistem etrafımızda.
03:33
And yet today, all of these tasks can be automated.
65
213640
3176
Hatta bir kuşu bakar bakmaz tanımlayan bir uygulama da bulunuyor.
03:36
You know, all major car manufacturers have driverless car programs.
66
216840
3496
03:40
There's countless systems out there that can diagnose medical problems.
67
220360
3976
Aslında bu durum sadece ekonomistlerin kötü şansıyla ilgili değildi.
03:44
And there's even an app that can identify a bird
68
224360
2416
Yanıldılar
03:46
at a fleeting glimpse.
69
226800
1200
ve yanılmalarının sebebi çok önemli.
03:48
Now, this wasn't simply a case of bad luck on the part of economists.
70
228920
4376
Makinelerin insanları geçmek için
onların düşünce ve akıl yürütme biçimlerini kopyalaması gerektiği
03:53
They were wrong,
71
233320
1296
03:54
and the reason why they were wrong is very important.
72
234640
2496
inancı olan zeka miti hatasına düşmüşlerdi.
03:57
They've fallen for the intelligence myth,
73
237160
2256
Bu ekonomistler,
03:59
the belief that machines have to copy the way
74
239440
2896
makinelerin hangi işleri yapamayacağını düşünürken
04:02
that human beings think and reason
75
242360
2056
bir işi otomatikleştirmenin tek yolunun
04:04
in order to outperform them.
76
244440
1776
insanlarla oturup nasıl iş yaptıklarını anlattırmak
04:06
When these economists were trying to figure out
77
246240
2216
ve daha sonra anlattıklarını
04:08
what tasks machines could not do,
78
248480
1856
bir makinenin uyacağı talimatlar
04:10
they imagined the only way to automate a task
79
250360
2136
04:12
was to sit down with a human being,
80
252520
1816
haline getirmek olduğunu düşünmüşlerdi.
04:14
get them to explain to you how it was they performed a task,
81
254360
3536
Bu görüş bir ara yapay zekada da popülerdi.
04:17
and then try and capture that explanation
82
257920
2656
Bunu biliyorum çünkü babam
04:20
in a set of instructions for a machine to follow.
83
260600
2776
ve yardımcı yazarım olan Richard Susskind,
04:23
This view was popular in artificial intelligence at one point, too.
84
263400
4176
1980lerde Oxford Üniversitesi’nde yapay zeka ve kanunu hakkındaki
04:27
I know this because Richard Susskind,
85
267600
2176
doktora tezini yazmıştı
04:29
who is my dad and my coauthor,
86
269800
2856
ve öncülerden biriydi.
Sonra Phillip Capper isimli
04:32
wrote his doctorate in the 1980s on artificial intelligence and the law
87
272680
4056
ve bir profesör ve Butterworths isimli
04:36
at Oxford University,
88
276760
1416
isimli bir editörle birlikte dünyanın
04:38
and he was part of the vanguard.
89
278200
1576
04:39
And with a professor called Phillip Capper
90
279800
2256
kanundaki ilk ticari yapay zeka sistemini üretti.
04:42
and a legal publisher called Butterworths,
91
282080
2096
04:44
they produced the world's first commercially available
92
284200
5896
Ana ekran tasarımı bu şekildeydi.
Asla tam olarak ikna olmadım.
(Gülüşmeler)
04:50
artificial intelligence system in the law.
93
290120
2776
Hiçbir zaman tamamen ikna olmadım.
04:52
This was the home screen design.
94
292920
2616
Bunu, disketlerin ve yaklaşımının ekonomistlerle
04:55
He assures me this was a cool screen design at the time.
95
295560
2696
aynı olduğu bir dönemde
04:58
(Laughter)
96
298280
1016
iki disket şeklinde yayınladı:
04:59
I've never been entirely convinced.
97
299320
1696
05:01
He published it in the form of two floppy disks,
98
301040
2616
Bir avukatla otur,
05:03
at a time where floppy disks genuinely were floppy,
99
303680
3536
yasal bir sorunu çözmenin nasıl olduğunu ona anlattır
sonra bu açıklamayı bir makinenin uyacağı talimatlar haline getirmeye çalış
05:07
and his approach was the same as the economists':
100
307240
2336
05:09
sit down with a lawyer,
101
309600
1256
05:10
get her to explain to you how it was she solved a legal problem,
102
310880
3176
Ekonomide, eğer insanlar kendilerini bu şekilde anlatabilirlerse
05:14
and then try and capture that explanation in a set of rules for a machine to follow.
103
314080
5376
işler rutinleşir ve otomatikleştirilebilir.
Ama eğer insanlar kendilerini açıklayamazlarsa
05:19
In economics, if human beings could explain themselves in this way,
104
319480
3616
işler rutin olmaktan çıkar ve erişilmez olarak görünürler.
05:23
the tasks are called routine, and they could be automated.
105
323120
3296
Bugün bu rutin-rutin olmayan farkı çok yaygın.
05:26
But if human beings can't explain themselves,
106
326440
2336
05:28
the tasks are called non-routine, and they're thought to be out reach.
107
328800
4256
İnsanların size ne sıklıkla
makinelerin sadece tahmin edilebilir, tekrar eden, kurallara dayanan veya
05:33
Today, that routine-nonroutine distinction is widespread.
108
333080
3296
iyi tanımlanmış işleri yapabileceğini söylediğini düşünün.
Bunlar sadece rutin için kullanılan bazı kelimeler.
05:36
Think how often you hear people say to you
109
336400
2056
05:38
machines can only perform tasks that are predictable or repetitive,
110
338480
3256
Şimdi başta bahsettiğim üç duruma geri dönelim.
05:41
rules-based or well-defined.
111
341760
1896
Bunların hepsi rutin olmayan işlerin tipik durumları.
05:43
Those are all just different words for routine.
112
343680
2936
Örneğin, bir doktora nasıl tıbbi teşhis yaptığını sorduğunuzda
05:46
And go back to those three cases that I mentioned at the start.
113
346640
3976
size göz kararı bir şeyler söyleyebilir
05:50
Those are all classic cases of nonroutine tasks.
114
350640
2896
ama en nihayetinde zorlanacak ve size
05:53
Ask a doctor, for instance, how she makes a medical diagnosis,
115
353560
2976
bunun yaratıcılık, muhakeme ve sezgi gibi şeyler gerektirdiğini söyleyecek.
05:56
and she might be able to give you a few rules of thumb,
116
356560
2656
Bütün bunları anlatmak çok güç olduğundan
05:59
but ultimately she'd struggle.
117
359240
1656
bu işleri otomatikleştirmenin çok güç olacağı düşünülmüştü.
06:00
She'd say it requires things like creativity and judgment and intuition.
118
360920
4816
Eğer insanlar kendilerini ifade edemeyeceklerse
06:05
And these things are very difficult to articulate,
119
365760
2376
ne diye bir makinenin takip etmesi için
06:08
and so it was thought these tasks would be very hard to automate.
120
368160
3096
talimatlar yazmaya başlıyoruz?
Otuz yıl önce bu fikir doğruydu.
06:11
If a human being can't explain themselves,
121
371280
2536
Ama günümüzde biraz sallantıda duruyor
06:13
where on earth do we begin in writing a set of instructions
122
373840
2896
ve gelecekte düpedüz yanlış olacağı belli.
06:16
for a machine to follow?
123
376760
1200
İşlem gücü, veri depolama kapasitesi
06:18
Thirty years ago, this view was right,
124
378640
2576
ve algoritma tasarımındaki ilerlemeler
06:21
but today it's looking shaky,
125
381240
2136
bu rutin-rutin olmayan farkının
06:23
and in the future it's simply going to be wrong.
126
383400
2256
giderek azalarak fayda sağladığı anlamına geliyor.
06:25
Advances in processing power, in data storage capability
127
385680
3256
Bunu görmek için, tıbbi teşhis durumuna dönelim.
06:28
and in algorithm design
128
388960
1656
Bu yılın başlarında,
06:30
mean that this routine-nonroutine distinction
129
390640
2496
Stanford’da bir araştırma ekibi size bir çilin
06:33
is diminishingly useful.
130
393160
1736
kanserli olup olmadığını dermatologlar kadar doğru bir şekilde
06:34
To see this, go back to the case of making a medical diagnosis.
131
394920
3256
söyleyebilecek bir sistem geliştirdiklerini duyurdu.
06:38
Earlier in the year,
132
398200
1376
06:39
a team of researchers at Stanford announced they'd developed a system
133
399600
3296
Peki bu nasıl çalışır?
06:42
which can tell you whether or not a freckle is cancerous
134
402920
3056
Sistem, doktorun muhakemesini veya sezgisini kopyalamaya çalışmıyor.
06:46
as accurately as leading dermatologists.
135
406000
2680
Hatta tıp hakkında ne bir şey biliyor ne de anlıyor.
06:49
How does it work?
136
409280
1256
06:50
It's not trying to copy the judgment or the intuition of a doctor.
137
410560
5296
Aksine, 129.450 geçmiş vakadan
bu vakaların ve söz konusu lezyonun arasındaki benzerlikleri araştıran
06:55
It knows or understands nothing about medicine at all.
138
415880
3136
bir yapı teşhis algoritması çalıştırıyor.
06:59
Instead, it's running a pattern recognition algorithm
139
419040
2576
Sistem, bu işleri hiçbir doktorun ömrü boyu
07:01
through 129,450 past cases,
140
421640
4656
incelemeyi düşünemeyeceği kadar fazla muhtemel vakanın
07:06
hunting for similarities between those cases
141
426320
3096
analizini temel alarak insan dışı bir şekilde gerçekleştiriyor.
07:09
and the particular lesion in question.
142
429440
2080
Bu kişinin, şu doktorun işlerini nasıl yaptığını
07:12
It's performing these tasks in an unhuman way,
143
432080
3216
anlatamamasının bir önemi kalmadı.
Bu makinelerin bizim timsalimizin üzerine kurulu olmadığı
07:15
based on the analysis of more possible cases
144
435320
2336
07:17
than any doctor could hope to review in their lifetime.
145
437680
2616
konusunda ısrarcı olanlar hala var.
Örneğin, 2011′de ABD’de ″Jeopardy!″ isimli
07:20
It didn't matter that that human being,
146
440320
1896
soru yarışmasına çıkan süper bilgisayar
07:22
that doctor, couldn't explain how she'd performed the task.
147
442240
2800
iki insan şampiyonu yarışmada yendi.
07:25
Now, there are those who dwell upon that the fact
148
445640
2336
07:28
that these machines aren't built in our image.
149
448000
2296
Kazandıktan sonraki gün,
07:30
As an example, take IBM's Watson,
150
450320
2056
The Wall Street Journal, filozof
07:32
the supercomputer that went on the US quiz show "Jeopardy!" in 2011,
151
452400
4856
Searle’in eserini ″Watson Doesn’t Know It Won on ‘Jeopardy!’ ″
başlığıyla yayımladı.
07:37
and it beat the two human champions at "Jeopardy!"
152
457280
3016
07:40
The day after it won,
153
460320
1696
Aynen, harika ve doğru.
07:42
The Wall Street Journal ran a piece by the philosopher John Searle
154
462040
3296
Watson mutluluk çığlığı atmadı.
Ne kadar iyi bir iş çıkardığını söylemek için ailesini aramadı.
07:45
with the title "Watson Doesn't Know It Won on 'Jeopardy!'"
155
465360
3376
Bir şeyler içmek için bara gitmedi.
07:48
Right, and it's brilliant, and it's true.
156
468760
1976
07:50
You know, Watson didn't let out a cry of excitement.
157
470760
2456
Sistem insan yarışmacıların oynama şeklini kopyalamaya çalışmıyordu
07:53
It didn't call up its parents to say what a good job it had done.
158
473240
3096
ama bunun bir önemi yoktu.
Yine de insanlardan daha iyi iş çıkarmıştı.
07:56
It didn't go down to the pub for a drink.
159
476360
2336
07:58
This system wasn't trying to copy the way that those human contestants played,
160
478720
4456
Zeka efsanesini çözmek,
insan zekasıyla düşünme ve mantık yürütme şekli hakkındaki
sınırlı anlayışımızın otomasyonda
08:03
but it didn't matter.
161
483200
1256
08:04
It still outperformed them.
162
484480
1976
geçmiştekinden çok daha az bir kısıtlama rolü olduğunu gösteriyor.
08:06
Resolving the intelligence myth
163
486480
1576
08:08
shows us that our limited understanding about human intelligence,
164
488080
3376
Üstelik görmüş olduğumuz üzere,
bu makineler işleri insanlardan farklı şekilde yaptıklarında
08:11
about how we think and reason,
165
491480
1896
08:13
is far less of a constraint on automation than it was in the past.
166
493400
3456
insanların günümüzde yapabildiklerinin
bu makinelerin gelecekte neler yapabileceğine dair
08:16
What's more, as we've seen,
167
496880
1496
herhangi bir zirveyi temsil ettiğini
08:18
when these machines perform tasks differently to human beings,
168
498400
3416
düşünmenin bir mantığı yok.
08:21
there's no reason to think
169
501840
1256
Sıradaki üçüncü efsane,
08:23
that what human beings are currently capable of doing
170
503120
2536
benim üstün olarak adlandırdığım efsane.
08:25
represents any sort of summit
171
505680
1456
Derler ki, teknolojik ilerlemenin yararlı
08:27
in what these machines might be capable of doing in the future.
172
507160
3000
tarafını, önceki gelişmeleri, unutanlar
08:31
Now the third myth,
173
511040
1256
08:32
what I call the superiority myth.
174
512320
2456
''toplam iş yanılgısı'' olarak bilinen
08:34
It's often said that those who forget
175
514800
2216
bir suç işlemiş olurlar.
08:37
about the helpful side of technological progress,
176
517040
2456
Aslında sorun, toplam iş yanılgısının
08:39
those complementarities from before,
177
519520
2496
kendisinin bir yanılgı olması.
Ben buna toplam iş yanılgısı yanılgısı
08:42
are committing something known as the lump of labor fallacy.
178
522040
3040
veya kısaca LOLFF diyorum.
08:45
Now, the problem is the lump of labor fallacy
179
525840
2295
Açıklayayım.
08:48
is itself a fallacy,
180
528159
1496
Toplam iş yanılgısı çok eski bir fikir.
08:49
and I call this the lump of labor fallacy fallacy,
181
529679
2937
Bu ismi 1892′de İngiliz ekonomist David Schloss vermişti.
08:52
or LOLFF, for short.
182
532640
2320
Schloss, çamaşır yıkamak için vidaların ucuna tutturulan
08:56
Let me explain.
183
536000
1416
08:57
The lump of labor fallacy is a very old idea.
184
537440
2136
küçük metal disklerden oluşan makineyi kullanan
08:59
It was a British economist, David Schloss, who gave it this name in 1892.
185
539600
4216
bir tersane işçisine rastladığına çok şaşırmıştı.
09:03
He was puzzled to come across a dock worker
186
543840
2816
Bu işçi daha verimli çalıştığı için kendini suçlu hissediyordu.
09:06
who had begun to use a machine to make washers,
187
546680
2336
Şimdi, çoğu zaman bunun tam tersini bekleriz,
09:09
the small metal discs that fasten on the end of screws.
188
549040
3320
insanlar üretken olmadıkları için kendilerini suçlu hissederler,
09:13
And this dock worker felt guilty for being more productive.
189
553000
3760
bilirsiniz işte Facebook ya da Twitter’da biraz fazla zaman geçirdikleri için.
09:17
Now, most of the time, we expect the opposite,
190
557560
2176
Ama bu işçi daha verimli olunca suçlu hissediyor
09:19
that people feel guilty for being unproductive,
191
559760
2216
ve Nedeni sorulunca, ″Yanlış yaptığımı biliyorum,
başka insanların işini onlardan alıyorum.″
09:22
you know, a little too much time on Facebook or Twitter at work.
192
562000
3016
Aklında, kendisi ve arkadaşları arasında
09:25
But this worker felt guilty for being more productive,
193
565040
2536
paylaştırılması gereken sabit bir iş yığını vardı.
09:27
and asked why, he said, "I know I'm doing wrong.
194
567600
2296
09:29
I'm taking away the work of another man."
195
569920
2040
Bu yüzden daha çok şey yapmak için bu makineyi kullanırsa,
09:32
In his mind, there was some fixed lump of work
196
572760
2976
arkadaşlarına daha az iş kalacaktı.
Schloss hatayı gördü.
09:35
to be divided up between him and his pals,
197
575760
2136
İş yığını sabit değildi.
09:37
so that if he used this machine to do more,
198
577920
2056
Bu işçi makineyi daha çok kullanıp daha verimli oldukça
09:40
there'd be less left for his pals to do.
199
580000
2016
yıkama makinelerinin fiyatı düşecek, talepleri artacaktı.
09:42
Schloss saw the mistake.
200
582040
1856
09:43
The lump of work wasn't fixed.
201
583920
1856
Daha fazla makine yapılmalıydı
ve arkadaşlarının da daha fazla işi olacaktı.
09:45
As this worker used the machine and became more productive,
202
585800
2816
İş yığını daha da büyüyecekti.
09:48
the price of washers would fall, demand for washers would rise,
203
588640
2976
Schloss buna “toplam iş yanılgısı” adını verdi. Ve bugün,
09:51
more washers would have to be made,
204
591640
1696
insanların her türlü mesleğin geleceği üzerine düşünmek için,
09:53
and there'd be more work for his pals to do.
205
593360
2096
09:55
The lump of work would get bigger.
206
595480
1696
toplam iş yanılgısı üzerine konuştuğu duyulur.
09:57
Schloss called this "the lump of labor fallacy."
207
597200
2680
Makinelere ve insanlara bölüştürmek için
Sabit bir iş yığını yoktur.
10:00
And today you hear people talk about the lump of labor fallacy
208
600560
2936
Evet, makineler asıl iş yükünü küçültmek için insanların yerine geçerler,
10:03
to think about the future of all types of work.
209
603520
2216
10:05
There's no fixed lump of work out there to be divided up
210
605760
2656
ama ayrıca insanları tamamlarlar
ve iş yükü büyür ve değişir.
10:08
between people and machines.
211
608440
1376
10:09
Yes, machines substitute for human beings, making the original lump of work smaller,
212
609840
4656
Ama LOLFF.
Sıkıntı şurada:
10:14
but they also complement human beings,
213
614520
1856
Teknolojik ilerlemenin yapılacak işleri
10:16
and the lump of work gets bigger and changes.
214
616400
2096
büyüttüğünü düşünmek doğru.
Bazı işler daha değerli olur. Yeni işler yapılmak zorunda.
10:19
But LOLFF.
215
619760
1616
10:21
Here's the mistake:
216
621400
1376
Ama ille de insanların, bu işleri yapmak için
10:22
it's right to think that technological progress
217
622800
2216
görevlendirilmesini düşünmek değil.
10:25
makes the lump of work to be done bigger.
218
625040
1976
10:27
Some tasks become more valuable. New tasks have to be done.
219
627040
3016
Bu bir üstünlük efsanesidir.
Evet, iş yığını büyüyebilir ve değişebilir
10:30
But it's wrong to think that necessarily,
220
630080
2536
10:32
human beings will be best placed to perform those tasks.
221
632640
3256
ama makineler daha da becerikli oldukça,
ekstra iş yığınını üstlenebilirler
10:35
And this is the superiority myth.
222
635920
1616
10:37
Yes, the lump of work might get bigger and change,
223
637560
3416
Teknolojik ilerleme, insanları tamamlamak yerine
10:41
but as machines become more capable,
224
641000
1976
makineleri tamamlar.
10:43
it's likely that they'll take on the extra lump of work themselves.
225
643000
3896
Bunü anlamak için, araba sürme örneğine gidelim.
10:46
Technological progress, rather than complement human beings,
226
646920
3256
Bugün uydu seyir sistemleri direkt olarak insanları tamamlar.
10:50
complements machines instead.
227
650200
1880
Bazı insanları daha iyi sürücüler yapar.
10:52
To see this, go back to the task of driving a car.
228
652920
3016
Ancak gelecekte yazılım,
10:55
Today, satnav systems directly complement human beings.
229
655960
4096
insanların şoför koltuğundaki yerini alacak
ve bu uydu takip sistemleri insanları tamamlamaktansa
11:00
They make some human beings better drivers.
230
660080
2280
sürücüsüz araçları daha verimli yapacak,
11:02
But in the future,
231
662920
1256
11:04
software is going to displace human beings from the driving seat,
232
664200
3096
yani makinelere yardım edecek.
Ya da şu bahsettiğim dolaylı tamamlayıcılığa gidelim.
11:07
and these satnav systems, rather than complement human beings,
233
667320
2936
Ekonomik pasta büyüyebilir, ama
11:10
will simply make these driverless cars more efficient,
234
670280
2536
Makineler daha da becerikli oldukça
11:12
helping the machines instead.
235
672840
1536
bir ürün üretilmesi için herhangi bir yeni talebin de
11:14
Or go to those indirect complementarities that I mentioned as well.
236
674400
4056
insanlardansa makinelere iletilmesi mümkün.
11:18
The economic pie may get larger,
237
678480
1776
Ekonomik pasta değişebilir,
11:20
but as machines become more capable,
238
680280
1736
ama makineler daha da becerikli oldukça
11:22
it's possible that any new demand will fall on goods that machines,
239
682040
3143
Yapılması gereken yeni işlerin onlara yaptırılması mümkün.
11:25
rather than human beings, are best placed to produce.
240
685207
2649
11:27
The economic pie may change,
241
687880
1896
Kısaca, iş talebi, insanın iş gücü talebi demek değildir.
11:29
but as machines become more capable,
242
689800
1896
11:31
it's possible that they'll be best placed to do the new tasks that have to be done.
243
691720
4856
İnsanlar sadece bu tamamlanan işlerde galibiyeti korumaya
devam ederlerse fayda sağlarlar.
11:36
In short, demand for tasks isn't demand for human labor.
244
696600
3696
ama makineler daha becerikli oldukça bunun ihtimali azalır.
11:40
Human beings only stand to benefit
245
700320
1936
11:42
if they retain the upper hand in all these complemented tasks,
246
702280
3816
O zaman bu üç efsane bize ne söylüyor?
Terminatör efsanesinden bize
11:46
but as machines become more capable, that becomes less likely.
247
706120
3720
işlerin geleceğinin iki kuvvet arasındaki dengeye bağlı olduğunu söylüyor:
İlki işçilere zarar veren, makinenin onların yerlerini alması
11:50
So what do these three myths tell us then?
248
710760
2016
11:52
Well, resolving the Terminator myth
249
712800
1696
ama ayrıca tam tersini yapan tamamayıcılık.
11:54
shows us that the future of work depends upon this balance between two forces:
250
714520
3696
Şimdiye kadar, bu denge hep insanların faydasına olacak şekilde bozuldu.
11:58
one, machine substitution that harms workers
251
718240
3136
Ama zeka efsanesi ilk kuvvetin,
12:01
but also those complementarities that do the opposite.
252
721400
2576
makine tamamlayıcılığının
12:04
And until now, this balance has fallen in favor of human beings.
253
724000
4040
güç kazandığını söylüyor.
Makineler tabi ki, her şeyi yapamazlar ama
daha çoğunu yapabilirler.
12:09
But resolving the intelligence myth
254
729120
1736
İnsanların yaptığı evrenin derinliklerine zarar veren işler.
12:10
shows us that that first force, machine substitution,
255
730880
2496
12:13
is gathering strength.
256
733400
1296
12:14
Machines, of course, can't do everything,
257
734720
1976
Hatta insanların şu an yapabileceği
12:16
but they can do far more,
258
736720
1256
şeylerin, makineler yeterince geliştiğinde
12:18
encroaching ever deeper into the realm of tasks performed by human beings.
259
738000
4576
kibarca durdurabileceği
bir bitiş çizgisini temsil ettiğini
12:22
What's more, there's no reason to think
260
742600
1896
düşünmemek için hiçbir sebep yok
12:24
that what human beings are currently capable of
261
744520
2216
Şu an bunların hepsi önemsiz,
tamamlayıcılık rüzgarı sürekli
12:26
represents any sort of finishing line,
262
746760
1856
12:28
that machines are going to draw to a polite stop
263
748640
2256
ve yeterince estiği sürece,
12:30
once they're as capable as us.
264
750920
1816
ama üstünlük efsanesi
12:32
Now, none of this matters
265
752760
1536
gösteriyor ki görev ihlali makine değişiminin
12:34
so long as those helpful winds of complementarity
266
754320
2816
gücünü artırmakla kalmıyor
12:37
blow firmly enough,
267
757160
1736
12:38
but resolving the superiority myth
268
758920
1936
hatta faydalı tamamlayıcılığı da yıpratıyor.
12:40
shows us that that process of task encroachment
269
760880
3096
Bu üç efsaneyi biraraya getirince
12:44
not only strengthens the force of machine substitution,
270
764000
3936
düşünüyorum da o sıkıntılı geleceğe bir bakış atabiliyoruz.
12:47
but it wears down those helpful complementarities too.
271
767960
3336
Makineler daha yetenekli oluyor,
insanların yaptığı işlerin derinliklerine iniyor,
12:51
Bring these three myths together
272
771320
1936
12:53
and I think we can capture a glimpse of that troubling future.
273
773280
2936
Makine yer değiştirmesini güçlendiriyor,
12:56
Machines continue to become more capable,
274
776240
2016
makine tamamlayıcılığının gücünü azaltıyor.
12:58
encroaching ever deeper on tasks performed by human beings,
275
778280
3656
Ve bir noktada, bu denge makinelerin faydasına bozuluyor,
13:01
strengthening the force of machine substitution,
276
781960
2576
13:04
weakening the force of machine complementarity.
277
784560
3616
insanların değil.
Burası bizim şu anki yolumuz.
Kasıtlı olarak “yol” diyorum, çünkü orada olduğumuzu düşünmüyorum,
13:08
And at some point, that balance falls in favor of machines
278
788200
4296
ama bu sondan kaçmak zor, çünkü bu yönde geziniyoruz.
13:12
rather than human beings.
279
792520
2056
13:14
This is the path we're currently on.
280
794600
1736
13:16
I say "path" deliberately, because I don't think we're there yet,
281
796360
3176
Sıkıntılı bölüm burası.
Bunun neden aslında güzel bir problem olarak düşündüğümü söyleyeyim.
13:19
but it is hard to avoid the conclusion that this is our direction of travel.
282
799560
3640
İnsan geçmişinin çoğunda bir ekonomik sorun hakimdi :
13:24
That's the troubling part.
283
804640
1456
Ekonomik pastayı herkesin paylaşabilmesi için nasıl daha da büyütürüz.
13:26
Let me say now why I think actually this is a good problem to have.
284
806120
3520
Birinci yüzyılın dönüşüne, İsa zamanına gidip
13:30
For most of human history, one economic problem has dominated:
285
810520
3536
global ekonomik pastayı alıp
dünyadaki herkes için eşit parçalara bölseydiniz,
13:34
how to make the economic pie large enough for everyone to live on.
286
814080
4056
herkes birkaç yüz dolar alırdı.
13:38
Go back to the turn of the first century AD,
287
818160
2176
Hemen hemen herkes fakirlik sınırında yaşadı.
13:40
and if you took the global economic pie
288
820360
2096
13:42
and divided it up into equal slices for everyone in the world,
289
822480
3296
Bin yıl ileri sardığınızda da,
13:45
everyone would get a few hundred dollars.
290
825800
2136
kabaca aynısı geçerliydi.
13:47
Almost everyone lived on or around the poverty line.
291
827960
2760
Ama son birkaç yüzyıldır ekonomik sıçrama yaşandı.
Bu ekonomik turtaların boyutları oldukça genişledi
13:51
And if you roll forward a thousand years,
292
831320
2176
13:53
roughly the same is true.
293
833520
1240
Global kişi başına gayrisafi yurtiçi hasıla,
13:55
But in the last few hundred years, economic growth has taken off.
294
835680
3576
bugün kişi başına düşen turta diliminin değeri,
10 bin 150 dolar civarı.
13:59
Those economic pies have exploded in size.
295
839280
2376
14:01
Global GDP per head,
296
841680
2056
Ekonomik büyüme %2 ile devam ederse,
14:03
the value of those individual slices of the pie today,
297
843760
3376
Çocuklarımız bizden iki kat zengin olacak.
Daha cimri bir şekilde %1 ile devam ederse,
14:07
they're about 10,150 dollars.
298
847160
2816
torunlarımız bizden iki kat daha zengin olacak.
14:10
If economic growth continues at two percent,
299
850000
2696
Genel olarak, geleneksel ekonomik sorunumuzu çözdük.
14:12
our children will be twice as rich as us.
300
852720
2056
14:14
If it continues at a more measly one percent,
301
854800
2296
Şimdi, teknolojik işsizlik, eğer oluşursa,
14:17
our grandchildren will be twice as rich as us.
302
857120
2656
garip bir şekilde bu başarının bir semptomu olacak,
14:19
By and large, we've solved that traditional economic problem.
303
859800
3680
bir problemi -- ekonomik turtayı büyütmek -- çözerken
14:24
Now, technological unemployment, if it does happen,
304
864200
3016
diğeri ortaya çıktı --
14:27
in a strange way will be a symptom of that success,
305
867240
3216
herkesin bir dilim aldığından nasıl emin oluruz.
14:30
will have solved one problem -- how to make the pie bigger --
306
870480
3856
Diğer ekonomistlerin de dediği gibi, bu problemi çözmek kolay olmayacak.
14:34
but replaced it with another --
307
874360
1816
Bugün, çoğu kişi için
14:36
how to make sure that everyone gets a slice.
308
876200
2760
meslekleri, ekonomik yemek masasında oturuyor,
14:39
As other economists have noted, solving this problem won't be easy.
309
879840
3496
bir dünyada ki, daha az işle hatta belki işsizlikle------------
kendi dilimlerini nasıl alacakları belirsiz.
14:43
Today, for most people,
310
883360
1656
Tartışılacak çok şey var, mesela,
14:45
their job is their seat at the economic dinner table,
311
885040
2496
evrensel temel gelirin çeşitli formları
14:47
and in a world with less work or even without work,
312
887560
2416
bir olası yaklaşım,
ve ABD'de, Finlandiya'da, Kenya'da
14:50
it won't be clear how they get their slice.
313
890000
2056
devam eden denemeler var.
14:52
There's a great deal of discussion, for instance,
314
892080
2336
14:54
about various forms of universal basic income
315
894440
2696
Önümüzde ortaklaşa bir zorluk var,
14:57
as one possible approach,
316
897160
1216
ekonomik sistemimizde oluşan materyal refahın, dünyada insanların
14:58
and there's trials underway
317
898400
1616
15:00
in the United States and in Finland and in Kenya.
318
900040
2400
pastayı dilimleyerek, yaptıkları
15:03
And this is the collective challenge that's right in front of us,
319
903000
3176
işlerin erimesi, belki de kaybolmasını
15:06
to figure out how this material prosperity generated by our economic system
320
906200
5056
getiren geleneksel mekanızmanın olduğu
bir dünyada herkes tarafından
15:11
can be enjoyed by everyone
321
911280
1976
nasıl yaşayacağıyla ilgili.
15:13
in a world in which our traditional mechanism
322
913280
2416
Bu problemi çözmek için çok farklı şekillerde düşünmemiz gerekecek.
15:15
for slicing up the pie,
323
915720
1856
15:17
the work that people do,
324
917600
1936
Ne yapılması gerektiğiyle ilgili birçok fikir ayrılığı olacak, ama
15:19
withers away and perhaps disappears.
325
919560
2160
15:22
Solving this problem is going to require us to think in very different ways.
326
922280
4360
hatırlamakta fayda var ki bu atalarımızın yüzyıllardır kovalayan,
pastayı herkese yetmesi için
15:27
There's going to be a lot of disagreement about what ought to be done,
327
927400
4176
büyütme problemiyle
kıyaslandığında daha iyi bir problemdir.
15:31
but it's important to remember that this is a far better problem to have
328
931600
3416
Çok teşekkürler.
(Alkış)
15:35
than the one that haunted our ancestors for centuries:
329
935040
2816
15:37
how to make that pie big enough in the first place.
330
937880
3376
15:41
Thank you very much.
331
941280
1256
15:42
(Applause)
332
942560
3840
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7