How we'll earn money in a future without jobs | Martin Ford

1,604,217 views ・ 2017-11-16

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Ramazan Şen Gözden geçirme: Figen Ergürbüz
00:12
I'm going to begin with a scary question:
0
12787
2848
Korkutucu bir soruyla başlayacağım:
00:15
Are we headed toward a future without jobs?
1
15659
2750
İşin olmadığı bir geleceğe doğru mu gidiyoruz?
00:18
The remarkable progress that we're seeing
2
18987
2069
İnsansız araçlar gibi
00:21
in technologies like self-driving cars
3
21080
1861
teknolojide görmekte olduğumuz dikkat çekici ilerlemeler
00:22
has led to an explosion of interest in this question,
4
22965
3065
bu soruya yönelik bir ilgi patlamasına sebep oldu,
00:26
but because it's something that's been asked
5
26054
2150
çünkü bu, geçmişte çok sefer
sorulan bir şeydi,
00:28
so many times in the past,
6
28228
1256
00:29
maybe what we should really be asking
7
29508
1840
ama belki de asıl sormamız gereken şey,
00:31
is whether this time is really different.
8
31372
2900
bu seferkinin gerçekten farklı olup olmadığı.
00:35
The fear that automation might displace workers
9
35252
2961
Otomasyonun işçilerin yerini alacağı
ve çok sayıda işsizliğe neden olacak olması korkusu
00:38
and potentially lead to lots of unemployment
10
38237
2117
00:40
goes back at a minimum 200 years to the Luddite revolts in England.
11
40378
3888
en az 200 yıl önce İngiltere'deki Luddite isyanlarına kadar gidiyor.
00:44
And since then, this concern has come up again and again.
12
44290
3196
Ve o zamandan beri, bu endişe tekrar tekrar gündeme geldi.
00:47
I'm going to guess
13
47510
1161
Tahminime göre çoğunuz
00:48
that most of you have probably never heard of the Triple Revolution report,
14
48695
4466
muhtemelen Üçlü Devrim raporunu hiç duymadınız
00:53
but this was a very prominent report.
15
53185
2293
ama bu çok mühim bir rapordu.
00:55
It was put together by a brilliant group of people --
16
55502
2531
Zeki insanların olduğu bir grup tarafından oluşturuldu
00:58
it actually included two Nobel laureates --
17
58057
3057
- aslında aralarında iki Nobel ödüllü kişi vardı -
01:01
and this report was presented to the President of the United States,
18
61138
3223
ve bu rapor Birleşmiş Devletler Başkanı'na sunuldu
01:04
and it argued that the US was on the brink of economic and social upheaval
19
64385
5494
ve ABD'nin ekonomik ve sosyal çalkantının eşiğinde olduğunu ileri sürüyordu
01:09
because industrial automation was going to put millions of people
20
69903
3102
çünkü sanayinin makineleşmesi milyonlarca insanı
işsiz bırakacaktı.
01:13
out of work.
21
73029
1152
Bu rapor 1964 yılı Mart ayında
01:14
Now, that report was delivered to President Lyndon Johnson
22
74205
3657
01:17
in March of 1964.
23
77886
1801
Başkan Lyndon Johnson'a gönderildi.
01:19
So that's now over 50 years,
24
79711
2216
Yani, 50 seneyi geride bıraktık
01:21
and, of course, that hasn't really happened.
25
81951
2058
ve tabii ki bu gerçekleşmedi.
Ve aynı hikâye tekrarlanıp durdu.
01:24
And that's been the story again and again.
26
84033
2144
Bu alarm defalarca yapıldı
01:26
This alarm has been raised repeatedly,
27
86201
2109
01:28
but it's always been a false alarm.
28
88334
2013
ama hep yanlış alarm oldu.
01:30
And because it's been a false alarm,
29
90371
1809
Ve yanlış alarm olması,
bu konunun çok sıradan bir şekilde ele alınmasına neden oldu.
01:32
it's led to a very conventional way of thinking about this.
30
92204
2807
01:35
And that says essentially that yes,
31
95035
2532
Ve bu esasında şunu söylüyor: evet,
01:37
technology may devastate entire industries.
32
97591
2548
teknoloji tüm bu endüstrileri sarsabilir.
01:40
It may wipe out whole occupations and types of work.
33
100163
3732
Bütün meslekleri ve çalışma biçimlerini yok edebilir.
01:43
But at the same time, of course,
34
103919
1608
Fakat aynı zamanda, tabii ki
01:45
progress is going to lead to entirely new things.
35
105551
2351
bu süreç yepyeni şeylere yol açacak.
01:47
So there will be new industries that will arise in the future,
36
107926
2962
Gelecekte ortaya çıkacak yeni endüstriler olacak
01:50
and those industries, of course, will have to hire people.
37
110912
2858
ve bu endüstrilerin insan alımı yapması gerekecek.
01:53
There'll be new kinds of work that will appear,
38
113794
2238
Zuhur edecek olan yeni tür işler olacak
01:56
and those might be things that today we can't really even imagine.
39
116056
3210
ve bunlar bugün hayal bile edemediğimiz şeyler olabilecek.
01:59
And that has been the story so far,
40
119290
1747
Ve bu zamana kadar mesele buydu
02:01
and it's been a positive story.
41
121061
1494
ve bu olumlu bir meseleydi.
02:03
It turns out that the new jobs that have been created
42
123095
3325
Anlaşılana göre yaratılan yeni işler genelde
02:06
have generally been a lot better than the old ones.
43
126444
2470
eskilerinden çok daha iyi olmuştur.
02:08
They have, for example, been more engaging.
44
128938
2656
Örneğin, bu işler daha cazip olmuştur.
02:11
They've been in safer, more comfortable work environments,
45
131618
3429
Daha güvenli ve daha rahat çalışma ortamlarında olmuşlardır.
02:15
and, of course, they've paid more.
46
135071
1680
Ve ödemeleri de fazla olmuştur.
02:16
So it has been a positive story.
47
136775
1865
Yani bu olumlu bir hikâye.
02:18
That's the way things have played out so far.
48
138664
2208
Bu zamana kadar işler bu şekilde yürüdü.
02:21
But there is one particular class of worker
49
141292
2948
Fakat bir işçi sınıfı var ki
02:24
for whom the story has been quite different.
50
144264
2252
onlar için bu hikâye çok farklı olmuştur.
02:27
For these workers,
51
147938
1150
Ve teknoloji
02:29
technology has completely decimated their work,
52
149112
3021
bu işçilerin işlerini önemli ölçüde azaltmıştır
02:32
and it really hasn't created any new opportunities at all.
53
152157
3214
ve hiçbir yeni fırsat da yaratmamıştır.
02:35
And these workers, of course,
54
155395
2195
Ve bu işçiler, tabii ki
02:37
are horses.
55
157614
1288
atlar.
02:38
(Laughter)
56
158926
1443
(Gülüşmeler)
02:40
So I can ask a very provocative question:
57
160393
2750
Kışkırtıcı bir soru sorabilirim:
02:43
Is it possible that at some point in the future,
58
163167
3435
Gelecekte bir gün, atlarda olduğu gibi
02:46
a significant fraction of the human workforce is going to be made redundant
59
166626
4628
insan iş gücünün de önemli bir oranda gereksiz olması
02:51
in the way that horses were?
60
171278
1702
mümkün olabilir mi?
02:53
Now, you might have a very visceral, reflexive reaction to that.
61
173485
3000
Şimdi, buna refleks olarak çok ilkel bir tepki verebilirsiniz.
02:56
You might say, "That's absurd.
62
176509
1647
"Bu saçma. İnsanları atlarla nasıl karşılaştırabilirsin ki?"
02:58
How can you possibly compare human beings to horses?"
63
178180
3669
diyebilirsiniz.
03:02
Horses, of course, are very limited,
64
182437
1769
Atlar, tabii ki sınırlı sayıda
03:04
and when cars and trucks and tractors came along,
65
184230
2893
ve arabalar, kamyonlar ve traktörler ortaya çıktığında
03:07
horses really had nowhere else to turn.
66
187147
2045
atların gidebileceği hiçbir yer yoktu.
03:09
People, on the other hand, are intelligent;
67
189844
2360
Diğer taraftan, insanlar akıllı;
03:12
we can learn, we can adapt.
68
192228
1785
öğrenebiliriz, uyum sağlayabiliriz.
03:14
And in theory,
69
194037
1164
Ve bu, teoride,
03:15
that ought to mean that we can always find something new to do,
70
195225
3127
her zaman yapacak yeni şeyler bulabileceğiz
ve gelecek ekonomisi için daima gerekli olabiliriz anlamına geliyor.
03:18
and that we can always remain relevant to the future economy.
71
198376
3306
03:21
But here's the really critical thing to understand.
72
201706
2437
Ama burada anlaşılması gereken önemli bir şey var.
03:24
The machines that will threaten workers in the future
73
204790
2865
Gelecekte işçileri tehdit edecek olan makineler
03:27
are really nothing like those cars and trucks and tractors
74
207679
3234
asla atların yerini alan arabalar, kamyonlar
03:30
that displaced horses.
75
210937
1616
ve traktörler gibi değil.
03:32
The future is going to be full of thinking, learning, adapting machines.
76
212577
4839
Gelecek düşünen, öğrenen, uyum sağlayan makinelerle dolu olacak.
03:37
And what that really means
77
217440
1408
Ve bunun anlamı da şu oluyor:
03:38
is that technology is finally beginning to encroach
78
218872
2834
teknoloji sonunda temel insan kabiliyetine
03:41
on that fundamental human capability --
79
221730
2849
zarar vermeye başlayacak.
03:44
the thing that makes us so different from horses,
80
224603
2803
Yani bizi atlardan çok farklı kılan şeye
03:47
and the very thing that, so far,
81
227430
2234
ve şu ana kadar bizi
03:49
has allowed us to stay ahead of the march of progress
82
229688
2647
gelişimin önünde tutan
ve bizi ekonomiyle ilişkilendiren
03:52
and remain relevant,
83
232359
1189
03:53
and, in fact, indispensable to the economy.
84
233572
3067
ve aslında ekonomi için zaruri kılan şeyin ta kendisine.
03:58
So what is it that is really so different
85
238407
2495
Peki geçmişte gördüklerimizle
04:00
about today's information technology
86
240926
2043
bugünün bilgi teknolojisi hakkında
04:02
relative to what we've seen in the past?
87
242993
1947
bu kadar farklı olan şey ne?
04:04
I would point to three fundamental things.
88
244964
2653
Üç temel şeye dikkat çekeceğim.
04:07
The first thing is that we have seen this ongoing process
89
247641
4409
İlk olarak, devam eden bu
04:12
of exponential acceleration.
90
252074
1888
üstel hızlanma sürecini gördük.
04:14
I know you all know about Moore's law,
91
254420
2095
Hepinizin Moore yasasını bildiğinizi biliyorum
04:16
but in fact, it's more broad-based than that;
92
256539
2296
ama aslında, ondan daha geniş tabanlı;
04:18
it extends in many cases, for example, to software,
93
258859
3150
birçok durumda örneğin, yazılıma,
iletişime, bant genişliğine vb. uzanır.
04:22
it extends to communications, bandwidth and so forth.
94
262033
3000
04:25
But the really key thing to understand
95
265057
1984
Fakat anlaşılması gereken kilit şey
04:27
is that this acceleration has now been going on for a really long time.
96
267065
3871
bu hızlanmanın çok uzun süredir devam ettiğidir.
04:30
In fact, it's been going on for decades.
97
270960
1925
Aslında, onlarca yıldır devam ediyor.
04:32
If you measure from the late 1950s,
98
272909
2756
1950'lerden başlayarak ölçecek olursanız,
04:35
when the first integrated circuits were fabricated,
99
275689
2425
ilk mikroçipler üretildiğinden beri
04:38
we've seen something on the order of 30 doublings in computational power
100
278138
4785
hesaplama gücünde 30 kez
iki kat bir artış gördük.
04:42
since then.
101
282947
1156
Bu, herhangi bir miktarı ikiye katlamak için olağanüstü bir rakam
04:44
That's just an extraordinary number of times to double any quantity,
102
284127
3688
04:47
and what it really means
103
287839
1240
ve bu aslında demek oluyor ki
04:49
is that we're now at a point where we're going to see
104
289103
2524
olağanüstü miktarda kesin ilerleme
04:51
just an extraordinary amount of absolute progress,
105
291651
2411
göreceğimiz bir noktadayız
04:54
and, of course, things are going to continue to also accelerate
106
294086
2975
ve tabii ki her şey bu noktadan sonra hızlanmaya da
04:57
from this point.
107
297085
1159
devam edecek.
04:58
So as we look forward to the coming years and decades,
108
298268
2540
Yani önümüzdeki yıllara baktığımızda
05:00
I think that means that we're going to see things
109
300832
2338
bence gerçekten hazır olmadığımız
şeyler göreceğiz.
05:03
that we're really not prepared for.
110
303194
1673
05:04
We're going to see things that astonish us.
111
304891
2077
Bizi şaşkına çevirecek şeyler göreceğiz.
05:06
The second key thing
112
306992
1266
İkinci önemli nokta,
05:08
is that the machines are, in a limited sense, beginning to think.
113
308282
3906
makinelerin sınırlı da olsa düşünmeye başlıyor olması.
05:12
And by this, I don't mean human-level AI,
114
312212
2457
Bununla insan seviyesinde yapay zekâyı veya
05:14
or science fiction artificial intelligence;
115
314693
2936
bilim kurgu yapay zekâsını kastetmiyorum;
05:17
I simply mean that machines and algorithms are making decisions.
116
317653
4462
basitçe, makinelerin ve algoritmaların karar verdiğini söylüyorum.
05:22
They're solving problems, and most importantly, they're learning.
117
322139
3860
Problemleri çözüyorlar ve en önemlisi, öğreniyorlar.
Aslında, bunun merkezinde olan ve gerçekten
05:26
In fact, if there's one technology that is truly central to this
118
326023
3303
05:29
and has really become the driving force behind this,
119
329350
3077
bunun arkasında itici güç olan bir teknoloji varsa o da
05:32
it's machine learning,
120
332451
1172
makine öğrenimidir.
05:33
which is just becoming this incredibly powerful,
121
333647
2720
Bu, inanılmaz güçlü, ortalığı karıştıran,
05:36
disruptive, scalable technology.
122
336391
2638
ölçeklenebilir bir teknoloji.
05:39
One of the best examples I've seen of that recently
123
339561
2469
Son zamanlarda gördüğüm en iyi örneklerinden biri
05:42
was what Google's DeepMind division was able to do
124
342054
2751
Google'ın DeepMind bölümünün
AlphaGo sistemi ile yaptığı şey.
05:44
with its AlphaGo system.
125
344829
1553
05:46
Now, this is the system that was able to beat the best player in the world
126
346406
4300
Bu sistem, çok eski Go oyununda dünyanın en iyi oyuncusunu
05:50
at the ancient game of Go.
127
350730
1979
yenebiliyor.
05:52
Now, at least to me,
128
352733
1150
En azından benim için,
05:53
there are two things that really stand out about the game of Go.
129
353907
3117
Go oyunu ile ilgili gerçekten göze çarpan iki şey var.
Birisi, oyunu oynarken,
05:57
One is that as you're playing the game,
130
357048
2296
05:59
the number of configurations that the board can be in
131
359368
2866
oyun tahtasının alabileceği düzen sayısı
06:02
is essentially infinite.
132
362258
1411
aslında sonsuzdur.
06:03
There are actually more possibilities than there are atoms in the universe.
133
363693
3833
Aslında kâinattaki atomlardan daha fazla olasılık var.
06:07
So what that means is,
134
367980
1184
Yani bu demek oluyor ki,
06:09
you're never going to be able to build a computer to win at the game of Go
135
369188
3597
Satranç oyununda olduğu gibi
Go oyununu kazanmak için bir bilgisayar yapamayacaksınız,
06:12
the way chess was approached, for example,
136
372809
2180
ki bu her olasılığı deneyen bir hesaplama gücü konarak yapılır.
06:15
which is basically to throw brute-force computational power at it.
137
375013
4526
06:19
So clearly, a much more sophisticated, thinking-like approach is needed.
138
379563
4177
Yani çok daha karmaşık, düşünür tarzda bir yaklaşım gerekli.
06:24
The second thing that really stands out is that,
139
384368
3271
Göze çarpan ikinci şey ise,
06:27
if you talk to one of the championship Go players,
140
387663
2647
eğer şampiyon Go oyuncularından biriyle konuşursanız,
06:30
this person cannot necessarily even really articulate what exactly it is
141
390334
4485
bu kişi oyun oynarken düşündüğü şeyin ne olduğunu
06:34
they're thinking about as they play the game.
142
394843
2215
tam olarak ifade edemez.
06:37
It's often something that's very intuitive,
143
397082
2193
Bu daha çok içgüdüsel bir şeydir,
06:39
it's almost just like a feeling about which move they should make.
144
399299
3322
hangi hamleyi yapmaları gerektiğine dair bir his gibidir.
06:42
So given those two qualities,
145
402645
1407
Bu iki durum dikkate alındığında,
06:44
I would say that playing Go at a world champion level
146
404076
3937
bence dünya şampiyonu seviyesinde Go oynamanın
06:48
really ought to be something that's safe from automation,
147
408037
3238
otomasyonun ulaşamayacağı bir şey olmalı.
06:51
and the fact that it isn't should really raise a cautionary flag for us.
148
411299
4446
Ve bunun böyle olmaması bizim için gerçek bir uyarı olmalı.
06:55
And the reason is that we tend to draw a very distinct line,
149
415769
3917
Bunun sebebi, çok kesin çizgiler çiziyoruz
06:59
and on one side of that line are all the jobs and tasks
150
419710
3509
ve bu çizginin bir tarafında esasında rutin, tekrarlayan
07:03
that we perceive as being on some level fundamentally routine and repetitive
151
423243
4748
ve öngörülebilir olarak algıladığımız tüm iş
ve görevler bulunuyor.
07:08
and predictable.
152
428015
1350
07:09
And we know that these jobs might be in different industries,
153
429389
2858
Ve bu işlerin farklı endüstrilerde, farklı meslekler
07:12
they might be in different occupations and at different skill levels,
154
432271
3373
ve farklı beceri seviyelerinde olabileceğini biliyoruz
07:15
but because they are innately predictable,
155
435668
2210
ama bunların tahmin edilebilir olması nedeniyle
07:17
we know they're probably at some point going to be susceptible
156
437902
3127
muhtemelen bir noktada makine öğrenimine
ve haliyle de otomasyona
07:21
to machine learning,
157
441053
1177
elverişli olacaklarını biliyoruz.
07:22
and therefore, to automation.
158
442254
1419
Ve hata yapmayın -- bu çok iş demek.
07:23
And make no mistake -- that's a lot of jobs.
159
443697
2097
Bu muhtemelen ekonomideki işlerin
07:25
That's probably something on the order of roughly half
160
445818
2679
07:28
the jobs in the economy.
161
448521
1567
kabaca yarısı kadar.
07:30
But then on the other side of that line,
162
450112
2159
Fakat çizginin diğer tarafında,
07:32
we have all the jobs that require some capability
163
452295
4071
özellikle insan olarak algıladığımız bazı yetenekleri
07:36
that we perceive as being uniquely human,
164
456390
2372
gerektiren işlerimiz var
07:38
and these are the jobs that we think are safe.
165
458786
2223
ve bunlar güvenli olduğunu düşündüğümüz işler.
07:41
Now, based on what I know about the game of Go,
166
461033
2265
Şimdi, Go oyunundan bildiklerime göre
07:43
I would've guessed that it really ought to be on the safe side of that line.
167
463322
3703
bunun çizginin güvenli tarafında olduğunu tahmin edebilirim.
Ama öyle olmadığı gerçeği ve Google'ın problemi çözmesi,
07:47
But the fact that it isn't, and that Google solved this problem,
168
467049
3178
07:50
suggests that that line is going to be very dynamic.
169
470251
2432
bu çizginin çok dinamik olduğunu gösteriyor.
07:52
It's going to shift,
170
472707
1179
Bu değişecek
07:53
and it's going to shift in a way that consumes more and more jobs and tasks
171
473910
4135
ve otomasyona karşı şu anda güvende olduğunu sandığımız
07:58
that we currently perceive as being safe from automation.
172
478069
3017
daha fazla iş ve görevi tüketen bir şekilde değişecek.
08:01
The other key thing to understand
173
481921
1657
Anlaşılması gereken diğer önemli nokta da,
08:03
is that this is by no means just about low-wage jobs or blue-collar jobs,
174
483602
5138
bu katiyen sadece düşük ücretli işler veya mavi yakalıların işleri
08:08
or jobs and tasks done by people
175
488764
1875
veya nispeten düşük eğitim düzeyindeki insanların
08:10
that have relatively low levels of education.
176
490663
2104
yaptığı işler ve görevler hakkında değil.
08:12
There's lots of evidence to show
177
492791
1524
Bu teknolojilerin beceri basamaklarını
08:14
that these technologies are rapidly climbing the skills ladder.
178
494339
3160
hızla tırmandığına dair gösterilecek çok fazla kanıt var.
08:17
So we already see an impact on professional jobs --
179
497523
3616
Profesyonel meslekler üzerinde çoktan etkisini gördük --
08:21
tasks done by people like accountants,
180
501163
4435
muhasebeciler, hesap uzmanları,
08:25
financial analysts,
181
505622
1317
gazeteciler,
08:26
journalists,
182
506963
1296
avukatlar,
08:28
lawyers, radiologists and so forth.
183
508283
2377
radyologlar gibi insanların yaptığı işlerde.
08:30
So a lot of the assumptions that we make
184
510684
1938
Gelecekte otomasyon tarafından
08:32
about the kind of occupations and tasks and jobs
185
512646
3220
tehdit edilecek meslekler, görevler ve işler hakkında
08:35
that are going to be threatened by automation in the future
186
515890
2819
yaptığımız varsayımların birçoğuna
ileriye dönük olarak meydan okunacak gibi görünüyor.
08:38
are very likely to be challenged going forward.
187
518733
2198
08:40
So as we put these trends together,
188
520955
1700
Bence bu temayüller gösteriyor ki
08:42
I think what it shows is that we could very well end up in a future
189
522679
3292
önemli ölçüde işsizliğin olacağı bir gelecek
08:45
with significant unemployment.
190
525995
1507
bizi bekliyor.
08:48
Or at a minimum,
191
528254
1152
Veya en azından,
08:49
we could face lots of underemployment or stagnant wages,
192
529430
3781
eksik istihdam veya kesat ücretlerle, hatta belki de azalan ücretlerle
08:53
maybe even declining wages.
193
533235
2097
yüz yüze gelebiliriz.
08:56
And, of course, soaring levels of inequality.
194
536142
2810
Ve tabii ki yükselen eşitsizlik seviyesi.
08:58
All of that, of course, is going to put a terrific amount of stress
195
538976
4033
Tüm bunlar, tabii ki toplumun yapısı üzerine korkunç miktarda
09:03
on the fabric of society.
196
543033
1917
stres binderecek.
09:04
But beyond that, there's also a fundamental economic problem,
197
544974
3059
Lakin bunun ötesinde, temel bir ekonomi problemi var ve
09:08
and that arises because jobs are currently the primary mechanism
198
548057
5195
bunun ortaya çıkmasının nedeni de şu anda gelir dağıtan ana mekanizmayı
09:13
that distributes income, and therefore purchasing power,
199
553276
3545
ve bundan dolayı ürettiğimiz ürün ve servisleri satın alan tüketiciler için
09:16
to all the consumers that buy the products and services we're producing.
200
556845
5132
satın alma gücünü işlerin oluşturması.
09:22
In order to have a vibrant market economy,
201
562831
2515
Enerjik bir piyasa ekonomisine sahip olmak için
09:25
you've got to have lots and lots of consumers
202
565370
2120
üretilen ürün ve servisleri
09:27
that are really capable of buying the products and services
203
567514
3029
gerçekten satın alabilecek çok fazla tüketiciye
09:30
that are being produced.
204
570567
1151
sahip olmanız gerekir.
09:31
If you don't have that, then you run the risk
205
571742
2386
Eğer elinizde bu yoksa,
ekonomik durgunluk tehlikesiyle
09:34
of economic stagnation,
206
574152
1415
09:35
or maybe even a declining economic spiral,
207
575591
3669
veya belki de azalan ekonomik helezonla karşı karşıyasınızdır
09:39
as there simply aren't enough customers out there
208
579284
2314
çünkü üretilen ürün ve servisleri satın alabilecek
09:41
to buy the products and services being produced.
209
581622
2459
yeterli tüketiciye sahip değilsinizdir.
09:44
It's really important to realize
210
584105
1928
Başarılı olmak için
09:46
that all of us as individuals rely on access to that market economy
211
586057
6014
bireyler olarak piyasa ekonomisine erişime güvendiğimizi fark etmek
09:52
in order to be successful.
212
592095
1729
gerçekten önemlidir.
09:53
You can visualize that by thinking in terms of one really exceptional person.
213
593848
4436
Bunu müstesna bir kişiyi düşünerek gözünüzde canlandırabilirsiniz.
09:58
Imagine for a moment you take, say, Steve Jobs,
214
598308
2988
Örneğin, Steve Jobs'ı tek başına
10:01
and you drop him on an island all by himself.
215
601320
2581
bir adaya bıraktığımızı hayal edelim.
10:03
On that island, he's going to be running around,
216
603925
2294
O adada, herkes gibi etrafta dolaşacak,
10:06
gathering coconuts just like anyone else.
217
606243
2538
hindistan cevizi toplayacak.
10:08
He's really not going to be anything special,
218
608805
2188
Özel bir insan olmayacak
10:11
and the reason, of course, is that there is no market
219
611017
3172
ve bunun sebebi, tabii ki orada inanılmaz yeteneğini
10:14
for him to scale his incredible talents across.
220
614213
2786
gösterebileceği bir piyasanın olmaması.
10:17
So access to this market is really critical to us as individuals,
221
617023
3470
Yani bu piyasaya erişim bireyler olarak bizim için çok önemli
10:20
and also to the entire system in terms of it being sustainable.
222
620517
4022
ve sürdürülebilir olması açısından tüm sistem için de bu böyle.
10:25
So the question then becomes: What exactly could we do about this?
223
625063
3844
O zaman soru şu hale geliyor: Bu konuda tam olarak ne yapabiliriz?
10:29
And I think you can view this through a very utopian framework.
224
629285
3232
Ve bence buna çok ütopik bir çerçeveden bakabilirsiniz.
10:32
You can imagine a future where we all have to work less,
225
632541
2643
Bir gelecek hayal edin ki hepimizin daha az çalıştığı,
10:35
we have more time for leisure,
226
635208
3001
daha çok boş vaktimizin olduğu,
10:38
more time to spend with our families,
227
638233
1928
ailemizle daha çok zaman geçireceğimiz,
10:40
more time to do things that we find genuinely rewarding
228
640185
3255
mükâfat olarak gördüğümüz şeyleri yapmak için daha çok zamanımızın olduğu
10:43
and so forth.
229
643464
1157
ve saire...
10:44
And I think that's a terrific vision.
230
644645
1855
Ve bence bu müthiş bir vizyon.
10:46
That's something that we should absolutely strive to move toward.
231
646524
3629
Bu, ilerlemeye kesinlikle gayret göstermemiz gereken bir şey.
10:50
But at the same time, I think we have to be realistic,
232
650177
2676
Aynı zamanda, gerçekçi olmalıyız
10:52
and we have to realize
233
652877
1393
ve büyük ihtimalle
10:54
that we're very likely to face a significant income distribution problem.
234
654294
4860
önemli bir gelir dağılımı problemiyle yüzleşeceğimizin farkında olmalıyız.
10:59
A lot of people are likely to be left behind.
235
659178
2967
Birçok insan geride bırakılacak.
11:03
And I think that in order to solve that problem,
236
663186
2404
Ve bu problemi çözmek için,
11:05
we're ultimately going to have to find a way
237
665614
2098
nihayetinde geleneksel işlerden
11:07
to decouple incomes from traditional work.
238
667736
2606
gelirleri ayrıştırmak için bir yol bulmamız gerekecek.
11:10
And the best, more straightforward way I know to do that
239
670366
2866
Ve en iyisi, bunu yapmanın bildiğim en dolambaçsız yolu
11:13
is some kind of a guaranteed income or universal basic income.
240
673256
3568
bir çeşit garantili gelir veya evrensel temel gelir.
11:16
Now, basic income is becoming a very important idea.
241
676848
2488
Temel gelir çok önemli bir fikir haline geliyor.
11:19
It's getting a lot of traction and attention,
242
679360
2139
Epey ilgi ve dikkati celb ediyor,
11:21
there are a lot of important pilot projects
243
681523
2273
dünya genelinde bir çok önemli
11:23
and experiments going on throughout the world.
244
683820
2175
pilot projeler ve deneyler yapılıyor.
11:26
My own view is that a basic income is not a panacea;
245
686628
3200
Kendi görüşüm temel gelirin her derde deva olmadığı yönünde.
11:29
it's not necessarily a plug-and-play solution,
246
689852
2532
Muhakkak bir tak-çalıştır çözüm değil
11:32
but rather, it's a place to start.
247
692408
1635
lakin bir adımdır.
11:34
It's an idea that we can build on and refine.
248
694067
2782
Üzerine ekleyip geliştirebileceğimiz bir fikir.
11:36
For example, one thing that I have written quite a lot about
249
696873
2817
Örneğin, çokça yazdığım şeylerden biri de
11:39
is the possibility of incorporating explicit incentives into a basic income.
250
699714
4592
belli teşviklerin temel gelir bünyesine dahil edilme ihtimali.
11:44
To illustrate that,
251
704930
1169
Bunu açıklamak için,
11:46
imagine that you are a struggling high school student.
252
706123
2768
diyelim ki sıkıntılı durumdaki bir lise öğrencisisiniz.
11:48
Imagine that you are at risk of dropping out of school.
253
708915
2834
Okuldan atılma tehlikeniz olduğunu farz edin.
11:52
And yet, suppose you know that at some point in the future,
254
712289
3378
Ve diyelim ki gelecekte bir noktada biliyorsunuz ki
11:55
no matter what,
255
715691
1224
ne olursa olsun,
11:56
you're going to get the same basic income as everyone else.
256
716939
3697
herkesle aynı temele gelire sahip olacaksınız.
12:00
Now, to my mind, that creates a very perverse incentive
257
720660
3042
Şimdi, kanımca, bu vazgeçip okulu bırakmanız için
12:03
for you to simply give up and drop out of school.
258
723726
2497
çok ters bir teşvik yaratacak.
12:06
So I would say, let's not structure things that way.
259
726247
2505
Yani bence, işleri bu şekilde düzenlemeyelim.
12:08
Instead, let's pay people who graduate from high school somewhat more
260
728776
5316
Bunun yerine, gelin lise mezunu insanlara keyfine okulu bırakanlardan
12:14
than those who simply drop out.
261
734116
1696
daha fazla ödeyelim.
12:16
And we can take that idea of building incentives into a basic income,
262
736329
3478
Teşviklerle temel gelir inşa etme fikrini alıp
12:19
and maybe extend it to other areas.
263
739831
1667
başka alanlara genişletebiliriz.
12:21
For example, we might create an incentive to work in the community
264
741522
3577
Örneğin, toplum içinde diğerlerine
yardım etmek için
12:25
to help others,
265
745123
1158
veya belki çevre için olumlu şeyler yapmak adına
12:26
or perhaps to do positive things for the environment,
266
746305
3064
12:29
and so forth.
267
749393
1170
bir teşvik yaratabiliriz.
12:30
So by incorporating incentives into a basic income,
268
750587
3011
Teşvikleri temel gelire dahil ederek
12:33
we might actually improve it,
269
753622
1629
bunu geliştirebilir
12:35
and also, perhaps, take at least a couple of steps
270
755275
2626
ve de belki gelecekte karşılaşacağımızı düşündüğüm
12:37
towards solving another problem
271
757925
2425
başka bir problemi
12:40
that I think we're quite possibly going to face in the future,
272
760374
2944
çözmek adına birkaç adım atmış oluruz.
12:43
and that is, how do we all find meaning and fulfillment,
273
763342
3752
Bu problem de hepimizin nasıl meşgale bulacağı.
12:47
and how do we occupy our time
274
767118
2318
Geleneksel işe
12:49
in a world where perhaps there's less demand for traditional work?
275
769460
4349
daha az talebin olacağı bir dünyada zamanımızı nasıl dolduracağız?
12:54
So by extending and refining a basic income,
276
774201
2805
Temel geliri genişleterek ve düzelterek
12:57
I think we can make it look better,
277
777030
2336
daha iyi bir görünüme kavuşturabiliriz.
12:59
and we can also, perhaps, make it more politically and socially acceptable
278
779390
5298
Ayrıca belki siyasi ve sosyal olarak daha kabul edilebilir
13:04
and feasible --
279
784712
1164
ve makul yapabiliriz --
13:05
and, of course, by doing that,
280
785900
1474
ve tabii ki, bunu yaparak,
13:07
we increase the odds that it will actually come to be.
281
787398
3450
gerçekleştirme ihtimalini de artırırız.
13:11
I think one of the most fundamental,
282
791731
2270
Bence temel gelir fikrine
13:14
almost instinctive objections
283
794025
2168
veya güvenlik ağındaki
13:16
that many of us have to the idea of a basic income,
284
796217
3453
herhangi önemli bir ilerlemeye kaşı hepimizde olan en temel,
13:19
or really to any significant expansion of the safety net,
285
799694
3732
içgüdüsel itirazlardan biri de
13:23
is this fear that we're going to end up with too many people
286
803450
3760
ekonomi arabasının içinde bir sürü insan olacağı
13:27
riding in the economic cart,
287
807234
1738
ve arabayı çekecek olan
13:28
and not enough people pulling that cart.
288
808996
2047
yeteri kadar insan olmayacağı korkusudur.
13:31
And yet, really, the whole point I'm making here, of course,
289
811067
2834
Ve burada asıl varmak istediğim nokta,
13:33
is that in the future,
290
813925
1361
gelecekte
13:35
machines are increasingly going to be capable of pulling that cart for us.
291
815310
3826
makinelerin bu arabayı bizim için artan oranda çekebilecek olması.
13:39
That should give us more options
292
819160
1990
Bu, toplumumuz ve ekonomimizi yapılandırmamız adına
13:41
for the way we structure our society and our economy,
293
821174
3811
bize daha fazla seçenek vermeli.
13:45
And I think eventually, it's going to go beyond simply being an option,
294
825009
3442
Ve bence nihayetinde, sadece bir seçenek olmaktan daha öteye giderek
13:48
and it's going to become an imperative.
295
828475
1901
bir mecburiyet halini alacaktır.
Sebebi, tabii ki tüm bunların toplumumuz üzerinde
13:50
The reason, of course, is that all of this is going to put
296
830400
2822
13:53
such a degree of stress on our society,
297
833246
2014
çok fazla stres oluşturacak olması
13:55
and also because jobs are that mechanism
298
835284
2514
ve işlerin tüketicilere ekonomiyi sürdürebilmeleri için
13:57
that gets purchasing power to consumers
299
837822
1965
satın alma gücü sağlayan
13:59
so they can then drive the economy.
300
839811
2516
mekanizma olmasıdır.
14:02
If, in fact, that mechanism begins to erode in the future,
301
842351
3547
Eğer gerçekten, gelecekte bu mekanizma aşınmaya başlarsa
14:05
then we're going to need to replace it with something else
302
845922
2815
o zaman bunun yerine başka bir şey koymamız gerekecek
14:08
or we're going to face the risk
303
848761
1563
yoksa tüm sistemimizin
sürdürülebilir olmaması gibi bir riskle yüzleşeceğizdir.
14:10
that our whole system simply may not be sustainable.
304
850348
2567
14:12
But the bottom line here is that I really think
305
852939
2382
Ama sözün özü,
bence bu problemleri çözmek
14:15
that solving these problems,
306
855345
2436
14:17
and especially finding a way to build a future economy
307
857805
3400
ve özellikle toplumumuzun her seviyesinden insanın işine yarayan
14:21
that works for everyone,
308
861229
2013
bir gelecek ekonomisi inşa etmenin
14:23
at every level of our society,
309
863266
1861
bir yolunu bulmak
14:25
is going to be one of the most important challenges that we all face
310
865151
3540
gelecek yıllarda hepimizin yüzleşeceği
en önemli zorluklardan biri olacak.
14:28
in the coming years and decades.
311
868715
2043
14:30
Thank you very much.
312
870782
1248
Çok teşekkür ederim.
14:32
(Applause)
313
872054
1860
(Alkışlar)
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7