How a handful of tech companies control billions of minds every day | Tristan Harris

925,709 views ・ 2017-07-28

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Cihan Ekmekçi Gözden geçirme: Figen Ergürbüz
00:12
I want you to imagine
0
12960
1200
Bir odaya doğru
00:15
walking into a room,
1
15000
1200
yürüdüğünüzü hayal edin,
00:17
a control room with a bunch of people,
2
17480
2136
bir grup insanla beraber bir kontrol odasında
00:19
a hundred people, hunched over a desk with little dials,
3
19640
2840
yüz kişi küçük tuşlarla dolu bir masada oturmuş
00:23
and that that control room
4
23280
1520
ve bu kontrol odası
00:25
will shape the thoughts and feelings
5
25680
3696
milyarlarca insanın duygu ve düşüncelerini
00:29
of a billion people.
6
29400
1240
şekillendirecek.
00:32
This might sound like science fiction,
7
32560
1880
Size bilim kurgu gibi gelse de
00:35
but this actually exists
8
35320
2216
bu, günümüzde
00:37
right now, today.
9
37560
1200
şu anda var olan bir gerçek.
00:40
I know because I used to be in one of those control rooms.
10
40040
3360
Bunu biliyorum çünkü ben de o kontrol odasındakilerden biriydim.
00:44
I was a design ethicist at Google,
11
44159
2297
İnsanların düşüncelerinin etik olarak
00:46
where I studied how do you ethically steer people's thoughts?
12
46480
3360
yönlendirilmesi üzerine çalışan Google' da bir etik tasarım uzmanıydım.
00:50
Because what we don't talk about is how the handful of people
13
50560
2896
Çünkü bizim konuşmadığımız konu bir avuç teknoloji şirketinde
00:53
working at a handful of technology companies
14
53480
2536
kendi seçimleriyle çalışan bir avuç insanın
00:56
through their choices will steer what a billion people are thinking today.
15
56040
5040
milyarlarca kişinin bugünkü düşüncelerini nasıl yönlendirecekleri.
01:02
Because when you pull out your phone
16
62400
1736
Telefonunuzu elinize aldığınızda...
01:04
and they design how this works or what's on the feed,
17
64160
3096
bunu ve ne göreceğinizi dahi tasarlarlar -
01:07
it's scheduling little blocks of time in our minds.
18
67280
3216
aklımızda küçük zamanlamalar planlanır.
01:10
If you see a notification, it schedules you to have thoughts
19
70520
3136
Eğer bir bildirim görürseniz, belki de daha önce sahip olmadığın
01:13
that maybe you didn't intend to have.
20
73680
2040
düşünceleri zihninden geçirir.
01:16
If you swipe over that notification,
21
76400
2616
Bildirim üzerinden hızlıca geçerseniz,
01:19
it schedules you into spending a little bit of time
22
79040
2381
belki de hiç içine dalmaya niyetiniz yokken
01:21
getting sucked into something
23
81445
1381
bir şeyin içine
01:22
that maybe you didn't intend to get sucked into.
24
82850
2955
kısa bir zaman da olsa dalmanızı sağlar.
01:27
When we talk about technology,
25
87320
1520
Konu teknoloji olunca,
01:30
we tend to talk about it as this blue sky opportunity.
26
90040
2696
onu bu mavi gökyüzü fırsatı olarak konuşuyoruz.
01:32
It could go any direction.
27
92760
1480
O herhangi bir yöne gidebilir.
01:35
And I want to get serious for a moment
28
95400
1856
Bir an için ciddi olmak istiyorum
01:37
and tell you why it's going in a very specific direction.
29
97280
2680
ve çok özel bir yöne neden gittiğini size söyleyeceğim.
01:40
Because it's not evolving randomly.
30
100840
2200
Çünkü teknoloji rasgele gelişmiyor.
01:44
There's a hidden goal driving the direction
31
104000
2016
Bizim yaptığımız tüm teknolojinin
01:46
of all of the technology we make,
32
106040
2136
gittiği yönün gizli bir amacı var
01:48
and that goal is the race for our attention.
33
108200
2920
ve bu amaç bizim dikkatimize yönelik bir yarış.
01:52
Because every news site,
34
112840
2736
Her yeni internet sitesi,
01:55
TED, elections, politicians,
35
115600
2736
TED, seçimler, politikacılar,
01:58
games, even meditation apps
36
118360
1976
oyunlar, meditasyon uygulamaları bile...
02:00
have to compete for one thing,
37
120360
1960
bir şey için mücadele etmek zorundadır,
02:03
which is our attention,
38
123160
1736
bu da bizim dikkatimiz
02:04
and there's only so much of it.
39
124920
1600
ve bunun da bir sınırı var.
02:08
And the best way to get people's attention
40
128440
2416
İnsanların dikkatini çekmek için en iyi yöntem ise
02:10
is to know how someone's mind works.
41
130880
2440
akıllarının nasıl çalıştığını bilmektir.
02:13
And there's a whole bunch of persuasive techniques
42
133800
2336
İnsanların dikkatlerini çekmek için üniversitede
02:16
that I learned in college at a lab called the Persuasive Technology Lab
43
136160
3496
İkna Teknoloji Laboratuvarı adında bir laboratuvarda
02:19
to get people's attention.
44
139680
1600
çok sayıda teknik öğrendim.
02:21
A simple example is YouTube.
45
141880
1480
Basit bir örnek Youtube.
02:24
YouTube wants to maximize how much time you spend.
46
144000
2936
Youtube harcadığınız zamanı maksimize etmeyi istiyor.
02:26
And so what do they do?
47
146960
1200
Peki ne yapıyorlar?
02:28
They autoplay the next video.
48
148840
2280
Bir sonraki videoyu otomatik oynatıyorlar.
02:31
And let's say that works really well.
49
151760
1816
Bunun çok iyi çalıştığını söyleyelim.
02:33
They're getting a little bit more of people's time.
50
153600
2416
İnsanların zamanından biraz daha alıyorlar.
02:36
Well, if you're Netflix, you look at that and say,
51
156040
2376
Eğer Netflix çalışanıysanız, buna bakıyor
02:38
well, that's shrinking my market share,
52
158440
1858
ve bunun pazar payınızı düşürdüğünü
02:40
so I'm going to autoplay the next episode.
53
160322
2000
sizin de oto oynatmaya başlamanız gerektiğini düşünüyorsunuz.
02:43
But then if you're Facebook,
54
163320
1376
Facebook çalışanıysanız,
02:44
you say, that's shrinking all of my market share,
55
164720
2336
Bu benim tüm pazar payımı düşürüyor,
02:47
so now I have to autoplay all the videos in the newsfeed
56
167080
2656
haber akışındaki tüm videoları siz 'oynat'a tıklamadan
02:49
before waiting for you to click play.
57
169760
1762
oynatmak zorundayım diyorsunuz.
02:52
So the internet is not evolving at random.
58
172320
3160
Böylece internet rasgele gelişmiyor.
02:56
The reason it feels like it's sucking us in the way it is
59
176320
4416
Bizi içine çekiyormuş gibi hissettirmesinin nedeni,
03:00
is because of this race for attention.
60
180760
2376
dikkatimizi çekmeye yönelik bu yarış.
03:03
We know where this is going.
61
183160
1416
Bunun nereye gittiğini biliyoruz.
03:04
Technology is not neutral,
62
184600
1520
Teknoloji tarafsız değil
03:07
and it becomes this race to the bottom of the brain stem
63
187320
3416
ve bu yarış beynimizin son hücresine kadar
03:10
of who can go lower to get it.
64
190760
2200
kimin daha çok alçalacağı yarışına dönüşüyor.
03:13
Let me give you an example of Snapchat.
65
193920
2336
Bir Snapchat örneği vereyim.
03:16
If you didn't know, Snapchat is the number one way
66
196280
3696
Eğer bilmiyorsanız, Snapchat ABD'deki gençlerin
03:20
that teenagers in the United States communicate.
67
200000
2256
bir numaralı iletişim aracı.
03:22
So if you're like me, and you use text messages to communicate,
68
202280
4176
Benim gibiyseniz, iletişim için normal mesaj kullanırsınız.
03:26
Snapchat is that for teenagers,
69
206480
1776
Snapchat gençler içindir
03:28
and there's, like, a hundred million of them that use it.
70
208280
2696
ve yüz milyonlarca genç onu kullanıyor zaten.
Bir de Snap şeritleri diye bir şey geliştirdiler.
03:31
And they invented a feature called Snapstreaks,
71
211000
2216
03:33
which shows the number of days in a row
72
213240
1896
İki kişinin ardı ardına konuştuğu
03:35
that two people have communicated with each other.
73
215160
2616
gün sayısını ayrıca gösteren bir özellik.
03:37
In other words, what they just did
74
217800
1856
Başka bir deyişle,
03:39
is they gave two people something they don't want to lose.
75
219680
2960
onlara kaybetmek istemedikleri bir şey verildi.
03:44
Because if you're a teenager, and you have 150 days in a row,
76
224000
3456
Çünkü bir gençseniz ve 150 ardışık gününüz varsa,
03:47
you don't want that to go away.
77
227480
1976
bunu kaybetmek istemezsiniz.
03:49
And so think of the little blocks of time that that schedules in kids' minds.
78
229480
4160
Bu da çocukların aklında küçük zamanlamalar yapmaktır.
03:54
This isn't theoretical: when kids go on vacation,
79
234160
2336
Konu teorik de değil: Çocuklar tatile gittiğinde,
03:56
it's been shown they give their passwords to up to five other friends
80
236520
3256
kendileri yapamayacağı için bazen 5 arkadaşlarıyla
03:59
to keep their Snapstreaks going,
81
239800
2216
Snapchat'leri aktif kalsın diye
04:02
even when they can't do it.
82
242040
2016
şifrelerini paylaştıkları gösterildi.
04:04
And they have, like, 30 of these things,
83
244080
1936
Bunlarda 30 tane kadarına sahipler,
04:06
and so they have to get through taking photos of just pictures or walls
84
246040
3376
yani günü geçirmek için başka resimlerin, duvarların
04:09
or ceilings just to get through their day.
85
249440
2480
hatta tavanın resimlerini çekmek zorundalar.
04:13
So it's not even like they're having real conversations.
86
253200
2696
Yani aslında gerçek bir sohbet dahi gerçekleştirmiyorlar.
04:15
We have a temptation to think about this
87
255920
1936
Bunu şöyle düşünüyor olabilirsiniz,
04:17
as, oh, they're just using Snapchat
88
257880
2696
bizim telefonda dedikodu yaptığımız gibi
04:20
the way we used to gossip on the telephone.
89
260600
2016
onlar da Snapchat kullanıyor.
04:22
It's probably OK.
90
262640
1200
Bu doğru olabilirdi.
04:24
Well, what this misses is that in the 1970s,
91
264480
2256
Ancak biz 70'li yıllarda
04:26
when you were just gossiping on the telephone,
92
266760
2615
telefonda sadece dedikodu yaparken
04:29
there wasn't a hundred engineers on the other side of the screen
93
269399
3017
ekranın diğer tarafında psikolojimizi tamamen anlayan
04:32
who knew exactly how your psychology worked
94
272440
2056
ve bizi birbirimize bağlamak için
04:34
and orchestrated you into a double bind with each other.
95
274520
2640
taktik geliştiren yüz mühendis yoktu.
04:38
Now, if this is making you feel a little bit of outrage,
96
278440
3400
Bu sizi biraz da olsa kızdırdıysa,
04:42
notice that that thought just comes over you.
97
282680
2576
bu düşüncenin sizin önünüze geçtiğinin farkına varın.
04:45
Outrage is a really good way also of getting your attention,
98
285280
3320
Kızgınlık da dikkatinizi kazanmak için çok iyi bir yol,
04:49
because we don't choose outrage.
99
289880
1576
çünkü kızgınlığı biz seçmiyoruz.
04:51
It happens to us.
100
291480
1416
Kendiliğinden oluyor.
04:52
And if you're the Facebook newsfeed,
101
292920
1856
Eğer Facebook haber akışı ekibiyseniz,
04:54
whether you'd want to or not,
102
294800
1416
isteyin veya istemeyin,
04:56
you actually benefit when there's outrage.
103
296240
2736
kızgınlıktan fayda sağlıyorsunuz.
04:59
Because outrage doesn't just schedule a reaction
104
299000
2936
Çünkü kızgınlık yalnızca sizin duygusal bir zaman ve boşlukta
05:01
in emotional time, space, for you.
105
301960
2880
tepki vermenizden ibaret olmuyor.
05:05
We want to share that outrage with other people.
106
305440
2416
Bu kızgınlığı başkalarıyla paylaşmak istiyoruz.
05:07
So we want to hit share and say,
107
307880
1576
O yüzden paylaş'a dokunmak
05:09
"Can you believe the thing that they said?"
108
309480
2040
ve ''Söylediği şeye inanabiliyor musun?'' demek istiyoruz.
05:12
And so outrage works really well at getting attention,
109
312520
3376
Kızgınlık dikkat toplamada gerçekten işe yarıyor,
05:15
such that if Facebook had a choice between showing you the outrage feed
110
315920
3896
hatta Facebook'ta kızgınlık akışı ve sakinlik akışı
05:19
and a calm newsfeed,
111
319840
1320
diye iki seçenek olsa,
05:22
they would want to show you the outrage feed,
112
322120
2136
size kızgınlık akışını gösterirlerdi,
05:24
not because someone consciously chose that,
113
324280
2056
biri bilinçli olarak onu seçtiğinden değil,
05:26
but because that worked better at getting your attention.
114
326360
2680
dikkatinizi çekmede daha iyi olduğu için.
05:31
And the newsfeed control room is not accountable to us.
115
331120
5480
Haber akışı kontrol odası bize karşı sorumlu değil.
05:37
It's only accountable to maximizing attention.
116
337040
2296
Dikkati maksimize etmekle sorumlular.
05:39
It's also accountable,
117
339360
1216
Şuna karşı da sorumlular:
05:40
because of the business model of advertising,
118
340600
2376
reklama yönelik iş modelleri gereği
05:43
for anybody who can pay the most to actually walk into the control room
119
343000
3336
içeri girmek için en çok parayı ödeyebilen
05:46
and say, "That group over there,
120
346360
1576
ve ''Hey, şuradaki grup,
05:47
I want to schedule these thoughts into their minds."
121
347960
2640
insanların aklına şu düşünceleri sokalım'' diyen herkes.
05:51
So you can target,
122
351760
1200
Hedef koyabilirsiniz,
05:54
you can precisely target a lie
123
354040
1936
bir yalan belirleyip
05:56
directly to the people who are most susceptible.
124
356000
2920
buna en yatkın insanları hedefleyebilirsiniz.
06:00
And because this is profitable, it's only going to get worse.
125
360080
2880
Kâr amacı olduğu için sadece kötüye gidecektir.
06:05
So I'm here today
126
365040
1800
Bugün buradayım,
06:08
because the costs are so obvious.
127
368160
2000
çünkü bunun bedeli çok açık.
06:12
I don't know a more urgent problem than this,
128
372280
2136
Bundan daha ciddi bir sorun göremiyorum,
06:14
because this problem is underneath all other problems.
129
374440
3120
çünkü diğer tüm sorunların altında bu sorun yatıyor.
06:18
It's not just taking away our agency
130
378720
3176
Yalnızca dikkatimizi çalıp
06:21
to spend our attention and live the lives that we want,
131
381920
2600
bizi istediğimiz hayatı yaşamaya bırakmıyorlar,
06:25
it's changing the way that we have our conversations,
132
385720
3536
sohbet etme şekillerimizi,
06:29
it's changing our democracy,
133
389280
1736
demokrasimizi,
06:31
and it's changing our ability to have the conversations
134
391040
2616
sohbet etme yetimizi
06:33
and relationships we want with each other.
135
393680
2000
istediğimiz ilişkileri değiştiriyorlar.
06:37
And it affects everyone,
136
397160
1776
Bu herkesi etkiliyor,
06:38
because a billion people have one of these in their pocket.
137
398960
3360
çünkü bir milyar insanın cebinde bunlardan bir tane var.
06:45
So how do we fix this?
138
405360
1400
Peki bunu nasıl düzeltiriz?
06:49
We need to make three radical changes
139
409080
2936
Teknoloji ve toplumumuz için
06:52
to technology and to our society.
140
412040
1800
üç radikal değişiklik yapmamız gerek.
06:55
The first is we need to acknowledge that we are persuadable.
141
415720
3800
Öncelikle ikna edilebilir olduğumuzu kabul etmeliyiz.
07:00
Once you start understanding
142
420840
1376
Aklımıza küçük düşünceler
07:02
that your mind can be scheduled into having little thoughts
143
422240
2776
veya bizim seçmediğimiz küçük zamanlamalar
07:05
or little blocks of time that you didn't choose,
144
425040
2576
konulabileceğini kabul ettikten sonra,
07:07
wouldn't we want to use that understanding
145
427640
2056
anladığımız bu bilgiyi kullanarak
07:09
and protect against the way that that happens?
146
429720
2160
kendimizi buna karşı korumak istemez miyiz?
07:12
I think we need to see ourselves fundamentally in a new way.
147
432600
3296
Bence kendimizi tamamen yeni bir yönden görmemiz lazım.
07:15
It's almost like a new period of human history,
148
435920
2216
Tıpkı insanlık tarihinde yeni bir çağ gibi,
07:18
like the Enlightenment,
149
438160
1216
Aydınlanma Çağı gibi
07:19
but almost a kind of self-aware Enlightenment,
150
439400
2216
ama farkına varma türünde bir aydınlanma,
07:21
that we can be persuaded,
151
441640
2080
bu durumda ikna edilebiliriz
07:24
and there might be something we want to protect.
152
444320
2240
ve korumak istediğimiz değerler olabilir.
07:27
The second is we need new models and accountability systems
153
447400
4576
İkincisi, yeni modeller ve sorumluluk sistemlerine gerek var,
07:32
so that as the world gets better and more and more persuasive over time --
154
452000
3496
böylece dünya zamanla daha iyi ve çok daha inandırıcı olacaktır,
07:35
because it's only going to get more persuasive --
155
455520
2336
çünkü eninde sonunda daha inandırıcı olacak,
07:37
that the people in those control rooms
156
457880
1856
o kontrol odasındaki insanlar
07:39
are accountable and transparent to what we want.
157
459760
2456
istediğimiz şeylere karşı sorumlu ve şeffaf olacak.
07:42
The only form of ethical persuasion that exists
158
462240
2696
Var olan tek etik ikna biçimi
07:44
is when the goals of the persuader
159
464960
1936
ikna eden kişinin amaçlarıyla
07:46
are aligned with the goals of the persuadee.
160
466920
2200
ikna edilenin amaçları birleştiği zaman olur.
07:49
And that involves questioning big things, like the business model of advertising.
161
469640
3840
Bu da büyük şeylerin sorgulanması ile olur, reklama dair iş modelleri gibi.
07:54
Lastly,
162
474720
1576
Son olarak,
07:56
we need a design renaissance,
163
476320
1680
bir tasarım rönesansına ihtiyacımız var
07:59
because once you have this view of human nature,
164
479080
3056
çünkü insan doğasının bu kısmına bir kez sahip olursanız,
08:02
that you can steer the timelines of a billion people --
165
482160
2976
milyarlarca insanın zaman tünelini yönlendirebilirsiniz...
08:05
just imagine, there's people who have some desire
166
485160
2736
Bir hayal edin,
08:07
about what they want to do and what they want to be thinking
167
487920
2856
ne yapmak ve düşünmek istediğini, ne hissetmek
08:10
and what they want to be feeling and how they want to be informed,
168
490800
3136
ve nasıl bilgilendirilmek istediğini bilen onca insan var
08:13
and we're all just tugged into these other directions.
169
493960
2536
ve hepimiz diğer yönlere doğru sıkıştırılmışız.
08:16
And you have a billion people just tugged into all these different directions.
170
496520
3696
Bu farklı yönlere sıkışmış bir milyar insan var.
08:20
Well, imagine an entire design renaissance
171
500240
2056
Tam bir tasarım rönesansı düşünün,
08:22
that tried to orchestrate the exact and most empowering
172
502320
3096
o zaman aralıklarının gerçekleşmesi için
08:25
time-well-spent way for those timelines to happen.
173
505440
3136
en güçlü ve üzerinde uğraşılmış yol düzenlenmiş olsun.
08:28
And that would involve two things:
174
508600
1656
Bu beraberinde iki şey getirirdi:
08:30
one would be protecting against the timelines
175
510280
2136
bunlardan biri istemediğimiz zamanlamalara
08:32
that we don't want to be experiencing,
176
512440
1856
sahip olmak istemediğimiz düşüncelere
08:34
the thoughts that we wouldn't want to be happening,
177
514320
2416
karşı bizi korurdu,
08:36
so that when that ding happens, not having the ding that sends us away;
178
516760
3336
böylece o bildirim sesi geldiğinde, bildirim bizi yönetmiş olmaz.
08:40
and the second would be empowering us to live out the timeline that we want.
179
520120
3616
İkincisi bizim istediğimiz zamanlamaları yaşamamızı mümkün kılar.
08:43
So let me give you a concrete example.
180
523760
1880
Size elle tutulur bir örnek vereyim.
08:46
Today, let's say your friend cancels dinner on you,
181
526280
2456
Diyelim ki arkadaşınız yemek planınızı iptal etti
08:48
and you are feeling a little bit lonely.
182
528760
3775
ve kendinizi biraz yalnız hissettiniz.
08:52
And so what do you do in that moment?
183
532559
1817
O an ne yaparsınız?
08:54
You open up Facebook.
184
534400
1279
Facebook'a girersiniz.
08:56
And in that moment,
185
536960
1696
İşte o anda,
08:58
the designers in the control room want to schedule exactly one thing,
186
538680
3376
kontrol odasındaki tasarımcılar tamamen tek bir şey programlar,
09:02
which is to maximize how much time you spend on the screen.
187
542080
3040
ekrana bakarak geçirdiğiniz zamanı maksimize etmek.
09:06
Now, instead, imagine if those designers created a different timeline
188
546640
3896
Şimdi bunun yerine o tasarımcıların farklı bir zamanlama yarattığını varsayın,
09:10
that was the easiest way, using all of their data,
189
550560
3496
bu, tüm verilerini kullanarak sevdiğiniz insanlarla dışarı çıkmanıza
09:14
to actually help you get out with the people that you care about?
190
554080
3096
yardım etmenin en kolay yolu olurdu değil mi ?
09:17
Just think, alleviating all loneliness in society,
191
557200
5416
Sadece düşünün, toplumdaki o yalnızlığı azaltmak...
09:22
if that was the timeline that Facebook wanted to make possible for people.
192
562640
3496
Facebook'un insanlar için mümkün kıldığı zaman tüneli bu olabilirdi.
09:26
Or imagine a different conversation.
193
566160
1715
Farklı bir durumu hayal edin.
09:27
Let's say you wanted to post something supercontroversial on Facebook,
194
567899
3317
Diyelim ki Facebook'ta inanılmaz aykırı bir şey paylaştınız,
09:31
which is a really important thing to be able to do,
195
571240
2416
bunu yapabilmek gerçekten önemli,
09:33
to talk about controversial topics.
196
573680
1696
aykırı konularda konuşmak.
09:35
And right now, when there's that big comment box,
197
575400
2336
Şimdi orada büyük bir yorum yap kutusu var,
09:37
it's almost asking you, what key do you want to type?
198
577760
3376
adeta sizden yorum yapmanızı istiyor, ne yazmak istiyorsunuz?
09:41
In other words, it's scheduling a little timeline of things
199
581160
2816
Diğer bir deyişle, ekranda yapmaya devam edeceğiniz
09:44
you're going to continue to do on the screen.
200
584000
2136
şeylerin bir zamanlamasını yapıyor.
09:46
And imagine instead that there was another button there saying,
201
586160
2976
Bunun yerine şöyle bir seçenek olabilirdi;
09:49
what would be most time well spent for you?
202
589160
2056
zaman en iyi şekilde nasıl değerlendirilir?
09:51
And you click "host a dinner."
203
591240
1576
''Yemek daveti''ne tıklıyorsunuz
09:52
And right there underneath the item it said,
204
592840
2096
ve hemen altında yeni bir seçenek
09:54
"Who wants to RSVP for the dinner?"
205
594960
1696
''Davete kim LCV yazmak ister?''
09:56
And so you'd still have a conversation about something controversial,
206
596680
3256
Hala o aykırı konudaki sohbetinizi yapıyor olursunuz
09:59
but you'd be having it in the most empowering place on your timeline,
207
599960
3736
ama bunu zaman tünelinizdeki en güçlü yerde yaparsınız,
10:03
which would be at home that night with a bunch of a friends over
208
603720
3016
bunu konuşmak için o gece evinizde
10:06
to talk about it.
209
606760
1200
arkadaşlarınız olur.
10:09
So imagine we're running, like, a find and replace
210
609000
3160
Bizi yönlendiren o zamanlamalar yerine
10:13
on all of the timelines that are currently steering us
211
613000
2576
daha farklı bir alternatif bulduğumuzu varsayalım,
10:15
towards more and more screen time persuasively
212
615600
2560
daha fazla ekran zamanı olsun
10:19
and replacing all of those timelines
213
619080
2536
ve tüm o zamanlamaların yerini alarak
10:21
with what do we want in our lives.
214
621640
1640
hayatta istediğimiz şeylerle dolu olsun.
10:26
It doesn't have to be this way.
215
626960
1480
Bu şekilde olmak zorunda değil.
10:30
Instead of handicapping our attention,
216
630360
2256
Dikkatimizi baltalamak yerine,
10:32
imagine if we used all of this data and all of this power
217
632640
2816
tüm bu veri, güç ve bu yeni insan doğası
10:35
and this new view of human nature
218
635480
1616
bakış açısını kullanarak
10:37
to give us a superhuman ability to focus
219
637120
2856
kendimize insanüstü bir yeti kazandırdığımızı
10:40
and a superhuman ability to put our attention to what we cared about
220
640000
4136
ve bununla önemsediğimiz şeylere odaklandığımızı,
10:44
and a superhuman ability to have the conversations
221
644160
2616
bu süper yeteneğin demokrasi için sohbetler etmemizi
10:46
that we need to have for democracy.
222
646800
2000
sağladığını bir hayal edin.
10:51
The most complex challenges in the world
223
651600
2680
Dünyadaki en karmaşık zorluklar
10:56
require not just us to use our attention individually.
224
656280
3120
yalnızca bireysel dikkatimizi kullanmamızı değil,
11:00
They require us to use our attention and coordinate it together.
225
660440
3320
bunu birlikte koordine etmemizi gerektirir.
11:04
Climate change is going to require that a lot of people
226
664440
2816
İklim değişikliği pek çok insanın
11:07
are being able to coordinate their attention
227
667280
2096
dikkatlerini birlikte en güçlü şekilde
11:09
in the most empowering way together.
228
669400
1896
koordine edebilmelerini gerektirir.
11:11
And imagine creating a superhuman ability to do that.
229
671320
3080
Bunu yapabilmek için de insanüstü bir yetimiz olduğunu düşünün.
11:19
Sometimes the world's most pressing and important problems
230
679000
4160
Bazen dünyanın en önemli sorunları
11:24
are not these hypothetical future things that we could create in the future.
231
684040
3840
gelecekte yaratacağımız varsayımlı sorunlar değil,
11:28
Sometimes the most pressing problems
232
688560
1736
Bazen en önemli sorunlar
11:30
are the ones that are right underneath our noses,
233
690320
2336
hemen yanı başımızda bulunan sorunlardır,
11:32
the things that are already directing a billion people's thoughts.
234
692680
3120
şu an bir milyar insanın düşüncelerine yön veren sorunlar.
11:36
And maybe instead of getting excited about the new augmented reality
235
696600
3376
Belki de yeni güçlendirilmiş gerçeklik
11:40
and virtual reality and these cool things that could happen,
236
700000
3296
ve bilgisyar gerçekliği gibi harika yenilikler için mutlu olmaktansa,
11:43
which are going to be susceptible to the same race for attention,
237
703320
3296
bu yenilikller de aynı dikkat yarışından etkilenecek,
11:46
if we could fix the race for attention
238
706640
2176
belki de bir milyar insanın cebinde
11:48
on the thing that's already in a billion people's pockets.
239
708840
2720
zaten var olan bu dikkat yarışını düzeltebiliriz.
11:52
Maybe instead of getting excited
240
712040
1576
Belki de yeni hoş görünümlü
11:53
about the most exciting new cool fancy education apps,
241
713640
4176
eğitim uygulamaları için mutlu olmak yerine,
11:57
we could fix the way kids' minds are getting manipulated
242
717840
2896
çocukların beynini manipüle eden sorunu düzeltebilir,
12:00
into sending empty messages back and forth.
243
720760
2480
sürekli boş mesajlar göndermelerine son verebiliriz.
12:04
(Applause)
244
724040
4296
(Alkış)
12:08
Maybe instead of worrying
245
728360
1256
Belki de gelecekte
12:09
about hypothetical future runaway artificial intelligences
246
729640
3776
yalnızca tek bir amaç için çalışan varsayımlı yapay zekâ hakkında
12:13
that are maximizing for one goal,
247
733440
1880
endişelenmek yerine,
12:16
we could solve the runaway artificial intelligence
248
736680
2656
zaten şu an var olan bu kaçak yapay zekâyı,
12:19
that already exists right now,
249
739360
2056
tek bir amaca hizmet eden
12:21
which are these newsfeeds maximizing for one thing.
250
741440
2920
haber akışını düzeltebiliriz.
12:26
It's almost like instead of running away to colonize new planets,
251
746080
3816
Tıpkı yeni gezegenleri kolonize etmek yerine
12:29
we could fix the one that we're already on.
252
749920
2056
üzerinde yaşadığımız gezegeni düzeltmek gibi.
12:32
(Applause)
253
752000
4120
(Alkış)
12:40
Solving this problem
254
760040
1776
Bu sorunu çözmek
12:41
is critical infrastructure for solving every other problem.
255
761840
3800
diğer her sorunu çözmek için önemli bir altyapı.
12:46
There's nothing in your life or in our collective problems
256
766600
4016
Hayatınızda kolektif sorunlarımıza dair
12:50
that does not require our ability to put our attention where we care about.
257
770640
3560
önemsediğimiz şeylere verdiğimiz dikkati gerektiren hiçbir şey yok.
12:55
At the end of our lives,
258
775800
1240
Hayatımızın sonunda,
12:58
all we have is our attention and our time.
259
778240
2640
sahip olduğumuz tek şey dikkat ve zamanımız.
13:01
What will be time well spent for ours?
260
781800
1896
Biz bu zamanı ne için iyi kullanacağız?
13:03
Thank you.
261
783720
1216
Teşekkür ederim.
13:04
(Applause)
262
784960
3120
(Alkış)
13:17
Chris Anderson: Tristan, thank you. Hey, stay up here a sec.
263
797760
2936
Chris Anderson: Tristan, teşekkürler. Lütfen biraz bekle.
13:20
First of all, thank you.
264
800720
1336
Öncelikle, teşekkür ederim.
13:22
I know we asked you to do this talk on pretty short notice,
265
802080
2776
Bu konuşma için sana oldukça az zaman tanıdık
13:24
and you've had quite a stressful week
266
804880
2216
ve bu konuşmayı hazırlayarak
13:27
getting this thing together, so thank you.
267
807120
2440
oldukça stresli bir hafta geçirdin, teşekkür ederim.
13:30
Some people listening might say, what you complain about is addiction,
268
810680
3976
Dinleyen bazı kimseler yakındığın konunun bağımlılık olduğunu söyleyebilir,
13:34
and all these people doing this stuff, for them it's actually interesting.
269
814680
3496
bu söylediklerini yapan bu insanlar, bu onlar için çok ilgi çekici.
13:38
All these design decisions
270
818200
1256
Tüm bu tasarım kararları
13:39
have built user content that is fantastically interesting.
271
819480
3096
Çok ilgi çekici kullanıcı içerikleri geliştirdiler.
13:42
The world's more interesting than it ever has been.
272
822600
2416
Dünya hiç olmadığı kadar ilgi çekici.
13:45
What's wrong with that?
273
825040
1256
Bunda yanlış olan ne ?
13:46
Tristan Harris: I think it's really interesting.
274
826320
2256
Tristan Harris: Bence de gerçekten ilginç.
13:48
One way to see this is if you're just YouTube, for example,
275
828600
4016
Bunu görmenin bir yolu eğer Youtube'taysanız örneğin,
13:52
you want to always show the more interesting next video.
276
832640
2656
daha ilginç olan sonraki videoyu görmek isteyeceksiniz.
13:55
You want to get better and better at suggesting that next video,
277
835320
3016
O bir sonraki videoyu göstermede hep daha iyi olmak istiyorsunuz
13:58
but even if you could propose the perfect next video
278
838360
2456
ama herkesin izlemek istediği türden
14:00
that everyone would want to watch,
279
840840
1656
mükemmel bir video sunabilecekken,
14:02
it would just be better and better at keeping you hooked on the screen.
280
842520
3336
Sİzi ekranda tutmak çok daha ağır basıyor.
14:05
So what's missing in that equation
281
845880
1656
Bu denklemde eksik olan şey,
14:07
is figuring out what our boundaries would be.
282
847560
2136
sınırlarımızın ne olduğunu anlamıyor olmamız.
14:09
You would want YouTube to know something about, say, falling asleep.
283
849720
3216
Mesela YouTube'un uykuya daldığınızı bilsin isteyebilirsiniz.
14:12
The CEO of Netflix recently said,
284
852960
1616
Netflix'in CEO'su son günlerde
14:14
"our biggest competitors are Facebook, YouTube and sleep."
285
854600
2736
''en büyük rakiplerimiz Facebook, YouTube ve uyku'' dedi.
14:17
And so what we need to recognize is that the human architecture is limited
286
857360
4456
İnsan mimarisinin sınırlı olduğunu anlamamız lazım
14:21
and that we have certain boundaries or dimensions of our lives
287
861840
2976
ve hayatımızda yapmamız ve saygı duymamız gereken
14:24
that we want to be honored and respected,
288
864840
1976
belli başlı sınırlar var,
14:26
and technology could help do that.
289
866840
1816
teknoloji bunu yapmamızda bize yardım edebilir.
14:28
(Applause)
290
868680
2616
(Alkış)
14:31
CA: I mean, could you make the case
291
871320
1696
CA: Yani şunu söyleyebilir miyiz?
14:33
that part of the problem here is that we've got a naïve model of human nature?
292
873040
6056
İnsan doğasının saf bir modeline sahip olmamız asıl sorun?
14:39
So much of this is justified in terms of human preference,
293
879120
2736
İnsan tercihi açısından bunun büyük kısmı haklı kılınıyor,
14:41
where we've got these algorithms that do an amazing job
294
881880
2616
insan tercihini optimize eden
14:44
of optimizing for human preference,
295
884520
1696
harika algoritmalarımız var
14:46
but which preference?
296
886240
1336
ama hangi tercihleri?
14:47
There's the preferences of things that we really care about
297
887600
3496
İçgüdüsel olarak tıkladığımız tercihlerle
14:51
when we think about them
298
891120
1376
diğerlerini kıyasladığımızda
14:52
versus the preferences of what we just instinctively click on.
299
892520
3056
gerçekten önemsediğimiz tercihler var.
14:55
If we could implant that more nuanced view of human nature in every design,
300
895600
4656
Her tasarımda insan doğasına göre daha farklılaştırılmış bir bakış sunsak,
15:00
would that be a step forward?
301
900280
1456
bu ileriye bir adım olur mu?
15:01
TH: Absolutely. I mean, I think right now
302
901760
1976
TH: Bence şu anda
15:03
it's as if all of our technology is basically only asking our lizard brain
303
903760
3496
teknoloji tamamen beynimizin temel kısmına
15:07
what's the best way to just impulsively get you to do
304
907280
2496
içgüdüsel olarak küçük şeyler
15:09
the next tiniest thing with your time,
305
909800
2136
yaptırıp zamanımızı dolduruyor,
15:11
instead of asking you in your life
306
911960
1656
bunun yerine hayatımızda zamanı
15:13
what we would be most time well spent for you?
307
913640
2176
en iyi nasıl değerlendireceğimiz sorulsa?
15:15
What would be the perfect timeline that might include something later,
308
915840
3296
Daha sonra da dahil olmak üzere, burada son gününüzde TED'de
15:19
would be time well spent for you here at TED in your last day here?
309
919160
3176
zamanınızı değerlendirmek için yapacağınız en iyi şey ne olurdu?
15:22
CA: So if Facebook and Google and everyone said to us first up,
310
922360
2976
CA: Yani Facebook ve Google bize en baştan şöyle söyleseler:
15:25
"Hey, would you like us to optimize for your reflective brain
311
925360
2896
''Reflektif veya sürüngen beyninizi nasıl optimize etmemizi
15:28
or your lizard brain? You choose."
312
928280
1656
istersiniz? Siz seçin.''
15:29
TH: Right. That would be one way. Yes.
313
929960
2080
TH: Doğru. Bu bir yol olabilir. Evet.
15:34
CA: You said persuadability, that's an interesting word to me
314
934358
2858
CA: İknadan bahsettin, benim için ilginç bir kelime bu
15:37
because to me there's two different types of persuadability.
315
937240
2856
çünkü bana göre iki farklı tür ikna var.
15:40
There's the persuadability that we're trying right now
316
940120
2536
Şu an uğraştığımız ikna edilebilirlik;
15:42
of reason and thinking and making an argument,
317
942680
2176
mantık, düşünme ve tartışma yoluyla ulaşılan
15:44
but I think you're almost talking about a different kind,
318
944880
2696
ama siz başka bir tür iknadan bahsediyorsunuz,
15:47
a more visceral type of persuadability,
319
947590
1906
içten gelen bir iknadan,
15:49
of being persuaded without even knowing that you're thinking.
320
949520
2896
onu düşündüğünüzü bile bilmeden ikna edilmekten.
15:52
TH: Exactly. The reason I care about this problem so much is
321
952440
2856
TH: Kesinlikle. Bu sorunu bu kadar önemsememin sebebi
15:55
I studied at a lab called the Persuasive Technology Lab at Stanford
322
955320
3176
Stanford'da İkna Teknolojisi Laboratuvarı adında bir yerde okudum,
15:58
that taught [students how to recognize] exactly these techniques.
323
958520
2546
öğrencilere bu teknikler öğretiliyordu.
İnsanların dikkatlerini toplayarak hayatlarına yön veren
16:01
There's conferences and workshops that teach people all these covert ways
324
961106
2990
16:04
of getting people's attention and orchestrating people's lives.
325
964120
2976
bu teknikleri öğreten konferans ve çalıştaylar var.
16:07
And it's because most people don't know that that exists
326
967120
2656
İnsanların çoğu bunun var olduğunu bilmedikleri için
16:09
that this conversation is so important.
327
969800
1896
bu sohbet konusu aslında çok önemli.
16:11
CA: Tristan, you and I, we both know so many people from all these companies.
328
971720
3776
CA: İkimiz de bu şirketlerden çok sayıda insan tanıyoruz.
16:15
There are actually many here in the room,
329
975520
1976
Hatta pek çoğu salonda aramızda,
16:17
and I don't know about you, but my experience of them
330
977520
2477
Seni bilemiyorum ama benim onlarla olan deneyimim
16:20
is that there is no shortage of good intent.
331
980021
2075
iyi niyette hiç taviz vermedikleri yönünde.
16:22
People want a better world.
332
982120
2176
İnsanlar daha iyi bir dünya istiyor.
16:24
They are actually -- they really want it.
333
984320
3520
Bunu gerçekten istiyorlar.
16:28
And I don't think anything you're saying is that these are evil people.
334
988320
4176
Bu insanların şeytani olduğunu söylemiyorsun aslında.
16:32
It's a system where there's these unintended consequences
335
992520
3696
Bu istenmeyen sonuçlar doğurmuş
16:36
that have really got out of control --
336
996240
1856
ve kontrolden çıkmış bir sistem.
16:38
TH: Of this race for attention.
337
998120
1496
TH: Dikkat için bu yarışta.
16:39
It's the classic race to the bottom when you have to get attention,
338
999640
3176
Dikkat kazanmak için yapılan dibe doğru bir yarış
16:42
and it's so tense.
339
1002840
1216
ve çok yoğun ilerliyor.
16:44
The only way to get more is to go lower on the brain stem,
340
1004080
2736
Daha fazlası için tek yol beyinde daha aşağıya gitmek,
16:46
to go lower into outrage, to go lower into emotion,
341
1006840
2416
kızgınlığın ve duygunun ve sürüngen beyninizin,
16:49
to go lower into the lizard brain.
342
1009280
1696
daha aşağısına gitmek.
16:51
CA: Well, thank you so much for helping us all get a little bit wiser about this.
343
1011000
3816
CA: Pekâlâ, bu konuda bizi biraz daha bilgilendirdiğin için çok teşekkürler.
16:54
Tristan Harris, thank you. TH: Thank you very much.
344
1014840
2416
Tristan Harris, teşekkürler. TH: Çok teşekkür ederim.
16:57
(Applause)
345
1017280
2240
(Alkış)
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7