Art that reveals how technology frames reality | Jiabao Li

80,367 views ・ 2020-04-06

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Senanur Çetgin Gözden geçirme: Nevaz Mescioğlu
00:12
I'm an artist and an engineer.
0
12887
2396
Ben bir sanatçı ve mühendisim.
00:15
And lately, I've been thinking a lot about how technology mediates
1
15307
5774
Son zamanlarda, sık sık teknolojinin gerçeği algılama biçimimize
00:21
the way we perceive reality.
2
21105
2041
nasıl aracılık ettiğini düşünüyorum.
00:23
And it's being done in a superinvisible and nuanced way.
3
23653
4640
Bu, çok görünmez ve incelikli bir biçimde gerçekleşiyor.
00:29
Technology is designed to shape our sense of reality
4
29260
3646
Teknoloji, kendisini dünyadaki esas tecrübe olarak maskeleyerek
00:32
by masking itself as the actual experience of the world.
5
32930
3811
gerçeklik algımızı biçimlendirmek üzere tasarlanmıştır.
00:37
As a result, we are becoming unconscious and unaware
6
37430
4686
Sonuç olarak, bunun gerçekleşmesine karşı
00:42
that it is happening at all.
7
42140
2185
bilinçsiz ve habersiz hâle geliyoruz.
00:45
Take the glasses I usually wear, for example.
8
45360
2488
Örneğin çoğu zaman taktığım gözlükleri ele alalım.
00:47
These have become part of the way I ordinarily experience my surroundings.
9
47872
4024
Çevremdekileri tecrübe etme biçimimin bir parçası hâline geldiler.
00:52
I barely notice them,
10
52352
1490
Onlar benim için sürekli gerçeği çerçevelese bile
00:53
even though they are constantly framing reality for me.
11
53866
4085
onları nadiren fark ediyorum.
00:58
The technology I am talking about is designed to do the same thing:
12
58447
4016
Bahsettiğim teknoloji de aynı şey üzerine tasarlandı.
01:02
change what we see and think
13
62487
2438
Gördüğümüzü ve düşündüğümüzü değiştirmek
01:04
but go unnoticed.
14
64949
1760
ama fark edilmemek.
01:07
Now, the only time I do notice my glasses
15
67780
3269
Sadece camlarının kirlenmesi ya da reçetemin değişmesi gibi
01:11
is when something happens to draw my attention to it,
16
71073
3258
01:14
like when it gets dirty or my prescription changes.
17
74355
3514
dikkatimi çekecek şeyler olduğunda gözlüklerimi fark ediyorum.
01:18
So I asked myself, "As an artist, what can I create
18
78481
4608
Böylece kendime sordum "Bir sanatçı olarak haberler, organizasyonlar,
01:23
to draw the same kind of attention
19
83113
2447
sosyal medya platformları, reklamlar ve arama motorları gibi
01:25
to the ways digital media -- like news organizations, social media platforms,
20
85584
6171
dijital medyanın gerçekliğimizi şekillendirme yollarına
01:31
advertising and search engines --
21
91779
2261
aynı şekilde dikkat çekmek için ne yapabilirim?"
01:34
are shaping our reality?"
22
94064
2014
01:36
So I created a series of perceptual machines
23
96798
4772
Dünyaya bakış açımızı yabancılaştırmamıza
01:41
to help us defamiliarize and question
24
101594
3566
ve sorgulamamıza yardımcı olacak
01:45
the ways we see the world.
25
105184
2120
bir dizi algısal makine yarattım.
01:48
For example, nowadays, many of us have this kind of allergic reaction
26
108859
6033
Mesela bugünlerde çoğumuz
kendimizinkinden farklı fikirlere karşı alerjik bir reaksiyon gösteriyoruz.
01:54
to ideas that are different from ours.
27
114916
2493
01:57
We may not even realize that we've developed this kind of mental allergy.
28
117945
5656
Bu tür zihinsel alerji geliştirdiğimizin farkında olmayabiliriz.
02:04
So I created a helmet that creates this artificial allergy to the color red.
29
124596
5643
Bu yüzden kırmızı renge karşı yapay alerji oluşturan bir kask yaptım.
02:10
It simulates this hypersensitivity by making red things look bigger
30
130263
4453
Bu kaskı giydiğiniz zaman, kırmızı renkleri daha büyük göstererek
02:14
when you are wearing it.
31
134740
1280
aşırı duyarlılık durumunu uyarır.
02:16
It has two modes: nocebo and placebo.
32
136730
3558
Bu kaskın Nocebo ve Placebo adında iki modu var.
02:21
In nocebo mode, it creates this sensorial experience of hyperallergy.
33
141272
5357
Nocebo modunda bu kask, duyusal hiperalerji deneyimini oluşturur.
02:26
Whenever I see red, the red expands.
34
146653
2707
Kırmızıyı ne zaman görsem kırmızı büyür.
02:30
It's similar to social media's amplification effect,
35
150062
3531
Bu, sosyal medyanın amplifikasyon etkisine benzer;
02:33
like when you look at something that bothers you,
36
153617
2597
sizi rahatsız eden bir şeye baktığınızda
02:36
you tend to stick with like-minded people
37
156238
2928
benzer düşüncelere sahip insanlarla beraber olmaya
02:39
and exchange messages and memes, and you become even more angry.
38
159190
4595
ve mesajlar, esprili fotoğraflar paylaşmaya yönelir
fakat sonra daha sinirli hâle gelirsiniz.
02:44
Sometimes, a trivial discussion gets amplified
39
164274
3662
Bazen, önemsiz bir tartışma büyür
02:47
and blown way out of proportion.
40
167960
2401
ve olay çığırından çıkar.
02:51
Maybe that's even why we are living in the politics of anger.
41
171038
4520
Belki de bu yüzden öfke politikası içinde yaşıyoruzdur.
02:56
In placebo mode, it's an artificial cure for this allergy.
42
176756
3415
Placebo modu ise bu alerji için yapay bir tedavi görevi görür.
03:00
Whenever you see red, the red shrinks.
43
180575
2292
Bu modda kırmızıyı gördüğünüzde kırmızı küçülür.
03:03
It's a palliative, like in digital media.
44
183617
2875
Dijital medyadaki bir yatıştırıcı gibi.
03:06
When you encounter people with different opinions,
45
186516
2899
Farklı görüşlere sahip insanlarla karşılaştığımızda
03:09
we will unfollow them,
46
189439
1477
onları takip etmeyi bırakırız,
03:10
remove them completely out of our feeds.
47
190940
2748
onları akışımızdan atarız.
03:14
It cures this allergy by avoiding it.
48
194343
3203
Bu buluş alerjiden uzak durarak onu tedavi eder.
03:17
But this way of intentionally ignoring opposing ideas
49
197570
4547
Fakat kasıtlı olarak karşıt görüşleri görmezden gelmek,
03:22
makes human community hyperfragmented and separated.
50
202141
4056
insan topluluğunu aşırı parçalanmış ve ayrılmış hâle getirir.
03:27
The device inside the helmet reshapes reality
51
207343
3059
Kask içindeki cihaz, gerçeği yeniden şekillendirir
03:30
and projects into our eyes through a set of lenses
52
210426
2950
ve artırılmış gerçeklik yaratmak için
bu yeniden şekillendirilmiş gerçeği bir dizi lens ile gözümüze yansıtır.
03:33
to create an augmented reality.
53
213400
1915
03:35
I picked the color red, because it's intense and emotional,
54
215935
4782
Kırmızı rengi seçtim çünkü yoğun ve duygulu,
03:40
it has high visibility
55
220741
1958
görünürlüğü yüksek ve politik.
03:42
and it's political.
56
222723
1278
03:44
So what if we take a look
57
224390
1263
Ya son Amerikan başkanlığı seçim haritasına
03:45
at the last American presidential election map
58
225677
3049
kask ile bir bakış atarsak?
03:48
through the helmet?
59
228750
1165
03:49
(Laughter)
60
229939
1008
(Kahkaha)
03:50
You can see that it doesn't matter if you're a Democrat or a Republican,
61
230971
3573
Bir Demokrat veya Cumhuriyetçi olmanızın fark etmediğini görürsünüz.
03:54
because the mediation alters our perceptions.
62
234568
3989
Çünkü uzlaşmak, algılarımızı değiştirir.
03:58
The allergy exists on both sides.
63
238581
3133
Alerji, her iki tarafta da mevcuttur.
04:03
In digital media,
64
243134
1320
Dijital medyada, her gün gördüklerimiz genelde uzlaşmalıdır
04:04
what we see every day is often mediated,
65
244478
3133
ama aynı zamanda aralarında küçük farklar vardır.
04:07
but it's also very nuanced.
66
247635
1733
04:09
If we are not aware of this,
67
249758
1995
Eğer bunun farkında olmazsak
04:11
we will keep being vulnerable to many kinds of mental allergies.
68
251777
5405
birçok türden zihinsel alerjiye karşı savunmasız olmaya devam edeceğiz.
04:18
Our perception is not only part of our identities,
69
258900
3510
Algımız, yalnızca kimliğimizin değil
04:22
but in digital media, it's also a part of the value chain.
70
262434
4294
aynı zamanda sosyal medyada bir değer zincirinin parçası.
04:27
Our visual field is packed with so much information
71
267992
3575
Görsel alanımız öylesine çok bilgiyle dolu ki
04:31
that our perception has become a commodity with real estate value.
72
271591
5512
algımız, gayrimenkul değeri olan bir emtia hâline geldi.
04:38
Designs are used to exploit our unconscious biases,
73
278035
3529
Tasarımlar, bilinçsiz ön yargılarımızı sömürmek için kullanılıyor,
04:41
algorithms favor content that reaffirms our opinions,
74
281588
3480
algoritmalar fikrimizi onaylayan fikirleri destekliyor
böylelikle bakış açımızın en küçük alanı bile
04:45
so that every little corner of our field of view is being colonized
75
285092
4191
reklam satmak için sömürgeleştiriliyor.
04:49
to sell ads.
76
289307
1342
04:51
Like, when this little red dot comes out in your notifications,
77
291402
4017
Mesela bu küçük kırmızı nokta bildirimlerinizde belirdiğine
04:55
it grows and expands, and to your mind, it's huge.
78
295443
4244
büyüyor, genişliyor ve aklınızda devasa hâle geliyor.
05:00
So I started to think of ways to put a little dirt,
79
300571
3361
Gözlük camlarımı biraz kirletmenin ya da onları değiştirmenin
05:03
or change the lenses of my glasses,
80
303956
2698
ve başka bir proje fikri ortaya çıkarmanın yollarını düşünmeye başladım.
05:06
and came up with another project.
81
306678
2098
05:09
Now, keep in mind this is conceptual. It's not a real product.
82
309423
3801
Bunun kavramsal olduğunu aklınızda tutun.
Bu gerçek bir ürün değil.
05:13
It's a web browser plug-in
83
313676
2073
Bu, genelde görmezden geldiğimiz şeyleri
05:15
that could help us to notice the things that we would usually ignore.
84
315773
4342
fark etmemize yardımcı olacak bir internet tarayıcısı yazılım eki.
05:20
Like the helmet, the plug-in reshapes reality,
85
320709
3770
Kask gibi, bu yazılım eki de gerçekliği yeniden şekillendirir
05:24
but this time, directly into the digital media itself.
86
324503
3397
fakat bu sefer direkt olarak dijital medyayı şekillendirecek.
05:29
It shouts out the hidden filtered voices.
87
329066
3156
Bu ek, gizli filtrelenmiş sesleri haykırıyor.
05:32
What you should be noticing now
88
332246
1573
Fark etmeniz gereken şey buradaki gibi, şimdi daha büyük ve canlı olacak,
05:33
will be bigger and vibrant,
89
333843
2509
05:36
like here, this story about gender bias emerging from the sea of cats.
90
336376
4295
cinsiyet ön yargısı hakkındaki bu hikâye birçok kedinin arasında öne çıkarılmıştır.
05:40
(Laughter)
91
340695
2021
(Gülüşme)
05:42
The plug-in could dilute the things that are being amplified by an algorithm.
92
342740
5417
Bu ek, bir algoritma tarafından sağlamlaştırılmış şeyleri seyreltebilir.
05:48
Like, here in this comment section,
93
348831
1696
Bu yorum bölümündeki gibi, aynı düşünen birçok insan var.
05:50
there are lots of people shouting about the same opinions.
94
350551
3069
05:54
The plug-in makes their comments super small.
95
354111
2870
Bu uyumlu ek onların yorumlarını çok küçük hâle getiriyor.
05:57
(Laughter)
96
357005
1008
(Gülüşme)
05:58
So now the amount of pixel presence they have on the screen
97
358037
5251
Ekranlarındaki piksel miktarı
06:03
is proportional to the actual value they are contributing to the conversation.
98
363312
4554
konuşmaya kattıkları asıl değer ile orantılı.
06:07
(Laughter)
99
367890
1942
(Kahkaha)
06:11
(Applause)
100
371345
3631
(Alkış)
06:16
The plug-in also shows the real estate value of our visual field
101
376919
4061
Bu ek, aynı zamanda görsel alanımızın gerçek emlak değerini
06:21
and how much of our perception is being commoditized.
102
381004
3456
ve algımızın ne kadar metalaştırıldığını gösteriyor.
06:24
Different from ad blockers,
103
384912
1589
Reklam engelleyicilerden farklı olarak internette gördüğünüz her reklam için
06:26
for every ad you see on the web page,
104
386525
2472
06:29
it shows the amount of money you should be earning.
105
389021
3407
ne kadar para kazanıyor olmanız gerektiğini gösteriyor.
06:32
(Laughter)
106
392452
1245
(Gülüşme)
06:34
We are living in a battlefield between reality
107
394356
2292
Gerçeklik ve ticari gerçekliğin arasında bir savaş alanında yaşıyoruz.
06:36
and commercial distributed reality,
108
396672
2253
06:39
so the next version of the plug-in could strike away that commercial reality
109
399329
5086
Bu yüzden bu ekin bir sonraki versiyonu bu ticari gerçekliği ortadan kaldırabilir
06:44
and show you things as they really are.
110
404439
2799
ve her şeyi gerçekte olduğu şekliyle gösterir.
06:47
(Laughter)
111
407262
1791
(Kahkaha)
06:50
(Applause)
112
410335
3629
(Alkış)
06:55
Well, you can imagine how many directions this could really go.
113
415179
3612
Bu olayın kaç farklı yöne gidebileceğini hayal edebilirsiniz.
06:58
Believe me, I know the risks are high if this were to become a real product.
114
418815
4414
İnanın bana, eğer bu ürün gerçek olacaksa
riskin ne kadar fazla olduğunu biliyorum.
07:04
And I created this with good intentions
115
424006
2939
Bu buluşu, algımızı eğitip ön yargıları elemek için
07:06
to train our perception and eliminate biases.
116
426969
3837
iyi niyetlerle yarattım.
07:10
But the same approach could be used with bad intentions,
117
430830
3728
Fakat aynı yaklaşım, kötü niyetlerle de kullanılabilir.
07:14
like forcing citizens to install a plug-in like that
118
434582
3205
Örneğin kamusal anlatıyı kontrol etmek için
07:17
to control the public narrative.
119
437811
2126
vatandaşları bir ek yüklemeye zorlamak gibi.
07:20
It's challenging to make it fair and personal
120
440768
2737
Bunu, başka bir ara buluculuk katmanı olmadan
07:23
without it just becoming another layer of mediation.
121
443529
3155
adil ve kişisel yapmak oldukça zor.
07:27
So what does all this mean for us?
122
447933
2662
Peki bunların bizim için anlamı nedir?
07:31
Even though technology is creating this isolation,
123
451230
3733
Teknoloji bu izolasyonu yaratıyor olsa da
07:34
we could use it to make the world connected again
124
454987
3602
biz bunu, var olan modeli yıkıp onun ötesine geçerek
07:38
by breaking the existing model and going beyond it.
125
458613
3247
dünyayı tekrar bağlı hâle getirmek için kullanabiliriz.
07:42
By exploring how we interface with these technologies,
126
462508
3338
Bu teknolojilerle nasıl arayüz kurabileceğimizi keşfederek
07:45
we could step out of our habitual, almost machine-like behavior
127
465870
5185
makineye benzeyen rutin davranışlarımızın dışına çıkabilir
07:51
and finally find common ground between each other.
128
471079
2670
ve nihayet ikisi arasında ortak bir zemin bulabiliriz.
07:54
Technology is never neutral.
129
474915
1789
Teknoloji asla tarafsız değildir.
07:57
It provides a context and frames reality.
130
477191
3019
Bir bağlam sağlar ve gerçekliği çerçeveler.
08:00
It's part of the problem and part of the solution.
131
480234
2888
Bu, sorunun ve çözümün bir parçası.
08:03
We could use it to uncover our blind spots and retrain our perception
132
483624
5640
Bunu, kör noktalarımızı ortaya çıkarmak
ve algımızı yeniden eğitmek için kullanabiliriz.
08:09
and consequently, choose how we see each other.
133
489949
3506
Sonuç olarak birbirimizi nasıl gördüğümüzü seçebiliriz.
08:13
Thank you.
134
493892
1191
Teşekkürler.
08:15
(Applause)
135
495107
2685
(Alkış)
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7