Sebastian Deterding: What your designs say about you

33,085 views ・ 2012-05-31

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Elif Azaklı Gözden geçirme: Can Boysan
00:15
We are today talking about moral persuasion:
0
15651
2586
Bugün ahlaki iknadan bahsedeceğiz:
00:18
What is moral and immoral in trying to change people's behaviors
1
18261
3982
Teknoloji ve tasarımı kullanarak insanların davranışlarını değiştirmekte,
00:22
by using technology and using design?
2
22267
2453
ne ahlakidir, ne ahlak dışıdır?
00:24
And I don't know what you expect,
3
24744
1832
Aslında ne beklediğinizi bilmiyorum
00:26
but when I was thinking about that issue,
4
26600
1953
ama konu hakkında düşünürken,
00:28
I early on realized what I'm not able to give you are answers.
5
28577
4039
sorularınıza yanıt veremeyeceğimi çoktan fark ettim.
00:33
I'm not able to tell you what is moral or immoral,
6
33203
2771
Neyin ahlaki, neyin ahlak dışı olduğunu söyleyemem.
00:35
because we're living in a pluralist society.
7
35998
2547
Çünkü çoğulcu bir toplumda yaşıyoruz.
00:38
My values can be radically different from your values,
8
38569
4242
Benim değerlerim sizinkilerden tamamen farklı olabilir,
00:42
which means that what I consider moral or immoral based on that
9
42835
3177
yani benim ahlaki ya da ahlak dışı olarak değerlendirmelerim,
00:46
might not necessarily be what you consider moral or immoral.
10
46036
3612
sizin değerlendirmelerinizden farklı olabilir.
00:50
But I also realized there is one thing that I could give you,
11
50029
3214
Ama yine de sizlere verebileceğim bir şeyler olduğunu fark ettim,
00:53
and that is what this guy behind me gave the world --
12
53267
2533
bu da arkamdaki bu adamın dünyaya verdiğidir --
00:55
Socrates.
13
55824
1150
Sokrates.
00:56
It is questions.
14
56998
1395
Sorular.
00:58
What I can do and what I would like to do with you
15
58417
2633
Özünüzde neyin ahlaki, neyin ahlak dışı olduğunu anlamak için,
01:01
is give you, like that initial question,
16
61074
1945
ilk sorudaki gibi "Sizinle ne yapabilirim?”
01:03
a set of questions to figure out for yourselves,
17
63043
3410
ya da “Ne yapmak isterdim?” sorularıyla
01:06
layer by layer, like peeling an onion,
18
66477
3641
sizi tıpkı bir soğan gibi katman katman soyarak
01:10
getting at the core of what you believe is moral or immoral persuasion.
19
70142
5020
ne olduğunuzu fark edeceğiniz birtakım sorular vereceğim.
01:15
And I'd like to do that with a couple of examples of technologies
20
75559
4041
İnsanlara bir şeyler yaptırmak için oyun unsurlarının kullanıldığı
01:19
where people have used game elements to get people to do things.
21
79624
4980
birkaç teknoloji örneğiyle bunu anlatmak istiyorum.
01:25
So it's at first a very simple, very obvious question
22
85343
3040
İlk olarak, çok basit
ve çok açık bir soru vermek istiyorum:
01:28
I would like to give you:
23
88407
1196
01:29
What are your intentions if you are designing something?
24
89627
2687
Bir şeyler tasarlıyorken niyetleriniz nelerdir?
01:32
And obviously, intentions are not the only thing,
25
92668
3373
Açıkçası niyetler tek başına değildir.
01:36
so here is another example for one of these applications.
26
96065
3178
İşte burada, bu tarz uygulamalardan bir örnek daha.
01:39
There are a couple of these kinds of Eco dashboards right now --
27
99267
3087
Burada, sizi yakıt tasarruflu araç kullanmaya teşvik için
01:42
dashboards built into cars --
28
102378
1460
01:43
which try to motivate you to drive more fuel-efficiently.
29
103862
2832
bir tür eko gösterge paneli görüyorsunuz.
01:46
This here is Nissan's MyLeaf,
30
106718
1773
İşte, sizin sürüş tarzınızla
01:48
where your driving behavior is compared with the driving behavior
31
108515
3064
bir diğerinin sürüş tarzını kıyaslayan Nissan MyLeaf.
01:51
of other people,
32
111603
1151
Böylece, aynı güzergâhta kimin daha tasarruflu
01:52
so you can compete for who drives a route the most fuel-efficiently.
33
112778
3277
araç kullandığıyla ilgili yarışabilirsiniz.
01:56
And these things are very effective, it turns out --
34
116079
2477
Hatta bu şeyler öyle etkili bir hale gelmiş ki,
01:58
so effective that they motivate people to engage in unsafe driving behaviors,
35
118580
3939
insanları kırmızı ışıkta durmayacak kadar
02:02
like not stopping at a red light,
36
122543
1762
tehlikeli araba kullanacak hale getirmişler.
02:04
because that way you have to stop and restart the engine,
37
124329
2715
Çünkü motoru durdurup tekrar başlatmak
02:07
and that would use quite some fuel, wouldn't it?
38
127068
2723
motorun yakıt tüketimini arttırabilir.
02:10
So despite this being a very well-intended application,
39
130338
4409
Her ne kadar iyi niyetli bir uygulama dahi olsa,
02:14
obviously there was a side effect of that.
40
134771
2375
Görünen o ki, yan etkileri de var.
02:17
Here's another example for one of these side effects.
41
137170
2548
Bu yan etkilere bir başka örnek de, Commendable.
02:19
Commendable: a site that allows parents to give their kids little badges
42
139742
4784
Bu, ailelerin çocuklarından ayakkabılarını kendilerinin bağlaması gibi
02:24
for doing the things that parents want their kids to do,
43
144550
2658
yapmalarını istedikleri şeyleri yaptıklarında
çocuklarına küçük rozetler vermelerini sağlayan bir site.
02:27
like tying their shoes.
44
147232
1316
02:28
And at first that sounds very nice,
45
148572
2244
02:30
very benign, well-intended.
46
150840
2150
İlk olarak kulağa hoş geliyor,
çok sevimli ve iyi niyetli.
02:33
But it turns out, if you look into research on people's mindset,
47
153014
3770
Fakat insanların niyetleriyle ilgili araştırmalara baktığınızda,
02:36
caring about outcomes,
48
156808
1487
sonuçları önemsenin,
02:38
caring about public recognition,
49
158319
1773
halkın algısını önemsemenin,
02:40
caring about these kinds of public tokens of recognition
50
160116
3861
bu tür sembolik takdirleri önemsemenin,
02:44
is not necessarily very helpful
51
164001
1994
uzun vadede sağlıklı bir psikoloji için
02:46
for your long-term psychological well-being.
52
166019
2307
çok da yararlı olmayacağı görülüyor.
02:48
It's better if you care about learning something.
53
168350
2676
Bir şeyler öğrenmeyi önemsemeniz daha iyi.
02:51
It's better when you care about yourself
54
171050
1905
İnsanlar arasında nasıl göründüğünüzden daha ziyade,
02:52
than how you appear in front of other people.
55
172979
2574
kendinizle ilgilenmeniz daha yararlı olacaktır.
02:56
So that kind of motivational tool that is used actually, in and of itself,
56
176021
5041
Gerçekten bu tarz motive edici araçlar kullanıldığında
kendi içinde uzun vadede yan etkileri bulunuyor.
03:01
has a long-term side effect,
57
181086
1908
03:03
in that every time we use a technology
58
183018
1810
Teknolojiyi kullandığımız her an,
03:04
that uses something like public recognition or status,
59
184852
3174
aslında halk arasında tanınma ya da statü gibi şeylerden faydalanmış oluyoruz.
03:08
we're actually positively endorsing this
60
188050
2376
Bunu normal ve iyi bir şeymiş gibi gördüğümüz için,
03:10
as a good and normal thing to care about --
61
190450
3410
gerçekten de olumlu olarak desteklemiş oluyoruz.
03:13
that way, possibly having a detrimental effect
62
193884
2864
Bu nedenle, bir kültür olarak
03:16
on the long-term psychological well-being of ourselves as a culture.
63
196772
3855
muhtemelen kendi uzun dönem psikolojik sağlığımız
üzerinde de yan etkileri vardır.
03:20
So that's a second, very obvious question:
64
200651
2644
İkinci açık bir soru da şu:
03:23
What are the effects of what you're doing --
65
203319
2311
Yaptığınız şeyin etkileri nelerdir?
03:25
the effects you're having with the device, like less fuel,
66
205654
4124
Cihazlara sahip olduğunuzda sizi etkileyen şeyler, mesela daha az yakıt.
03:29
as well as the effects of the actual tools you're using
67
209802
2705
Bunun yanı sıra, insanlara bir şeyler yaptırmak için kullandığınız
03:32
to get people to do things --
68
212531
1674
elinizdeki araçların etkileri.
03:34
public recognition?
69
214229
1571
Tüm herkesin sizi fark etmesi mi?
03:35
Now is that all -- intention, effect?
70
215824
2921
Hepsi bu kadar mı? Niyet, etki?
03:38
Well, there are some technologies which obviously combine both.
71
218769
3134
Açıkça her ikisini birleştiren bazı teknolojiler var.
03:41
Both good long-term and short-term effects
72
221927
2787
Hem uzun, hem kısa vadeli etkiler,
03:44
and a positive intention like Fred Stutzman's "Freedom,"
73
224738
2809
tıpkı Fred Stutszman'ın "Freedom"daki olumlu niyeti gibi,
03:47
where the whole point of that application is --
74
227571
2207
ki orada, uygulamanın asıl gayesi
03:49
well, we're usually so bombarded with constant requests by other people,
75
229802
3725
insanların bu cihazlarla
sizleri sürekli olarak istek yağmuruna tutması.
03:53
with this device,
76
233551
1156
03:54
you can shut off the Internet connectivity of your PC of choice
77
234731
3480
Bazı işlerinizi tamamlamak için
03:58
for a pre-set amount of time,
78
238235
1448
önceden belirlediğiniz bir süre boyunca
03:59
to actually get some work done.
79
239707
1971
bilgisayarınızın internet bağlantısını kapatabilirsiniz.
04:01
And I think most of us will agree that's something well-intended,
80
241702
3151
Bence çoğumuz bunun iyi niyetli, hatta güzel sonuçlar doğuran
04:04
and also has good consequences.
81
244877
2220
bir şey olduğu konusunda hemfikiriz.
04:07
In the words of Michel Foucault,
82
247121
1646
04:08
it is a "technology of the self."
83
248791
1940
Michel Foucault'un deyimiyle:
"Benlik Teknolojisi."
04:10
It is a technology that empowers the individual
84
250755
2837
Bu teknoloji, bireyin yaşam yolunu belirlemek
04:13
to determine its own life course,
85
253616
1815
ve kendini şekillendirmek için
04:15
to shape itself.
86
255455
1519
bireyselliği güçlendiren bir teknolojidir.
04:17
But the problem is, as Foucault points out,
87
257410
2984
Fakat tıpkı Foucault'un işaret ettiği üzere, sorun şu ki,
04:20
that every technology of the self
88
260418
1785
her öz teknolojinin diğer tarafında
04:22
has a technology of domination as its flip side.
89
262227
3445
hakim bir teknoloji vardır.
04:25
As you see in today's modern liberal democracies,
90
265696
4603
Günümüz modern liberal demokrasilerinde gördüğünüz gibi,
04:30
the society, the state, not only allows us to determine our self,
91
270323
4683
toplum, devlet, yalnızca kendimizi düzenlememize
ve şekillendirmemize izin vermiyor,
04:35
to shape our self,
92
275030
1151
04:36
it also demands it of us.
93
276205
1991
bunu bizden talep de ediyor.
04:38
It demands that we optimize ourselves,
94
278220
1961
Kendimizi optimize etmemizi,
04:40
that we control ourselves,
95
280205
1840
kontrol etmemizi,
04:42
that we self-manage continuously,
96
282069
2711
sürekli kendimizi yönetmemizi bizden talep ediyor.
04:44
because that's the only way in which such a liberal society works.
97
284804
3893
Çünkü böylesi bir ideal toplumun işlemesinin tek yolu bu.
04:48
These technologies want us to stay in the game
98
288721
4268
Bu teknolojiler,
toplumun bizim için planladığı oyunda kalmamızı istiyor.
04:53
that society has devised for us.
99
293013
2773
04:55
They want us to fit in even better.
100
295810
2287
Hatta daha fazla uymamızı istiyorlar.
04:58
They want us to optimize ourselves to fit in.
101
298121
2578
Buna uymamız için kendimizi geliştirmemizi istiyorlar.
05:01
Now, I don't say that is necessarily a bad thing;
102
301628
3079
Bu ille de kötüdür demiyorum.
05:05
I just think that this example points us to a general realization,
103
305293
4328
Sadece, bence bu örnek genel bir farkındalığa işaret ediyor.
05:09
and that is: no matter what technology or design you look at,
104
309645
3803
Baktığınız teknoloji veya dizayn
05:13
even something we consider as well-intended
105
313472
3021
ya da iyi niyet olarak gördüğünüz şeyler önemli değildir.
05:16
and as good in its effects as Stutzman's Freedom,
106
316517
2966
Bunlar, Stutzman'ın Özgürlük etkisinde olduğu gibi
05:19
comes with certain values embedded in it.
107
319507
2707
içine yerleştirildiği belirli değerlerle anılır.
05:22
And we can question these values.
108
322238
1936
Bu değerleri sorgulayabiliriz.
05:24
We can question: Is it a good thing
109
324198
1944
Şu soruyu sorabiliriz:
05:26
that all of us continuously self-optimize ourselves
110
326166
3484
Hepimizin topluma daha iyi uyum sağlaması için
05:29
to fit better into that society?
111
329674
2011
sürekli kendini geliştirmesi iyi bir şey midir?
05:31
Or to give you another example:
112
331709
1492
Size başka bir örnek vermek istiyorum.
05:33
What about a piece of persuasive technology
113
333225
2476
Ya bazı ikna edici teknolojilerin
05:35
that convinces Muslim women to wear their headscarves?
114
335725
3191
Müslüman kadınları eşarp takmaya ikna etmesine ne dersiniz?
05:38
Is that a good or a bad technology
115
338940
2052
Niyetlerine ve sonuçlarına göre
05:41
in its intentions or in its effects?
116
341016
2563
iyi veya kötü teknolojiler midir?
05:43
Well, that basically depends on the kind of values you bring to bear
117
343603
4254
Aslında bu tür yargılarda bulunmak,
05:47
to make these kinds of judgments.
118
347881
2237
dayanmak zorunda olduğun değerlerin türüne göre değişir.
05:50
So that's a third question:
119
350142
1528
Üçüncü bir soru şu:
05:51
What values do you use to judge?
120
351694
1528
Yargılamak için ne tür değerler kullanıyorsunuz?
05:53
And speaking of values:
121
353848
1341
Değerlerden bahsedecek olursak
05:55
I've noticed that in the discussion about moral persuasion online
122
355213
3356
internetteki ahlaki ikna tartışmalarında
05:58
and when I'm talking with people,
123
358593
1637
insanlarla konuştuğumda
06:00
more often than not, there is a weird bias.
124
360254
2667
çoğunlukla tuhaf bir ön yargıları olduğunu fark ettim.
06:03
And that bias is that we're asking:
125
363463
2896
Sorduğumuz ön yargı şu:
06:06
Is this or that "still" ethical?
126
366383
2813
Bu mu, şu mu daha ahlaki?
06:09
Is it "still" permissible?
127
369220
2650
Buna yine de izin verilebilir mi?
06:11
We're asking things like:
128
371894
1198
Şu tarz şeyler soruyoruz:
06:13
Is this Oxfam donation form,
129
373116
2189
Bu, miktarı önceden belirlenmiş
06:15
where the regular monthly donation is the preset default,
130
375329
3048
aylık düzenli ödeme olan Oxfam bağış formu mu?
Belki buna niyeti olmayan insanların, bir kez verecekleri bağış yerine
06:18
and people, maybe without intending it,
131
378401
2079
06:20
are encouraged or nudged into giving a regular donation
132
380504
3812
düzenli olarak verecekleri bir bağış için
06:24
instead of a one-time donation,
133
384340
1489
cesaretlendirilmesi ya da dürtülmesi
06:25
is that "still' permissible?
134
385853
1343
daha mı hoş görülebilir?
06:27
Is it "still" ethical?
135
387220
1363
06:28
We're fishing at the low end.
136
388607
1479
Bu yine de ahlaki mi?
En uçtaki balıkları tutuyoruz.
06:30
But in fact, that question, "Is it 'still' ethical?"
137
390879
2474
Aslında bu soru, etik konusunda
"Hâlâ etik mi?" sorusuna bakmanın bir yoludur.
06:33
is just one way of looking at ethics.
138
393377
1781
06:35
Because if you look at the beginning of ethics in Western culture,
139
395182
4892
Eğer batı toplumunda ahlakın başlangıcına bakarsak
06:40
you see a very different idea of what ethics also could be.
140
400098
3532
etiğin ne olabileceği konusunda farklı fikirler görürsünüz.
06:43
For Aristotle, ethics was not about the question,
141
403970
3997
Aristoteles'e göre, ahlak soruyla alakalı değildir:
06:47
"Is that still good, or is it bad?"
142
407991
2272
"Hangisi daha iyi veya kötü?"
06:50
Ethics was about the question of how to live life well.
143
410287
3428
Ahlak, hayatı daha iyi nasıl yaşarım sorusuyla ilgilidir.
06:54
And he put that in the word "arête,"
144
414216
2181
Aristoteles bunu "arete" olarak
06:56
which we, from [Ancient Greek], translate as "virtue."
145
416421
2755
yani Antik Yunan'daki haliyle "erdem" olarak çevrildi.
06:59
But really, it means "excellence."
146
419200
1640
Aslında, "mükemmel" anlamındadır.
07:00
It means living up to your own full potential as a human being.
147
420864
5431
Tüm potansiyelini insan olma gayesiyle yaşamaktır.
07:06
And that is an idea that, I think,
148
426937
1656
Bence bu fikri, Paul Richard Buchanan
07:08
Paul Richard Buchanan put nicely in a recent essay,
149
428617
2697
en son makalesinde çok güzel ifade etti:
07:11
where he said, "Products are vivid arguments
150
431338
2143
"Ürünler, yaşamı nasıl yaşamamız konusundaki canlı argümanlardır."
07:13
about how we should live our lives."
151
433505
2123
Tasarımlarımız, ahlaki veya ahlak dışı ikna etme vasıtası olarak kullanılan
07:16
Our designs are not ethical or unethical
152
436086
2577
07:18
in that they're using ethical or unethical means of persuading us.
153
438687
4590
ahlaki ya da ahlak dışı unsurlar değildir.
07:23
They have a moral component
154
443661
1570
Bize sundukları iyi bir tür yaşama arzusunun
07:25
just in the kind of vision and the aspiration of the good life
155
445255
4227
ve vizyonunun ahlaki bileşenlerdir.
07:29
that they present to us.
156
449506
1348
07:31
And if you look into the designed environment around us
157
451441
3503
Bu tarz bir objektifle,
07:34
with that kind of lens,
158
454968
1172
çevrenizdeki tasarımlara bakıp şunu sorarsanız:
07:36
asking, "What is the vision of the good life
159
456164
2453
"Ürünlerimizde, tasarımımızda
07:38
that our products, our design, present to us?",
160
458641
2738
bize sunulan iyi yaşamın vizyonu nedir?"
07:41
then you often get the shivers,
161
461403
2276
Sonrasında sıklıkla ürperirsiniz.
07:43
because of how little we expect of each other,
162
463703
2328
Çünkü birbirimizden ne kadar az şey umuyoruz
07:46
of how little we actually seem to expect of our life,
163
466055
3890
ve gerçekte yaşamdan umduğumuz şeylerden ne kadar azı gibi görünüyoruz.
07:49
and what the good life looks like.
164
469969
2034
İyi yaşam olarak görülen şey ne?
07:53
So that's a fourth question I'd like to leave you with:
165
473110
3023
Dördüncü soruyu sizlere bırakmak istiyorum.
07:56
What vision of the good life do your designs convey?
166
476157
4362
Tasarımlarınız, iyi yaşam vizyonunuzu ifade ediyor mu?
08:01
And speaking of design,
167
481249
1372
Tasarımdan bahsedecek olursak
08:02
you'll notice that I already broadened the discussion,
168
482645
4190
tartışmayı çoktan genişlettiğimin farkına varacaksınız.
08:06
because it's not just persuasive technology that we're talking about here,
169
486859
4444
Çünkü burada bahsettiğimiz yalnızca ikna edici teknoloji değildir.
08:11
it's any piece of design that we put out here in the world.
170
491327
4077
Bu, dünyaya bıraktığımız tasarımların her parçasıdır.
08:15
I don't know whether you know
171
495428
1400
60'lı yılların başında, harika iletişim araştırmacısı
08:16
the great communication researcher Paul Watzlawick who, back in the '60s,
172
496852
3555
Paul Watzlawick'ın iletişim kuramayacağımızla ilgili
08:20
made the argument that we cannot not communicate.
173
500431
2511
savunduğu görüşü bilip bilmediğinizi bilmiyorum.
08:22
Even if we choose to be silent, we chose to be silent,
174
502966
2601
Eğer biz sessiz olmayı seçiyorsak sessiz olmayı seçmişizdir.
08:25
and we're communicating something by choosing to be silent.
175
505591
2956
Sessizlik yolunu seçerek bir şeylerle iletişim kuruyoruzdur
08:28
And in the same way that we cannot not communicate,
176
508571
2735
ya da yine aynı yolla iletişim kurmuyoruzdur.
08:31
we cannot not persuade:
177
511330
1531
08:32
whatever we do or refrain from doing,
178
512885
2011
İkna edemeyiz,
yaptığımız veya yapmaktan kaçtığımız şey her ne ise,
08:34
whatever we put out there as a piece of design, into the world,
179
514920
4365
dünyaya bir parça tasarım olarak koyduğumuz şey her ne ise,
08:39
has a persuasive component.
180
519309
2047
ikna edici içeriğe sahiptir.
08:41
It tries to affect people.
181
521380
1873
İnsanları etkilemeye çalışırlar.
08:43
It puts a certain vision of the good life out there in front of us,
182
523277
3747
Hollandalı teknoloji filozofu
08:47
which is what Peter-Paul Verbeek,
183
527048
1625
Peter Paul Verbeek'in dediği gibi:
08:48
the Dutch philosopher of technology, says.
184
528697
2716
"Önümüze iyi yaşamın belirli bir vizyonunu sunar.
08:51
No matter whether we as designers intend it or not,
185
531437
3948
Tasarımcının onu niyet edip etmemesi önemli değildir."
08:55
we materialize morality.
186
535409
2142
Ahlakı maddeleştiririz.
08:57
We make certain things harder and easier to do.
187
537575
2803
Bazı şeyleri daha zor ve daha kolay yapıyoruz.
09:00
We organize the existence of people.
188
540402
2211
İnsanların varlığını düzenliyoruz.
09:02
We put a certain vision
189
542637
1151
Dünyada, orada koyduğumuz her şeyle
09:03
of what good or bad or normal or usual is
190
543812
3404
insanlara ne iyi, ne kötü
09:07
in front of people,
191
547240
1151
ne normal, ne anormal
09:08
by everything we put out there in the world.
192
548415
2400
diye bazı kesin bakış açıları koyuyoruz.
09:11
Even something as innocuous as a set of school chairs
193
551247
3086
Hatta zararsız olarak görülen okuldaki bir dizi sandalye dahi
09:14
is a persuasive technology,
194
554357
2047
ikna edici bir teknolojidir.
09:16
because it presents and materializes a certain vision of the good life --
195
556428
4690
Çünkü iyi yaşamın belli vizyonunu sunar ve maddeleştirir.
09:21
a good life in which teaching and learning and listening
196
561142
2857
Öğrettiğimiz, öğrendiğimiz ve dinlediğimiz iyi yaşam,
09:24
is about one person teaching, the others listening;
197
564023
3099
birinin öğrettiği, diğerinin dinlediği bir yaşamdır.
09:27
in which it is about learning-is-done-while-sitting;
198
567146
4053
Aslında bu, siz otururken öğrenme tamamlanmış olur.
09:31
in which you learn for yourself;
199
571223
1595
Aslında kendi kendinize öğrenirsiniz.
09:32
in which you're not supposed to change these rules,
200
572842
2420
Ve bu kuralları değiştirmeyi dahi düşünmezsiniz.
09:35
because the chairs are fixed to the ground.
201
575286
2447
Çünkü sandalyeler yere sabitlenmiştir.
09:38
And even something as innocuous as a single-design chair,
202
578888
2911
Bunun gibi Arne Jacobsen tarafından
09:41
like this one by Arne Jacobsen,
203
581823
1572
tek olarak tasarlanan sandalyeler bile
09:43
is a persuasive technology,
204
583419
1776
ikna edici teknolojidir.
09:45
because, again, it communicates an idea of the good life:
205
585219
3043
Çünkü yine iyi bir hayat fikriyle bağlantı kurar.
09:48
a good life -- a life that you, as a designer, consent to by saying,
206
588735
4925
İyi yaşam, senin olduğun bir yaşam bir tasarımcı olarak şunu söyler:
09:53
"In a good life, goods are produced as sustainably or unsustainably
207
593684
3507
"İyi bir yaşamda eşyalar,
bu sandalye gibi sürdürülebilir veya sürdürülemez olarak üretilir.
09:57
as this chair.
208
597215
1611
09:58
Workers are treated as well or as badly
209
598850
1977
İşçilere iyi veya kötü muamele edildi,
10:00
as the workers were treated that built that chair."
210
600851
2572
işçiler de bu muameleye göre bu sandalyeyi oluşturdular."
10:03
The good life is a life where design is important
211
603762
2301
İyi yaşam, nerede tasarlandığının önemli olduğu bir yaşamdır.
10:06
because somebody obviously took the time and spent the money
212
606087
2921
Çünkü birisi, böyle iyi tasarlanmış bir sandalye için
10:09
for that kind of well-designed chair;
213
609032
1784
parasını harcıyor ve açıkça zamanını veriyor.
10:10
where tradition is important,
214
610840
1404
Geleneğin önemli olduğu yerlerde bu önemlidir.
10:12
because this is a traditional classic and someone cared about this;
215
612268
3166
10:15
and where there is something as conspicuous consumption,
216
615458
2690
Çünkü bu geleneksel bir klasiktir ve biri bununla ilgilenir.
Böyle devasa paraların harcanmasında sorun olmayan
10:18
where it is OK and normal to spend a humongous amount of money
217
618172
2956
gösterişli tüketimin olduğu bir yerde
10:21
on such a chair,
218
621152
1151
bu tarz bir sandalye, diğer insanlara
10:22
to signal to other people what your social status is.
219
622327
2573
sosyal statünüzle ilgili sinyaller verir.
10:24
So these are the kinds of layers, the kinds of questions
220
624924
3317
Bu tür seviyelerdeki bu tür sorular:
10:28
I wanted to lead you through today;
221
628265
1970
size bugün eşlik etmek istiyorum.
10:30
the question of: What are the intentions that you bring to bear
222
630259
3034
Bu tarz bir şeyi tasarlarken neyle karşılaşmayı niyet ediyordunuz?
10:33
when you're designing something?
223
633317
1560
10:34
What are the effects, intended and unintended, that you're having?
224
634901
3252
Planlı ya da plansız sahip olduğunuz kişisel eşyalar nelerdir?
Bunları yargılamak için kullandığın değerler nedir?
10:38
What are the values you're using to judge those?
225
638177
2801
10:41
What are the virtues, the aspirations
226
641002
1973
Burada gerçekten ifade ettiğiniz
10:42
that you're actually expressing in that?
227
642999
2028
erdemler ve tutkular nelerdir?
10:45
And how does that apply,
228
645400
1857
Bunları yalnızca ikna edici teknoloji için değil,
10:47
not just to persuasive technology,
229
647281
1986
tasarladığınız her şeye nasıl uygulayabilirsiniz?
10:49
but to everything you design?
230
649291
2048
10:51
Do we stop there?
231
651912
1291
Burada durmalı mıyız?
Hiç zannetmiyorum.
10:53
I don't think so.
232
653815
1167
Bence tüm bu şeylerin hepsi özünden bilgilendirilir
10:55
I think that all of these things are eventually informed
233
655291
4438
ve bu yaşamın kendinden başka bir şey değildir.
10:59
by the core of all of this,
234
659753
1423
11:01
and this is nothing but life itself.
235
661200
3091
11:04
Why, when the question of what the good life is
236
664594
2717
İyi yaşam nedir sorusunun cevabını neden tasarımlarımızdan öğreniyoruz?
11:07
informs everything that we design,
237
667335
2339
Tasarım yapmayı mı durdurmalıyız?
11:09
should we stop at design and not ask ourselves:
238
669698
2794
Kendinize şunu sormayın:
11:12
How does it apply to our own life?
239
672516
1990
Bunu yaşamlarımıza nasıl uygulayabiliriz?
11:14
"Why should the lamp or the house be an art object,
240
674881
2712
Michel Foucault'nun dediği gibi:
11:17
but not our life?"
241
677617
1176
"Neden bir lamba ya da ev, bizim hayatımız değil de sanat eseri olmalı?"
11:18
as Michel Foucault puts it.
242
678817
1483
11:20
Just to give you a practical example of Buster Benson.
243
680696
3611
11:24
This is Buster setting up a pull-up machine
244
684331
2258
Bu, insanların "Sağlıklı Ay" gibi diğer uygulamaları
11:26
at the office of his new start-up, Habit Labs,
245
686613
2612
kurmaya çalıştıkları Alışkanlık Laboratuvar adında,
11:29
where they're trying to build other applications like "Health Month"
246
689249
3215
yeni başlangıç ofisindeki
barfiks aletinin kurulumu.
11:32
for people.
247
692488
1158
11:33
And why is he building a thing like this?
248
693670
1962
Neden böyle bir şey kuruyorlar?
11:35
Well, here is the set of axioms
249
695656
2033
Temel dayanağı şu:
11:37
that Habit Labs, Buster's start-up, put up for themselves
250
697713
3398
Buster'ın açılışında, Alışkanlık Laboratuvarlarını kendileri için koydular
11:41
on how they wanted to work together as a team
251
701135
2705
bir takım olarak,
birlikte nasıl çalışmak istediklerine,
11:43
when they're building these applications --
252
703864
2029
bu uygulamayı kurduklarında
11:45
a set of moral principles they set themselves
253
705917
2189
onların birlikte çalışmasını sağlayan bir dizi ahlak kuralı var.
11:48
for working together --
254
708130
1361
11:49
one of them being,
255
709515
1238
"Biz kendi sağlığımızla ilgilenir ve tükenmişliğimizi yönetiriz."
11:50
"We take care of our own health and manage our own burnout."
256
710777
3087
11:54
Because ultimately, how can you ask yourselves
257
714221
3500
Çünkü en nihayetinde, nasıl kendi kendine arayabilip
güzel hayat algısı nedir sorusuna yanıt buluyorsanız
11:57
and how can you find an answer on what vision of the good life
258
717745
3930
tasarımlarınızı soru sormadan oluşturabilir
12:01
you want to convey and create with your designs
259
721699
3169
ve ifade edebilirsiniz.
12:04
without asking the question:
260
724892
1730
12:06
What vision of the good life do you yourself want to live?
261
726646
3832
Kendinizin yaşamak istediği güzel hayat algısı nedir?
Son olarak,
12:11
And with that,
262
731018
1174
12:12
I thank you.
263
732945
1412
Teşekkür ederim.
12:14
(Applause)
264
734381
4156
(Alkışlar)
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7