Sebastian Deterding: What your designs say about you

33,131 views ・ 2012-05-31

TED


A videó lejátszásához kattintson duplán az alábbi angol feliratokra.

Fordító: Boglarka Szerencse Lektor: Krisztian Stancz
00:15
We are today talking about moral persuasion:
0
15651
2586
A mai napon a közszellem meggyőzéséről fogunk beszélni.
00:18
What is moral and immoral in trying to change people's behaviors
1
18261
3982
Mi erkölcsös, és mi nem,
az emberek viselkedésének megváltoztatására tett kísérleteink során,
00:22
by using technology and using design?
2
22267
2453
a technológia és dizájn segítségével?
00:24
And I don't know what you expect,
3
24744
1832
Nem tudom mit várnak,
00:26
but when I was thinking about that issue,
4
26600
1953
de amikor én ezen a problémán elgondolkodtam,
00:28
I early on realized what I'm not able to give you are answers.
5
28577
4039
korán felismertem,
hogy nem tudok válaszokat adni Önöknek.
00:33
I'm not able to tell you what is moral or immoral,
6
33203
2771
Nem tudom elmondani, hogy mi erkölcsös, és mi nem,
00:35
because we're living in a pluralist society.
7
35998
2547
mert egy többelvű társadalomban élünk.
00:38
My values can be radically different from your values,
8
38569
4242
Az én értékrendem nagyban különbözhet
az Önökétől.
00:42
which means that what I consider moral or immoral based on that
9
42835
3177
Ez azt jelenti, hogy amit én erkölcsösnek vagy erkölcstelennek ítélek meg, nem biztos, hogy
00:46
might not necessarily be what you consider moral or immoral.
10
46036
3612
egyezik az Önök megítélésével.
Azt is észrevettem, hogy egy dolgot tudok adni Önöknek,
00:50
But I also realized there is one thing that I could give you,
11
50029
3214
azt, amit ez a pasas, mögöttem, adott a világnak,
00:53
and that is what this guy behind me gave the world --
12
53267
2533
00:55
Socrates.
13
55824
1150
Szókratész.
00:56
It is questions.
14
56998
1395
És ez nem más, mint kérdések.
00:58
What I can do and what I would like to do with you
15
58417
2633
Amit én tudok, és szeretnék csinálni Önökkel,
hogy felteszek, mint a címben is,
01:01
is give you, like that initial question,
16
61074
1945
egy sor kérdést,
01:03
a set of questions to figure out for yourselves,
17
63043
3410
hogy saját maguk találjanak rá választ,
01:06
layer by layer, like peeling an onion,
18
66477
3641
rétegenként előrehaladva,
mint a hagymahámozásnál,
egyre mélyebbre ásva abban a kérdésben, hogy mit tartanak
01:10
getting at the core of what you believe is moral or immoral persuasion.
19
70142
5020
erkölcsös és erkölcstelen meggyőzésnek.
01:15
And I'd like to do that with a couple of examples of technologies
20
75559
4041
Ezt néhány példán keresztül szeretném levezetni,
olyan technológikon keresztül, ahol játékelemeket használnak,
01:19
where people have used game elements to get people to do things.
21
79624
4980
hogy másokat rávegyenek arra, hogy megtegyenek bizonyos dolgokat.
Tehát itt az első nagyon egyszerű, kézenfekvő kérdés,
01:25
So it's at first a very simple, very obvious question
22
85343
3040
01:28
I would like to give you:
23
88407
1196
amit szeretnék feltenni Önöknek:
01:29
What are your intentions if you are designing something?
24
89627
2687
Mik a szándékaink, ha tervezünk valamit?
01:32
And obviously, intentions are not the only thing,
25
92668
3373
Nyilvánvaló, hogy nem csak a szándék a lényeg.
Erre itt van egy alkalmazás példája.
01:36
so here is another example for one of these applications.
26
96065
3178
01:39
There are a couple of these kinds of Eco dashboards right now --
27
99267
3087
Van néhány olyan ökoműszerfal manapság,
amiket beépítenek az autóba,
01:42
dashboards built into cars --
28
102378
1460
01:43
which try to motivate you to drive more fuel-efficiently.
29
103862
2832
és arra ösztönöznek minket, hogy benzintakarékosan vezessünk.
01:46
This here is Nissan's MyLeaf,
30
106718
1773
Ez itt a Nissan MyLeaf,
01:48
where your driving behavior is compared with the driving behavior
31
108515
3064
ami összehasonlítja a vezetési stílusunkat
más emberek vezetési stílusával,
01:51
of other people,
32
111603
1151
01:52
so you can compete for who drives a route the most fuel-efficiently.
33
112778
3277
így tudunk versenyezni, hogy ki vezet
a leggazdaságosabban.
Kiderült, hogy az ilyen dolgok nagyon hatékonyak,
01:56
And these things are very effective, it turns out --
34
116079
2477
annyira, hogy már arra motiválják az embereket,
01:58
so effective that they motivate people to engage in unsafe driving behaviors,
35
118580
3939
hogy elkezdjenek nem biztonságos vezetési szokásokat felvenni --
02:02
like not stopping at a red light,
36
122543
1762
például, hogy figyelmen kívül hagyják a piros lámpát.
02:04
because that way you have to stop and restart the engine,
37
124329
2715
Mivel ha megállnak, akkor majd újra el kell indulniuk,
és az elég sok üzemagyagot fogyaszt, ugyebár.
02:07
and that would use quite some fuel, wouldn't it?
38
127068
2723
02:10
So despite this being a very well-intended application,
39
130338
4409
Tehát annak ellenére, hogy ez egy nagyon jó szándékú alkalmazás,
02:14
obviously there was a side effect of that.
40
134771
2375
nyilvánvalóan vannak kellemetlen hatásai is.
02:17
Here's another example for one of these side effects.
41
137170
2548
Itt van még egy példa az egyik ilyen a mellékhatásra.
02:19
Commendable: a site that allows parents to give their kids little badges
42
139742
4784
A Commendable,
egy olyan oldal a neten, ahol a szülők virtuális pecséteket tudnak adni a gyerekeiknek,
02:24
for doing the things that parents want their kids to do,
43
144550
2658
ha a gyerekek olyanokat tesznek, amiket a szülők elvárnak tőlük,
pl. bekötik a cipőfűzőjüket.
02:27
like tying their shoes.
44
147232
1316
02:28
And at first that sounds very nice,
45
148572
2244
Elsőre ez nagyon jól hangzik,
02:30
very benign, well-intended.
46
150840
2150
jóindulatúnak, jó szándékúnak.
Azonban kiderült, ha megvizsgáljuk az emberek gondolkodásának azt a részét,
02:33
But it turns out, if you look into research on people's mindset,
47
153014
3770
02:36
caring about outcomes,
48
156808
1487
ami a következményekkel foglalkozik,
02:38
caring about public recognition,
49
158319
1773
a közösség elfogadásával, vagy
02:40
caring about these kinds of public tokens of recognition
50
160116
3861
az ilyen típusú közösségek elfogadási jeleivel,
ez nem feltétlenül hasznos,
02:44
is not necessarily very helpful
51
164001
1994
02:46
for your long-term psychological well-being.
52
166019
2307
a hosszú távú pszichológiai egészségünkre nézve.
02:48
It's better if you care about learning something.
53
168350
2676
Jobb, ha a tanulással foglalkozunk.
02:51
It's better when you care about yourself
54
171050
1905
Jobb, ha magunkkal foglalkozunk,
02:52
than how you appear in front of other people.
55
172979
2574
mint azzal, hogy mások szemében milyenek vagyunk.
Tehát az ilyen fajta motiválási eszközöknek, amiket
02:56
So that kind of motivational tool that is used actually, in and of itself,
56
176021
5041
magukban alkalmazunk,
hosszú távon mellékhatási vannak,
03:01
has a long-term side effect,
57
181086
1908
03:03
in that every time we use a technology
58
183018
1810
minden alkalommal amikor olyan technológiát használunk,
03:04
that uses something like public recognition or status,
59
184852
3174
ami a közösség elismerését vagy társadalmi helyzetünket használja,
03:08
we're actually positively endorsing this
60
188050
2376
-- mert ezt elfogadjuk
03:10
as a good and normal thing to care about --
61
190450
3410
jónak, normálisnak és törődünk vele --
03:13
that way, possibly having a detrimental effect
62
193884
2864
lehetséges, hogy hátrányos hatása lesz
03:16
on the long-term psychological well-being of ourselves as a culture.
63
196772
3855
hosszú távon a pszichológiai egészségünkre, és saját magunkra, mint egy egész kultúrára.
03:20
So that's a second, very obvious question:
64
200651
2644
Itt egy második nagyon egyértelmű kérdés:
03:23
What are the effects of what you're doing --
65
203319
2311
Mik a következményei tetteinknek?
03:25
the effects you're having with the device, like less fuel,
66
205654
4124
Azok a hatások amiket az eszközeink nyújtanak,
-- mint a kevesebb benzin,
03:29
as well as the effects of the actual tools you're using
67
209802
2705
valamint az éppen aktuális eszköz használatából adódó hatás,
03:32
to get people to do things --
68
212531
1674
aminek segítségével elvégezzük a dolgokat --
03:34
public recognition?
69
214229
1571
nyilvános elismerés.
03:35
Now is that all -- intention, effect?
70
215824
2921
Ez minden -- szándék, hatás?
03:38
Well, there are some technologies which obviously combine both.
71
218769
3134
Nos, van néhány technológia,
ami mindkettőt ötvözi.
03:41
Both good long-term and short-term effects
72
221927
2787
Hosszú és rövid távú hatásokkal
03:44
and a positive intention like Fred Stutzman's "Freedom,"
73
224738
2809
és jó szándékkal, mint Fred Stutzman Freedom nevű
03:47
where the whole point of that application is --
74
227571
2207
alkalmazása, amelynek annyi a lényege,
hogy sokszor ki sem látszunk a
03:49
well, we're usually so bombarded with constant requests by other people,
75
229802
3725
telefonhívásokból és felkérésekből,
03:53
with this device,
76
233551
1156
és ezzel az alkalmazással megszakíthatjuk az internetkapcsolatot
03:54
you can shut off the Internet connectivity of your PC of choice
77
234731
3480
a számítógépünkön, hogy legyen időnk
03:58
for a pre-set amount of time,
78
238235
1448
03:59
to actually get some work done.
79
239707
1971
némi munka elvégzésére.
04:01
And I think most of us will agree that's something well-intended,
80
241702
3151
Azt hiszem legtöbbünk egyetért,
hogy ha valami jó szándékú,
04:04
and also has good consequences.
81
244877
2220
vannak jó következményei is.
Michael Foucault szavaival:
04:07
In the words of Michel Foucault,
82
247121
1646
04:08
it is a "technology of the self."
83
248791
1940
"Az én technológiája."
04:10
It is a technology that empowers the individual
84
250755
2837
A technológia az, amit képessé teszi az egyént,
04:13
to determine its own life course,
85
253616
1815
hogy meghatározza a saját életútját,
04:15
to shape itself.
86
255455
1519
hogy kialakítsa magát.
04:17
But the problem is, as Foucault points out,
87
257410
2984
A probléma az,
ahogy Foucault rámutatott,
04:20
that every technology of the self
88
260418
1785
hogy minden technológiának magának
04:22
has a technology of domination as its flip side.
89
262227
3445
van egy másik, domináló oldala.
04:25
As you see in today's modern liberal democracies,
90
265696
4603
Ahogy megfigyelhetjük a mai modern liberális demokráciákban
a társadalom, az állam
04:30
the society, the state, not only allows us to determine our self,
91
270323
4683
nemcsak azt engedi meg, hogy meghatározzuk és kialakítsuk magunkat,
04:35
to shape our self,
92
275030
1151
04:36
it also demands it of us.
93
276205
1991
hanem elvárásai is vannak felénk.
Elvárja, hogy a lehető legtöbbet hozzuk ki magunkból,
04:38
It demands that we optimize ourselves,
94
278220
1961
04:40
that we control ourselves,
95
280205
1840
hogy ügyeljünk magunkra,
hogy folyamatosan irányítsuk tetteinket,
04:42
that we self-manage continuously,
96
282069
2711
04:44
because that's the only way in which such a liberal society works.
97
284804
3893
mert ez az egyetlen módja,
ahogy működhet egy liberális társadalom.
04:48
These technologies want us to stay in the game
98
288721
4268
Ezek a technológiák arra ösztönöznek minket, hogy maradjunk abban a játékban,
04:53
that society has devised for us.
99
293013
2773
amit a társadalom kigondolt nekünk.
04:55
They want us to fit in even better.
100
295810
2287
Azt akarják, hogy minél jobban beilleszkedjünk.
04:58
They want us to optimize ourselves to fit in.
101
298121
2578
Azt akarják, hogy a lehető legtöbbet hozzuk ki magunkból, hogy beilleszkedjünk.
Nem mondom, hogy ez mindenképpen rossz dolog,
05:01
Now, I don't say that is necessarily a bad thing;
102
301628
3079
csak azt gondolom, hogy ez a példa
05:05
I just think that this example points us to a general realization,
103
305293
4328
rámutat az általános észrevételre,
05:09
and that is: no matter what technology or design you look at,
104
309645
3803
és nem számít, hogy milyen technikai eszközt vagy dizájnt nézünk,
05:13
even something we consider as well-intended
105
313472
3021
még ha jó szándékúnak és jó hatásúnak is véljük --
05:16
and as good in its effects as Stutzman's Freedom,
106
316517
2966
mint a Stutzman Freedomját --
05:19
comes with certain values embedded in it.
107
319507
2707
bizonyos értékek szükségszerűen beágyazódnak.
05:22
And we can question these values.
108
322238
1936
Megkérdőjelezhetjük ezeket az értékeket.
Feltehetjük a kérdést: Ez jó dolog,
05:24
We can question: Is it a good thing
109
324198
1944
hogy mindegyikünk folyamatosan kontrollálja magát,
05:26
that all of us continuously self-optimize ourselves
110
326166
3484
05:29
to fit better into that society?
111
329674
2011
hogy jobban a társadalomba illeszkedjen?
05:31
Or to give you another example:
112
331709
1492
Vagy, hogy egy másik példát említsek,
05:33
What about a piece of persuasive technology
113
333225
2476
mi a helyzet azzal a meggyőző technológiával,
ami arra készteti a muszlim nőket, hogy fejkendőket viseljenek?
05:35
that convinces Muslim women to wear their headscarves?
114
335725
3191
05:38
Is that a good or a bad technology
115
338940
2052
Ez jó vagy rossz technológia
a szándékait és hatását tekintve?
05:41
in its intentions or in its effects?
116
341016
2563
05:43
Well, that basically depends on the kind of values you bring to bear
117
343603
4254
Nos, alapvetően a
saját értékrendünktől függ,
05:47
to make these kinds of judgments.
118
347881
2237
hogy milyen ítéleteket hozunk.
Tehát ez egy harmadik kérdés:
05:50
So that's a third question:
119
350142
1528
05:51
What values do you use to judge?
120
351694
1528
Milyen értékrendet használunk az ítélet meghozásához?
05:53
And speaking of values:
121
353848
1341
Ha már az értékeknél tartunk,
05:55
I've noticed that in the discussion about moral persuasion online
122
355213
3356
amikor a közszellem meggyőzéséről beszélgetek online,
05:58
and when I'm talking with people,
123
358593
1637
vagy személyesen, sokszor
06:00
more often than not, there is a weird bias.
124
360254
2667
furcsa elfogultságokba ütközök.
Az elfogultságok miatt kérdezzük,
06:03
And that bias is that we're asking:
125
363463
2896
06:06
Is this or that "still" ethical?
126
366383
2813
hogy ez "még" etikus?
06:09
Is it "still" permissible?
127
369220
2650
"Még" elfogadható?
06:11
We're asking things like:
128
371894
1198
Olyanokat kérdezünk, hogy
ez az Oxfam adományozói oldal --
06:13
Is this Oxfam donation form,
129
373116
2189
06:15
where the regular monthly donation is the preset default,
130
375329
3048
ahol a rendszeres havi adomány a beállított alapértelmezés,
06:18
and people, maybe without intending it,
131
378401
2079
és így az embereket talán anélkül, hogy akarnák,
06:20
are encouraged or nudged into giving a regular donation
132
380504
3812
bátorítjuk vagy rávesszük arra,
hogy rendszeres adományt adjanak az egyszeri helyett --
06:24
instead of a one-time donation,
133
384340
1489
06:25
is that "still' permissible?
134
385853
1343
ez még mindig megengedhető?
Ez még mindig etikus?
06:27
Is it "still" ethical?
135
387220
1363
06:28
We're fishing at the low end.
136
388607
1479
A sötétben tapogatózunk.
Valójában a kérdés, hogy
06:30
But in fact, that question, "Is it 'still' ethical?"
137
390879
2474
"ez még mindig etikus?",
csak egy lehetséges megközelítése az etikának.
06:33
is just one way of looking at ethics.
138
393377
1781
06:35
Because if you look at the beginning of ethics in Western culture,
139
395182
4892
Mert ha az etika kezdetét nézzük
a nyugati kultúrában,
nagyon különböző elképzelésekkel találkozunk arról,
06:40
you see a very different idea of what ethics also could be.
140
400098
3532
hogy mi lehet még az etika.
06:43
For Aristotle, ethics was not about the question,
141
403970
3997
Arisztotelész szerint az etika nem arról szól, hogy
06:47
"Is that still good, or is it bad?"
142
407991
2272
ez még mindig jó, vagy már rossz?
06:50
Ethics was about the question of how to live life well.
143
410287
3428
Hanem arról, hogyan éljük az életet helyesen.
Az "arete" szóban foglalta mindezt össze,
06:54
And he put that in the word "arête,"
144
414216
2181
amit mi a latinból "erénynek" fordítunk,
06:56
which we, from [Ancient Greek], translate as "virtue."
145
416421
2755
de igazából kiválóságot jelent.
06:59
But really, it means "excellence."
146
419200
1640
07:00
It means living up to your own full potential as a human being.
147
420864
5431
Azt jelenti, hogy legyünk méltóak a saját lehetőségeinkhez,
emberként.
07:06
And that is an idea that, I think,
148
426937
1656
Ez egyfajta elgondolás,
amit Paul Richard Buchanan pontosan összefoglalt egy új esszéjében.
07:08
Paul Richard Buchanan put nicely in a recent essay,
149
428617
2697
07:11
where he said, "Products are vivid arguments
150
431338
2143
Azt mondja, "A termékek élénk viták eredményei arról,
07:13
about how we should live our lives."
151
433505
2123
hogyan is kellene élnünk az életünket".
A terveink nem lehetnek erkölcsösek vagy erkölcstelenek,
07:16
Our designs are not ethical or unethical
152
436086
2577
07:18
in that they're using ethical or unethical means of persuading us.
153
438687
4590
bár használnak erkölcsös és erkölcstelen meggyőzési formákat.
07:23
They have a moral component
154
443661
1570
Morális tartalommal bírnak,
azzal az elgondolással és törekvéssel, hogy
07:25
just in the kind of vision and the aspiration of the good life
155
445255
4227
jó életet nyújtsanak nekünk.
07:29
that they present to us.
156
449506
1348
07:31
And if you look into the designed environment around us
157
451441
3503
Ha a megtervezett környezetünket nézzük
07:34
with that kind of lens,
158
454968
1172
ilyen tekintetben,
07:36
asking, "What is the vision of the good life
159
456164
2453
azt kérdezve, hogy "Milyen annak a jó életnek a képe,
07:38
that our products, our design, present to us?",
160
458641
2738
amit a termékeink és a dizájnunk által nyerünk?",
07:41
then you often get the shivers,
161
461403
2276
ilyenkor gyakran megborzongunk,
07:43
because of how little we expect of each other,
162
463703
2328
mert olyan keveset várunk egymástól,
07:46
of how little we actually seem to expect of our life,
163
466055
3890
és látszólag milyen keveset várunk az életünktől,
és milyen keveset várunk a "jó élettől."
07:49
and what the good life looks like.
164
469969
2034
Tehát ez a negyedik és utolsó kérdés amit fel szeretnék tenni:
07:53
So that's a fourth question I'd like to leave you with:
165
473110
3023
07:56
What vision of the good life do your designs convey?
166
476157
4362
A jó élet képét
magában hordozzák az eszközeink?
08:01
And speaking of design,
167
481249
1372
Ha a dizájnról beszélek,
08:02
you'll notice that I already broadened the discussion,
168
482645
4190
bizonyára észrevették, hogy már most is kibővítettem az értekezésemet.
08:06
because it's not just persuasive technology that we're talking about here,
169
486859
4444
Mert nemcsak meggyőző technológiáról van szó,
hanem mindenféle ember alkotta dologról, ami a világon található.
08:11
it's any piece of design that we put out here in the world.
170
491327
4077
08:15
I don't know whether you know
171
495428
1400
Lehet, hogy ismerik a
08:16
the great communication researcher Paul Watzlawick who, back in the '60s,
172
496852
3555
nagy kommunikáció kutatót, Paul Watzlawicket,
aki a '60-as évek közepén úgy érvelt,
hogy nem tudunk nem kommunikálni.
08:20
made the argument that we cannot not communicate.
173
500431
2511
De még ha a némaság mellett is döntünk,
08:22
Even if we choose to be silent, we chose to be silent,
174
502966
2601
a némaságot választottuk. Úgy beszélünk meg valamit, hogy közben némák maradunk.
08:25
and we're communicating something by choosing to be silent.
175
505591
2956
08:28
And in the same way that we cannot not communicate,
176
508571
2735
Ugyanígy, ha nem tudunk nem beszélni,
nem tudunk nem rábeszélni sem.
08:31
we cannot not persuade:
177
511330
1531
08:32
whatever we do or refrain from doing,
178
512885
2011
Akármit csinálunk, vagy bármitől tartózkodunk,
08:34
whatever we put out there as a piece of design, into the world,
179
514920
4365
akármit alkotunk az már egy konstrukció,
ami a világ számára
meggyőző erejű.
08:39
has a persuasive component.
180
519309
2047
08:41
It tries to affect people.
181
521380
1873
Próbál hatással lenni az emberekre.
08:43
It puts a certain vision of the good life out there in front of us,
182
523277
3747
Kialakít egy meghatározott képet a jó életről,
és elénk teszi azt.
Ezt állítja Peter-Paul Verbeek, a holland filozófus,
08:47
which is what Peter-Paul Verbeek,
183
527048
1625
08:48
the Dutch philosopher of technology, says.
184
528697
2716
a technológiáról.
Nem számít, hogy a tervezőnek volt-e ilyen szándéka, vagy sem,
08:51
No matter whether we as designers intend it or not,
185
531437
3948
08:55
we materialize morality.
186
535409
2142
de mi, emberek, megalkotjuk erkölcsi ítéleteinket.
08:57
We make certain things harder and easier to do.
187
537575
2803
Pár dolgot megnehezítünk, párat megkönnyítünk véghezvinni.
09:00
We organize the existence of people.
188
540402
2211
Megszervezzük az emberek létezését.
09:02
We put a certain vision
189
542637
1151
Felállítunk egy képet arról, hogy mi jó és mi rossz,
09:03
of what good or bad or normal or usual is
190
543812
3404
normális vagy szokatlan, és ezt közzé is tesszük
09:07
in front of people,
191
547240
1151
09:08
by everything we put out there in the world.
192
548415
2400
mindennel, amit a világon alkotunk.
Még az olyan ártalmatlan dolgok, mint az iskolai székek,
09:11
Even something as innocuous as a set of school chairs
193
551247
3086
09:14
is a persuasive technology,
194
554357
2047
is meggyőző technológiának számítanak.
Mert megmutatják és megvalósítják
09:16
because it presents and materializes a certain vision of the good life --
195
556428
4690
a jó élet bizonyos képeit --
a jó életet ahol a tanítás, tanulás és figyelem,
09:21
a good life in which teaching and learning and listening
196
561142
2857
09:24
is about one person teaching, the others listening;
197
564023
3099
egy ember tanításáról és a többi figyelméről szól,
ahol a tanulás az ülés közben megtörténik,
09:27
in which it is about learning-is-done-while-sitting;
198
567146
4053
ahol magunktól tanulunk,
09:31
in which you learn for yourself;
199
571223
1595
09:32
in which you're not supposed to change these rules,
200
572842
2420
ahol nem kell megváltoztatnunk ezeket a szabályokat,
09:35
because the chairs are fixed to the ground.
201
575286
2447
mert a padok a talajba vannak rögzítve.
09:38
And even something as innocuous as a single-design chair,
202
578888
2911
Vagy még az olyan ártalmatlan dolog is, mint egy dizájn szék,
09:41
like this one by Arne Jacobsen,
203
581823
1572
mint ez itt, Arne Jacobsontól, --
09:43
is a persuasive technology,
204
583419
1776
szintén meggyőző technológia.
Mert ez is a jó élet képét közvetíti.
09:45
because, again, it communicates an idea of the good life:
205
585219
3043
09:48
a good life -- a life that you, as a designer, consent to by saying,
206
588735
4925
Egy jó életét --
olyan életet, amihez a dizájner hozzájárul azzal,
hogy azt mondja, "A jó életben
09:53
"In a good life, goods are produced as sustainably or unsustainably
207
593684
3507
a termékeket olyan fenntartható vagy nem fenntartható módon készítik, mint ezt a széket.
09:57
as this chair.
208
597215
1611
09:58
Workers are treated as well or as badly
209
598850
1977
A munkásokat olyan rosszul vagy jól kezelik,
10:00
as the workers were treated that built that chair."
210
600851
2572
mint ezt a széket gyártó munkásokat kezelnék."
10:03
The good life is a life where design is important
211
603762
2301
A jó élet az olyan élet, ahol a dizájn fontos,
mert valaki nyilvánvalóan rászánta az időt és pénzt,
10:06
because somebody obviously took the time and spent the money
212
606087
2921
az ilyen fajta jól megtervezett székekre,
10:09
for that kind of well-designed chair;
213
609032
1784
10:10
where tradition is important,
214
610840
1404
ahol a hagyomány fontos,
mert ez egy klasszikus,
10:12
because this is a traditional classic and someone cared about this;
215
612268
3166
és valaki foglalkozott vele,
és ha valahol feltűnő fogyasztás van,
10:15
and where there is something as conspicuous consumption,
216
615458
2690
ahol ez normális és elfogadott,
10:18
where it is OK and normal to spend a humongous amount of money
217
618172
2956
hogy hatalmas mennyiségű pénzt költsenek ilyen székekre,
10:21
on such a chair,
218
621152
1151
hogy más emberek tudtára adják a társadalmi helyzetüket.
10:22
to signal to other people what your social status is.
219
622327
2573
10:24
So these are the kinds of layers, the kinds of questions
220
624924
3317
Ezek azok a rétegek, ezek azok a kérdések,
10:28
I wanted to lead you through today;
221
628265
1970
amiket végig akartam venni ma Önökkel --
a kérdés, hogy mi a szándékunk,
10:30
the question of: What are the intentions that you bring to bear
222
630259
3034
mit fogunk képviselni, ha tervezünk valamit?
10:33
when you're designing something?
223
633317
1560
10:34
What are the effects, intended and unintended, that you're having?
224
634901
3252
Milyen tervezett vagy nem tervezett hatásai vannak?
Milyen értékek alapján
10:38
What are the values you're using to judge those?
225
638177
2801
ítéljük meg azokat?
Milyen erényeket és törekvéseket
10:41
What are the virtues, the aspirations
226
641002
1973
10:42
that you're actually expressing in that?
227
642999
2028
fejezünk ki ezzel igazából?
10:45
And how does that apply,
228
645400
1857
Hogyan használható ez
10:47
not just to persuasive technology,
229
647281
1986
nemcsak a meggyőző technológiában,
10:49
but to everything you design?
230
649291
2048
de mindenben amit tervezünk?
10:51
Do we stop there?
231
651912
1291
Itt megállunk?
10:53
I don't think so.
232
653815
1167
Nem hiszem.
10:55
I think that all of these things are eventually informed
233
655291
4438
Úgy gondolom, mindezek egy dologból táplálkoznak,
10:59
by the core of all of this,
234
659753
1423
mindennek a magjából --
11:01
and this is nothing but life itself.
235
661200
3091
és ez nem más, mint maga az élet.
11:04
Why, when the question of what the good life is
236
664594
2717
Ha a kérdés, hogy mi a jó élet
11:07
informs everything that we design,
237
667335
2339
hatással van mindenre, amit tervezünk,
11:09
should we stop at design and not ask ourselves:
238
669698
2794
miért állnánk meg a tervezésnél, és miért nem kérdezzük meg magunktól,
11:12
How does it apply to our own life?
239
672516
1990
hogyan fogjuk ezeket hasznosítani az életünkben?
11:14
"Why should the lamp or the house be an art object,
240
674881
2712
"Miért kellene, hogy a lámpa vagy a ház legyen a művészetünk célpontja,
11:17
but not our life?"
241
677617
1176
és ne az a saját életünk?"
11:18
as Michel Foucault puts it.
242
678817
1483
ahogy Michel Foucault mondta.
11:20
Just to give you a practical example of Buster Benson.
243
680696
3611
Hadd említsem Buster Benson gyakorlati példáját.
11:24
This is Buster setting up a pull-up machine
244
684331
2258
Ő Buster, ahogy épp összerak egy kondigépet
11:26
at the office of his new start-up, Habit Labs,
245
686613
2612
az új startup cége, a Habit Labs, irodájában,
akikkel szeretnének kifejleszteni új alkalmazásokat,
11:29
where they're trying to build other applications like "Health Month"
246
689249
3215
mint a Health Month webes szolgáltatás.
11:32
for people.
247
692488
1158
Miért épít ilyen dolgokat?
11:33
And why is he building a thing like this?
248
693670
1962
11:35
Well, here is the set of axioms
249
695656
2033
Itt van egy sor alaptétel,
11:37
that Habit Labs, Buster's start-up, put up for themselves
250
697713
3398
amit a Habit Labs, Buster startup cége, megalkotott arra,
hogyan dolgozzanak később közösen, mint csapat,
11:41
on how they wanted to work together as a team
251
701135
2705
11:43
when they're building these applications --
252
703864
2029
mialatt ezeket az alkalmazásokat fejlesztik --
11:45
a set of moral principles they set themselves
253
705917
2189
egy sor morális alapelvet állítottak fel maguknak
a közös munkára --
11:48
for working together --
254
708130
1361
11:49
one of them being,
255
709515
1238
és egy közülük így szól:
11:50
"We take care of our own health and manage our own burnout."
256
710777
3087
"Foglalkozunk saját egészségünkkel, és kezeljük a saját fásultságunkat."
Végül is, hogyan tehetjük fel a kérdést,
11:54
Because ultimately, how can you ask yourselves
257
714221
3500
11:57
and how can you find an answer on what vision of the good life
258
717745
3930
és hogyan találhatjuk meg a választ arra,
hogy milyen a jó élet képe,
12:01
you want to convey and create with your designs
259
721699
3169
amit közvetítünk és alkotunk a saját dizjánunk által,
12:04
without asking the question:
260
724892
1730
olyan kérdések nélkül,
12:06
What vision of the good life do you yourself want to live?
261
726646
3832
hogy milyen a jó élet képe,
amit mi magunk akarunk élni?
Köszönöm szépen.
12:11
And with that,
262
731018
1174
12:12
I thank you.
263
732945
1412
12:14
(Applause)
264
734381
4156
(Taps)
Erről a weboldalról

Ez az oldal olyan YouTube-videókat mutat be, amelyek hasznosak az angol nyelvtanuláshoz. A világ minden tájáról származó, kiváló tanárok által tartott angol leckéket láthatsz. Az egyes videók oldalán megjelenő angol feliratokra duplán kattintva onnan játszhatja le a videót. A feliratok a videó lejátszásával szinkronban gördülnek. Ha bármilyen észrevétele vagy kérése van, kérjük, lépjen kapcsolatba velünk ezen a kapcsolatfelvételi űrlapon.

https://forms.gle/WvT1wiN1qDtmnspy7