Sebastian Deterding: What your designs say about you

33,131 views ・ 2012-05-31

TED


Dubbelklik op de Engelse ondertitels hieronder om de video af te spelen.

Vertaald door: Christel Foncke Nagekeken door: Els De Keyser
00:15
We are today talking about moral persuasion:
0
15651
2586
We praten vandaag over morele overtuiging.
00:18
What is moral and immoral in trying to change people's behaviors
1
18261
3982
Wat is moreel en immoreel
aan gedrag van mensen veranderen
00:22
by using technology and using design?
2
22267
2453
via technologie en ontwerp?
00:24
And I don't know what you expect,
3
24744
1832
Ik weet niet wat jullie verwachten,
00:26
but when I was thinking about that issue,
4
26600
1953
maar toen ik hierover nadacht,
00:28
I early on realized what I'm not able to give you are answers.
5
28577
4039
besefte ik al snel
dat ik geen antwoorden heb.
00:33
I'm not able to tell you what is moral or immoral,
6
33203
2771
Ik kan niet zeggen wat moreel of immoreel is
00:35
because we're living in a pluralist society.
7
35998
2547
omdat onze maatschappij pluralistisch is.
00:38
My values can be radically different from your values,
8
38569
4242
Mijn waarden kunnen totaal verschillen
van die van jullie.
00:42
which means that what I consider moral or immoral based on that
9
42835
3177
Wat ik als moreel of immoreel beschouw,
00:46
might not necessarily be what you consider moral or immoral.
10
46036
3612
is niet noodzakelijk hetzelfde als jullie.
Maar er is één ding is dat ik jullie wel kan geven.
00:50
But I also realized there is one thing that I could give you,
11
50029
3214
Dat is wat de kerel achter mij aan de wereld gaf --
00:53
and that is what this guy behind me gave the world --
12
53267
2533
00:55
Socrates.
13
55824
1150
Socrates.
00:56
It is questions.
14
56998
1395
Dat zijn vragen.
00:58
What I can do and what I would like to do with you
15
58417
2633
Ik wil jullie graag,
zoals die oorspronkelijke vraag,
01:01
is give you, like that initial question,
16
61074
1945
een set vragen geven
01:03
a set of questions to figure out for yourselves,
17
63043
3410
om zelf te ontdekken,
01:06
layer by layer, like peeling an onion,
18
66477
3641
laag voor laag,
zoals je een ui pelt,
om naar de kern te gaan van
01:10
getting at the core of what you believe is moral or immoral persuasion.
19
70142
5020
je idee van morele of immorele overtuigingen.
01:15
And I'd like to do that with a couple of examples of technologies
20
75559
4041
Ik geef graag een paar voorbeelden
van technologieën die game-elementen gebruikten
01:19
where people have used game elements to get people to do things.
21
79624
4980
om mensen dingen te laten doen.
Mijn eerste vraag voor jullie ligt dus
01:25
So it's at first a very simple, very obvious question
22
85343
3040
01:28
I would like to give you:
23
88407
1196
voor de hand:
01:29
What are your intentions if you are designing something?
24
89627
2687
wat zijn jullie intenties als jullie iets ontwerpen?
01:32
And obviously, intentions are not the only thing,
25
92668
3373
Intenties zijn niet het enige.
Hier is nog een ander voorbeeld.
01:36
so here is another example for one of these applications.
26
96065
3178
01:39
There are a couple of these kinds of Eco dashboards right now --
27
99267
3087
Er bestaan eco-dashboarden,
die ingebouwd worden in auto's.
01:42
dashboards built into cars --
28
102378
1460
01:43
which try to motivate you to drive more fuel-efficiently.
29
103862
2832
Ze motiveren je om brandstof efficiënter te gebruiken.
01:46
This here is Nissan's MyLeaf,
30
106718
1773
Dit is MyLeaf van Nissan,
01:48
where your driving behavior is compared with the driving behavior
31
108515
3064
dat je bestuurderscapaciteiten vergelijkt met
die van andere mensen,
01:51
of other people,
32
111603
1151
01:52
so you can compete for who drives a route the most fuel-efficiently.
33
112778
3277
zodat je kan wedijveren om wie
het minste verbruikt.
Deze dingen zijn zeer effectief, zo blijkt:
01:56
And these things are very effective, it turns out --
34
116079
2477
ze motiveren mensen
01:58
so effective that they motivate people to engage in unsafe driving behaviors,
35
118580
3939
om onveilig te rijden
02:02
like not stopping at a red light,
36
122543
1762
en door te rijden bij rood.
02:04
because that way you have to stop and restart the engine,
37
124329
2715
Anders moet je stoppen en opnieuw starten
en dat zou teveel verbruiken, niet?
02:07
and that would use quite some fuel, wouldn't it?
38
127068
2723
02:10
So despite this being a very well-intended application,
39
130338
4409
Ondanks de goede bedoelingen van deze toepassing,
02:14
obviously there was a side effect of that.
40
134771
2375
was er duidelijk een neveneffect aan.
02:17
Here's another example for one of these side effects.
41
137170
2548
Hier nog een voorbeeld van neveneffecten.
02:19
Commendable: a site that allows parents to give their kids little badges
42
139742
4784
'Commendable' [Lovenswaardig]:
een website waarop ouders hun kinderen badges geven
02:24
for doing the things that parents want their kids to do,
43
144550
2658
in ruil voor gewenst gedrag --
zoals hun veters strikken.
02:27
like tying their shoes.
44
147232
1316
02:28
And at first that sounds very nice,
45
148572
2244
Op het eerste zicht lijkt dit heel mooi,
02:30
very benign, well-intended.
46
150840
2150
heel onschuldig, goedbedoeld.
Uit onderzoek naar de instelling van mensen blijkt echter
02:33
But it turns out, if you look into research on people's mindset,
47
153014
3770
02:36
caring about outcomes,
48
156808
1487
dat om het resultaat geven,
02:38
caring about public recognition,
49
158319
1773
erkenning van anderen belangrijk vinden,
02:40
caring about these kinds of public tokens of recognition
50
160116
3861
publieke blijken van erkenning belangrijk vinden,
op lange termijn niet noodzakelijk
02:44
is not necessarily very helpful
51
164001
1994
02:46
for your long-term psychological well-being.
52
166019
2307
je psychologisch welzijn bevordert.
02:48
It's better if you care about learning something.
53
168350
2676
Het is beter dat je graag iets bijleert.
02:51
It's better when you care about yourself
54
171050
1905
Het is beter dat je om jezelf geeft
02:52
than how you appear in front of other people.
55
172979
2574
dan om hoe je bij anderen overkomt.
Dat soort motivatie-instrument
02:56
So that kind of motivational tool that is used actually, in and of itself,
56
176021
5041
heeft eigenlijk
een neveneffect op lange termijn.
03:01
has a long-term side effect,
57
181086
1908
03:03
in that every time we use a technology
58
183018
1810
Iedere keer als we de technologie gebruiken
03:04
that uses something like public recognition or status,
59
184852
3174
om erkenning of status van anderen te krijgen,
03:08
we're actually positively endorsing this
60
188050
2376
ondersteunen we dit actief
03:10
as a good and normal thing to care about --
61
190450
3410
als iets goeds en normaals om belangrijk te vinden.
03:13
that way, possibly having a detrimental effect
62
193884
2864
Maar met mogelijk een schadelijk gevolg
03:16
on the long-term psychological well-being of ourselves as a culture.
63
196772
3855
voor ons psychologisch welbevinden als cultuur.
03:20
So that's a second, very obvious question:
64
200651
2644
Dus als tweede evidente vraag:
03:23
What are the effects of what you're doing --
65
203319
2311
wat zijn de effecten van wat jij doet?
03:25
the effects you're having with the device, like less fuel,
66
205654
4124
De effecten die je krijgt met het toestel,
zoals minder brandstof,
03:29
as well as the effects of the actual tools you're using
67
209802
2705
net zoals de effecten van de tools die je gebruikt
03:32
to get people to do things --
68
212531
1674
om mensen dingen te laten doen --
03:34
public recognition?
69
214229
1571
erkenning door anderen.
03:35
Now is that all -- intention, effect?
70
215824
2921
Is dat alles: intentie, effect?
03:38
Well, there are some technologies which obviously combine both.
71
218769
3134
Er zijn sommige technologieën
die beide combineren.
03:41
Both good long-term and short-term effects
72
221927
2787
Goede lange- en kortetermijneffecten.
03:44
and a positive intention like Fred Stutzman's "Freedom,"
73
224738
2809
Een positieve intentie, zoals Fred Stutsmans Freedom,
03:47
where the whole point of that application is --
74
227571
2207
waarbij het doel van de toepassing
is - we worden meestal overstelpt
03:49
well, we're usually so bombarded with constant requests by other people,
75
229802
3725
met telefoons en vragen van anderen.
03:53
with this device,
76
233551
1156
Met dit toestel kan je een bepaalde computer
03:54
you can shut off the Internet connectivity of your PC of choice
77
234731
3480
voor een bepaalde tijd volledig afsluiten van het internet
03:58
for a pre-set amount of time,
78
238235
1448
03:59
to actually get some work done.
79
239707
1971
om eindelijk wat werk te kunnen doen.
04:01
And I think most of us will agree that's something well-intended,
80
241702
3151
De meesten zullen zeggen
dat het goedbedoeld is
04:04
and also has good consequences.
81
244877
2220
en positieve gevolgen heeft.
In de woorden van Michel Foucault:
04:07
In the words of Michel Foucault,
82
247121
1646
04:08
it is a "technology of the self."
83
248791
1940
"Het is een technologie van het zelf."
04:10
It is a technology that empowers the individual
84
250755
2837
Het is een technologie die kracht geeft aan personen
04:13
to determine its own life course,
85
253616
1815
om zelf de koers van hun leven te bepalen,
04:15
to shape itself.
86
255455
1519
het zelf vorm te geven.
04:17
But the problem is, as Foucault points out,
87
257410
2984
Maar het probleem is,
zoals Foucault zegt,
04:20
that every technology of the self
88
260418
1785
dat iedere technologie van het zelf
04:22
has a technology of domination as its flip side.
89
262227
3445
een dominante technologie als keerzijde heeft.
04:25
As you see in today's modern liberal democracies,
90
265696
4603
In de huidige moderne liberale democratieën
bepaalt de maatschappij, de staat,
04:30
the society, the state, not only allows us to determine our self,
91
270323
4683
niet alleen ons zelf, geeft ons zelf vorm,
04:35
to shape our self,
92
275030
1151
04:36
it also demands it of us.
93
276205
1991
ze verlangt het ook van ons.
Ze vraagt dat we onze zelven optimaliseren,
04:38
It demands that we optimize ourselves,
94
278220
1961
04:40
that we control ourselves,
95
280205
1840
controleren,
dat we onszelf continu managen
04:42
that we self-manage continuously,
96
282069
2711
04:44
because that's the only way in which such a liberal society works.
97
284804
3893
omdat dat de enige manier is
waarop een liberale maatschappij werkt.
04:48
These technologies want us to stay in the game
98
288721
4268
De technologieën vragen dat we in het spel blijven
04:53
that society has devised for us.
99
293013
2773
dat de maatschappij voor ons gemaakt heeft.
04:55
They want us to fit in even better.
100
295810
2287
We moeten er steeds beter inpassen.
04:58
They want us to optimize ourselves to fit in.
101
298121
2578
Ze willen dat we onszelf optimaal inpassen.
Ik zeg niet dat dat altijd slecht is.
05:01
Now, I don't say that is necessarily a bad thing;
102
301628
3079
Ik denk dat dit voorbeeld
05:05
I just think that this example points us to a general realization,
103
305293
4328
wijst op een algemeen besef.
05:09
and that is: no matter what technology or design you look at,
104
309645
3803
Naar welke technologie je ook kijkt,
05:13
even something we consider as well-intended
105
313472
3021
zelfs al zijn het goedbedoelde en goede effecten --
05:16
and as good in its effects as Stutzman's Freedom,
106
316517
2966
zoals Stutzmans Freedom --
05:19
comes with certain values embedded in it.
107
319507
2707
ze heeft bepaalde inherente waarden.
05:22
And we can question these values.
108
322238
1936
We kunnen deze waarden in vraag stellen.
We kunnen vragen: is het goed
05:24
We can question: Is it a good thing
109
324198
1944
dat we onszelf voortdurend optimaliseren
05:26
that all of us continuously self-optimize ourselves
110
326166
3484
05:29
to fit better into that society?
111
329674
2011
om beter in de maatschappij te passen?
05:31
Or to give you another example:
112
331709
1492
Of om je een ander voorbeeld te geven:
05:33
What about a piece of persuasive technology
113
333225
2476
wat denk je van een technologie
die moslima's overtuigt om hun hoofddoek te dragen?
05:35
that convinces Muslim women to wear their headscarves?
114
335725
3191
05:38
Is that a good or a bad technology
115
338940
2052
Is dat goede of slechte technologie
in haar intenties of in effecten?
05:41
in its intentions or in its effects?
116
341016
2563
05:43
Well, that basically depends on the kind of values you bring to bear
117
343603
4254
Het hangt eigenlijk af
van het soort waarden die jij laat meetellen
05:47
to make these kinds of judgments.
118
347881
2237
om dit soort inschattingen te maken.
Dat brengt ons bij een derde vraag:
05:50
So that's a third question:
119
350142
1528
05:51
What values do you use to judge?
120
351694
1528
welke waarden gebruik jij om te oordelen?
05:53
And speaking of values:
121
353848
1341
Over waarden gesproken,
05:55
I've noticed that in the discussion about moral persuasion online
122
355213
3356
In de discussies over morele overtuigingen online,
05:58
and when I'm talking with people,
123
358593
1637
en wanneer ik met mensen spreek,
06:00
more often than not, there is a weird bias.
124
360254
2667
zie ik vaak een vreemde tendens.
De tendens is dat we vragen
06:03
And that bias is that we're asking:
125
363463
2896
06:06
Is this or that "still" ethical?
126
366383
2813
of dit of dat 'nog steeds' ethisch is.
06:09
Is it "still" permissible?
127
369220
2650
Is dit 'nog steeds' toegelaten?
06:11
We're asking things like:
128
371894
1198
We vragen dingen zoals:
is dit Oxfam-donatieformulier --
06:13
Is this Oxfam donation form,
129
373116
2189
06:15
where the regular monthly donation is the preset default,
130
375329
3048
waarop standaard een maandelijkse donatie is ingesteld
06:18
and people, maybe without intending it,
131
378401
2079
en die mensen, misschien zonder het te willen,
06:20
are encouraged or nudged into giving a regular donation
132
380504
3812
aanmoedigt of dwingt
regelmatig te doneren in plaats van één keer,
06:24
instead of a one-time donation,
133
384340
1489
06:25
is that "still' permissible?
134
385853
1343
is dat nog toegestaan?
Is dat nog ethisch?
06:27
Is it "still" ethical?
135
387220
1363
06:28
We're fishing at the low end.
136
388607
1479
We bekijken het eenzijdig.
Maar eigenlijk, die vraag
06:30
But in fact, that question, "Is it 'still' ethical?"
137
390879
2474
'Is het nog ethisch?'
is maar één manier van kijken naar ethiek.
06:33
is just one way of looking at ethics.
138
393377
1781
06:35
Because if you look at the beginning of ethics in Western culture,
139
395182
4892
Want als je naar het ontstaan van de ethiek
in de westerse cultuur zou kijken,
zou je een heel ander idee zien
06:40
you see a very different idea of what ethics also could be.
140
400098
3532
van wat ethiek ook kan zijn.
06:43
For Aristotle, ethics was not about the question,
141
403970
3997
Voor Aristoteles ging ethiek niet over de vraag
06:47
"Is that still good, or is it bad?"
142
407991
2272
of iets goed of slecht was.
06:50
Ethics was about the question of how to live life well.
143
410287
3428
Ethiek ging over de vraag hoe je goed kon leven.
Dat legde hij in het woord 'arete',
06:54
And he put that in the word "arête,"
144
414216
2181
dat we uit het [oud-Grieks] vertalen als 'deugd'.
06:56
which we, from [Ancient Greek], translate as "virtue."
145
416421
2755
Het betekent eigenlijk excellentie.
06:59
But really, it means "excellence."
146
419200
1640
07:00
It means living up to your own full potential as a human being.
147
420864
5431
Het betekent leven op je volle potentieel
als mens.
07:06
And that is an idea that, I think,
148
426937
1656
Dat idee
heeft Paul Richard Buchanan recent mooi verwoord in een essay:
07:08
Paul Richard Buchanan put nicely in a recent essay,
149
428617
2697
07:11
where he said, "Products are vivid arguments
150
431338
2143
"Producten zijn levende argumenten
07:13
about how we should live our lives."
151
433505
2123
over hoe we ons leven zouden moeten leiden."
Onze ontwerpen zijn niet ethisch of onethisch
07:16
Our designs are not ethical or unethical
152
436086
2577
07:18
in that they're using ethical or unethical means of persuading us.
153
438687
4590
omdat ze ethische of onethische overredingsmethodes gebruiken.
07:23
They have a moral component
154
443661
1570
Ze hebben een morele component
in de visie en de verwachting van het goede leven
07:25
just in the kind of vision and the aspiration of the good life
155
445255
4227
die ze ons aanbieden.
07:29
that they present to us.
156
449506
1348
07:31
And if you look into the designed environment around us
157
451441
3503
Als je met die lens kijkt naar onze ontworpen omgeving,
07:34
with that kind of lens,
158
454968
1172
Als je met die lens kijkt naar onze ontworpen omgeving,
07:36
asking, "What is the vision of the good life
159
456164
2453
en vraagt wat de visie is op het goede leven
07:38
that our products, our design, present to us?",
160
458641
2738
die onze producten, ons ontwerp, aan ons presenteert,
07:41
then you often get the shivers,
161
461403
2276
dan huiver je
07:43
because of how little we expect of each other,
162
463703
2328
hoe weinig we van elkaar verwachten
07:46
of how little we actually seem to expect of our life,
163
466055
3890
of hoe weinig we schijnen te verwachten
van ons leven en hoe het goede leven eruit ziet.
07:49
and what the good life looks like.
164
469969
2034
Dat is de vierde vraag die ik jullie wil meegeven:
07:53
So that's a fourth question I'd like to leave you with:
165
473110
3023
07:56
What vision of the good life do your designs convey?
166
476157
4362
welke visie van het goede leven
brengt jullie ontwerp over?
08:01
And speaking of design,
167
481249
1372
Om het over design te hebben,
08:02
you'll notice that I already broadened the discussion,
168
482645
4190
je merkt dat ik de discussie al opengetrokken heb.
08:06
because it's not just persuasive technology that we're talking about here,
169
486859
4444
Het gaat niet enkel overredingstechnologie,
het is elk stukje ontwerp dat we naar buiten brengen.
08:11
it's any piece of design that we put out here in the world.
170
491327
4077
08:15
I don't know whether you know
171
495428
1400
Ik weet niet of je de communicatiespecialist
08:16
the great communication researcher Paul Watzlawick who, back in the '60s,
172
496852
3555
Paul Watzlawick kent,
die, in de jaren 60 stelde
dat we niet niet kunnen communiceren.
08:20
made the argument that we cannot not communicate.
173
500431
2511
Zelfs als we kiezen om te zwijgen,
08:22
Even if we choose to be silent, we chose to be silent,
174
502966
2601
kiezen we. We communiceren door te zwijgen.
08:25
and we're communicating something by choosing to be silent.
175
505591
2956
08:28
And in the same way that we cannot not communicate,
176
508571
2735
Net zoals we niet niét kunnen communiceren,
kunnen we niet niét overtuigen.
08:31
we cannot not persuade:
177
511330
1531
08:32
whatever we do or refrain from doing,
178
512885
2011
Wat we ook doen of niet doen,
08:34
whatever we put out there as a piece of design, into the world,
179
514920
4365
welk ontwerp we ook naar buiten brengen
in de wereld,
het heeft een overredingscomponent.
08:39
has a persuasive component.
180
519309
2047
08:41
It tries to affect people.
181
521380
1873
Het probeert mensen te beïnvloeden.
08:43
It puts a certain vision of the good life out there in front of us,
182
523277
3747
Het geeft ons een zekere visie
op het goede leven.
Dat is wat Peter-Paul Verbeek,
08:47
which is what Peter-Paul Verbeek,
183
527048
1625
08:48
the Dutch philosopher of technology, says.
184
528697
2716
de Nederlandse technologiefilosoof, zegt.
Of we het als ontwerper bedoelen of niet,
08:51
No matter whether we as designers intend it or not,
185
531437
3948
08:55
we materialize morality.
186
535409
2142
we materialiseren moraliteit.
08:57
We make certain things harder and easier to do.
187
537575
2803
We maken dingen moeilijker of gemakkelijker om te doen.
09:00
We organize the existence of people.
188
540402
2211
We organiseren het bestaan van mensen.
09:02
We put a certain vision
189
542637
1151
We geven een bepaalde visie van wat goed of slecht,
09:03
of what good or bad or normal or usual is
190
543812
3404
normaal of gewoon is aan mensen
09:07
in front of people,
191
547240
1151
09:08
by everything we put out there in the world.
192
548415
2400
door alles wat we in de wereld zetten.
Zelfs iets onschuldigs als een set schoolstoelen
09:11
Even something as innocuous as a set of school chairs
193
551247
3086
09:14
is a persuasive technology,
194
554357
2047
is een overredingstechnologie.
Omdat het een bepaalde visie
09:16
because it presents and materializes a certain vision of the good life --
195
556428
4690
materialiseert en presenteert van het goede leven --
het goede leven waar onderwijzen, leren en luisteren
09:21
a good life in which teaching and learning and listening
196
561142
2857
09:24
is about one person teaching, the others listening;
197
564023
3099
gaat om één die onderwijst en de rest die luistert.
Waar het erom gaat dat leren, zittend gebeurt
09:27
in which it is about learning-is-done-while-sitting;
198
567146
4053
waarbij je voor jezelf leert,
09:31
in which you learn for yourself;
199
571223
1595
09:32
in which you're not supposed to change these rules,
200
572842
2420
waarbij je de regels niet mag veranderen,
09:35
because the chairs are fixed to the ground.
201
575286
2447
omdat de stoelen vastzitten aan de grond.
09:38
And even something as innocuous as a single-design chair,
202
578888
2911
Zelfs iets onschuldigs als één enkele design-stoel --
09:41
like this one by Arne Jacobsen,
203
581823
1572
zoals deze door Arne Jacobsen --
09:43
is a persuasive technology,
204
583419
1776
is een overredingstechnologie.
Hij communiceert een idee over het goede leven.
09:45
because, again, it communicates an idea of the good life:
205
585219
3043
09:48
a good life -- a life that you, as a designer, consent to by saying,
206
588735
4925
Een goed leven --
een leven waarmee je als ontwerper instemt,
door te zeggen: "In het goede leven
09:53
"In a good life, goods are produced as sustainably or unsustainably
207
593684
3507
worden producten even (on)duurzaam als deze stoel gemaakt.
09:57
as this chair.
208
597215
1611
09:58
Workers are treated as well or as badly
209
598850
1977
Arbeiders worden even goed of slecht behandeld
10:00
as the workers were treated that built that chair."
210
600851
2572
als zij die deze stoel gemaakt hebben.
10:03
The good life is a life where design is important
211
603762
2301
Het goede leven, waar ontwerp belangrijk is,
omdat iemand blijkbaar de tijd en het geld besteedde
10:06
because somebody obviously took the time and spent the money
212
606087
2921
aan dit soort goed ontworpen stoel,
10:09
for that kind of well-designed chair;
213
609032
1784
10:10
where tradition is important,
214
610840
1404
waar traditie belangrijk is
omdat dit een traditionele klassieker is
10:12
because this is a traditional classic and someone cared about this;
215
612268
3166
en iemand het belangrijk vond,
en waar er iets bestaat als opvallende consumptie
10:15
and where there is something as conspicuous consumption,
216
615458
2690
waar het oké en normaal is
10:18
where it is OK and normal to spend a humongous amount of money
217
618172
2956
om een gigantisch bedrag te besteden aan zo'n stoel
10:21
on such a chair,
218
621152
1151
om aan anderen te tonen wat je sociale status is.
10:22
to signal to other people what your social status is.
219
622327
2573
10:24
So these are the kinds of layers, the kinds of questions
220
624924
3317
Dit zijn de lagen, het soort vragen
10:28
I wanted to lead you through today;
221
628265
1970
waar ik jullie vandaag doorheen wilde leiden.
De vraag: wat zijn de intenties
10:30
the question of: What are the intentions that you bring to bear
222
630259
3034
die jullie laten meetellen als je iets ontwerpt?
10:33
when you're designing something?
223
633317
1560
10:34
What are the effects, intended and unintended, that you're having?
224
634901
3252
Wat zijn de effecten, gewild en ongewild, die je hebt?
Wat zijn de waarden die je gebruikt
10:38
What are the values you're using to judge those?
225
638177
2801
om die te beoordelen?
Wat zijn de deugden, de verwachtingen
10:41
What are the virtues, the aspirations
226
641002
1973
10:42
that you're actually expressing in that?
227
642999
2028
die je erin uitdrukt?
10:45
And how does that apply,
228
645400
1857
Hoe is dat van toepassing,
10:47
not just to persuasive technology,
229
647281
1986
niet alleen op overredingstechnologie,
10:49
but to everything you design?
230
649291
2048
maar op al wat je ontwerpt?
10:51
Do we stop there?
231
651912
1291
Stoppen we daar?
10:53
I don't think so.
232
653815
1167
Ik denk het niet.
10:55
I think that all of these things are eventually informed
233
655291
4438
Ik denk dat al deze dingen informatie halen
10:59
by the core of all of this,
234
659753
1423
uit de kern van dat alles --
11:01
and this is nothing but life itself.
235
661200
3091
en dat is het leven zelf.
11:04
Why, when the question of what the good life is
236
664594
2717
Als de vraag naar het goede leven
11:07
informs everything that we design,
237
667335
2339
alles bepaalt wat we ontwerpen,
11:09
should we stop at design and not ask ourselves:
238
669698
2794
moeten we dan stoppen met ontwerpen en onszelf niet afvragen
11:12
How does it apply to our own life?
239
672516
1990
hoe dit werkt in ons eigen leven?
11:14
"Why should the lamp or the house be an art object,
240
674881
2712
'Waarom zou de lamp of het huis een kunstwerk zijn
11:17
but not our life?"
241
677617
1176
maar ons leven niet?',
11:18
as Michel Foucault puts it.
242
678817
1483
zoals Michel Foucault zei.
11:20
Just to give you a practical example of Buster Benson.
243
680696
3611
Om jullie een praktisch voorbeeld van Buster Benson te geven.
11:24
This is Buster setting up a pull-up machine
244
684331
2258
Dit is Buster die een fitnessapparaat opzet
11:26
at the office of his new start-up, Habit Labs,
245
686613
2612
in zijn nieuwe kantoor Habit Labs
waar ze andere toepassingen proberen te bouwen,
11:29
where they're trying to build other applications like "Health Month"
246
689249
3215
zoals 'Health Month'.
11:32
for people.
247
692488
1158
Waarom bouwt hij zoiets?
11:33
And why is he building a thing like this?
248
693670
1962
11:35
Well, here is the set of axioms
249
695656
2033
Hier is een set axioma's
11:37
that Habit Labs, Buster's start-up, put up for themselves
250
697713
3398
die ze bij Habit Labs voor zichzelf opstelden
over hoe ze als team wilden samenwerken
11:41
on how they wanted to work together as a team
251
701135
2705
11:43
when they're building these applications --
252
703864
2029
terwijl ze deze dingen ontwerpen --
11:45
a set of moral principles they set themselves
253
705917
2189
een set morele principes die ze zichzelf oplegden
om samen te werken.
11:48
for working together --
254
708130
1361
11:49
one of them being,
255
709515
1238
Eén ervan:
11:50
"We take care of our own health and manage our own burnout."
256
710777
3087
we zorgen voor onze eigen gezondheid en onze eigen burn-out.
Want uiteindelijk, hoe kan je jezelf bevragen
11:54
Because ultimately, how can you ask yourselves
257
714221
3500
11:57
and how can you find an answer on what vision of the good life
258
717745
3930
en hoe kan je een antwoord vinden
over welke visie van het goede leven
12:01
you want to convey and create with your designs
259
721699
3169
je wil creëren en overbrengen met je ontwerpen,
12:04
without asking the question:
260
724892
1730
zonder de vraag te stellen
12:06
What vision of the good life do you yourself want to live?
261
726646
3832
welke visie van het goede leven
je zelf wil leven?
Daarmee dank ik jullie.
12:11
And with that,
262
731018
1174
12:12
I thank you.
263
732945
1412
12:14
(Applause)
264
734381
4156
(Applaus)
Over deze website

Deze site laat u kennismaken met YouTube-video's die nuttig zijn om Engels te leren. U ziet Engelse lessen gegeven door topdocenten uit de hele wereld. Dubbelklik op de Engelse ondertitels op elke videopagina om de video af te spelen. De ondertitels scrollen synchroon met het afspelen van de video. Heeft u opmerkingen of verzoeken, neem dan contact met ons op via dit contactformulier.

https://forms.gle/WvT1wiN1qDtmnspy7