Sebastian Deterding: What your designs say about you

Sebastian Deterding: O que seus designs dizem sobre você

33,106 views

2012-05-31 ・ TED


New videos

Sebastian Deterding: What your designs say about you

Sebastian Deterding: O que seus designs dizem sobre você

33,106 views ・ 2012-05-31

TED


Por favor, clique duas vezes nas legendas em inglês abaixo para reproduzir o vídeo.

Tradutor: Isabel Villan Revisor: Thelma Lethier
00:15
We are today talking about moral persuasion:
0
15651
2586
Hoje estamos falando sobre persuasão moral.
00:18
What is moral and immoral in trying to change people's behaviors
1
18261
3982
O que é moral e imoral
ao tentarmos alterar os comportamentos das pessoas
00:22
by using technology and using design?
2
22267
2453
usando tecnologia e design?
00:24
And I don't know what you expect,
3
24744
1832
Não sei o que vocês esperam,
00:26
but when I was thinking about that issue,
4
26600
1953
mas, enquanto pensava nesse assunto,
00:28
I early on realized what I'm not able to give you are answers.
5
28577
4039
logo percebi que
o que não sou capaz de dar a vocês são respostas.
00:33
I'm not able to tell you what is moral or immoral,
6
33203
2771
Não sou capaz de lhes dizer o que é moral ou imoral
00:35
because we're living in a pluralist society.
7
35998
2547
porque estamos vivendo em uma sociedade pluralista.
00:38
My values can be radically different from your values,
8
38569
4242
Meus valores podem ser radicalmente diferentes
dos seus.
00:42
which means that what I consider moral or immoral based on that
9
42835
3177
O que significa que o que considero moral ou imoral, baseado neles,
00:46
might not necessarily be what you consider moral or immoral.
10
46036
3612
pode não ser necessariamente aquilo que vocês consideram moral ou imoral.
Mas também percebi que há uma coisa que eu poderia dar a vocês.
00:50
But I also realized there is one thing that I could give you,
11
50029
3214
E isso é o que esse sujeito atrás de mim deu para o mundo --
00:53
and that is what this guy behind me gave the world --
12
53267
2533
00:55
Socrates.
13
55824
1150
Sócrates.
00:56
It is questions.
14
56998
1395
São perguntas.
00:58
What I can do and what I would like to do with you
15
58417
2633
O que posso fazer e o que gostaria de fazer
é dar-lhes, como a pergunta inicial,
01:01
is give you, like that initial question,
16
61074
1945
um conjunto de questionamentos
01:03
a set of questions to figure out for yourselves,
17
63043
3410
para que descubram por si mesmos,
01:06
layer by layer, like peeling an onion,
18
66477
3641
camada por camada,
como ao descascarem uma cebola,
até chegar à essência daquilo que vocês acreditam
01:10
getting at the core of what you believe is moral or immoral persuasion.
19
70142
5020
seja persuasão moral ou imoral.
01:15
And I'd like to do that with a couple of examples of technologies
20
75559
4041
E gostaria de fazer isso com alguns exemplos
de tecnologias nas quais usaram elementos lúdicos
01:19
where people have used game elements to get people to do things.
21
79624
4980
para levar as pessoas a fazer determinadas coisas.
Portanto, a primeira pergunta muito simples, muito óbvia
01:25
So it's at first a very simple, very obvious question
22
85343
3040
01:28
I would like to give you:
23
88407
1196
que gostaria de lhes fazer:
01:29
What are your intentions if you are designing something?
24
89627
2687
quais são suas intenções quando estão projetando algo?
01:32
And obviously, intentions are not the only thing,
25
92668
3373
E, obviamente, intenções não são a única coisa,
então, aqui está um outro exemplo para um desses aplicativos.
01:36
so here is another example for one of these applications.
26
96065
3178
01:39
There are a couple of these kinds of Eco dashboards right now --
27
99267
3087
Existem alguns tipos de eco-painéis agora --
dessa forma, os painéis dos carros
01:42
dashboards built into cars --
28
102378
1460
01:43
which try to motivate you to drive more fuel-efficiently.
29
103862
2832
tentam motivá-lo a dirigir usando o combustível com maior eficiência.
01:46
This here is Nissan's MyLeaf,
30
106718
1773
Este aqui é o 'My Leaf', da Nissan,
01:48
where your driving behavior is compared with the driving behavior
31
108515
3064
no qual seu comportamento ao dirigir é comparado
ao comportamento de outras pessoas,
01:51
of other people,
32
111603
1151
01:52
so you can compete for who drives a route the most fuel-efficiently.
33
112778
3277
de modo que você possa competir com quem dirige
usando combustível com maior eficiência.
E ocorre que essas coisas são muito eficientes,
01:56
And these things are very effective, it turns out --
34
116079
2477
tão eficientes que motivam as pessoas
01:58
so effective that they motivate people to engage in unsafe driving behaviors,
35
118580
3939
a adotar comportamentos perigosos ao volante --
02:02
like not stopping at a red light,
36
122543
1762
como não parar no sinal vermelho.
02:04
because that way you have to stop and restart the engine,
37
124329
2715
Porque dessa forma você tem que parar e reiniciar o motor
e isso consumiria mais combustível, não é?
02:07
and that would use quite some fuel, wouldn't it?
38
127068
2723
02:10
So despite this being a very well-intended application,
39
130338
4409
Assim, ainda que este seja um aplicativo muito bem intencionado,
02:14
obviously there was a side effect of that.
40
134771
2375
obviamente havia um efeito colateral.
02:17
Here's another example for one of these side effects.
41
137170
2548
E aqui está um outro exemplo para esses efeitos colaterais.
02:19
Commendable: a site that allows parents to give their kids little badges
42
139742
4784
'Commendable':
um 'site' que permite aos pais dar pequenos distintivos às crianças
02:24
for doing the things that parents want their kids to do,
43
144550
2658
por fazerem coisas que os pais querem que elas façam --
como amarrar os sapatos.
02:27
like tying their shoes.
44
147232
1316
02:28
And at first that sounds very nice,
45
148572
2244
E, de imediato, isso parece muito legal,
02:30
very benign, well-intended.
46
150840
2150
muito benéfico, bem intencionado.
Mas, acontece que, se você analisar pesquisas sobre as atitudes das pessoas,
02:33
But it turns out, if you look into research on people's mindset,
47
153014
3770
02:36
caring about outcomes,
48
156808
1487
esse preocupar-se com resultados,
02:38
caring about public recognition,
49
158319
1773
preocupar-se com reconhecimento público,
02:40
caring about these kinds of public tokens of recognition
50
160116
3861
preocupar-se com esses tipos de símbolos de reconhecimento público
não é necessariamente muito útil
02:44
is not necessarily very helpful
51
164001
1994
02:46
for your long-term psychological well-being.
52
166019
2307
para o seu bem-estar psicológico de longo prazo.
02:48
It's better if you care about learning something.
53
168350
2676
É melhor quando você se preocupa em aprender algo.
02:51
It's better when you care about yourself
54
171050
1905
É melhor quando você se preocupa consigo mesmo
02:52
than how you appear in front of other people.
55
172979
2574
do que como você se apresenta diante de outras pessoas.
Assim, esse tipo de ferramenta motivacional que é usada
02:56
So that kind of motivational tool that is used actually, in and of itself,
56
176021
5041
realmente em si mesma
tem um efeito colateral de longo prazo
03:01
has a long-term side effect,
57
181086
1908
03:03
in that every time we use a technology
58
183018
1810
toda vez que usamos uma tecnologia
03:04
that uses something like public recognition or status,
59
184852
3174
que emprega algo como reconhecimento público ou status,
03:08
we're actually positively endorsing this
60
188050
2376
estamos, na verdade, reforçando isso positivamente
03:10
as a good and normal thing to care about --
61
190450
3410
como uma coisa boa e normal com a qual se preocupar --
03:13
that way, possibly having a detrimental effect
62
193884
2864
tendo, dessa forma, possivelmente um efeito negativo
03:16
on the long-term psychological well-being of ourselves as a culture.
63
196772
3855
no bem-estar psicológico de nós mesmos como cultura.
03:20
So that's a second, very obvious question:
64
200651
2644
Então, esta é a segunda pergunta, muito óbvia:
03:23
What are the effects of what you're doing --
65
203319
2311
quais são os efeitos daquilo que você está fazendo?
03:25
the effects you're having with the device, like less fuel,
66
205654
4124
Os resultados que você obtém com o dispositivo,
como menos combustível,
03:29
as well as the effects of the actual tools you're using
67
209802
2705
e também os resultados das ferramentas reais que está usando
03:32
to get people to do things --
68
212531
1674
para levar pessoas a fazer coisas --
03:34
public recognition?
69
214229
1571
reconhecimento público.
03:35
Now is that all -- intention, effect?
70
215824
2921
E isso é tudo -- intenção, resultado?
03:38
Well, there are some technologies which obviously combine both.
71
218769
3134
Bem, há algumas tecnologias
que evidentemente combinam ambos.
03:41
Both good long-term and short-term effects
72
221927
2787
Resultados de longo prazo e resultados de curto prazo
03:44
and a positive intention like Fred Stutzman's "Freedom,"
73
224738
2809
e uma intenção positiva, como o 'Freedom', de Fred Stutzman,
03:47
where the whole point of that application is --
74
227571
2207
no qual o propósito do aplicativo
é, bem, normalmente somos tão bombardeados
03:49
well, we're usually so bombarded with constant requests by other people,
75
229802
3725
com chamadas e pedidos de outras pessoas,
03:53
with this device,
76
233551
1156
com esse dispositivo você pode desligar a conexão com a Internet
03:54
you can shut off the Internet connectivity of your PC of choice
77
234731
3480
do PC de sua escolha por um espaço de tempo predeterminado
03:58
for a pre-set amount of time,
78
238235
1448
03:59
to actually get some work done.
79
239707
1971
para conseguir realmente executar algum trabalho.
04:01
And I think most of us will agree that's something well-intended,
80
241702
3151
E acho que a maioria de nós concordará,
bem, isso é algo bem intencionado
04:04
and also has good consequences.
81
244877
2220
e também tem boas consequências.
Nas palavras de Michel Foucault,
04:07
In the words of Michel Foucault,
82
247121
1646
04:08
it is a "technology of the self."
83
248791
1940
"É uma tecnologia do eu."
04:10
It is a technology that empowers the individual
84
250755
2837
É uma tecnologia que habilita o indivíduo
04:13
to determine its own life course,
85
253616
1815
a determinar seu próprio curso de vida,
04:15
to shape itself.
86
255455
1519
a modelar-se.
04:17
But the problem is, as Foucault points out,
87
257410
2984
Mas o problema é,
como Foucault aponta,
04:20
that every technology of the self
88
260418
1785
que toda tecnologia do eu
04:22
has a technology of domination as its flip side.
89
262227
3445
tem uma tecnologia de dominação como seu reverso.
04:25
As you see in today's modern liberal democracies,
90
265696
4603
Como você pode ver nas modernas democracias liberais de hoje,
a sociedade, o estado,
04:30
the society, the state, not only allows us to determine our self,
91
270323
4683
não só nos permite determinar nosso eu, modelar nosso eu
04:35
to shape our self,
92
275030
1151
04:36
it also demands it of us.
93
276205
1991
mas também exige isso de nós.
Exige que otimizemos a nós mesmos,
04:38
It demands that we optimize ourselves,
94
278220
1961
04:40
that we control ourselves,
95
280205
1840
que nos controlemos,
que nos auto-administremos continuamente
04:42
that we self-manage continuously,
96
282069
2711
04:44
because that's the only way in which such a liberal society works.
97
284804
3893
porque essa é a única forma
na qual tal sociedade liberal funciona.
04:48
These technologies want us to stay in the game
98
288721
4268
Essas tecnologias querem que fiquemos no jogo
04:53
that society has devised for us.
99
293013
2773
que a sociedade desenvolveu para nós.
04:55
They want us to fit in even better.
100
295810
2287
Querem que nos ajustemos cada vez mais.
04:58
They want us to optimize ourselves to fit in.
101
298121
2578
Querem-nos otimizados para que nos encaixemos.
Bem, não digo que isso é necessariamente uma coisa ruim.
05:01
Now, I don't say that is necessarily a bad thing;
102
301628
3079
Apenas penso que este exemplo
05:05
I just think that this example points us to a general realization,
103
305293
4328
nos leva a uma compreensão geral,
05:09
and that is: no matter what technology or design you look at,
104
309645
3803
e não importa para qual tecnologia ou design você olha,
05:13
even something we consider as well-intended
105
313472
3021
mesmo algo que consideramos bem intencionado e bom em seus efeitos --
05:16
and as good in its effects as Stutzman's Freedom,
106
316517
2966
como o 'Freedom' de Stutzman --
05:19
comes with certain values embedded in it.
107
319507
2707
vem com certos valores embutidos.
05:22
And we can question these values.
108
322238
1936
E podemos questionar esses valores.
Podemos indagar: é uma coisa boa
05:24
We can question: Is it a good thing
109
324198
1944
que todos nós continuamente nos otimizemos
05:26
that all of us continuously self-optimize ourselves
110
326166
3484
05:29
to fit better into that society?
111
329674
2011
para nos encaixar melhor nessa sociedade?
05:31
Or to give you another example:
112
331709
1492
Ou, para dar-lhes um outro exemplo,
05:33
What about a piece of persuasive technology
113
333225
2476
que tal um pouco de tecnologia persuasiva
que convence mulheres muçulmanas a usar lenços na cabeça?
05:35
that convinces Muslim women to wear their headscarves?
114
335725
3191
05:38
Is that a good or a bad technology
115
338940
2052
Essa é uma tecnologia boa ou ruim
em suas intenções ou efeitos?
05:41
in its intentions or in its effects?
116
341016
2563
05:43
Well, that basically depends on the kind of values you bring to bear
117
343603
4254
Bem, isso depende basicamente
do tipo de valores que você traz com você
05:47
to make these kinds of judgments.
118
347881
2237
para fazer esses tipos de julgamentos.
Portanto, essa é uma terceira pergunta:
05:50
So that's a third question:
119
350142
1528
05:51
What values do you use to judge?
120
351694
1528
que valores você usa para julgar?
05:53
And speaking of values:
121
353848
1341
E, falando de valores,
05:55
I've noticed that in the discussion about moral persuasion online
122
355213
3356
percebi que na discussão 'online' sobre persuasão moral,
05:58
and when I'm talking with people,
123
358593
1637
e quando estou conversando com as pessoas,
06:00
more often than not, there is a weird bias.
124
360254
2667
muito frequentemente há uma estranha tendenciosidade.
E essa tendenciosidade é que estamos perguntando:
06:03
And that bias is that we're asking:
125
363463
2896
06:06
Is this or that "still" ethical?
126
366383
2813
isso ou aquilo "ainda" é ético?
06:09
Is it "still" permissible?
127
369220
2650
Isso "ainda" é permitido?
06:11
We're asking things like:
128
371894
1198
Estamos perguntando coisas assim.
Este formulário de doação da Oxfam --
06:13
Is this Oxfam donation form,
129
373116
2189
06:15
where the regular monthly donation is the preset default,
130
375329
3048
no qual a doação mensal regular é o padrão predeterminado
06:18
and people, maybe without intending it,
131
378401
2079
e as pessoas, talvez sem ter essa intenção,
06:20
are encouraged or nudged into giving a regular donation
132
380504
3812
são, desta maneira, encorajadas ou impelidas
a fazer uma doação regular ao invés de uma única doação --
06:24
instead of a one-time donation,
133
384340
1489
06:25
is that "still' permissible?
134
385853
1343
isso ainda é admissível?
Isso ainda é ético?
06:27
Is it "still" ethical?
135
387220
1363
06:28
We're fishing at the low end.
136
388607
1479
Estamos pescando no raso.
Mas, de fato, esta questão
06:30
But in fact, that question, "Is it 'still' ethical?"
137
390879
2474
"Ainda é ético?"
é apenas uma forma de olhar para a ética.
06:33
is just one way of looking at ethics.
138
393377
1781
06:35
Because if you look at the beginning of ethics in Western culture,
139
395182
4892
Porque se você olha para o início da ética
na cultura ocidental,
você vê uma ideia muito diferente
06:40
you see a very different idea of what ethics also could be.
140
400098
3532
do que a ética também poderia ser.
06:43
For Aristotle, ethics was not about the question,
141
403970
3997
Para Aristóteles, a ética não era sobre a questão:
06:47
"Is that still good, or is it bad?"
142
407991
2272
isso ainda é bom ou ruim?
06:50
Ethics was about the question of how to live life well.
143
410287
3428
A ética era sobre a questão de como viver bem a vida.
E ele colocou isso na palavra "arete",
06:54
And he put that in the word "arête,"
144
414216
2181
que nós, a partir do Latim, traduzimos como "virtude".
06:56
which we, from [Ancient Greek], translate as "virtue."
145
416421
2755
Mas, na verdade, ela significa excelência.
06:59
But really, it means "excellence."
146
419200
1640
07:00
It means living up to your own full potential as a human being.
147
420864
5431
Significa viver de acordo com todo o seu potencial
como um ser humano.
07:06
And that is an idea that, I think,
148
426937
1656
E essa é uma ideia,
acho eu, que Paul Richard Buchanan bem colocou em um ensaio recente
07:08
Paul Richard Buchanan put nicely in a recent essay,
149
428617
2697
07:11
where he said, "Products are vivid arguments
150
431338
2143
quando disse: "Produtos são argumentos vívidos
07:13
about how we should live our lives."
151
433505
2123
sobre como deveríamos viver nossas vidas."
Nossos designs não são éticos ou não éticos
07:16
Our designs are not ethical or unethical
152
436086
2577
07:18
in that they're using ethical or unethical means of persuading us.
153
438687
4590
no sentido de que estão usando meios éticos ou não éticos de nos persuadir.
07:23
They have a moral component
154
443661
1570
Eles têm um componente moral
apenas no tipo de visão e aspiração da vida boa
07:25
just in the kind of vision and the aspiration of the good life
155
445255
4227
que eles nos apresentam.
07:29
that they present to us.
156
449506
1348
07:31
And if you look into the designed environment around us
157
451441
3503
E se você analisa o ambiente projetado ao nosso redor
07:34
with that kind of lens,
158
454968
1172
com esse tipo de lentes,
07:36
asking, "What is the vision of the good life
159
456164
2453
perguntando "Qual é a visão de vida boa
07:38
that our products, our design, present to us?",
160
458641
2738
que nossos produtos, nosso design, nos apresentam?",
07:41
then you often get the shivers,
161
461403
2276
então você tem calafrios frequentes,
07:43
because of how little we expect of each other,
162
463703
2328
em razão de como esperamos tão pouco um do outro,
07:46
of how little we actually seem to expect of our life,
163
466055
3890
de como na verdade parecemos esperar tão pouco
de nossa vida e de como seria uma vida boa.
07:49
and what the good life looks like.
164
469969
2034
Portanto, esta é a quarta questão que gostaria de deixar com vocês:
07:53
So that's a fourth question I'd like to leave you with:
165
473110
3023
07:56
What vision of the good life do your designs convey?
166
476157
4362
que visão de vida boa
seus designs transmitem?
08:01
And speaking of design,
167
481249
1372
E falando de design,
08:02
you'll notice that I already broadened the discussion,
168
482645
4190
vocês notaram que eu já ampliei a discussão.
08:06
because it's not just persuasive technology that we're talking about here,
169
486859
4444
Porque não é apenas de tecnologia persuasiva que estamos falando aqui,
é de qualquer peça de design que lançamos aqui no mundo.
08:11
it's any piece of design that we put out here in the world.
170
491327
4077
08:15
I don't know whether you know
171
495428
1400
Não sei se conhecem
08:16
the great communication researcher Paul Watzlawick who, back in the '60s,
172
496852
3555
o grande pesquisador de comunicação, Paul Watzlawick,
que, lá pelos anos 60, argumentou
que não conseguimos não comunicar.
08:20
made the argument that we cannot not communicate.
173
500431
2511
Mesmo se escolhêssemos ficar em silêncio,
08:22
Even if we choose to be silent, we chose to be silent,
174
502966
2601
nós escolhemos ficar em silêncio. Estamos comunicando algo ao escolher ficar em silêncio.
08:25
and we're communicating something by choosing to be silent.
175
505591
2956
08:28
And in the same way that we cannot not communicate,
176
508571
2735
E, da mesma forma que não conseguimos não comunicar,
não conseguimos não persuadir.
08:31
we cannot not persuade:
177
511330
1531
08:32
whatever we do or refrain from doing,
178
512885
2011
O que quer que façamos ou evitemos fazer,
08:34
whatever we put out there as a piece of design, into the world,
179
514920
4365
o que quer que lancemos como uma peça de design
no mundo
tem um componente persuasivo.
08:39
has a persuasive component.
180
519309
2047
08:41
It tries to affect people.
181
521380
1873
Ele tenta afetar as pessoas.
08:43
It puts a certain vision of the good life out there in front of us,
182
523277
3747
Ele coloca uma certa visão de vida boa
lá, diante de nós.
Que é aquilo que Peter-Paul Verbeek,
08:47
which is what Peter-Paul Verbeek,
183
527048
1625
08:48
the Dutch philosopher of technology, says.
184
528697
2716
o filósofo holandês da tecnologia, diz.
Não importa se nós, como designers, tivemos a intenção ou não,
08:51
No matter whether we as designers intend it or not,
185
531437
3948
08:55
we materialize morality.
186
535409
2142
nós materializamos a moralidade.
08:57
We make certain things harder and easier to do.
187
537575
2803
Nós tornamos certas coisas mais difíceis ou mais fáceis de fazer.
09:00
We organize the existence of people.
188
540402
2211
Nós organizamos a existência das pessoas.
09:02
We put a certain vision
189
542637
1151
Nós colocamos uma determinada visão do que é bom ou ruim,
09:03
of what good or bad or normal or usual is
190
543812
3404
normal ou comum diante das pessoas
09:07
in front of people,
191
547240
1151
09:08
by everything we put out there in the world.
192
548415
2400
em tudo aquilo que lançamos lá no mundo.
Até mesmo algo tão inofensivo como um conjunto de cadeiras escolares
09:11
Even something as innocuous as a set of school chairs
193
551247
3086
09:14
is a persuasive technology,
194
554357
2047
é uma tecnologia persuasiva.
Porque apresenta e materializa
09:16
because it presents and materializes a certain vision of the good life --
195
556428
4690
uma determinada visão de vida boa --
a vida boa na qual ensinar, aprender e ouvir
09:21
a good life in which teaching and learning and listening
196
561142
2857
09:24
is about one person teaching, the others listening;
197
564023
3099
é sobre uma pessoa ensinando, as outras ouvindo,
na qual o ato de aprender se faz sentado,
09:27
in which it is about learning-is-done-while-sitting;
198
567146
4053
na qual você aprende para você mesmo,
09:31
in which you learn for yourself;
199
571223
1595
09:32
in which you're not supposed to change these rules,
200
572842
2420
na qual não é para você mudar essas regras
09:35
because the chairs are fixed to the ground.
201
575286
2447
porque as cadeiras estão fixadas no chão.
09:38
And even something as innocuous as a single-design chair,
202
578888
2911
E até mesmo algo tão inofensivo como o design de uma única cadeira --
09:41
like this one by Arne Jacobsen,
203
581823
1572
como esta de Arne Jacobsen --
09:43
is a persuasive technology,
204
583419
1776
é uma tecnologia persuasiva.
Porque, novamente, comunica uma ideia de vida boa.
09:45
because, again, it communicates an idea of the good life:
205
585219
3043
09:48
a good life -- a life that you, as a designer, consent to by saying,
206
588735
4925
Uma vida boa --
uma vida com a qual você, como designer, consente
ao dizer: "Numa vida boa,
09:53
"In a good life, goods are produced as sustainably or unsustainably
207
593684
3507
os bens são produzidos como sustentáveis ou não sustentáveis, como esta cadeira.
09:57
as this chair.
208
597215
1611
09:58
Workers are treated as well or as badly
209
598850
1977
Os trabalhadores são tratados, tão bem ou tão mal,
10:00
as the workers were treated that built that chair."
210
600851
2572
como foram tratados os trabalhadores que construíram essa cadeira."
10:03
The good life is a life where design is important
211
603762
2301
A vida boa é uma vida na qual o design é importante
porque alguém, obviamente, despendeu tempo e dinheiro
10:06
because somebody obviously took the time and spent the money
212
606087
2921
para aquele tipo de cadeira bem desenhada,
10:09
for that kind of well-designed chair;
213
609032
1784
10:10
where tradition is important,
214
610840
1404
na qual a tradição é importante
porque esta é uma clássica tradicional
10:12
because this is a traditional classic and someone cared about this;
215
612268
3166
e alguém se importou com isso,
e na qual há algo como consumo evidente,
10:15
and where there is something as conspicuous consumption,
216
615458
2690
na qual é normal e comum
10:18
where it is OK and normal to spend a humongous amount of money
217
618172
2956
gastar uma enorme quantia de dinheiro numa cadeira assim
10:21
on such a chair,
218
621152
1151
para demonstrar a outras pessoas qual é seu status social.
10:22
to signal to other people what your social status is.
219
622327
2573
10:24
So these are the kinds of layers, the kinds of questions
220
624924
3317
Assim, estes são os tipos de camadas, os tipos de questionamentos
10:28
I wanted to lead you through today;
221
628265
1970
através dos quais eu queria conduzi-los hoje --
a questão de: Quais são as intenções
10:30
the question of: What are the intentions that you bring to bear
222
630259
3034
que você propõe quando desenha algo?
10:33
when you're designing something?
223
633317
1560
10:34
What are the effects, intended and unintended, that you're having?
224
634901
3252
Quais são os efeitos, intencionais ou não intencionais, que você está obtendo?
Quais são os valores que você está usando
10:38
What are the values you're using to judge those?
225
638177
2801
para julgá-los?
Quais são as virtudes, as aspirações
10:41
What are the virtues, the aspirations
226
641002
1973
10:42
that you're actually expressing in that?
227
642999
2028
que você realmente está expressando nisso?
10:45
And how does that apply,
228
645400
1857
E como isso se aplica,
10:47
not just to persuasive technology,
229
647281
1986
não apenas à tecnologia persuasiva,
10:49
but to everything you design?
230
649291
2048
mas a tudo que você projeta?
10:51
Do we stop there?
231
651912
1291
Paramos aíi?
10:53
I don't think so.
232
653815
1167
Acho que não.
10:55
I think that all of these things are eventually informed
233
655291
4438
Penso que todas essas coisas são finalmente informadas
10:59
by the core of all of this,
234
659753
1423
pela essência de tudo isso --
11:01
and this is nothing but life itself.
235
661200
3091
e isso nada mais é do que a própria vida.
11:04
Why, when the question of what the good life is
236
664594
2717
Por que, quando a questão de o que é a vida boa
11:07
informs everything that we design,
237
667335
2339
impregna tudo que projetamos,
11:09
should we stop at design and not ask ourselves:
238
669698
2794
deveríamos parar com a projeção e não perguntar a nós mesmos,
11:12
How does it apply to our own life?
239
672516
1990
como isso se aplica a nossa própria vida?
11:14
"Why should the lamp or the house be an art object,
240
674881
2712
"Por que a lâmpada ou a casa deveriam ser um objeto de arte
11:17
but not our life?"
241
677617
1176
mas não nossa vida?",
11:18
as Michel Foucault puts it.
242
678817
1483
como coloca MIchel Foucault.
11:20
Just to give you a practical example of Buster Benson.
243
680696
3611
Apenas para dar-lhes um exemplo prático de Buster Benson.
11:24
This is Buster setting up a pull-up machine
244
684331
2258
Este é Buster instalando um aparelho para flexões
11:26
at the office of his new start-up, Habit Labs,
245
686613
2612
no escritório de sua nova empresa Habit Labs,
onde eles estão tentando projetar outros aplicativos
11:29
where they're trying to build other applications like "Health Month"
246
689249
3215
como 'Health Month' para as pessoas.
11:32
for people.
247
692488
1158
E por que ele está fazendo uma coisa dessas?
11:33
And why is he building a thing like this?
248
693670
1962
11:35
Well, here is the set of axioms
249
695656
2033
Bem, aqui está o conjunto de proposições
11:37
that Habit Labs, Buster's start-up, put up for themselves
250
697713
3398
que a Habit Labs, a empresa de Buster, elaborou para eles mesmos
de como queriam trabalhar juntos, como uma equipe,
11:41
on how they wanted to work together as a team
251
701135
2705
11:43
when they're building these applications --
252
703864
2029
enquanto estão projetando esses aplicativos --
11:45
a set of moral principles they set themselves
253
705917
2189
um conjunto de princípios morais que eles mesmos definiram
para trabalhar juntos --
11:48
for working together --
254
708130
1361
11:49
one of them being,
255
709515
1238
e um deles é:
11:50
"We take care of our own health and manage our own burnout."
256
710777
3087
"Nós cuidamos de nossa própria saúde e administramos nossos exercícios físicos."
Porque, em última análise, como podem perguntar a si mesmos
11:54
Because ultimately, how can you ask yourselves
257
714221
3500
11:57
and how can you find an answer on what vision of the good life
258
717745
3930
e como podem encontrar uma resposta
sobre qual visão de vida boa
12:01
you want to convey and create with your designs
259
721699
3169
querem transmitir e criar com seus designs
12:04
without asking the question:
260
724892
1730
sem fazer o questionamento
12:06
What vision of the good life do you yourself want to live?
261
726646
3832
de qual visão de vida boa
vocês mesmos querem viver?
E com isto, agradeço a vocês.
12:11
And with that,
262
731018
1174
12:12
I thank you.
263
732945
1412
12:14
(Applause)
264
734381
4156
(Aplausos)
Sobre este site

Este site apresentará a você vídeos do YouTube que são úteis para o aprendizado do inglês. Você verá aulas de inglês ministradas por professores de primeira linha de todo o mundo. Clique duas vezes nas legendas em inglês exibidas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas rolarão em sincronia com a reprodução do vídeo. Se você tiver algum comentário ou solicitação, por favor, entre em contato conosco usando este formulário de contato.

https://forms.gle/WvT1wiN1qDtmnspy7