Sebastian Deterding: What your designs say about you

33,131 views ・ 2012-05-31

TED


Vă rugăm să faceți dublu clic pe subtitrările în limba engleză de mai jos pentru a reda videoclipul.

Traducător: Klara VEER Corector: Aura Raducan
00:15
We are today talking about moral persuasion:
0
15651
2586
Astăzi vom discuta despre persuasiunea morală.
00:18
What is moral and immoral in trying to change people's behaviors
1
18261
3982
Ce este moral sau imoral în încercarea
de a schimba comportamentele oamenilor
00:22
by using technology and using design?
2
22267
2453
cu ajutorul tehnologiei și al design-ului?
00:24
And I don't know what you expect,
3
24744
1832
Nu știu la ce anume vă așteptați,
00:26
but when I was thinking about that issue,
4
26600
1953
însă eu, gândindu-mă la această problemă,
00:28
I early on realized what I'm not able to give you are answers.
5
28577
4039
mi-am dat seama destul de rapid
că nu sunt în stare să vă ofer răspunsuri.
00:33
I'm not able to tell you what is moral or immoral,
6
33203
2771
Nu sunt în stare să vă spun ce anume este moral sau imoral
00:35
because we're living in a pluralist society.
7
35998
2547
deoarece trăim într-o societate pluralistă.
00:38
My values can be radically different from your values,
8
38569
4242
Valorile mele pot fi radical diferite
de valorile voastre.
00:42
which means that what I consider moral or immoral based on that
9
42835
3177
Asta înseamnă că ceea ce eu consider moral sau imoral bazându-mă pe acestea
00:46
might not necessarily be what you consider moral or immoral.
10
46036
3612
ar putea să nu fie ceea ce voi considerați moral sau imoral.
Însă mi-am dat seama că există totuși un lucru pe care vi l-aș putea oferi.
00:50
But I also realized there is one thing that I could give you,
11
50029
3214
Și asta e ceea ce a oferit întregii lumi tipul ăsta din spatele meu -
00:53
and that is what this guy behind me gave the world --
12
53267
2533
00:55
Socrates.
13
55824
1150
Socrate.
00:56
It is questions.
14
56998
1395
Întrebări.
00:58
What I can do and what I would like to do with you
15
58417
2633
Ceea ce pot și îmi doresc să fac cu voi
e să vă ofer, precum acea întrebare de la început,
01:01
is give you, like that initial question,
16
61074
1945
un set de întrebări
01:03
a set of questions to figure out for yourselves,
17
63043
3410
pentru a vă da seama voi înșivă,
01:06
layer by layer, like peeling an onion,
18
66477
3641
strat cu strat,
așa cum decojim o ceapă,
și ajungând la esența a ceea ce considerați
01:10
getting at the core of what you believe is moral or immoral persuasion.
19
70142
5020
că este persuasiunea morală sau imorală.
01:15
And I'd like to do that with a couple of examples of technologies
20
75559
4041
Și aș dori să fac asta cu ajutorul câtorva exemple
de tehnologii în care oamenii au folosit elemente din jocurile electronice
01:19
where people have used game elements to get people to do things.
21
79624
4980
pentru a-i convinge pe oameni să facă anumite lucruri.
Așadar, la început aș dori să vă pun o întrebare
01:25
So it's at first a very simple, very obvious question
22
85343
3040
01:28
I would like to give you:
23
88407
1196
foarte simplă, foarte evidentă:
01:29
What are your intentions if you are designing something?
24
89627
2687
Care sunt intențiile voastre atunci când proiectați ceva?
01:32
And obviously, intentions are not the only thing,
25
92668
3373
Și evident, intențiile nu sunt singura chestie,
așa că vă dau un exemplu cu o astfel de aplicație.
01:36
so here is another example for one of these applications.
26
96065
3178
01:39
There are a couple of these kinds of Eco dashboards right now --
27
99267
3087
La ora actuală există niște tablouri de bord ecologice,
tablouri de bord pentru mașini
01:42
dashboards built into cars --
28
102378
1460
01:43
which try to motivate you to drive more fuel-efficiently.
29
103862
2832
care încearcă să te motiveze să folosești combustibilul mai eficient.
01:46
This here is Nissan's MyLeaf,
30
106718
1773
Acesta este MyLeaf al mașinii Nissan,
01:48
where your driving behavior is compared with the driving behavior
31
108515
3064
în care modul în care șofezi este comparat
cu modul în care șofează alte persoane,
01:51
of other people,
32
111603
1151
01:52
so you can compete for who drives a route the most fuel-efficiently.
33
112778
3277
astfel veți putea intra în competiție pentru
cel care șofează folosind cel mai puțin combustibil.
Și aceste chestii sunt foarte eficiente, se pare,
01:56
And these things are very effective, it turns out --
34
116079
2477
atât de eficiente încât motivează oamenii
01:58
so effective that they motivate people to engage in unsafe driving behaviors,
35
118580
3939
să se angajeze în comportamente periculoase la drum -
02:02
like not stopping at a red light,
36
122543
1762
de exemplu nu se mai opresc la semaforul roșu.
02:04
because that way you have to stop and restart the engine,
37
124329
2715
Deoarece astfel ești obligat să te oprești și să repornești motorul,
iar asta ar consuma niște carburant, nu-i așa?
02:07
and that would use quite some fuel, wouldn't it?
38
127068
2723
02:10
So despite this being a very well-intended application,
39
130338
4409
În ciuda faptului că aplicația are cele mai bune intenții,
02:14
obviously there was a side effect of that.
40
134771
2375
în mod evident a apărut un efect secundar.
02:17
Here's another example for one of these side effects.
41
137170
2548
Iată un alt exemplu pentru astfel de efecte secundare.
02:19
Commendable: a site that allows parents to give their kids little badges
42
139742
4784
Lăudabil:
un site care permite părinților să dăruiască mici insigne copiilor lor
02:24
for doing the things that parents want their kids to do,
43
144550
2658
ca răsplată pentru că au făcut ce li s-a spus -
de exemplu, să își lege șireturile.
02:27
like tying their shoes.
44
147232
1316
02:28
And at first that sounds very nice,
45
148572
2244
Și la prima vedere totul pare foarte drăguț,
02:30
very benign, well-intended.
46
150840
2150
foarte inofensiv și bine intenționat.
Însă dacă urmărim ultimele studii despre starea de spirit
02:33
But it turns out, if you look into research on people's mindset,
47
153014
3770
02:36
caring about outcomes,
48
156808
1487
a oamenilor, se pare că urmărirea rezultatelor pozitive,
02:38
caring about public recognition,
49
158319
1773
grija excesivă pentru a obține aprecierea publică,
02:40
caring about these kinds of public tokens of recognition
50
160116
3861
preocuparea pentru toate aceste tipuri de simboluri ale aprecierii
nu sunt de fapt de mare ajutor
02:44
is not necessarily very helpful
51
164001
1994
02:46
for your long-term psychological well-being.
52
166019
2307
pentru bunăstarea noastră psihologică, pe termen lung.
02:48
It's better if you care about learning something.
53
168350
2676
Este mult mai bine dacă urmărești să înveți ceva.
02:51
It's better when you care about yourself
54
171050
1905
E mult mai bine dacă te îngrijești de tine însuți
02:52
than how you appear in front of other people.
55
172979
2574
decât să îți faci gânduri despre cum arăți în fața altora.
Astfel, acel tip de instrument motivațional care a fost utilizat
02:56
So that kind of motivational tool that is used actually, in and of itself,
56
176021
5041
de fapt prin și în sine
are un efect secundar pe termen lung
03:01
has a long-term side effect,
57
181086
1908
03:03
in that every time we use a technology
58
183018
1810
în sensul că de fiecare dată când utilizăm o anumită tehnologie
03:04
that uses something like public recognition or status,
59
184852
3174
ce folosește concepte precum aprecierea publică sau statutul public,
03:08
we're actually positively endorsing this
60
188050
2376
noi de fapt întărim în mod pozitiv aceste concepte
03:10
as a good and normal thing to care about --
61
190450
3410
ca și cum acestea ar fi lucruri bune și normale de care să fim preocupați -
03:13
that way, possibly having a detrimental effect
62
193884
2864
în acel fel având și un posibil efect dăunător
03:16
on the long-term psychological well-being of ourselves as a culture.
63
196772
3855
asupra bunăstării noastre psihologice pe termen lung, ca parte a unei culturi.
03:20
So that's a second, very obvious question:
64
200651
2644
Iată o a doua întrebare, foarte evidentă:
03:23
What are the effects of what you're doing --
65
203319
2311
Care sunt efectele acţiunilor tale?
03:25
the effects you're having with the device, like less fuel,
66
205654
4124
Efectele pe care le obții prin acest dispozitiv,
de exemplu: mai puțin combustibil,
03:29
as well as the effects of the actual tools you're using
67
209802
2705
dar și efectele uneltelor pe care le folosești de fapt
03:32
to get people to do things --
68
212531
1674
pentru a convinge oamenii să facă anumite lucruri -
03:34
public recognition?
69
214229
1571
precum aprecierea publică.
03:35
Now is that all -- intention, effect?
70
215824
2921
Oare asta să fie tot - intenție, efect?
03:38
Well, there are some technologies which obviously combine both.
71
218769
3134
Ei bine, există anumite tehnologii
care le combină pe amândouă în mod clar.
03:41
Both good long-term and short-term effects
72
221927
2787
Atât efectele bune pe termen lung și scurt cât și o intenție
03:44
and a positive intention like Fred Stutzman's "Freedom,"
73
224738
2809
pozitivă precum cea din aplicația Freedom a lui Fred Stutzman,
03:47
where the whole point of that application is --
74
227571
2207
în care ideea de bază ar fi,
ei bine, noi suntem de obicei atât de bombardați
03:49
well, we're usually so bombarded with constant requests by other people,
75
229802
3725
cu apeluri telefonice și cerințe din partea altora,
03:53
with this device,
76
233551
1156
cu ajutorul acestui dispozitiv poți să închizi conexiunea la
03:54
you can shut off the Internet connectivity of your PC of choice
77
234731
3480
internet a calculatorului ales pentru o perioadă prestabilită
03:58
for a pre-set amount of time,
78
238235
1448
03:59
to actually get some work done.
79
239707
1971
de timp, pentru a reuși să te ocupi de treburile tale.
04:01
And I think most of us will agree that's something well-intended,
80
241702
3151
Și eu cred că majoritatea dintre noi vor fi de acord,
e ceva care are intenții bune
04:04
and also has good consequences.
81
244877
2220
și de asemenea, are și consecințe bune.
În cuvintele lui Michel Foucault,
04:07
In the words of Michel Foucault,
82
247121
1646
04:08
it is a "technology of the self."
83
248791
1940
"Este o tehnologie a sinelui."
04:10
It is a technology that empowers the individual
84
250755
2837
Este o tehnologie care dă putere individului
04:13
to determine its own life course,
85
253616
1815
să determine felul în care se modelează
04:15
to shape itself.
86
255455
1519
cursul propriei sale vieți.
04:17
But the problem is, as Foucault points out,
87
257410
2984
Însă problema ar fi,
așa cum Foucault menționa,
04:20
that every technology of the self
88
260418
1785
că fiecare tehnologie a sinelui
04:22
has a technology of domination as its flip side.
89
262227
3445
are o tehnologie de dominare pe partea cealaltă a monedei.
04:25
As you see in today's modern liberal democracies,
90
265696
4603
Așa cum puteți vedea la democrațiile moderne liberale
din zilele noastre, societatea, statul,
04:30
the society, the state, not only allows us to determine our self,
91
270323
4683
nu numai că ne permit să ne determinăm sinele, să îi dăm formă,
04:35
to shape our self,
92
275030
1151
04:36
it also demands it of us.
93
276205
1991
ci ne și cer asta.
Ni se cere să ne optimizăm sinele,
04:38
It demands that we optimize ourselves,
94
278220
1961
04:40
that we control ourselves,
95
280205
1840
să ne controlăm,
să ne auto-administrăm în mod continuu
04:42
that we self-manage continuously,
96
282069
2711
04:44
because that's the only way in which such a liberal society works.
97
284804
3893
deoarece acesta este singurul mod
în care poate funcționa o societate liberală.
04:48
These technologies want us to stay in the game
98
288721
4268
Aceste tehnologii vor ca noi să rămânem în jocul
04:53
that society has devised for us.
99
293013
2773
pe care societatea l-a conceput pentru noi.
04:55
They want us to fit in even better.
100
295810
2287
Ei doresc ca noi să ne integrăm și mai bine.
04:58
They want us to optimize ourselves to fit in.
101
298121
2578
Ei doresc ca noi să ne auto-optimizăm pentru a ne integra.
Eu nu spun acum că acesta ar fi neapărat un lucru rău.
05:01
Now, I don't say that is necessarily a bad thing;
102
301628
3079
Pur și simplu cred că acest exemplu
05:05
I just think that this example points us to a general realization,
103
305293
4328
ne direcţionează către o înțelegere a unui concept general,
05:09
and that is: no matter what technology or design you look at,
104
309645
3803
și anume că indiferent la ce tehnologie sau design te uiți,
05:13
even something we consider as well-intended
105
313472
3021
chiar și ceva ce pare a fi la fel de bine intenționat și având
05:16
and as good in its effects as Stutzman's Freedom,
106
316517
2966
efecte la fel de pozitive precum aplicația lui Stutzman,
05:19
comes with certain values embedded in it.
107
319507
2707
vine cu un anumit sistem de valori încorporate.
05:22
And we can question these values.
108
322238
1936
Iar noi putem să avem îndoieli asupra acestor valori.
Putem să ne întrebăm: este oare un lucru bun
05:24
We can question: Is it a good thing
109
324198
1944
să ajungem să ne auto-optimizăm cu toții încontinuu
05:26
that all of us continuously self-optimize ourselves
110
326166
3484
05:29
to fit better into that society?
111
329674
2011
pentru a ne integra mai bine în acea societate?
05:31
Or to give you another example:
112
331709
1492
Sau, ca că vă dau un alt exemplu,
05:33
What about a piece of persuasive technology
113
333225
2476
ce părere aveți despre acea tehnologie care convinge
femeile musulmane să își poarte baticurile?
05:35
that convinces Muslim women to wear their headscarves?
114
335725
3191
05:38
Is that a good or a bad technology
115
338940
2052
Este aceasta o tehnologie bună sau proastă
prin intențiile și efectele sale?
05:41
in its intentions or in its effects?
116
341016
2563
05:43
Well, that basically depends on the kind of values you bring to bear
117
343603
4254
Păi acest lucru depinde de fapt
de tipul de valori pe care le scoți în evidență
05:47
to make these kinds of judgments.
118
347881
2237
pentru a face astfel de judecăți.
Așadar iată o a treia întrebare:
05:50
So that's a third question:
119
350142
1528
05:51
What values do you use to judge?
120
351694
1528
Care sunt valorile pe care le folosiți pentru a emite păreri?
05:53
And speaking of values:
121
353848
1341
Și dacă tot vorbim despre valori,
05:55
I've noticed that in the discussion about moral persuasion online
122
355213
3356
am observat că în discuțiile despre persuasiunea morală
05:58
and when I'm talking with people,
123
358593
1637
atât online cât și discutând cu alții,
06:00
more often than not, there is a weird bias.
124
360254
2667
adesea apare un fel de părtinire cam ciudată.
Mă refer la faptul că ne întrebăm
06:03
And that bias is that we're asking:
125
363463
2896
06:06
Is this or that "still" ethical?
126
366383
2813
dacă un lucru sau altul "încă mai este" etic?
06:09
Is it "still" permissible?
127
369220
2650
Mai este "încă" permisibil?
06:11
We're asking things like:
128
371894
1198
Noi întrebăm chestii precum,
este oare acest formular de donații Oxfam -
06:13
Is this Oxfam donation form,
129
373116
2189
06:15
where the regular monthly donation is the preset default,
130
375329
3048
în care donația lunară apare acolo ca și setare implicită
06:18
and people, maybe without intending it,
131
378401
2079
iar oamenii, poate fără să își dea seama,
06:20
are encouraged or nudged into giving a regular donation
132
380504
3812
sunt în acest fel încurajați sau înghiontiți
să facă donații regulate în locul unei singure donații -
06:24
instead of a one-time donation,
133
384340
1489
06:25
is that "still' permissible?
134
385853
1343
este acest lucru încă permis?
Mai este acest lucru etic?
06:27
Is it "still" ethical?
135
387220
1363
06:28
We're fishing at the low end.
136
388607
1479
Nu suntem corecți.
Însă, de fapt, acea întrebare
06:30
But in fact, that question, "Is it 'still' ethical?"
137
390879
2474
"Încă mai este etic?"
este doar unul din modurile în care putem aborda etica.
06:33
is just one way of looking at ethics.
138
393377
1781
06:35
Because if you look at the beginning of ethics in Western culture,
139
395182
4892
Pentru că dacă ne uităm la începuturile eticii
în cultura vestică,
descoperim complet altă
06:40
you see a very different idea of what ethics also could be.
140
400098
3532
definiție a eticii.
06:43
For Aristotle, ethics was not about the question,
141
403970
3997
Pentru Aristotel, etica nu se referea la întrebarea,
06:47
"Is that still good, or is it bad?"
142
407991
2272
dacă un lucru mai este încă bun sau rău?
06:50
Ethics was about the question of how to live life well.
143
410287
3428
Etica punea problema traiului bun.
Şi el a adăugat acolo cuvântul "arete,"
06:54
And he put that in the word "arête,"
144
414216
2181
pe care noi, din latină, îl traducem ca "virtute."
06:56
which we, from [Ancient Greek], translate as "virtue."
145
416421
2755
Însă de fapt înseamnă excelență.
06:59
But really, it means "excellence."
146
419200
1640
07:00
It means living up to your own full potential as a human being.
147
420864
5431
Înseamnă să trăiești viața la potențialul tău maxim
ca ființă umană.
07:06
And that is an idea that, I think,
148
426937
1656
Iar aceasta este o idee
pe care cred că Paul Richard Buchanan a introdus-o într-unul dintre eseurile sale recente
07:08
Paul Richard Buchanan put nicely in a recent essay,
149
428617
2697
07:11
where he said, "Products are vivid arguments
150
431338
2143
spunând "Produsele sunt dovezi vii
07:13
about how we should live our lives."
151
433505
2123
despre felul în care ar trebui să ne trăim viețile".
Produsele noastre de design nu sunt etice sau neetice
07:16
Our designs are not ethical or unethical
152
436086
2577
07:18
in that they're using ethical or unethical means of persuading us.
153
438687
4590
prin faptul că folosesc metode de persuasiune etice sau neetice.
07:23
They have a moral component
154
443661
1570
Acestea au o componentă morală
pur și simplu prin viziunea și prin aspirația la o viață bună
07:25
just in the kind of vision and the aspiration of the good life
155
445255
4227
pe care ni le prezintă.
07:29
that they present to us.
156
449506
1348
07:31
And if you look into the designed environment around us
157
451441
3503
Iar dacă privești în jur și te uiți la mediul proiectat de om
07:34
with that kind of lens,
158
454968
1172
dintr-o astfel de perspectivă,
07:36
asking, "What is the vision of the good life
159
456164
2453
și te întrebi "Care este viziunea vieții bune
07:38
that our products, our design, present to us?",
160
458641
2738
prezentată de produsele noastre, de design-ul nostru?"
07:41
then you often get the shivers,
161
461403
2276
te apucă adeseori tremuratul
07:43
because of how little we expect of each other,
162
463703
2328
observând cât de puține așteptări avem unii de la alții
07:46
of how little we actually seem to expect of our life,
163
466055
3890
cât de puține așteptări avem de la viețile noastre
și de la imaginea unei vieți bune.
07:49
and what the good life looks like.
164
469969
2034
Și iată ce-a de-a patra întrebare cu care aș dori să rămâneți:
07:53
So that's a fourth question I'd like to leave you with:
165
473110
3023
07:56
What vision of the good life do your designs convey?
166
476157
4362
Ce fel de viziune asupra unei vieți bune
este transmisă prin proiectele voastre?
08:01
And speaking of design,
167
481249
1372
Și dacă tot vorbim despre design,
08:02
you'll notice that I already broadened the discussion,
168
482645
4190
puteți observa că deja am lărgit aria de discuție.
08:06
because it's not just persuasive technology that we're talking about here,
169
486859
4444
Pentru că noi nu discutăm numai despre tehnologiile persuasive,
ci despre orice produs de design pe care îl aducem pe lume.
08:11
it's any piece of design that we put out here in the world.
170
491327
4077
08:15
I don't know whether you know
171
495428
1400
Nu știu dacă cunoașteți deja faptul că Paul Watzlawick,
08:16
the great communication researcher Paul Watzlawick who, back in the '60s,
172
496852
3555
marele cercetător în domeniul comunicațiilor,
care, încă prin anii '60 a demostrat
că ne este imposibil să nu comunicăm.
08:20
made the argument that we cannot not communicate.
173
500431
2511
Chiar dacă am alege tăcerea,
08:22
Even if we choose to be silent, we chose to be silent,
174
502966
2601
noi am ales tăcerea. Comunicăm ceva prin alegerea de a tăcea.
08:25
and we're communicating something by choosing to be silent.
175
505591
2956
08:28
And in the same way that we cannot not communicate,
176
508571
2735
Și așa cum nu putem să nu comunicăm,
nu putem nici să nu convingem.
08:31
we cannot not persuade:
177
511330
1531
08:32
whatever we do or refrain from doing,
178
512885
2011
Orice am face sau orice ne abținem să facem,
08:34
whatever we put out there as a piece of design, into the world,
179
514920
4365
orice am aduce pe lume,
ca obiect de design,
va avea o componentă persuasivă.
08:39
has a persuasive component.
180
519309
2047
08:41
It tries to affect people.
181
521380
1873
Va încerca să influențeze oamenii.
08:43
It puts a certain vision of the good life out there in front of us,
182
523277
3747
Va transmite o anumită viziune a vieții bune
chiar în fața noastră.
Și asta e ceea ce spunea Peter-Paul Verbeek,
08:47
which is what Peter-Paul Verbeek,
183
527048
1625
08:48
the Dutch philosopher of technology, says.
184
528697
2716
filosoful olandez.
Indiferent de ceea ce noi ca designeri intenționăm sau nu să facem,
08:51
No matter whether we as designers intend it or not,
185
531437
3948
08:55
we materialize morality.
186
535409
2142
noi materializăm moralitatea.
08:57
We make certain things harder and easier to do.
187
537575
2803
Noi facem ca anumite lucruri să fie mai greu sau mai ușor de realizat.
09:00
We organize the existence of people.
188
540402
2211
Noi organizăm existența oamenilor.
09:02
We put a certain vision
189
542637
1151
Noi așezăm în fața oamenilor o anumită viziune asupra binelui
09:03
of what good or bad or normal or usual is
190
543812
3404
sau a răului sau a normalității sau a uzualului
09:07
in front of people,
191
547240
1151
09:08
by everything we put out there in the world.
192
548415
2400
prin tot ceea ce aducem pe lume.
Chiar și ceva la fel de inofensiv precum un set
09:11
Even something as innocuous as a set of school chairs
193
551247
3086
09:14
is a persuasive technology,
194
554357
2047
de scaune școlare, reprezintă o tehnologie persuasivă.
Deoarece acestea prezintă și materializează
09:16
because it presents and materializes a certain vision of the good life --
195
556428
4690
o anumită viziune a vieții bune -
acea viață bună în care educația și învățarea și ascultarea
09:21
a good life in which teaching and learning and listening
196
561142
2857
09:24
is about one person teaching, the others listening;
197
564023
3099
se referă la o persoană care predă, iar ceilalți ascultă,
în care învățarea are loc în timp ce suntem așezați,
09:27
in which it is about learning-is-done-while-sitting;
198
567146
4053
în care învățăm pentru noi înșine,
09:31
in which you learn for yourself;
199
571223
1595
09:32
in which you're not supposed to change these rules,
200
572842
2420
în care nu avem voie să schimbăm aceste reguli
09:35
because the chairs are fixed to the ground.
201
575286
2447
deoarece scaunele sunt fixate pe pardoseală.
09:38
And even something as innocuous as a single-design chair,
202
578888
2911
Și chiar ceva atât de inofensiv precum un simplu proiect pentru un scaun -
09:41
like this one by Arne Jacobsen,
203
581823
1572
de exemplu acesta realizat de Arne Jacobsen -
09:43
is a persuasive technology,
204
583419
1776
reprezintă o tehnologie persuasivă.
Deoarece, din nou, comunică ideea unei vieți bune.
09:45
because, again, it communicates an idea of the good life:
205
585219
3043
09:48
a good life -- a life that you, as a designer, consent to by saying,
206
588735
4925
O viață bună -
o viață la care tu aderi în calitate de designer
spunând "în viața cea bună,
09:53
"In a good life, goods are produced as sustainably or unsustainably
207
593684
3507
bunurile sunt produse la fel de sustenabil sau de nesustenabil
09:57
as this chair.
208
597215
1611
09:58
Workers are treated as well or as badly
209
598850
1977
precum acest scaun. Muncitorii sunt tratați la fel de bine
10:00
as the workers were treated that built that chair."
210
600851
2572
sau de rău precum muncitorii care au construit acest scaun."
10:03
The good life is a life where design is important
211
603762
2301
Viața cea bună este o viață în care designul are importanță
pentru că cineva, în mod evident, și-a consumat timpul
10:06
because somebody obviously took the time and spent the money
212
606087
2921
și banii pentru un astfel de scaun bine-proiectat,
10:09
for that kind of well-designed chair;
213
609032
1784
10:10
where tradition is important,
214
610840
1404
o viață în care tradiția are valoare
deoarece acesta este un clasic tradițional
10:12
because this is a traditional classic and someone cared about this;
215
612268
3166
și cuiva i-a păsat de asta,
iar acolo unde consumul devine izbitor,
10:15
and where there is something as conspicuous consumption,
216
615458
2690
acolo unde este normal și acceptabil
10:18
where it is OK and normal to spend a humongous amount of money
217
618172
2956
să cheltuiești sume enorme de bani pentru un astfel de scaun
10:21
on such a chair,
218
621152
1151
pentru a semnala altora care este statutul tău social.
10:22
to signal to other people what your social status is.
219
622327
2573
10:24
So these are the kinds of layers, the kinds of questions
220
624924
3317
Așadar acestea ar fi acele straturi, acele tipuri de întrebări
10:28
I wanted to lead you through today;
221
628265
1970
prin care doream să vă îndrum astăzi -
întrebarea "Care sunt intențiile
10:30
the question of: What are the intentions that you bring to bear
222
630259
3034
pe care le aduceți la lumină atunci când proiectați ceva?
10:33
when you're designing something?
223
633317
1560
10:34
What are the effects, intended and unintended, that you're having?
224
634901
3252
Care sunt efectele, intenționate și neintenționate pe care le realizați?
Care sunt valorile pe care le utilizați
10:38
What are the values you're using to judge those?
225
638177
2801
pentru a judeca?
Care sunt virtuțile și aspirațiile
10:41
What are the virtues, the aspirations
226
641002
1973
10:42
that you're actually expressing in that?
227
642999
2028
exprimate prin asta?
10:45
And how does that apply,
228
645400
1857
Și cum se aplică aceste lucruri,
10:47
not just to persuasive technology,
229
647281
1986
nu doar tehnologiei persuasive,
10:49
but to everything you design?
230
649291
2048
ci în absolut tot ceea ce proiectați?
10:51
Do we stop there?
231
651912
1291
Ne oprim aici?
10:53
I don't think so.
232
653815
1167
Nu cred.
10:55
I think that all of these things are eventually informed
233
655291
4438
Cred că toate aceste lucruri sunt, în final,
10:59
by the core of all of this,
234
659753
1423
inspirate din esența tuturor acestor lucruri -
11:01
and this is nothing but life itself.
235
661200
3091
iar asta nu e altceva decât viața în sine.
11:04
Why, when the question of what the good life is
236
664594
2717
De ce să ne oprim la design, atunci când întrebarea
11:07
informs everything that we design,
237
667335
2339
"Care este viața cea bună?" ne inspiră în tot
11:09
should we stop at design and not ask ourselves:
238
669698
2794
ceea ce proiectăm și să nu ne întrebăm
11:12
How does it apply to our own life?
239
672516
1990
cum se aplică asta vieților noastre?
11:14
"Why should the lamp or the house be an art object,
240
674881
2712
"De ce trebuie ca lampa sau casa să fie obiecte de artă
11:17
but not our life?"
241
677617
1176
și nu propriile noastre vieți?"
11:18
as Michel Foucault puts it.
242
678817
1483
cum spunea Michel Foucault.
11:20
Just to give you a practical example of Buster Benson.
243
680696
3611
Am să vă dau un exemplu practic despre Buster Benson.
11:24
This is Buster setting up a pull-up machine
244
684331
2258
Acesta e Buster în timp ce construia o mașinărie de ridicat
11:26
at the office of his new start-up, Habit Labs,
245
686613
2612
la birourile noii sale afaceri de antreprenoriat Habit Labs,
în care ei încearcă să realizeze și alte aplicații
11:29
where they're trying to build other applications like "Health Month"
246
689249
3215
precum Health Month.
11:32
for people.
247
692488
1158
Și de ce construiește el o asemenea chestie?
11:33
And why is he building a thing like this?
248
693670
1962
11:35
Well, here is the set of axioms
249
695656
2033
Ei bine, iată un set de axiome
11:37
that Habit Labs, Buster's start-up, put up for themselves
250
697713
3398
formulate de firma lui de antreprenoriat Habit Labs,
legat de modul în care aceștia doreau să lucreze ca echipă
11:41
on how they wanted to work together as a team
251
701135
2705
11:43
when they're building these applications --
252
703864
2029
atunci când construiau aceste aplicații -
11:45
a set of moral principles they set themselves
253
705917
2189
un set de principii morale alcătuite de ei înșiși
pentru a lucra împreună -
11:48
for working together --
254
708130
1361
11:49
one of them being,
255
709515
1238
iar una dintre acestea fiind
11:50
"We take care of our own health and manage our own burnout."
256
710777
3087
"Noi ne îngrijim de propria noastră sănătate și de
administrarea propriul nostru nivel de epuizare."
11:54
Because ultimately, how can you ask yourselves
257
714221
3500
11:57
and how can you find an answer on what vision of the good life
258
717745
3930
Căci în final cum altfel ai putea să te întrebi sau să afli
ce fel de viziune asupra vieții bune dorești să transmiți
12:01
you want to convey and create with your designs
259
721699
3169
și să creezi prin proiectele tale
12:04
without asking the question:
260
724892
1730
fără a-ți pune întrebarea
12:06
What vision of the good life do you yourself want to live?
261
726646
3832
care ar fi viziunea asupra unei vieți bune
în care dorești să trăiești tu însuți?
Și cu asta, vă mulțumesc.
12:11
And with that,
262
731018
1174
12:12
I thank you.
263
732945
1412
12:14
(Applause)
264
734381
4156
(Aplauze)
Despre acest site

Acest site vă va prezenta videoclipuri de pe YouTube care sunt utile pentru a învăța limba engleză. Veți vedea lecții de engleză predate de profesori de top din întreaga lume. Faceți dublu clic pe subtitrările în limba engleză afișate pe fiecare pagină video pentru a reda videoclipul de acolo. Subtitrările se derulează în sincron cu redarea videoclipului. Dacă aveți comentarii sau solicitări, vă rugăm să ne contactați folosind acest formular de contact.

https://forms.gle/WvT1wiN1qDtmnspy7