Sebastian Deterding: What your designs say about you

33,085 views ・ 2012-05-31

TED


אנא לחץ פעמיים על הכתוביות באנגלית למטה כדי להפעיל את הסרטון.

מתרגם: Shlomo Adam מבקר: Ido Dekkers
00:15
We are today talking about moral persuasion:
0
15651
2586
אנחנו מדברים היום על שכנוע מוסרי.
00:18
What is moral and immoral in trying to change people's behaviors
1
18261
3982
מה מוסרי ומה לא מוסרי
כשמנסים לשנות התנהגות של אנשים
00:22
by using technology and using design?
2
22267
2453
באמצעות טכנולוגיה ועיצוב?
00:24
And I don't know what you expect,
3
24744
1832
ואני לא יודע למה אתם מצפים,
00:26
but when I was thinking about that issue,
4
26600
1953
אבל כשחשבתי על הנושא הזה,
00:28
I early on realized what I'm not able to give you are answers.
5
28577
4039
הבנתי כבר בהתחלה
שאין לי תשובות.
00:33
I'm not able to tell you what is moral or immoral,
6
33203
2771
אני לא יודע להגיד לכם מה מוסרי ומה לא
00:35
because we're living in a pluralist society.
7
35998
2547
מפני שאנחנו חיים בחברה פלורליסטית.
00:38
My values can be radically different from your values,
8
38569
4242
הערכים שלי יכולים להיות שונים בצורה קיצונית
משלכם.
00:42
which means that what I consider moral or immoral based on that
9
42835
3177
כלומר, מה שאני מחשיב לפיהם כמוסרי או לא מוסרי
00:46
might not necessarily be what you consider moral or immoral.
10
46036
3612
איננו בהכרח מה שאתם מחשיבים למוסרי או לא מוסרי.
אך גם הבנתי שיש דבר אחד שאני יכול לתת לכם.
00:50
But I also realized there is one thing that I could give you,
11
50029
3214
וזה מה שהבחור הזה שמאחורי נתן לעולם --
00:53
and that is what this guy behind me gave the world --
12
53267
2533
00:55
Socrates.
13
55824
1150
סוקרטס.
00:56
It is questions.
14
56998
1395
שאלות.
00:58
What I can do and what I would like to do with you
15
58417
2633
מה שאני יכול לעשות ומה שהייתי רוצה לעשות איתכם
הוא לתת לכם, כמו השאלה בהתחלה,
01:01
is give you, like that initial question,
16
61074
1945
סט של שאלות
01:03
a set of questions to figure out for yourselves,
17
63043
3410
כדי שתבינו בעצמכם,
01:06
layer by layer, like peeling an onion,
18
66477
3641
שכבה אחרי שכבה,
כמו קילוף בצל,
להגיע ללב של מה שאתם מאמינים
01:10
getting at the core of what you believe is moral or immoral persuasion.
19
70142
5020
שהוא שכנוע מוסרי או לא מוסרי.
01:15
And I'd like to do that with a couple of examples of technologies
20
75559
4041
וברצוני לעשות את זה עם כמה דוגמאות
של טכנולוגיות בהן נעשה שימוש במרכיבים של משחקים
01:19
where people have used game elements to get people to do things.
21
79624
4980
כדי לגרום לאנשים לעשות דברים.
אז הראשון הוא מאוד פשוט, שאלה מאוד ברורה מאליה
01:25
So it's at first a very simple, very obvious question
22
85343
3040
01:28
I would like to give you:
23
88407
1196
שברצוני להציג לכם:
01:29
What are your intentions if you are designing something?
24
89627
2687
מה הכוונות שלכם כשאתם מעצבים משהו?
01:32
And obviously, intentions are not the only thing,
25
92668
3373
וכמובן שכוונות הן לא הדבר היחיד,
אז הנה דוגמה נוספת לאחד היישומים האלה.
01:36
so here is another example for one of these applications.
26
96065
3178
01:39
There are a couple of these kinds of Eco dashboards right now --
27
99267
3087
יש כיום כמה סוגים כאלה של לוחות בקרה אקולוגיים --
לוחות-שעונים שבנויים במכוניות
01:42
dashboards built into cars --
28
102378
1460
01:43
which try to motivate you to drive more fuel-efficiently.
29
103862
2832
שמנסים להניע אתכם לנהוג בצורה שחוסכת יותר דלק.
01:46
This here is Nissan's MyLeaf,
30
106718
1773
זאת ה"ניסאן מייליף",
01:48
where your driving behavior is compared with the driving behavior
31
108515
3064
שבה הרגלי הנהיגה שלכם מושווים
לעומת הרגלי הנהיגה של אנשים אחרים,
01:51
of other people,
32
111603
1151
01:52
so you can compete for who drives a route the most fuel-efficiently.
33
112778
3277
אז אתם יכולים להתחרות מי נוהג
בצורה הכי חסכונית.
ומסתבר שהדברים האלה מאד אפקטיביים,
01:56
And these things are very effective, it turns out --
34
116079
2477
כל כך אפקטיביים שהם מניעים אנשים
01:58
so effective that they motivate people to engage in unsafe driving behaviors,
35
118580
3939
לפתח הרגלי נהיגה לא בטוחים--
02:02
like not stopping at a red light,
36
122543
1762
כמו לא לעצור באור אדום.
02:04
because that way you have to stop and restart the engine,
37
124329
2715
מפני שכך עליכם לעצור ולהפעיל שוב את המנוע,
וזה מנצל הרבה דלק, נכון?
02:07
and that would use quite some fuel, wouldn't it?
38
127068
2723
02:10
So despite this being a very well-intended application,
39
130338
4409
אז למרות שזהו יישום עם כוונה טובה,
02:14
obviously there was a side effect of that.
40
134771
2375
ברור שהיתה לו השפעה שלילית.
02:17
Here's another example for one of these side effects.
41
137170
2548
והנה עוד דוגמה להשפעה שלילית כזו.
02:19
Commendable: a site that allows parents to give their kids little badges
42
139742
4784
ראוי לשבח:
אתר שמאפשר להורים לתת לילדיהם עיטורים
02:24
for doing the things that parents want their kids to do,
43
144550
2658
על עשיית דברים שההורים רוצים שהילדים יעשו --
כמו לקשור את השרוכים.
02:27
like tying their shoes.
44
147232
1316
02:28
And at first that sounds very nice,
45
148572
2244
ובהתחלה זה נשמע נחמד מאד,
02:30
very benign, well-intended.
46
150840
2150
מאד נעים, מלא כוונות טובות.
אך מסתבר, אם מסתכלים במחקר שבדק את צורת החשיבה של אנשים,
02:33
But it turns out, if you look into research on people's mindset,
47
153014
3770
02:36
caring about outcomes,
48
156808
1487
שמתן חשיבות לתוצאות,
02:38
caring about public recognition,
49
158319
1773
מתן חשיבות להכרה חברתית,
02:40
caring about these kinds of public tokens of recognition
50
160116
3861
מתן חשיבות לאישורים החברתיים האלה
איננו בהכרח מועיל מאד
02:44
is not necessarily very helpful
51
164001
1994
02:46
for your long-term psychological well-being.
52
166019
2307
לבריאות הנפשית בטווח הארוך.
02:48
It's better if you care about learning something.
53
168350
2676
עדיף שיהיה חשוב לכם שילמדו משהו.
02:51
It's better when you care about yourself
54
171050
1905
עדיף שיהיה אכפת לכם מעצמכם
02:52
than how you appear in front of other people.
55
172979
2574
מאשר איך אתם נראים בעיני אחרים.
אז סוג אמצעי כזה בו משתמשים ליצירת מוטיבציה
02:56
So that kind of motivational tool that is used actually, in and of itself,
56
176021
5041
למעשה בעצמו
יוצר תופעות שליליות בטווח הארוך
03:01
has a long-term side effect,
57
181086
1908
03:03
in that every time we use a technology
58
183018
1810
כי בכל פעם שאנו משתמשים בטכנולוגיה
03:04
that uses something like public recognition or status,
59
184852
3174
שמנצלת משהו כמו הכרה חברתית או מעמד,
03:08
we're actually positively endorsing this
60
188050
2376
אנחנו למעשה מעודדים את זה
03:10
as a good and normal thing to care about --
61
190450
3410
כדבר טוב ונורמלי שיש לתת לו חשיבות --
03:13
that way, possibly having a detrimental effect
62
193884
2864
ובכך אולי גורמים לאפקט מזיק
03:16
on the long-term psychological well-being of ourselves as a culture.
63
196772
3855
על בריאותנו הנפשית כחברה לאורך זמן.
03:20
So that's a second, very obvious question:
64
200651
2644
אז הנה שאלה שניה ודי מובנת מאליה:
03:23
What are the effects of what you're doing --
65
203319
2311
מה ההשפעות של מה שאתם עושים?
03:25
the effects you're having with the device, like less fuel,
66
205654
4124
ההשפעות המושגות בעזרת המכשיר,
כמו פחות דלק,
03:29
as well as the effects of the actual tools you're using
67
209802
2705
כמו גם השפעות הכלים בהם משתמשים
03:32
to get people to do things --
68
212531
1674
כדי לגרום לאנשים לעשות דברים --
03:34
public recognition?
69
214229
1571
הכרה פומבית.
03:35
Now is that all -- intention, effect?
70
215824
2921
האם כל זה-- כוונה, תוצאה?
03:38
Well, there are some technologies which obviously combine both.
71
218769
3134
יש כמה טכנולוגיות
שמשלבות בבירור את שתיהן.
03:41
Both good long-term and short-term effects
72
221927
2787
השפעות לטווח ארוך וגם לטווח קצר
03:44
and a positive intention like Fred Stutzman's "Freedom,"
73
224738
2809
לצד כוונה חיובית כמו החופש לפי פרד סטוצמן,
03:47
where the whole point of that application is --
74
227571
2207
כשכל העניין ביישום הזה,
הוא, ובכן, אנחנו בדרך כלל מופצצים
03:49
well, we're usually so bombarded with constant requests by other people,
75
229802
3725
בשיחות ובבקשות של אנשים אחרים,
03:53
with this device,
76
233551
1156
עם ההתקן הזה אפשר לכבות את הקישוריות לאינטרנט
03:54
you can shut off the Internet connectivity of your PC of choice
77
234731
3480
בכל מחשב לזמן מוגדר מראש
03:58
for a pre-set amount of time,
78
238235
1448
03:59
to actually get some work done.
79
239707
1971
כדי שאפשר יהיה לעבוד בשקט.
04:01
And I think most of us will agree that's something well-intended,
80
241702
3151
ואני חושב שרובנו נסכים,
שיש בכך כוונה טובה
04:04
and also has good consequences.
81
244877
2220
וגם תוצאות טובות.
במילותיו של מישל פוקו,
04:07
In the words of Michel Foucault,
82
247121
1646
04:08
it is a "technology of the self."
83
248791
1940
"זו טכנולוגיה של העצמי."
04:10
It is a technology that empowers the individual
84
250755
2837
זו טכנולוגיה שנותנת כוח ליחיד
04:13
to determine its own life course,
85
253616
1815
לקבוע את דרך חייו,
04:15
to shape itself.
86
255455
1519
לעצב את עצמו.
04:17
But the problem is, as Foucault points out,
87
257410
2984
אבל הבעיה היא,
כמו שפוקו מראה,
04:20
that every technology of the self
88
260418
1785
שלכל טכנולוגיה של העצמי
04:22
has a technology of domination as its flip side.
89
262227
3445
יש מצד שני טכנולוגיה של שליטה.
04:25
As you see in today's modern liberal democracies,
90
265696
4603
כמו שרואים כיום בדמוקרטיות הליברליות,
החברה, המדינה,
04:30
the society, the state, not only allows us to determine our self,
91
270323
4683
לא רק מאפשרות לנו לקבוע מי אנחנו ולעצב את עצמנו,
04:35
to shape our self,
92
275030
1151
04:36
it also demands it of us.
93
276205
1991
הן גם תובעות את זה מאיתנו.
הן תובעות שנשפר את עצמנו,
04:38
It demands that we optimize ourselves,
94
278220
1961
04:40
that we control ourselves,
95
280205
1840
שנשלוט בעצמנו,
שננהל את עצמנו באופן רציף
04:42
that we self-manage continuously,
96
282069
2711
04:44
because that's the only way in which such a liberal society works.
97
284804
3893
מפני שזו הדרך היחידה
בה חברה ליברלית כזו פועלת.
04:48
These technologies want us to stay in the game
98
288721
4268
הטכנולוגיות האלו רוצות שנמשיך לשחק
04:53
that society has devised for us.
99
293013
2773
במשחק שהחברה אירגנה לנו.
04:55
They want us to fit in even better.
100
295810
2287
הם רוצים שנתאים עוד יותר את עצמנו.
04:58
They want us to optimize ourselves to fit in.
101
298121
2578
הם רוצים שנמטב את עצמנו כדי שנשתלב בו.
אני לא אומר שזה בהכרח רע .
05:01
Now, I don't say that is necessarily a bad thing;
102
301628
3079
אני רק חושב שהדוגמה הזו
05:05
I just think that this example points us to a general realization,
103
305293
4328
מובילה אותנו להבנה הכללית,
05:09
and that is: no matter what technology or design you look at,
104
309645
3803
שיהיו אשר יהיו הטכנולוגיה או העיצוב,
05:13
even something we consider as well-intended
105
313472
3021
גם אם זה מכוונות טובות או עם תוצאות טובות--
05:16
and as good in its effects as Stutzman's Freedom,
106
316517
2966
כמו החופש לפי סטוצמן --
05:19
comes with certain values embedded in it.
107
319507
2707
תמיד מוטמעים בתוכו ערכים מסוימים.
05:22
And we can question these values.
108
322238
1936
ואנחנו יכולים לפקפק בערכים האלו.
אנו יכולים לשאול: האם זה טוב
05:24
We can question: Is it a good thing
109
324198
1944
שכולנו כל הזמן משפרים את עצמנו
05:26
that all of us continuously self-optimize ourselves
110
326166
3484
05:29
to fit better into that society?
111
329674
2011
כדי להתאים טוב יותר לחברה?
05:31
Or to give you another example:
112
331709
1492
או דוגמה אחרת,
05:33
What about a piece of persuasive technology
113
333225
2476
מה דעתכם על איזו טכנולוגיה רבת-השפעה
שמשכנעת נשים מוסלמיות ללבוש את כיסויי הראש שלהן?
05:35
that convinces Muslim women to wear their headscarves?
114
335725
3191
05:38
Is that a good or a bad technology
115
338940
2052
האם זו טכנולוגיה טובה או רעה
מבחינת הכוונות או התוצאות שלה?
05:41
in its intentions or in its effects?
116
341016
2563
05:43
Well, that basically depends on the kind of values you bring to bear
117
343603
4254
ובכן, עקרונית זה תלוי
מהם הערכים לפיהם
05:47
to make these kinds of judgments.
118
347881
2237
עושים שיפוט כזה.
והנה שאלה שלישית:
05:50
So that's a third question:
119
350142
1528
05:51
What values do you use to judge?
120
351694
1528
באיזה ערכים אתם משתמשים כדי לשפוט?
05:53
And speaking of values:
121
353848
1341
ואם מדברים על ערכים,
05:55
I've noticed that in the discussion about moral persuasion online
122
355213
3356
הבחנתי שבדיון של שכנוע מוסרי ברשת,
05:58
and when I'm talking with people,
123
358593
1637
וכשאני מדבר עם אנשים,
06:00
more often than not, there is a weird bias.
124
360254
2667
רוב הפעמים יש הטיה מוזרה.
וההטיה הזו היא שאנחנו שואלים,
06:03
And that bias is that we're asking:
125
363463
2896
06:06
Is this or that "still" ethical?
126
366383
2813
האם זה או ההוא "עדיין" אתיים?
06:09
Is it "still" permissible?
127
369220
2650
האם זה "עדיין" תקין?
06:11
We're asking things like:
128
371894
1198
אנחנו שואלים שאלות כמו,
האם זה טופס התרומה של אוקספאם --
06:13
Is this Oxfam donation form,
129
373116
2189
06:15
where the regular monthly donation is the preset default,
130
375329
3048
בו התרומה החודשית הרגילה היא בררת המחדל
06:18
and people, maybe without intending it,
131
378401
2079
ואנשים, אולי בלי להתכוון,
06:20
are encouraged or nudged into giving a regular donation
132
380504
3812
מעודדים או נדחפים ככה
לתת תרומות קבועות במקום תרומה חד פעמית --
06:24
instead of a one-time donation,
133
384340
1489
06:25
is that "still' permissible?
134
385853
1343
האם זה עדיין תקין?
האם זה עדיין אתי?
06:27
Is it "still" ethical?
135
387220
1363
06:28
We're fishing at the low end.
136
388607
1479
אנחנו מגיעים לתחתית.
אבל למעשה, השאלה הזו
06:30
But in fact, that question, "Is it 'still' ethical?"
137
390879
2474
"האם זה עדיין אתי?"
היא רק דרך אחת להביט באתיקה.
06:33
is just one way of looking at ethics.
138
393377
1781
06:35
Because if you look at the beginning of ethics in Western culture,
139
395182
4892
מפני שאם אתם מביטים בהתחלה של האתיקה
בתרבויות מערביות,
אתם רואים רעיון שונה לגמרי
06:40
you see a very different idea of what ethics also could be.
140
400098
3532
של מה אתיקה יכולה להיות.
06:43
For Aristotle, ethics was not about the question,
141
403970
3997
לאריסטו, אתיקה לא היתה השאלה,
06:47
"Is that still good, or is it bad?"
142
407991
2272
האם זה עדיין טוב, או שזה רע?
06:50
Ethics was about the question of how to live life well.
143
410287
3428
אתיקה נגעה לשאלה של איך לחיות את החיים טוב.
והוא שם את זה במילה "ארטה,"
06:54
And he put that in the word "arête,"
144
414216
2181
שאנחנו, מהלטינית, תרגמנו את "סגולה."
06:56
which we, from [Ancient Greek], translate as "virtue."
145
416421
2755
אבל בעצם היא אומרת מצויינות.
06:59
But really, it means "excellence."
146
419200
1640
07:00
It means living up to your own full potential as a human being.
147
420864
5431
זה אומר לחיות ולמצות את הפוטנציאל המלא שלכם
כבני אדם.
07:06
And that is an idea that, I think,
148
426937
1656
וזה הרעיון
שאני חושב, שפול ריצ'ארד ביוקאנן הכניס באופן יפה למאמר
07:08
Paul Richard Buchanan put nicely in a recent essay,
149
428617
2697
07:11
where he said, "Products are vivid arguments
150
431338
2143
שם הוא אמר, "מוצרים הם ויכוחים ברורים
07:13
about how we should live our lives."
151
433505
2123
על איך אנחנו צריכים לחיות את חיינו."
העיצובים שלנו הם לא אתיים או לא-אתיים
07:16
Our designs are not ethical or unethical
152
436086
2577
07:18
in that they're using ethical or unethical means of persuading us.
153
438687
4590
בזה שהם משתמשים באמצעים אתיים או לא-אתיים כדי לשכנע אותנו.
07:23
They have a moral component
154
443661
1570
יש להם רכיב מוסרי
רק בסוג החזון והשאיפה של החיים הטובים
07:25
just in the kind of vision and the aspiration of the good life
155
445255
4227
שהם מציעים לנו.
07:29
that they present to us.
156
449506
1348
07:31
And if you look into the designed environment around us
157
451441
3503
ואם אתם מביטים לתוך הסביבות המעוצבות סביבנו
07:34
with that kind of lens,
158
454968
1172
עם עדשה מסוג כזה,
07:36
asking, "What is the vision of the good life
159
456164
2453
ושואלים, "מהו החזון של חיים טובים
07:38
that our products, our design, present to us?",
160
458641
2738
שהמוצרים שלנו, העיצובים שלנו, מציגים לנו?",
07:41
then you often get the shivers,
161
461403
2276
ואז הרבה פעמים אתם רועדים,
07:43
because of how little we expect of each other,
162
463703
2328
מכמה מעט ציפינו אחד מהשני,
07:46
of how little we actually seem to expect of our life,
163
466055
3890
מכמה מעט נראה שאנחנו מצפים
מחיינו ואיך החיים הטובים נראים.
07:49
and what the good life looks like.
164
469969
2034
אז זו השאלה הרביעית שהייתי רוצה להשאיר אתכם:
07:53
So that's a fourth question I'd like to leave you with:
165
473110
3023
07:56
What vision of the good life do your designs convey?
166
476157
4362
איזה חזון של החיים הטובים
העיצובים שלכם מעבירים?
08:01
And speaking of design,
167
481249
1372
ואם מדברים על עיצוב,
08:02
you'll notice that I already broadened the discussion,
168
482645
4190
אתם רואים שכבר הרחבתי את הדיון.
08:06
because it's not just persuasive technology that we're talking about here,
169
486859
4444
מפני שזה לא רק טכנולוגית שכנוע שאנחנו מדברים עליה פה,
זה כל פיסה של עיצוב שאתם מוציאים לעולם.
08:11
it's any piece of design that we put out here in the world.
170
491327
4077
08:15
I don't know whether you know
171
495428
1400
אני לא יודע אם אתם מכירים
08:16
the great communication researcher Paul Watzlawick who, back in the '60s,
172
496852
3555
את חוקר מתקשורת הגדול פול ווציטוויק
שבשנות ה60, טען
שאנחנו לא יכולים לא לתקשר.
08:20
made the argument that we cannot not communicate.
173
500431
2511
אפילו אם נבחר לשתוק,
08:22
Even if we choose to be silent, we chose to be silent,
174
502966
2601
אנחנו בוחרים לשתוק. אנחנו מתקשרים משהו בזה שאנחנו בוחרים לשתוק.
08:25
and we're communicating something by choosing to be silent.
175
505591
2956
08:28
And in the same way that we cannot not communicate,
176
508571
2735
ובאותה דרך שאנחנו לא יכולים לא לתקשר,
אנחנו לא יכולים לא לשכנע.
08:31
we cannot not persuade:
177
511330
1531
08:32
whatever we do or refrain from doing,
178
512885
2011
מה שלא נעשה או נמנע מלעשות,
08:34
whatever we put out there as a piece of design, into the world,
179
514920
4365
מה שלא נוציא החוצה כפיסת עיצוב
לעולם
יהיה לו מרכיב שכנועי.
08:39
has a persuasive component.
180
519309
2047
08:41
It tries to affect people.
181
521380
1873
הוא מנסה להשפיע על אנשים,
08:43
It puts a certain vision of the good life out there in front of us,
182
523277
3747
הו שם סוג של חזון של החיים הטובים
שם לפנינו.
שזה מה שפטר פול פרביק,
08:47
which is what Peter-Paul Verbeek,
183
527048
1625
08:48
the Dutch philosopher of technology, says.
184
528697
2716
הפילוסוף ההולנדי של הטכנולוגיה, אומר.
לא משנה אם אנחנו כמעצבים מתכוונים לזה או לא,
08:51
No matter whether we as designers intend it or not,
185
531437
3948
08:55
we materialize morality.
186
535409
2142
אנחנו ממשים מוסריות.
08:57
We make certain things harder and easier to do.
187
537575
2803
אנחנו הופכים דברים מסויימים לקשים או קלים יותר לעשיה.
09:00
We organize the existence of people.
188
540402
2211
אנחנו מארגנים את הקיום של אנשים.
09:02
We put a certain vision
189
542637
1151
אנחנו שמים סוג של חזון של מה טוב או מה רע
09:03
of what good or bad or normal or usual is
190
543812
3404
או נורמלי או רגיל לפני אנשים
09:07
in front of people,
191
547240
1151
09:08
by everything we put out there in the world.
192
548415
2400
על ידי כל דבר שאנחנו שמים שם בחוץ בעולם.
אפילו משהו רגיל כמו סט של כיסאות בית ספר
09:11
Even something as innocuous as a set of school chairs
193
551247
3086
09:14
is a persuasive technology,
194
554357
2047
הוא טכנולוגיה משכנעת.
מפני שזה מציג וממחיש
09:16
because it presents and materializes a certain vision of the good life --
195
556428
4690
סוג של חזון של החיים הטובים --
החיים הטובים בהם הוראה ולמידה והקשבה
09:21
a good life in which teaching and learning and listening
196
561142
2857
09:24
is about one person teaching, the others listening;
197
564023
3099
הם אדם אחד מלמד, והאחרים מקשיבים,
בהם זה נוגע, לימוד נעשה בישיבה,
09:27
in which it is about learning-is-done-while-sitting;
198
567146
4053
בה אתם לומדים בעצמכם,
09:31
in which you learn for yourself;
199
571223
1595
09:32
in which you're not supposed to change these rules,
200
572842
2420
בה אתם לא אמורים לשנות את החוקים האלה
09:35
because the chairs are fixed to the ground.
201
575286
2447
מפני שהכסאות מקובעים לרצפה.
09:38
And even something as innocuous as a single-design chair,
202
578888
2911
ואפילו משהו פשוט כמו כיסא מעוצב אחד --
09:41
like this one by Arne Jacobsen,
203
581823
1572
כמו זה של ארנה ג'ייקובסון --
09:43
is a persuasive technology,
204
583419
1776
בטכנולוגיה שיכנועית.
מפני, ששוב, זה מעביר את הרעיון של חיים טובים.
09:45
because, again, it communicates an idea of the good life:
205
585219
3043
09:48
a good life -- a life that you, as a designer, consent to by saying,
206
588735
4925
חיים טובים --
חים שאתם אומרים שאתם כמעצבים מסכימים
כשאתם אומרים, "בחיים הטובים,
09:53
"In a good life, goods are produced as sustainably or unsustainably
207
593684
3507
מוצרים מיוצרים כברי קיימא או לא ברי קיימא כמו הכיסא הזה.
09:57
as this chair.
208
597215
1611
09:58
Workers are treated as well or as badly
209
598850
1977
מתייחסים לעובדים טוב או רע
10:00
as the workers were treated that built that chair."
210
600851
2572
כמו שהתייחסו לעובדים שבנו את הכסא הזה."
10:03
The good life is a life where design is important
211
603762
2301
החיים הטובים הם חיים בהם עיצוב הוא חשוב
מפני שברור שמישהו השקיע את הזמן ואת הכסף
10:06
because somebody obviously took the time and spent the money
212
606087
2921
על סוג כזה של כיסא מעוצב היטב,
10:09
for that kind of well-designed chair;
213
609032
1784
10:10
where tradition is important,
214
610840
1404
שם מסורתי הוא חשוב
מפני שזה קלאסיקה מסורתית
10:12
because this is a traditional classic and someone cared about this;
215
612268
3166
ולמישהו היה אכפת מזה,
וכשיש משהו כמו צריכה ניכרת,
10:15
and where there is something as conspicuous consumption,
216
615458
2690
שם זה בסדר ונורמלי
10:18
where it is OK and normal to spend a humongous amount of money
217
618172
2956
לבזבז כמויות עצומות של כסף על כזה כיסא
10:21
on such a chair,
218
621152
1151
כדי לאותת לאנשים אחרים מה הסטטוס הסוציאלי שלכם.
10:22
to signal to other people what your social status is.
219
622327
2573
10:24
So these are the kinds of layers, the kinds of questions
220
624924
3317
אז אלה סוגים של שכבות, סוג השאלות
10:28
I wanted to lead you through today;
221
628265
1970
שרציתי להעביר אותכם דרכן היום --
השאלה של, מה הכוונות
10:30
the question of: What are the intentions that you bring to bear
222
630259
3034
שאתם מביאים כשאתם מעצבים משהו?
10:33
when you're designing something?
223
633317
1560
10:34
What are the effects, intended and unintended, that you're having?
224
634901
3252
מה ההשלכות, מכוונות או לא, שיש לכם?
מה הערכים בהם אתם משתמשים בהם
10:38
What are the values you're using to judge those?
225
638177
2801
כדי לשפוט את אלה?
מה המעלות, השאיפות
10:41
What are the virtues, the aspirations
226
641002
1973
10:42
that you're actually expressing in that?
227
642999
2028
שאתם מבטאים בזה?
10:45
And how does that apply,
228
645400
1857
ואיך זה משפיע,
10:47
not just to persuasive technology,
229
647281
1986
לא רק על טכנולוגיה שכנועית,
10:49
but to everything you design?
230
649291
2048
אלא לכל דבר שאתם מעצבים?
10:51
Do we stop there?
231
651912
1291
האם אנחנו עוצרים פה?
10:53
I don't think so.
232
653815
1167
אני לא חושב.
10:55
I think that all of these things are eventually informed
233
655291
4438
אני חושב שכל הדברים האלה הם בסופו של דבר מודעים
10:59
by the core of all of this,
234
659753
1423
על ידי כל זה --
11:01
and this is nothing but life itself.
235
661200
3091
וזה כלום חוץ מהחיים עצמם.
11:04
Why, when the question of what the good life is
236
664594
2717
למה, כשהשאלה של מה הם החיים הטובים
11:07
informs everything that we design,
237
667335
2339
מידעת כל דבר שנחנו מעצבים,
11:09
should we stop at design and not ask ourselves:
238
669698
2794
האם אנחנו עוצרים בעיצוב ולא שואלים את עצמנו,
11:12
How does it apply to our own life?
239
672516
1990
איך זה משפיע על החיים שלנו?
11:14
"Why should the lamp or the house be an art object,
240
674881
2712
"למה המנורה או הבית צריכים להיות אובייקט אומנות,
11:17
but not our life?"
241
677617
1176
אבל לא חיינו?"
11:18
as Michel Foucault puts it.
242
678817
1483
כמו שמישל פוקו אומר את זה.
11:20
Just to give you a practical example of Buster Benson.
243
680696
3611
רק לתת לכם דוגמה פרקטית של באסטר בנסון.
11:24
This is Buster setting up a pull-up machine
244
684331
2258
זה באסטר יושב על כיסא נמשך
11:26
at the office of his new start-up, Habit Labs,
245
686613
2612
במשרד של הסטארט אפ החדש שלו מעבדות ההרגל,
שם הם מנסים לבנות אפליקציות אחרות
11:29
where they're trying to build other applications like "Health Month"
246
689249
3215
כו חודש בריאות לאנשים.
11:32
for people.
247
692488
1158
ולמה הוא בונה משהו כזה?
11:33
And why is he building a thing like this?
248
693670
1962
11:35
Well, here is the set of axioms
249
695656
2033
ובכן הנה סט של אקסיומות
11:37
that Habit Labs, Buster's start-up, put up for themselves
250
697713
3398
שמעבדות ההרגל, הסטרט אפ של באסטר, העלו בעצמם
על איך הם רצו לעבוד יחד כצוות
11:41
on how they wanted to work together as a team
251
701135
2705
11:43
when they're building these applications --
252
703864
2029
כשהם בונים את האפליקציות האלה --
11:45
a set of moral principles they set themselves
253
705917
2189
סט של עקרונות מוסריים שהם יצרו בעצמם
לעבודה יחד --
11:48
for working together --
254
708130
1361
11:49
one of them being,
255
709515
1238
ואחד מהם היה,
11:50
"We take care of our own health and manage our own burnout."
256
710777
3087
"אנחנו דואגים לבריאות של עצמנו ומנהלים את סדר היום שלנו."
מפני שבסופו של דבר איך אתם יכולים לשאול את עצמכם
11:54
Because ultimately, how can you ask yourselves
257
714221
3500
11:57
and how can you find an answer on what vision of the good life
258
717745
3930
ואיך אתם יכולים למצוא את התשובה
על איזה חזון של חיים טובים
12:01
you want to convey and create with your designs
259
721699
3169
אתם רוצים להעביר וליצור עם העיצובים שלכם
12:04
without asking the question:
260
724892
1730
בלי לשאול את השאלה,
12:06
What vision of the good life do you yourself want to live?
261
726646
3832
איזה חזון של החיים הטובים
אתם עצמכם רוצים לחיות?
ועם זה, אני מודה לכם.
12:11
And with that,
262
731018
1174
12:12
I thank you.
263
732945
1412
12:14
(Applause)
264
734381
4156
(מחיאות כפיים)
על אתר זה

אתר זה יציג בפניכם סרטוני YouTube המועילים ללימוד אנגלית. תוכלו לראות שיעורי אנגלית המועברים על ידי מורים מהשורה הראשונה מרחבי העולם. לחץ פעמיים על הכתוביות באנגלית המוצגות בכל דף וידאו כדי להפעיל את הסרטון משם. הכתוביות גוללות בסנכרון עם הפעלת הווידאו. אם יש לך הערות או בקשות, אנא צור איתנו קשר באמצעות טופס יצירת קשר זה.

https://forms.gle/WvT1wiN1qDtmnspy7