Sebastian Deterding: What your designs say about you

33,131 views ・ 2012-05-31

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: Khaled M. Abdel-Gawad المدقّق: khalid marbou
00:15
We are today talking about moral persuasion:
0
15651
2586
نحن نتحدث اليوم عن الإقناع الأخلاقي.
00:18
What is moral and immoral in trying to change people's behaviors
1
18261
3982
ما هو "الأخلاقي" و "الغير أخلاقي"
في محاولة تغيير سلوكيات الناس
00:22
by using technology and using design?
2
22267
2453
عن طريق استخدام التكنولوجيا واستخدام التصميم؟
00:24
And I don't know what you expect,
3
24744
1832
وأنا لا أعلم ماذا يمكن أن تتوقعوه،
00:26
but when I was thinking about that issue,
4
26600
1953
لكنني عندما كنت أفكر في تلك المسألة،
00:28
I early on realized what I'm not able to give you are answers.
5
28577
4039
أدركت مبكرا
أن ما لا أستطيع تقديمه لكم هو الإجابات.
00:33
I'm not able to tell you what is moral or immoral,
6
33203
2771
أنني لا أستطيع أن أقول لكم ماهو "الأخلاقي" أو "غير الأخلاقي"
00:35
because we're living in a pluralist society.
7
35998
2547
ذلك لأننا نعيش في مجتمع تعددي.
00:38
My values can be radically different from your values,
8
38569
4242
يمكن لقيمي أن تكون مختلفة بشكل جذري
عن قيمكم.
00:42
which means that what I consider moral or immoral based on that
9
42835
3177
مما يعني استنادا لذلك ، أن ما أعتبره انا أخلاقيا أو غير أخلاقي
00:46
might not necessarily be what you consider moral or immoral.
10
46036
3612
قد لا يكون بالضرورة مماثلا لما تعتبرونه أنتم أخلاقيا أو غير أخلاقي.
لكنني أيضا أدركت أن هناك شيء واحد أستطيع أن أقدمه لكم.
00:50
But I also realized there is one thing that I could give you,
11
50029
3214
وهو الشيء الذي قدمه الشخص الذي خلفي هنا إلى العالم
00:53
and that is what this guy behind me gave the world --
12
53267
2533
00:55
Socrates.
13
55824
1150
"سقراط"
00:56
It is questions.
14
56998
1395
وهي عبارة عن أسئلة.
00:58
What I can do and what I would like to do with you
15
58417
2633
ما أستطيع فعله، والذي أود أن أفعله معكم
هو أن أعطيكم متل ذلك السؤال الأولي،
01:01
is give you, like that initial question,
16
61074
1945
مجموعة من الأسئلة
01:03
a set of questions to figure out for yourselves,
17
63043
3410
لتكتشفوا بأنفسكم،
01:06
layer by layer, like peeling an onion,
18
66477
3641
طبقة بعد طبقة،
مثل تقشير بصلة،
لتصلوا إلى جوهر ما تعتقدون أنتم
01:10
getting at the core of what you believe is moral or immoral persuasion.
19
70142
5020
أنه إقناع أخلاقي أو غير أخلاقي.
01:15
And I'd like to do that with a couple of examples of technologies
20
75559
4041
وأود أن أفعل ذلك عن طريق بعض الأمثلة
التكنولوجية، حيث استخدم الناس عناصر ألعاب
01:19
where people have used game elements to get people to do things.
21
79624
4980
لحمل أناس على فعل أشياء ما.
لذا، فهو سؤال أولي بسيط وبديهي
01:25
So it's at first a very simple, very obvious question
22
85343
3040
01:28
I would like to give you:
23
88407
1196
أود أن أطرحه عليك:
01:29
What are your intentions if you are designing something?
24
89627
2687
ما هي نواياكم إذا كنتم تقومون بتصميم شيء ما؟
01:32
And obviously, intentions are not the only thing,
25
92668
3373
وبوضوح، فإن النوايا ليست هي الشيء الوحيد هنا،
إذا، هنا مثال آخر لأحد هذه التطبيقات.
01:36
so here is another example for one of these applications.
26
96065
3178
01:39
There are a couple of these kinds of Eco dashboards right now --
27
99267
3087
هناك بعض من هذه "اللوحات البيئية" حاليا --
وهي لوحات مدمجة داخل السيارات
01:42
dashboards built into cars --
28
102378
1460
01:43
which try to motivate you to drive more fuel-efficiently.
29
103862
2832
والتي تحاول تحفيزك لتقود بشكل أكثر كفاءة من حيث استهلاك الوقود.
01:46
This here is Nissan's MyLeaf,
30
106718
1773
هذه هنا سيارة "نيسان - ماي ليف" (Nissan - MyLeaf)
01:48
where your driving behavior is compared with the driving behavior
31
108515
3064
حيث يتم مقارنة أسلوبك في القيادة
مع أسلوب قيادة أناس آخرين،
01:51
of other people,
32
111603
1151
01:52
so you can compete for who drives a route the most fuel-efficiently.
33
112778
3277
فباستطاعتكم التنافس حول من يقود
بأسلوب أكثر كفاءة في استهلاق الوقود.
وهذه الأشياء تبين أنها مؤثرة جدا،
01:56
And these things are very effective, it turns out --
34
116079
2477
مؤثرة جدا لدرجة أنها تحفز الناس
01:58
so effective that they motivate people to engage in unsafe driving behaviors,
35
118580
3939
لينخرطوا في أساليب قيادة غير آمنة --
02:02
like not stopping at a red light,
36
122543
1762
مثل عدم التوقف عند إشارة حمراء.
02:04
because that way you have to stop and restart the engine,
37
124329
2715
وذلك بسبب أنه، سوف يستلزمك إبطال المحرك ثم إعادة تشغيله.
وذلك قد يتسبب في استهلاك بعض الوقود، أليس كذلك؟
02:07
and that would use quite some fuel, wouldn't it?
38
127068
2723
02:10
So despite this being a very well-intended application,
39
130338
4409
لذلك فعلى الرغم من كونه تطبيق حسن النية جدا،
02:14
obviously there was a side effect of that.
40
134771
2375
فبشكل واضح، كانت له أعراض جانبية.
02:17
Here's another example for one of these side effects.
41
137170
2548
وهنا مثال آخر لأحد تلك الأعراض الجانبية.
02:19
Commendable: a site that allows parents to give their kids little badges
42
139742
4784
Commendable = (جدير بالثناء)
وهو موقع إلكتروني يتيح للآباء منح "شارات" لأبنائهم
02:24
for doing the things that parents want their kids to do,
43
144550
2658
في مقابل فعلهم للأشياء التي يريدها آباؤهم منهم فعلها ..
كربط أحذيتهم مثلا.
02:27
like tying their shoes.
44
147232
1316
02:28
And at first that sounds very nice,
45
148572
2244
وفي بداية ذلك، يبدو ذلك لطيفا جدا،
02:30
very benign, well-intended.
46
150840
2150
وحميدا جدا وحسن النية.
ولكن يتبين عندما تلقي نظرة على أبحاث عن عقليات الناس،
02:33
But it turns out, if you look into research on people's mindset,
47
153014
3770
02:36
caring about outcomes,
48
156808
1487
الذين يهتمون بعوائد ذلك،
02:38
caring about public recognition,
49
158319
1773
الذين يهتمون بـ "التقدير الشعبي" لهم.
02:40
caring about these kinds of public tokens of recognition
50
160116
3861
الذين يهتمون بهذه النوعية من علامات "التقدير الشعبي"
أن ذلك ليس بالضرورة مفيدا جدا
02:44
is not necessarily very helpful
51
164001
1994
02:46
for your long-term psychological well-being.
52
166019
2307
من أجل "سلامتك النفسية" على المدى البعيد.
02:48
It's better if you care about learning something.
53
168350
2676
الأفضل من ذلك أن تتعلم شيئا ما.
02:51
It's better when you care about yourself
54
171050
1905
من الأفضل اهتمامك بنفسك
02:52
than how you appear in front of other people.
55
172979
2574
عن اهتمامك بكيفية ظهورك أمام الناس.
هكذا فإن ذلك النوع المستعمل من أدوات التحفيز
02:56
So that kind of motivational tool that is used actually, in and of itself,
56
176021
5041
في حد ذاته
له أعراض جانبية طويلة الأمد
03:01
has a long-term side effect,
57
181086
1908
03:03
in that every time we use a technology
58
183018
1810
وبذلك فإن كل مرة نستخدم تكنولوجيا
03:04
that uses something like public recognition or status,
59
184852
3174
تعتمد على شيء مثل "التقدير الشعبي" أو "الحالة"
03:08
we're actually positively endorsing this
60
188050
2376
فإننا في الحقيقة بذلك، نؤيدها إيجابيا
03:10
as a good and normal thing to care about --
61
190450
3410
كشيء جيد وطبيعي الاهتمام به..
03:13
that way, possibly having a detrimental effect
62
193884
2864
بهذه الطريقة، محتمل أن يكون له تأثير مؤذ
03:16
on the long-term psychological well-being of ourselves as a culture.
63
196772
3855
على "سلامتنا النفسية" - كحضارة - على المدى البعيد.
03:20
So that's a second, very obvious question:
64
200651
2644
لذا هذا ثاني سؤال بديهي :
03:23
What are the effects of what you're doing --
65
203319
2311
ما هي تأثيرات ما تفوم به؟
03:25
the effects you're having with the device, like less fuel,
66
205654
4124
التأثيرات التي تحدثها بالآلة،
مثل "وقود أقل"
03:29
as well as the effects of the actual tools you're using
67
209802
2705
وكذلك تأثيرات الأدوات التي تستعملها
03:32
to get people to do things --
68
212531
1674
لحمل الناس على فعل أشياء معينة --
03:34
public recognition?
69
214229
1571
التقدير الشعبي.
03:35
Now is that all -- intention, effect?
70
215824
2921
الآن، هل هذا كل شيء -- النوايا والتأثيرات؟
03:38
Well, there are some technologies which obviously combine both.
71
218769
3134
حسنا هناك بعض التكنولوجيا
التي بوضوح، تضم كلا الأمرين.
03:41
Both good long-term and short-term effects
72
221927
2787
كلا من التأثيرات الجيدة طويلة وقصيرة المدى
03:44
and a positive intention like Fred Stutzman's "Freedom,"
73
224738
2809
و النية الحسنة مثل تطبيق "فريدوم" لـفريد ستاتزمان
03:47
where the whole point of that application is --
74
227571
2207
حيث الهدف الأساسي من التطبيق
هو، حسنا، نحن عادة يتم قصفنا
03:49
well, we're usually so bombarded with constant requests by other people,
75
229802
3725
بوابل من مكالمات من أناس آخرين،
03:53
with this device,
76
233551
1156
عن طريق هذه الأداة تستطيع قطع اتصال الانترنت
03:54
you can shut off the Internet connectivity of your PC of choice
77
234731
3480
عن جهاز الكمبيوتر باختيارك مقدار من الوقت معين مسبقا
03:58
for a pre-set amount of time,
78
238235
1448
03:59
to actually get some work done.
79
239707
1971
لإنجاز بعض العمل بالفعل.
04:01
And I think most of us will agree that's something well-intended,
80
241702
3151
وأنا أعتقد أن أغلبيتنا سوف توافق،
حسنا.. هذا أمر حسن النية بالفعل
04:04
and also has good consequences.
81
244877
2220
وله أيضا نتائج حميدة.
على حد تعبير "ميشيل فوكو"،
04:07
In the words of Michel Foucault,
82
247121
1646
04:08
it is a "technology of the self."
83
248791
1940
"إنها تكنولوجيا من أجل الذات"
04:10
It is a technology that empowers the individual
84
250755
2837
إنها تكنولوجيا تمكن الفرد
04:13
to determine its own life course,
85
253616
1815
من تحديد مسار حياته بذاته.
04:15
to shape itself.
86
255455
1519
لتشكيل ذاته.
04:17
But the problem is, as Foucault points out,
87
257410
2984
لكن المشكلة هي،
كما يشير "فوكو" إليها
04:20
that every technology of the self
88
260418
1785
أن كل تكنولوجيا للذات
04:22
has a technology of domination as its flip side.
89
262227
3445
لديها تكنولوجيا للسيطرة في جانبها الآخر.
04:25
As you see in today's modern liberal democracies,
90
265696
4603
كما ترى في الديموقراطيات التحررية اليوم،
المجتمع والدولة
04:30
the society, the state, not only allows us to determine our self,
91
270323
4683
لا تسمح لنا فقط بتحديد ذواتنا وتشكيل ذواتنا،
04:35
to shape our self,
92
275030
1151
04:36
it also demands it of us.
93
276205
1991
بل تطلب أيضا منا ذلك.
إنها تطب منا أن نحسن ذواتنا،
04:38
It demands that we optimize ourselves,
94
278220
1961
04:40
that we control ourselves,
95
280205
1840
أن نتحكم في ذواتنا،
أن ندير الذات باستمرار
04:42
that we self-manage continuously,
96
282069
2711
04:44
because that's the only way in which such a liberal society works.
97
284804
3893
لأن هذا هو السبيل الوحيد
لاستمرار مجتمع تحرري مماثل.
04:48
These technologies want us to stay in the game
98
288721
4268
هذه التكنولوجيا تريد منا أن نظل داخل اللعبة
04:53
that society has devised for us.
99
293013
2773
التي ابتكرها لنا المجتمع.
04:55
They want us to fit in even better.
100
295810
2287
تريد منا أن نلائمه بشكل أفضل.
04:58
They want us to optimize ourselves to fit in.
101
298121
2578
تريد منا أن نطور ذواتنا لنلائمه.
الآن أنا لا أقول أن هذا بالضرورة شيء سيء.
05:01
Now, I don't say that is necessarily a bad thing;
102
301628
3079
أنا فقط أعتقد ان هذا المثال
05:05
I just think that this example points us to a general realization,
103
305293
4328
يرشدنا إلى إدراك عام،
05:09
and that is: no matter what technology or design you look at,
104
309645
3803
وأنه أيا كان ما تعاينه من تكنولوجيا أو تصميم،
05:13
even something we consider as well-intended
105
313472
3021
حتى إذا كان شيئا نعتبره حسن النية بقدر ما هو حميد التأثير ..
05:16
and as good in its effects as Stutzman's Freedom,
106
316517
2966
مثل تطبيق "فريدوم" لستاتزمان --
05:19
comes with certain values embedded in it.
107
319507
2707
يأتي بقيم معينة مدمجة داخله.
05:22
And we can question these values.
108
322238
1936
ونحن باستطاعتنا التساؤل عن هذه القيم.
نستطيع التساؤل: هل هو شيء جيد
05:24
We can question: Is it a good thing
109
324198
1944
أن جميعنا باستمرار، نقوم بتحسين ذواتنا
05:26
that all of us continuously self-optimize ourselves
110
326166
3484
05:29
to fit better into that society?
111
329674
2011
لنلائم المجتمع بشكل أكبر؟
05:31
Or to give you another example:
112
331709
1492
أو لإعطائكم مثال آخر،
05:33
What about a piece of persuasive technology
113
333225
2476
ماذا عن نموذج من تكنولوجيا الإقناع
التي تقوم بـإقناع النساء المسلمات على ارتداء الحجاب؟
05:35
that convinces Muslim women to wear their headscarves?
114
335725
3191
05:38
Is that a good or a bad technology
115
338940
2052
هل هي تكنولوجيا حميدة أم خبيثة
فيما يخص نواياها أو تأثيراتها؟
05:41
in its intentions or in its effects?
116
341016
2563
05:43
Well, that basically depends on the kind of values you bring to bear
117
343603
4254
حسنا، هذا بالأساس يعتمد
على نوع القيم التي تقوم بتطبيقها
05:47
to make these kinds of judgments.
118
347881
2237
لاتخاذ هذا النوع من الأحكام؟
إذا، ذلك سؤال ثالث:
05:50
So that's a third question:
119
350142
1528
05:51
What values do you use to judge?
120
351694
1528
ما القيم التي تستخدمها للحكم؟
05:53
And speaking of values:
121
353848
1341
وبالحديث عن القيم،
05:55
I've noticed that in the discussion about moral persuasion online
122
355213
3356
قد لاحظت في المناقشات حول الحث الأخلاقي على الانترنت،
05:58
and when I'm talking with people,
123
358593
1637
وعند حديثي مع الناس،
06:00
more often than not, there is a weird bias.
124
360254
2667
أن في أغلب الأحيان هناك تحيز غريب.
وذلك التحيز هو أننا نسأل
06:03
And that bias is that we're asking:
125
363463
2896
06:06
Is this or that "still" ethical?
126
366383
2813
هل "يظل" هذا أو ذاك أخلاقيا؟
06:09
Is it "still" permissible?
127
369220
2650
هل "يظل" مباحا؟
06:11
We're asking things like:
128
371894
1198
نحن نسأل أسئلة مثل،
هل هذه الاستمارة للتبرع لمؤسسة "أوكسفام" --
06:13
Is this Oxfam donation form,
129
373116
2189
06:15
where the regular monthly donation is the preset default,
130
375329
3048
حيث التبرع الشهري الاعتيادي هو الاختيار الافتراضي
06:18
and people, maybe without intending it,
131
378401
2079
والناس، ربما بدون نية منهم،
06:20
are encouraged or nudged into giving a regular donation
132
380504
3812
بهذه الطريقة يتم تشجيعهم أو حثهم
لتقديم تبرع بشكل شهري اعتيادي ، بدل التبرع لمرة واحدة --
06:24
instead of a one-time donation,
133
384340
1489
06:25
is that "still' permissible?
134
385853
1343
هل يظل ذلك مباحا؟
هل يظل هذا أخلاقيا؟
06:27
Is it "still" ethical?
135
387220
1363
06:28
We're fishing at the low end.
136
388607
1479
نحن نصطاد في الطرف المنخفض.
لكن في الحقيقة، ذلك السؤال
06:30
But in fact, that question, "Is it 'still' ethical?"
137
390879
2474
"هل يظل ذلك مراعيا للأخلاقيات؟"
هو مجرد طريقة واحدة للنظر إلى الأخلاقيات.
06:33
is just one way of looking at ethics.
138
393377
1781
06:35
Because if you look at the beginning of ethics in Western culture,
139
395182
4892
لأنك إذا نظرت إلى بدايات الاخلاقيات
في الحضارة الغربية،
تجد فكرة مختلفة تماما
06:40
you see a very different idea of what ethics also could be.
140
400098
3532
عما يمكن أن تكون عليه الأخلاقيات.
06:43
For Aristotle, ethics was not about the question,
141
403970
3997
بالنسبة لـ "أرسطو"، الأخلاقيات لم تكن متعلقة بسؤال،
06:47
"Is that still good, or is it bad?"
142
407991
2272
ما إذا ظل هذا حميدا أم خبيثا.
06:50
Ethics was about the question of how to live life well.
143
410287
3428
الأخلاقيات تتعلق بالتساؤل عن كيفية عيش الحياة جيدا.
ووضع ذلك في كلمة "arete"
06:54
And he put that in the word "arête,"
144
414216
2181
التي نترجمها -عن الإغريقية القديمة- إلى "virtue = فضيلة"
06:56
which we, from [Ancient Greek], translate as "virtue."
145
416421
2755
لكنها حقيقة تعني الامتياز.
06:59
But really, it means "excellence."
146
419200
1640
07:00
It means living up to your own full potential as a human being.
147
420864
5431
تعني الحياة وفقا لإمكانياتك بأكملها
كإنسان.
07:06
And that is an idea that, I think,
148
426937
1656
وهذه فكرة
في اعتقادي، أن "بول ريتشارد بوكانان" وضعها مؤخرا في طرحه
07:08
Paul Richard Buchanan put nicely in a recent essay,
149
428617
2697
07:11
where he said, "Products are vivid arguments
150
431338
2143
حيث قال، "المنتجات هي براهين حية
07:13
about how we should live our lives."
151
433505
2123
عن كيف يجب أن نحيا حياتنا".
منتجاتنا ليست بأخلاقية أو غير الاخلاقية
07:16
Our designs are not ethical or unethical
152
436086
2577
07:18
in that they're using ethical or unethical means of persuading us.
153
438687
4590
باستخدامها لأساليب أخلاقية أو غير أخلاقية في حثها لنا.
07:23
They have a moral component
154
443661
1570
لديها مكون أخلاقي
فقط في ذلك النوع من التصور والتطلع للحياة الجيدة
07:25
just in the kind of vision and the aspiration of the good life
155
445255
4227
التي تقدمه لنا.
07:29
that they present to us.
156
449506
1348
07:31
And if you look into the designed environment around us
157
451441
3503
وإذا نظرتم إلى البيئة المصممة حولنا
07:34
with that kind of lens,
158
454968
1172
بهذا النوع من العدسات،
07:36
asking, "What is the vision of the good life
159
456164
2453
متسائلين، "ما هو تصور الحياة الجيدة
07:38
that our products, our design, present to us?",
160
458641
2738
الذي تقدمه لنا منتجاتنا أو تصميماتنا؟" ،
07:41
then you often get the shivers,
161
461403
2276
حينها غالبا ما تنتابك رعشات،
07:43
because of how little we expect of each other,
162
463703
2328
بسبب ضآلة ما نتوقعه من بعضنا البعض،
07:46
of how little we actually seem to expect of our life,
163
466055
3890
بسبب ضآلة ما يبدو فعلا أننا نتوقعه
من حياتنا وما الذي تبدو عليه الحياة الجيدة.
07:49
and what the good life looks like.
164
469969
2034
إذا ، هذا هو السؤال الرابع الذي أود أن أتركه لكم:
07:53
So that's a fourth question I'd like to leave you with:
165
473110
3023
07:56
What vision of the good life do your designs convey?
166
476157
4362
ما هو تصور الحياة الجيدة
الذي تحمله تصميماتك؟
08:01
And speaking of design,
167
481249
1372
وبالحديث عن التصميم،
08:02
you'll notice that I already broadened the discussion,
168
482645
4190
تلاحظ أنني بالفعل وسعت النقاش.
08:06
because it's not just persuasive technology that we're talking about here,
169
486859
4444
بسبب أنها ليست فقط تكنولوجيا الإقناع هي التي نتحدث عنها هنا،
بل هو أي تصميم نخرجه إلى العالم.
08:11
it's any piece of design that we put out here in the world.
170
491327
4077
08:15
I don't know whether you know
171
495428
1400
لا أعلم إذا كنتم تعرفون
08:16
the great communication researcher Paul Watzlawick who, back in the '60s,
172
496852
3555
باحث الاتصالات العظيم "بول فاتسلافيك"
الذي قام في الستينيات بإثبات
أننا لا نستطيع "عدم التواصل"
08:20
made the argument that we cannot not communicate.
173
500431
2511
حتى وإن اخترنا أن نبقى صامتين،
08:22
Even if we choose to be silent, we chose to be silent,
174
502966
2601
نختار الصمت. نحن نتواصل مع شيء ما عبر اختيارنا أن نكون صامتين.
08:25
and we're communicating something by choosing to be silent.
175
505591
2956
08:28
And in the same way that we cannot not communicate,
176
508571
2735
وبنفس منطلق أننا لا نستطيع "عدم التواصل"،
فنحن لا نستطيع "عدم الحث".
08:31
we cannot not persuade:
177
511330
1531
08:32
whatever we do or refrain from doing,
178
512885
2011
أيا كان ما نفعله أو نمتنع عن فعله،
08:34
whatever we put out there as a piece of design, into the world,
179
514920
4365
أيا كان ما نخرجه على أنه تصميم ما
إلى العالم
يحمل مكونا للحث.
08:39
has a persuasive component.
180
519309
2047
08:41
It tries to affect people.
181
521380
1873
يحاول أن يؤثرعلى الناس.
08:43
It puts a certain vision of the good life out there in front of us,
182
523277
3747
يضع تصورا معين للحياة الجيدة
أمامنا هناك.
وهو ما قام "بيتر-باول فيربيك"،
08:47
which is what Peter-Paul Verbeek,
183
527048
1625
08:48
the Dutch philosopher of technology, says.
184
528697
2716
فيلسوف التكنولوجيا الهولندي، بقوله.
مهما اعتزمنا نحن كمصممين أم لم نعتزم ذلك،
08:51
No matter whether we as designers intend it or not,
185
531437
3948
08:55
we materialize morality.
186
535409
2142
فإننا نجسد الأخلاقيات.
08:57
We make certain things harder and easier to do.
187
537575
2803
نجعل عمل أشياء معينة أصعب أو أسهل .
09:00
We organize the existence of people.
188
540402
2211
نحن ننظم كينونة الناس.
09:02
We put a certain vision
189
542637
1151
نحن نضع تصورا معينا عما هو جيد أو سيء
09:03
of what good or bad or normal or usual is
190
543812
3404
أو عادي أو اعتيادي أمام الناس
09:07
in front of people,
191
547240
1151
09:08
by everything we put out there in the world.
192
548415
2400
بواسطة كل شيء نخرجه إلى العالم.
حتى لو كانت أشياء عديمة الضرر كمجموعة من الكراسي المدرسية
09:11
Even something as innocuous as a set of school chairs
193
551247
3086
09:14
is a persuasive technology,
194
554357
2047
فإنها تكنولوجيا حاثة،
لأنها تقدم وتجسد
09:16
because it presents and materializes a certain vision of the good life --
195
556428
4690
تصورا معينا للحياة الجيدة --
الحياة الجيدة في كيفية أن التدريس والتعلم والاستماع
09:21
a good life in which teaching and learning and listening
196
561142
2857
09:24
is about one person teaching, the others listening;
197
564023
3099
متعلق بشخص واحد يُدرس، والآخرين يستمعون.
في كيفية أن ، التعلم يتم أثناء الجلوس،
09:27
in which it is about learning-is-done-while-sitting;
198
567146
4053
في كيفية أنك تتعلم لنفسك،
09:31
in which you learn for yourself;
199
571223
1595
09:32
in which you're not supposed to change these rules,
200
572842
2420
في كيفية أنك لا ينبغي أن تغير هذه القواعد
09:35
because the chairs are fixed to the ground.
201
575286
2447
لأن الكراسي مثبتة في الأرض.
09:38
And even something as innocuous as a single-design chair,
202
578888
2911
وحتى شيء عديم الضرر مثل كرسي تصميم منفرد --
09:41
like this one by Arne Jacobsen,
203
581823
1572
كهذا الذي صممه "آرني ياكوبسون" --
09:43
is a persuasive technology,
204
583419
1776
هو تكنولوجية حاثة.
بسبب أنه، مجددا، يبعث بتصور عن الحياة الجيدة.
09:45
because, again, it communicates an idea of the good life:
205
585219
3043
09:48
a good life -- a life that you, as a designer, consent to by saying,
206
588735
4925
حياة جيدة --
حياة تقول أنك كمصمم تتفق
مع قولك، "في الحياة الجيدة،
09:53
"In a good life, goods are produced as sustainably or unsustainably
207
593684
3507
السلع يتم إنتاجها بطريقة مستديمة أو غير مستديمة بقدر هذا الكرسي.
09:57
as this chair.
208
597215
1611
09:58
Workers are treated as well or as badly
209
598850
1977
العمال تتم معاملتهم بقدر الحسن أو السوء
10:00
as the workers were treated that built that chair."
210
600851
2572
الذي عومل به العمال اللذين صنعوا هذا الكرسي".
10:03
The good life is a life where design is important
211
603762
2301
الحياة الجيدة هي حياة حيث التصميم أمر مهم
لأن شخص ما بوضوح بذل من وقته وأنفق من ماله
10:06
because somebody obviously took the time and spent the money
212
606087
2921
من أجل هذا الكرسي المصمم بعناية.
10:09
for that kind of well-designed chair;
213
609032
1784
10:10
where tradition is important,
214
610840
1404
حيث التقاليد مهمة.
لأن هذا كلاسيكي تقليدي
10:12
because this is a traditional classic and someone cared about this;
215
612268
3166
وشخص ما اهتم بذلك،
وحيث يوجد شيء كاستهلاك واضح،
10:15
and where there is something as conspicuous consumption,
216
615458
2690
حيث من المسموح والعادي
10:18
where it is OK and normal to spend a humongous amount of money
217
618172
2956
أن تنفق كم هائل من المال مقابل كرسي مماثل
10:21
on such a chair,
218
621152
1151
للإشارة أمام الآخرين إلى ماهية وضعك الاجتماعي.
10:22
to signal to other people what your social status is.
219
622327
2573
10:24
So these are the kinds of layers, the kinds of questions
220
624924
3317
إذأً هذه هي نوعيات الطبقات، ونوعيات التساؤلات
10:28
I wanted to lead you through today;
221
628265
1970
التي وددت ان أقودكم من خلالها اليوم --
تساؤل، ما هي النوايا
10:30
the question of: What are the intentions that you bring to bear
222
630259
3034
التي تعتنقها عند تصميمك لشيء ما؟
10:33
when you're designing something?
223
633317
1560
10:34
What are the effects, intended and unintended, that you're having?
224
634901
3252
ما هي التأثيرات ، المقصودة والغير مقصودة، التي تنتجها؟
ما هي القيم التي تستخدمها
10:38
What are the values you're using to judge those?
225
638177
2801
للحكم على ذلك؟
ما هي الفضائل، التطلعات
10:41
What are the virtues, the aspirations
226
641002
1973
10:42
that you're actually expressing in that?
227
642999
2028
التي تعبر عنها في ذلك؟
10:45
And how does that apply,
228
645400
1857
وكيف ينطبق ذلك،
10:47
not just to persuasive technology,
229
647281
1986
ليس فقط على التكنولوجيا الحاثة،
10:49
but to everything you design?
230
649291
2048
بل على كل شيء تقوم بتصميمه؟
10:51
Do we stop there?
231
651912
1291
هل نتوقف هنا؟
10:53
I don't think so.
232
653815
1167
لا أعتقد ذلك.
10:55
I think that all of these things are eventually informed
233
655291
4438
أعتقد أن كل هذه الأشياء في النهاية سوف يُطلع عليها
10:59
by the core of all of this,
234
659753
1423
من خلال جوهر هذا كله --
11:01
and this is nothing but life itself.
235
661200
3091
وهو لا شيء غير الحياة في حد ذاتها.
11:04
Why, when the question of what the good life is
236
664594
2717
لماذا، عندما يقوم التساؤل عن ماهية الحياة الجيدة
11:07
informs everything that we design,
237
667335
2339
بإطلاعنا على كل ما نقوم بتتصميمه،
11:09
should we stop at design and not ask ourselves:
238
669698
2794
يتوجب علينا التوقف عن التصميم وليس سؤال أنفسنا ،
11:12
How does it apply to our own life?
239
672516
1990
كيف ينطبق ذلك على حياتنا؟
11:14
"Why should the lamp or the house be an art object,
240
674881
2712
"لماذا ينبغي أن يكون المصباح أو البيت غرضا فنيا،
11:17
but not our life?"
241
677617
1176
ولا ينبغي لحياتنا؟"
11:18
as Michel Foucault puts it.
242
678817
1483
على حد تعبير "ميشيل فوكو".
11:20
Just to give you a practical example of Buster Benson.
243
680696
3611
من أجل إعطائكم مثال عملي لـ "باستر بنسون".
11:24
This is Buster setting up a pull-up machine
244
684331
2258
هذا "باستر" يقوم بتجهيز جهاز لتمارين السحب
11:26
at the office of his new start-up, Habit Labs,
245
686613
2612
في المكتب أثناء بدء تشغيله الجديد لمختبرات "هابيت لاب"
حيث يحاولون تجهيز تطبيقات أخرى
11:29
where they're trying to build other applications like "Health Month"
246
689249
3215
مثل "شهر الصحة" للناس.
11:32
for people.
247
692488
1158
ولماذا يقوم هو ببناء شيء كهذا؟
11:33
And why is he building a thing like this?
248
693670
1962
11:35
Well, here is the set of axioms
249
695656
2033
حسنا, هنا مجموعة من المسَلمات
11:37
that Habit Labs, Buster's start-up, put up for themselves
250
697713
3398
التي وضعها بدء تشغيل "باستر" لـ "هابيت لاب" لأنفسهم
حول كيف أرادوا أن يشتغلوا مع بعضهم البعض كفريق
11:41
on how they wanted to work together as a team
251
701135
2705
11:43
when they're building these applications --
252
703864
2029
حينما كانوا يبنون هذه التطبيقات --
11:45
a set of moral principles they set themselves
253
705917
2189
مجموعة من المبادئ الأخلاقية أعدوها لأنفسهم
للعمل معا --
11:48
for working together --
254
708130
1361
11:49
one of them being,
255
709515
1238
وواحد منها هو،
11:50
"We take care of our own health and manage our own burnout."
256
710777
3087
"أننا نحرص على صحتنا ونتحكم في ما نقوم بحرقه."
لأنه في نهاية المطاف، كيف يمكنكم أن تسألوا أنفسكم
11:54
Because ultimately, how can you ask yourselves
257
714221
3500
11:57
and how can you find an answer on what vision of the good life
258
717745
3930
وكيف يمكنكم الحصول على إجابة
عن أي تصورعن الحياة الجيدة
12:01
you want to convey and create with your designs
259
721699
3169
التي تود إيصاله أو ابتكاره عن طريق تصميمك.
12:04
without asking the question:
260
724892
1730
بدون طرح سؤال،
12:06
What vision of the good life do you yourself want to live?
261
726646
3832
ما هو تصور الحياة الجيدة
الذي تريد أنت بنفسك أن تحياه؟
وبهذا، أشكركم.
12:11
And with that,
262
731018
1174
12:12
I thank you.
263
732945
1412
12:14
(Applause)
264
734381
4156
(تصفيق)
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7