Art that reveals how technology frames reality | Jiabao Li

79,380 views ・ 2020-04-06

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: Enas J Alahmadi المدقّق: Shimaa Nabil
00:12
I'm an artist and an engineer.
0
12887
2396
أنا أعمل كفنانة ومهندسة.
00:15
And lately, I've been thinking a lot about how technology mediates
1
15307
5774
أصبحت مؤخراً أغرق بالتفكير حول: كيف تتدخل التقنية،
00:21
the way we perceive reality.
2
21105
2041
بالطريقة التي نرى بها الواقع؟
00:23
And it's being done in a superinvisible and nuanced way.
3
23653
4640
يحدث الأمر بطريقة خفية جداً بالكاد نلحظها.
00:29
Technology is designed to shape our sense of reality
4
29260
3646
صُممت التقنية لتشكل شعورنا بالواقع،
00:32
by masking itself as the actual experience of the world.
5
32930
3811
عن طريق تنكرها تحت قناع "الخبرة الفعلية بالعالم".
00:37
As a result, we are becoming unconscious and unaware
6
37430
4686
نتيجة لذلك، فإننا نصبح غير واعيين ولا مدركين،
00:42
that it is happening at all.
7
42140
2185
بحدوث ذلك على الإطلاق.
00:45
Take the glasses I usually wear, for example.
8
45360
2488
على سبيل المثال: النظارات التي دائماً ما أرتديها،
00:47
These have become part of the way I ordinarily experience my surroundings.
9
47872
4024
أصبحت جزءاً من الطريقة التي أرى بها ما حولي،
00:52
I barely notice them,
10
52352
1490
ولكن بالكاد ألحظ وجودها،
00:53
even though they are constantly framing reality for me.
11
53866
4085
على الرغم من كونها تؤطر الواقع الذي أراه باستمرار.
00:58
The technology I am talking about is designed to do the same thing:
12
58447
4016
تلك التقنية التي أتحدث عنها، صُممت لتقوم بنفس الشيء:
01:02
change what we see and think
13
62487
2438
أن تغير ما نراه وما نؤمن به،
01:04
but go unnoticed.
14
64949
1760
دون أن نلحظ وجودها.
01:07
Now, the only time I do notice my glasses
15
67780
3269
الوقت الوحيد الذي ألحظ فيه وجود نظارتي،
01:11
is when something happens to draw my attention to it,
16
71073
3258
هو عندما يحدث شيء يسترعي انتباهي إليها.
01:14
like when it gets dirty or my prescription changes.
17
74355
3514
مثلاً: عندما تتسخ، أو عندما تتغير درجة نظري.
01:18
So I asked myself, "As an artist, what can I create
18
78481
4608
لذلك سألت نفسي: "ماذا يمكنني أن أصنع كفنانة،
01:23
to draw the same kind of attention
19
83113
2447
لأسترعي هذا القدر من الانتباه
01:25
to the ways digital media -- like news organizations, social media platforms,
20
85584
6171
للطرق التي تعمل وسائل الإعلام الرقمية كمنظمات الأخبار ومواقع التواصل الاجتماعي
01:31
advertising and search engines --
21
91779
2261
ومحركات البحث والإعلانات،
01:34
are shaping our reality?"
22
94064
2014
على اعتمادها لشكيل واقعنا الحالي؟"
01:36
So I created a series of perceptual machines
23
96798
4772
لذلك صنعت سلسلة من الآلات الإدراكية،
01:41
to help us defamiliarize and question
24
101594
3566
لتساعد على إثارة استغرابنا وتساؤلنا
01:45
the ways we see the world.
25
105184
2120
حول الطرق التي نرى بها العالم.
01:48
For example, nowadays, many of us have this kind of allergic reaction
26
108859
6033
على سبيل المثال: في الوقت الحاضر، يملك العديد منا نوعاً من ردود الفعل التحسسية،
01:54
to ideas that are different from ours.
27
114916
2493
تجاه الأفكار المختلفة عن أفكارنا.
01:57
We may not even realize that we've developed this kind of mental allergy.
28
117945
5656
ربما قد لا ندرك حتى أننا ننمي هذا النوع من التحسس الذهني.
02:04
So I created a helmet that creates this artificial allergy to the color red.
29
124596
5643
لذلك اخترعت خوذة تُحدث تحسساً اصطناعياً تجاه اللون الأحمر.
02:10
It simulates this hypersensitivity by making red things look bigger
30
130263
4453
فهي تحاكي "فرط الحساسية"، بجعل كل شيءٍ أحمر يبدو متضخماً،
02:14
when you are wearing it.
31
134740
1280
عند ارتدائها.
02:16
It has two modes: nocebo and placebo.
32
136730
3558
لديها وضعان: نوسيبو وبلاسيبو.
02:21
In nocebo mode, it creates this sensorial experience of hyperallergy.
33
141272
5357
ففي وضع نوسيبو، تخلق تجربة حسية لفرط الحساسية،
02:26
Whenever I see red, the red expands.
34
146653
2707
فكلما ترى شيئاً أحمر، فإنه يتوسع ويتمدد.
02:30
It's similar to social media's amplification effect,
35
150062
3531
يشابه هذا التأثير المتضخم لوسائل التواصل الاجتماعي،
02:33
like when you look at something that bothers you,
36
153617
2597
كعندما تنظر إلى شيءٍ يزعجك،
02:36
you tend to stick with like-minded people
37
156238
2928
أو عندما تميل إلى مساندة الأشخاص الذين يتشاركون وجهات نظرك،
02:39
and exchange messages and memes, and you become even more angry.
38
159190
4595
وتتبادل الرسائل والميمز، وبالتالي تشتغل غضباً.
02:44
Sometimes, a trivial discussion gets amplified
39
164274
3662
أحياناً، مجرد نقاشٍ تافه قد يتطور ويتضخم
02:47
and blown way out of proportion.
40
167960
2401
حتى يخرج عن السيطرة.
02:51
Maybe that's even why we are living in the politics of anger.
41
171038
4520
ربما، لهذا السبب نحن نعيش في ما يسمى سياسة الغضب.
02:56
In placebo mode, it's an artificial cure for this allergy.
42
176756
3415
أما وضع البلاسيبو، فهو يمثل العلاج الاصطناعي لهذه الحساسية
03:00
Whenever you see red, the red shrinks.
43
180575
2292
فكلما ترى شيئاً أحمر، فإنه يتقلص،
03:03
It's a palliative, like in digital media.
44
183617
2875
تماماً كمسكن الألم.
فمثلاً عندما تقابل أناساً على وسائل الإعلام الرقمية بأراء مختلفة عنك،
03:06
When you encounter people with different opinions,
45
186516
2899
03:09
we will unfollow them,
46
189439
1477
فإنك ببساطة تلغي متابعتهم،
03:10
remove them completely out of our feeds.
47
190940
2748
تخرجهم تماماً من دائرة متابعاتك.
03:14
It cures this allergy by avoiding it.
48
194343
3203
فهو يعالج هذا النوع من الحساسية عن طريق تجنبها.
03:17
But this way of intentionally ignoring opposing ideas
49
197570
4547
ولكن هذه الطريقة المتعمدة بتجاهل أفكار الناس المغايرة لأفكارنا،
03:22
makes human community hyperfragmented and separated.
50
202141
4056
تجعل المجتمع البشري منفصلاً ومتفرقاً.
03:27
The device inside the helmet reshapes reality
51
207343
3059
يقوم الجهاز بداخل الخوذة بإعادة تشكيل الواقع الذي أمامنا،
03:30
and projects into our eyes through a set of lenses
52
210426
2950
ويعرضه لأعيننا من خلال مجموعة من العدسات،
03:33
to create an augmented reality.
53
213400
1915
لخلق صورة من الواقع المعزز.
03:35
I picked the color red, because it's intense and emotional,
54
215935
4782
اخترت اللون الأحمر، لأنه لون حاد وعاطفي،
03:40
it has high visibility
55
220741
1958
وله حضور عال،
03:42
and it's political.
56
222723
1278
كما أنه سياسي.
03:44
So what if we take a look
57
224390
1263
إذن، ماذا لو نظرنا،
03:45
at the last American presidential election map
58
225677
3049
إلى آخر خريطة أمريكية انتخابية رئاسية،
03:48
through the helmet?
59
228750
1165
من خلال الخوذة؟
03:49
(Laughter)
60
229939
1008
(ضحك)
03:50
You can see that it doesn't matter if you're a Democrat or a Republican,
61
230971
3573
بإمكانكم رؤية أنه لا يهم إن كنت ديموقراطياً أو جمهورياً،
03:54
because the mediation alters our perceptions.
62
234568
3989
لأن تدخل التقنية يغير نظرتنا للأمور،
03:58
The allergy exists on both sides.
63
238581
3133
فالحساسية موجودة في كلا الطرفين.
04:03
In digital media,
64
243134
1320
ففي وسائل الإعلام الرقمية،
04:04
what we see every day is often mediated,
65
244478
3133
ما نراه كل يوم غالباً ما يكون متدخَلاً فيه،
04:07
but it's also very nuanced.
66
247635
1733
ولكنه أيضاً دقيقٌ جداً ولا يكاد يدرك.
04:09
If we are not aware of this,
67
249758
1995
إذا أننا لم ندرك أياً من هذا،
04:11
we will keep being vulnerable to many kinds of mental allergies.
68
251777
5405
فإننا سنبقى معرضين لأنواع مختلفة من الحساسيات الذهنية.
04:18
Our perception is not only part of our identities,
69
258900
3510
فنظرتنا للأمور ليست جزءاً من هويتنا فقط،
04:22
but in digital media, it's also a part of the value chain.
70
262434
4294
ولكنها تعتبر أيضًا جزءًا من سلسلة القيمة في وسائل الإعلام الرقمية.
04:27
Our visual field is packed with so much information
71
267992
3575
مجال رؤيتنا ممتلىء بالعديد من المعلومات،
04:31
that our perception has become a commodity with real estate value.
72
271591
5512
حتى أصبحت نظرتنا كسلعة عالية الثمن.
04:38
Designs are used to exploit our unconscious biases,
73
278035
3529
استُخدمت التصاميم لاستغلال تحيزاتنا اللاواعية،
04:41
algorithms favor content that reaffirms our opinions,
74
281588
3480
كما استُخدمت خوارزميات تقدم لنا محتوى يتناسب مع وجهات نظرنا،
04:45
so that every little corner of our field of view is being colonized
75
285092
4191
حتى يكون كل جزء من مجال رؤيتنا مُستغلاً،
04:49
to sell ads.
76
289307
1342
من أجل بيع الإعلانات.
04:51
Like, when this little red dot comes out in your notifications,
77
291402
4017
على سبيل المثال: عندما تظهر هذه النقطة الحمراء الصغيرة في خانة التنبيهات،
04:55
it grows and expands, and to your mind, it's huge.
78
295443
4244
فإنها تنمو وتتمدد، وتظهر لعقلك بأنها عملاقة.
05:00
So I started to think of ways to put a little dirt,
79
300571
3361
لذلك بدأت بالتفكير بطرق أخرى لوضع القليل من التراب،
05:03
or change the lenses of my glasses,
80
303956
2698
أو لتغيير عدسات نظارتي،
05:06
and came up with another project.
81
306678
2098
عندها توصلت إلى مشروع آخر.
05:09
Now, keep in mind this is conceptual. It's not a real product.
82
309423
3801
ضعوا في اعتباركم، أن هذا مجرد مشروع فكري وليس منتجاً حقيقياً.
05:13
It's a web browser plug-in
83
313676
2073
إنه مكون إضافي لمتصفح الإنترنت،
05:15
that could help us to notice the things that we would usually ignore.
84
315773
4342
يساعدنا على ملاحظة الأمور التي دائماً ما نتجاهلها.
05:20
Like the helmet, the plug-in reshapes reality,
85
320709
3770
يقوم المكون الإضافي بإعادة تشكيل الواقع، تماماً مثل الخوذة،
05:24
but this time, directly into the digital media itself.
86
324503
3397
ولكن هذه المرة مباشرةً على وسائل الإعلام الرقمية ذاتها.
05:29
It shouts out the hidden filtered voices.
87
329066
3156
فهو يغطي الأصوات المفلترة المخفية.
05:32
What you should be noticing now
88
332246
1573
ما يجب أن تلحظوه الآن
05:33
will be bigger and vibrant,
89
333843
2509
سيكون كبيراً ونابضاً بالحياة،
05:36
like here, this story about gender bias emerging from the sea of cats.
90
336376
4295
مثل هذه القصة عن التحيز الجنسي، تظهر بوضوح بين بحرٍ من القطط.
05:40
(Laughter)
91
340695
2021
(ضحك)
05:42
The plug-in could dilute the things that are being amplified by an algorithm.
92
342740
5417
يقوم المكون الإضافي بتصغير الأشياء التي تبدو كبيرة بفعل الخوارزميات.
05:48
Like, here in this comment section,
93
348831
1696
مثلاً هنا في خانة التعليق،
05:50
there are lots of people shouting about the same opinions.
94
350551
3069
يوجد الكثير من الناس يتناقشون حول نفس وجهات النظر.
05:54
The plug-in makes their comments super small.
95
354111
2870
يجعل هذا المكون تعليقاتهم تبدو صغيرة جداً.
05:57
(Laughter)
96
357005
1008
(ضحك)
05:58
So now the amount of pixel presence they have on the screen
97
358037
5251
إذن، الآن أصبحت المساحة التي يحتلونها على الشاشة من ناحية البيكسل،
06:03
is proportional to the actual value they are contributing to the conversation.
98
363312
4554
متناسبة مع القيمة المضافة الفعلية التي يساهمون بها في النقاش.
06:07
(Laughter)
99
367890
1942
(ضحك)
06:11
(Applause)
100
371345
3631
(تصفيق)
06:16
The plug-in also shows the real estate value of our visual field
101
376919
4061
يظهر المكون الإضافي أيضاً مدى قيمة مجال رؤيتنا،
06:21
and how much of our perception is being commoditized.
102
381004
3456
وكم المقدار الذي يُستغل من نظرنا.
06:24
Different from ad blockers,
103
384912
1589
تختلف عن برامج حجب الإعلانات بأنها:
06:26
for every ad you see on the web page,
104
386525
2472
لكل إعلانٍ تراه على صفحة الإنترنت،
06:29
it shows the amount of money you should be earning.
105
389021
3407
فإنه يظهر لك مقدار المال الذي لابد أن تحصل عليه مقابله.
06:32
(Laughter)
106
392452
1245
(ضحك)
06:34
We are living in a battlefield between reality
107
394356
2292
نحن نعيش في صراعٍ بين الواقع الحقيقي،
06:36
and commercial distributed reality,
108
396672
2253
والواقع التجاري المنتشر.
06:39
so the next version of the plug-in could strike away that commercial reality
109
399329
5086
لذا فإن النسخة التالية من المكون الإضافي، يمكن أن تخفي الواقع التجاري،
06:44
and show you things as they really are.
110
404439
2799
وتظهر لنا الأمور تماماً كما هي.
06:47
(Laughter)
111
407262
1791
(ضحك)
06:50
(Applause)
112
410335
3629
(تصفيق)
06:55
Well, you can imagine how many directions this could really go.
113
415179
3612
لكم أن تتخيلوا، كم مساراً يمكن أن يُستخدم فيه.
06:58
Believe me, I know the risks are high if this were to become a real product.
114
418815
4414
صدقوني، أنا أدرك أن نسبة المخاطر عالية إذا ما أصبح هذا منتجاً حقيقياً.
07:04
And I created this with good intentions
115
424006
2939
ولكنني اخترعته بنوايا حسنة،
07:06
to train our perception and eliminate biases.
116
426969
3837
ليدرب نظرنا على إزالة التحيزات.
07:10
But the same approach could be used with bad intentions,
117
430830
3728
ولكن نفس المنهجية يمكن أن تُستخدم ولكن بنوايا سيئة،
07:14
like forcing citizens to install a plug-in like that
118
434582
3205
مثلاً: إجبار المواطنين على تثبيت مكونات إضافية مثل هذه،
07:17
to control the public narrative.
119
437811
2126
من أجل التحكم بـ "السرد العام".
07:20
It's challenging to make it fair and personal
120
440768
2737
الأمر الذي يشكل تحدياً هو جعل هذا المكون عادلاً وشخصياً،
07:23
without it just becoming another layer of mediation.
121
443529
3155
من دون أن يصبح وجهاً آخر من التدخل التقني.
07:27
So what does all this mean for us?
122
447933
2662
إذن، ماذا يعني لنا كل هذا؟
07:31
Even though technology is creating this isolation,
123
451230
3733
على الرغم من أن التقنية تخلق هذا النوع من العزلة،
07:34
we could use it to make the world connected again
124
454987
3602
يمكننا استخدامها لجعل العالم مترابطاً مجدداً،
07:38
by breaking the existing model and going beyond it.
125
458613
3247
وذلك من خلال كسر النموذج المتواجد حالياً، والذهاب إلى ما وراءه.
07:42
By exploring how we interface with these technologies,
126
462508
3338
فعن طريق اكتشاف طبيعة تواصلنا مع هذه التقنيات،
07:45
we could step out of our habitual, almost machine-like behavior
127
465870
5185
يمكننا الخروج عن عاداتنا تلك التي تشابه سلوكيات الآلات،
07:51
and finally find common ground between each other.
128
471079
2670
وفي النهاية، نجد قاسماً مشتركاً يجمعنا ببعضنا.
07:54
Technology is never neutral.
129
474915
1789
لم تكن التقنية حيادية قط.
07:57
It provides a context and frames reality.
130
477191
3019
فهي تزودنا بالسياق بينما تؤطر واقعنا.
08:00
It's part of the problem and part of the solution.
131
480234
2888
وهي جزء من المشكلة، وفي الوقت ذاته جزء من الحل.
08:03
We could use it to uncover our blind spots and retrain our perception
132
483624
5640
يمكننا استخدامها لنكشف عن النقاط العمياء غير الواضحة، ومن ثم نعيد تدريب نظرنا،
08:09
and consequently, choose how we see each other.
133
489949
3506
وبناءً على ذلك، نختار كيف نرى بعضنا البعض.
08:13
Thank you.
134
493892
1191
شكراً لكم.
08:15
(Applause)
135
495107
2685
(تصفيق)
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7