Art that reveals how technology frames reality | Jiabao Li

79,380 views ・ 2020-04-06

TED


אנא לחץ פעמיים על הכתוביות באנגלית למטה כדי להפעיל את הסרטון.

תרגום: Shimon Rottenberg עריכה: Sigal Tifferet
00:12
I'm an artist and an engineer.
0
12887
2396
אני אמנית ומהנדסת.
00:15
And lately, I've been thinking a lot about how technology mediates
1
15307
5774
לאחרונה חשבתי רבות על הדרך בה הטכנולוגיה מתווכת
00:21
the way we perceive reality.
2
21105
2041
את תפיסת המציאות שלנו.
00:23
And it's being done in a superinvisible and nuanced way.
3
23653
4640
זה קורה באופן מאד נסתר מהעין ורב-דקויות.
00:29
Technology is designed to shape our sense of reality
4
29260
3646
הטכנולוגיה מתוכננת לעצב את תחושת המציאות שלנו
00:32
by masking itself as the actual experience of the world.
5
32930
3811
בכך שהיא מתחפשת לחווית העולם האמיתית.
00:37
As a result, we are becoming unconscious and unaware
6
37430
4686
כתוצאה מכך, אנחנו נהיים לא מודעים
00:42
that it is happening at all.
7
42140
2185
לכך שזה בכלל קורה.
00:45
Take the glasses I usually wear, for example.
8
45360
2488
למשל המשקפיים שאני לרוב מרכיבה.
00:47
These have become part of the way I ordinarily experience my surroundings.
9
47872
4024
הם הפכו לחלק מהאופן שבו אני בדרך כלל חווה את סביבתי.
00:52
I barely notice them,
10
52352
1490
אני בקושי שמה לב אליהם,
00:53
even though they are constantly framing reality for me.
11
53866
4085
למרות שהם ממסגרים עבורי את המציאות באופן קבוע.
00:58
The technology I am talking about is designed to do the same thing:
12
58447
4016
הטכנולוגיה שעליה אני מדברת מתוכננת לבצע את אותו הדבר:
01:02
change what we see and think
13
62487
2438
לשנות את מה שאנחנו רואים וחושבים
01:04
but go unnoticed.
14
64949
1760
אך בלי שנשים לב.
01:07
Now, the only time I do notice my glasses
15
67780
3269
אני שמה לב למשקפיים שלי
01:11
is when something happens to draw my attention to it,
16
71073
3258
רק כשמשהו קורה ומושך את תשומת ליבי אליהם,
01:14
like when it gets dirty or my prescription changes.
17
74355
3514
למשל כשהם מתלכלכים או כשהמספר שלהם גדל.
01:18
So I asked myself, "As an artist, what can I create
18
78481
4608
אז שאלתי את עצמי, "כאמנית, מה אני יכולה ליצור
01:23
to draw the same kind of attention
19
83113
2447
"כדי למשוך את אותו סוג של תשומת לב
01:25
to the ways digital media -- like news organizations, social media platforms,
20
85584
6171
"לדרך שבה המדיה הדיגיטלית -- גופי חדשות, רשתות חברתיות,
01:31
advertising and search engines --
21
91779
2261
"מנועי חיפוש ופרסום --
01:34
are shaping our reality?"
22
94064
2014
מעצבים את המציאות שלנו?"
01:36
So I created a series of perceptual machines
23
96798
4772
אז יצרתי סדרה של מכשירים תפיסתיים
01:41
to help us defamiliarize and question
24
101594
3566
שיסייעו לנו ליצור ריחוק ולהטיל ספק
01:45
the ways we see the world.
25
105184
2120
בדרכים המוכרות שבהן אנו רואים את העולם.
01:48
For example, nowadays, many of us have this kind of allergic reaction
26
108859
6033
למשל, בימינו, רבים מאיתנו חווים סוג של תגובה אלרגית
01:54
to ideas that are different from ours.
27
114916
2493
לדעות שונות משלנו.
01:57
We may not even realize that we've developed this kind of mental allergy.
28
117945
5656
לא בטוח שאנחנו אפילו קולטים שפיתחנו סוג כזה של אלרגיה מנטלית.
02:04
So I created a helmet that creates this artificial allergy to the color red.
29
124596
5643
אז בניתי קסדה שגורמת לאלרגיה מלאכותית לצבע האדום.
02:10
It simulates this hypersensitivity by making red things look bigger
30
130263
4453
היא מדמה את רגישות-היתר הזאת בכך שהיא גורמת לדברים אדומים להיראות גדולים יותר
02:14
when you are wearing it.
31
134740
1280
בזמן שחובשים אותה.
02:16
It has two modes: nocebo and placebo.
32
136730
3558
יש לה שני מצבי פעולה: נוצבו (פלצבו שלילי) ופלצבו.
02:21
In nocebo mode, it creates this sensorial experience of hyperallergy.
33
141272
5357
במצב נוצבו, היא גורמת לחויה תחושתית של היפר-אלרגיה.
02:26
Whenever I see red, the red expands.
34
146653
2707
כל פעם שאני רואה אדום, האדום מתפשט.
02:30
It's similar to social media's amplification effect,
35
150062
3531
זה דומה לאפקט ההגברה ברשתות החברתיות,
02:33
like when you look at something that bothers you,
36
153617
2597
למשל כשאתם רואים משהו שמפריע לכם,
02:36
you tend to stick with like-minded people
37
156238
2928
אתם נוטים לדבוק באנשים שחושבים כמוכם
02:39
and exchange messages and memes, and you become even more angry.
38
159190
4595
ולהחליף הודעות וממים, ולכעוס עוד יותר.
02:44
Sometimes, a trivial discussion gets amplified
39
164274
3662
לפעמים, דיון תמים נהיה מוגבר
02:47
and blown way out of proportion.
40
167960
2401
ומאבד פרופורציות.
02:51
Maybe that's even why we are living in the politics of anger.
41
171038
4520
אולי זאת גם הסיבה שאנחנו חיים בפוליטיקה של כעס.
02:56
In placebo mode, it's an artificial cure for this allergy.
42
176756
3415
במצב פעולה של פלצבו, קיים ריפוי מלאכותי של אותה אלרגיה.
03:00
Whenever you see red, the red shrinks.
43
180575
2292
בכל פעם שרואים אדום, האדום מצטמק.
03:03
It's a palliative, like in digital media.
44
183617
2875
זה סם הרגעה, כמו ברשתות החברתיות.
03:06
When you encounter people with different opinions,
45
186516
2899
כשנתקלים באנשים בעלי דעות שונות,
03:09
we will unfollow them,
46
189439
1477
מפסיקים לעקוב אחריהם,
03:10
remove them completely out of our feeds.
47
190940
2748
מסירים אותם לגמרי מהפיד.
03:14
It cures this allergy by avoiding it.
48
194343
3203
זה מרפא את האלרגיה עלי ידי הימנעות ממנה.
03:17
But this way of intentionally ignoring opposing ideas
49
197570
4547
אבל דרך זו של התעלמות מכוונת מדעות מנוגדות
03:22
makes human community hyperfragmented and separated.
50
202141
4056
הופכת את הקהילה האנושית למבודלת ומפולגת מאד.
03:27
The device inside the helmet reshapes reality
51
207343
3059
המתקן בתוך הקסדה מעצב מחדש את המציאות,
03:30
and projects into our eyes through a set of lenses
52
210426
2950
מקרין לתוך העיניים דרך מערכת עדשות,
03:33
to create an augmented reality.
53
213400
1915
ויוצר מציאות רבודה.
03:35
I picked the color red, because it's intense and emotional,
54
215935
4782
בחרתי בצבע האדום כי הוא עוצמתי ואמוציונלי,
03:40
it has high visibility
55
220741
1958
הוא מאד מובחן,
03:42
and it's political.
56
222723
1278
והוא פוליטי.
03:44
So what if we take a look
57
224390
1263
אולי נתבונן
03:45
at the last American presidential election map
58
225677
3049
במפת הבחירות האחרונות לנשיאות בארצות הברית
03:48
through the helmet?
59
228750
1165
דרך הקסדה?
03:49
(Laughter)
60
229939
1008
(צחוק)
03:50
You can see that it doesn't matter if you're a Democrat or a Republican,
61
230971
3573
אתם יכולים לראות שזה לא משנה אם אתם דמוקרטים או רפובליקנים,
03:54
because the mediation alters our perceptions.
62
234568
3989
כי התיווך משנה את התפיסות שלנו.
03:58
The allergy exists on both sides.
63
238581
3133
האלרגיה קיימת בשני הצדדים.
04:03
In digital media,
64
243134
1320
במדיה הדיגיטלית,
04:04
what we see every day is often mediated,
65
244478
3133
מה שרואים מדי יום הוא בדרך כלל מתווך,
04:07
but it's also very nuanced.
66
247635
1733
אבל יש בו גם דקויות רבות.
04:09
If we are not aware of this,
67
249758
1995
אם אנחנו לא מודעים לכך,
04:11
we will keep being vulnerable to many kinds of mental allergies.
68
251777
5405
נמשיך להיות חשופים לסוגים רבים של אלרגיות מנטליות.
04:18
Our perception is not only part of our identities,
69
258900
3510
התפיסה שלנו איננה רק חלק מהזהות שלנו,
04:22
but in digital media, it's also a part of the value chain.
70
262434
4294
במדיה דיגיטלית היא גם חלק משרשרת הערכים.
04:27
Our visual field is packed with so much information
71
267992
3575
שדה הראיה שלנו עמוס במידע רב כל כך
04:31
that our perception has become a commodity with real estate value.
72
271591
5512
שהתפיסה שלנו הפכה למצרך בעל ערך של נדל"ן.
04:38
Designs are used to exploit our unconscious biases,
73
278035
3529
העיצובים נועדו לנצל את ההעדפות הלא מודעות שלנו,
04:41
algorithms favor content that reaffirms our opinions,
74
281588
3480
אלגוריתמים מעדיפים תוכן שמאשר מחדש את הדעות שלנו,
04:45
so that every little corner of our field of view is being colonized
75
285092
4191
כך שכל פינה קטנה בשדה הראיה שלנו מאוכלסת
04:49
to sell ads.
76
289307
1342
בפרסומות.
04:51
Like, when this little red dot comes out in your notifications,
77
291402
4017
למשל הנקודה האדומה הקטנה שמופיעה בהתראות,
04:55
it grows and expands, and to your mind, it's huge.
78
295443
4244
היא גדלה ומתפשטת, ועבור המוח שלכם היא עצומה.
05:00
So I started to think of ways to put a little dirt,
79
300571
3361
אז התחלתי לחשוב איך ללכלך מעט,
05:03
or change the lenses of my glasses,
80
303956
2698
או לשנות את עדשות המשקפיים שלי,
05:06
and came up with another project.
81
306678
2098
ועלה במוחי רעיון לפרויקט אחר.
05:09
Now, keep in mind this is conceptual. It's not a real product.
82
309423
3801
תזכרו שזה קונספטואלי, לא מוצר אמיתי.
05:13
It's a web browser plug-in
83
313676
2073
זה תוסף לדפדפן אינטרנט
05:15
that could help us to notice the things that we would usually ignore.
84
315773
4342
שיכול לעזור לנו להבחין בדברים שבדרך כלל אנחנו מתעלמים מהם.
05:20
Like the helmet, the plug-in reshapes reality,
85
320709
3770
כמו הקסדה, התוסף מעצב מחדש את המציאות,
05:24
but this time, directly into the digital media itself.
86
324503
3397
אך הפעם, ישירות לתוך המדיה הדיגיטלית עצמה.
05:29
It shouts out the hidden filtered voices.
87
329066
3156
הוא צועק את הקולות המוסתרים והמסוננים.
05:32
What you should be noticing now
88
332246
1573
מה שאתם אמורים להבחין בו עכשיו
05:33
will be bigger and vibrant,
89
333843
2509
יהיה גדול יותר וחי יותר,
05:36
like here, this story about gender bias emerging from the sea of cats.
90
336376
4295
למשל כאן, הסיפור הזה על אפליה מגדרית שמגיח מתוך ים של חתולים.
05:40
(Laughter)
91
340695
2021
(צחוק)
05:42
The plug-in could dilute the things that are being amplified by an algorithm.
92
342740
5417
התוסף יכול לדלל את הדברים שמוגברים על ידי האלגוריתם.
05:48
Like, here in this comment section,
93
348831
1696
למשל פה בתגובות,
05:50
there are lots of people shouting about the same opinions.
94
350551
3069
הרבה אנשים צועקים את אותן דעות.
05:54
The plug-in makes their comments super small.
95
354111
2870
התוסף הופך את התגובות שלהם לזעירות.
05:57
(Laughter)
96
357005
1008
(צחוק)
05:58
So now the amount of pixel presence they have on the screen
97
358037
5251
עכשיו כמות הפיקסלים שהם תופסים על המסך
06:03
is proportional to the actual value they are contributing to the conversation.
98
363312
4554
תואמת לערך האמיתי שהם תורמים לשיחה.
06:07
(Laughter)
99
367890
1942
(צחוק)
06:11
(Applause)
100
371345
3631
(מחיאות כפיים)
06:16
The plug-in also shows the real estate value of our visual field
101
376919
4061
התוסף מראה גם את שווי הנדל"ן של שדה הראיה שלנו
06:21
and how much of our perception is being commoditized.
102
381004
3456
ואיזה חלק מהתפיסה שלנו הפך למצרך.
06:24
Different from ad blockers,
103
384912
1589
זה שונה מחוסמי פרסומות
06:26
for every ad you see on the web page,
104
386525
2472
בכך שעל יד כל פרסומת שרואים בדף האינטרנט,
06:29
it shows the amount of money you should be earning.
105
389021
3407
הוא מראה כמה כסף אתם אמורים להרוויח.
06:32
(Laughter)
106
392452
1245
(צחוק)
06:34
We are living in a battlefield between reality
107
394356
2292
אנחנו חיים בשדה קרב בין המציאות
06:36
and commercial distributed reality,
108
396672
2253
לבין מציאות מסחרית,
06:39
so the next version of the plug-in could strike away that commercial reality
109
399329
5086
אז הגרסה הבאה של התוסף תוכל להסיר את המציאות המסחרית הזאת
06:44
and show you things as they really are.
110
404439
2799
ולהציג בפניכם את הדברים כמו שהם.
06:47
(Laughter)
111
407262
1791
(צחוק)
06:50
(Applause)
112
410335
3629
(מחיאות כפיים)
06:55
Well, you can imagine how many directions this could really go.
113
415179
3612
אתם יכולים לתאר לעצמכם לכמה כיוונים זה יכול באמת ללכת.
06:58
Believe me, I know the risks are high if this were to become a real product.
114
418815
4414
תאמינו לי, אני יודעת שהסיכונים יהיו גבוהים אם זה יהפוך למוצר אמיתי.
07:04
And I created this with good intentions
115
424006
2939
ואני יצרתי אותו עם כוונות טובות
07:06
to train our perception and eliminate biases.
116
426969
3837
לאמן את התפיסה שלנו ולסלק דעות קדומות.
07:10
But the same approach could be used with bad intentions,
117
430830
3728
אבל ניתן להשתמש באותה גישה עם כוונות רעות,
07:14
like forcing citizens to install a plug-in like that
118
434582
3205
למשל להכריח אזרחים להתקין תוסף כזה
07:17
to control the public narrative.
119
437811
2126
כדי לשלוט בהלך הרוח הציבורי.
07:20
It's challenging to make it fair and personal
120
440768
2737
זה מאתגר לעשות את זה הוגן ואישי
07:23
without it just becoming another layer of mediation.
121
443529
3155
בלי שזה פשוט יהפוך לעוד שכבת תיווך.
07:27
So what does all this mean for us?
122
447933
2662
אז מה כל זה אומר מבחינתנו?
07:31
Even though technology is creating this isolation,
123
451230
3733
למרות שהטכנולוגיה גורמת לבידוד הזה,
07:34
we could use it to make the world connected again
124
454987
3602
אנחנו יכולים להשתמש בה כדי לחבר מחדש את העולם
07:38
by breaking the existing model and going beyond it.
125
458613
3247
על ידי שבירת המודל הקיים וצעידה אל מעבר לו.
07:42
By exploring how we interface with these technologies,
126
462508
3338
אם נחקור כיצד אנחנו מתממשקים עם הטכנולוגיות האלה,
07:45
we could step out of our habitual, almost machine-like behavior
127
465870
5185
נוכל לצאת מההתנהגות הטבעית, הכמעט מכנית שלנו,
07:51
and finally find common ground between each other.
128
471079
2670
ולמצוא סוף סוף מכנה משותף אחד עם השני.
07:54
Technology is never neutral.
129
474915
1789
הטכנולוגיה לעולם איננה ניטראלית.
07:57
It provides a context and frames reality.
130
477191
3019
היא מספקת הקשר ומעצבת את המציאות.
08:00
It's part of the problem and part of the solution.
131
480234
2888
היא חלק מהבעיה וחלק מהפתרון.
08:03
We could use it to uncover our blind spots and retrain our perception
132
483624
5640
אנחנו יכולים להשתמש בה כדי לחשוף את השטחים המתים ולאמן מחדש את התפיסה שלנו
08:09
and consequently, choose how we see each other.
133
489949
3506
וכתוצאה מכך, לבחור כיצד לראות אחד את השני.
08:13
Thank you.
134
493892
1191
תודה רבה.
08:15
(Applause)
135
495107
2685
(מחיאות כפיים)
על אתר זה

אתר זה יציג בפניכם סרטוני YouTube המועילים ללימוד אנגלית. תוכלו לראות שיעורי אנגלית המועברים על ידי מורים מהשורה הראשונה מרחבי העולם. לחץ פעמיים על הכתוביות באנגלית המוצגות בכל דף וידאו כדי להפעיל את הסרטון משם. הכתוביות גוללות בסנכרון עם הפעלת הווידאו. אם יש לך הערות או בקשות, אנא צור איתנו קשר באמצעות טופס יצירת קשר זה.

https://forms.gle/WvT1wiN1qDtmnspy7