Art that reveals how technology frames reality | Jiabao Li

80,436 views ・ 2020-04-06

TED


Bitte doppelklicken Sie auf die englischen Untertitel unten, um das Video abzuspielen.

Übersetzung: Thea Norris Lektorat: Patricia Calderón Koch
00:12
I'm an artist and an engineer.
0
12887
2396
Ich bin Künstlerin und Ingenieurin.
00:15
And lately, I've been thinking a lot about how technology mediates
1
15307
5774
Seit Kurzem denke ich viel darüber nach, wie die Technologie
00:21
the way we perceive reality.
2
21105
2041
auf unsere Realitätswahrnehmung einwirkt.
00:23
And it's being done in a superinvisible and nuanced way.
3
23653
4640
Dies geschieht auf eine superunsichtbare und differenzierte Weise.
00:29
Technology is designed to shape our sense of reality
4
29260
3646
Technologie ist dafür konzipiert, unseren Realitätssinn zu beeinflussen,
00:32
by masking itself as the actual experience of the world.
5
32930
3811
indem sie sich als Welterfahrung ausgibt.
00:37
As a result, we are becoming unconscious and unaware
6
37430
4686
Infolgedessen sind wir uns weder bewusst darüber,
noch ahnen wir, dass es überhaupt geschieht.
00:42
that it is happening at all.
7
42140
2185
Nehmen wir z. B. die Brille, die ich immer trage.
00:45
Take the glasses I usually wear, for example.
8
45360
2488
00:47
These have become part of the way I ordinarily experience my surroundings.
9
47872
4024
Sie ist ein Teil dessen, wie ich meine Umwelt wahrnehme.
00:52
I barely notice them,
10
52352
1490
Ich bemerke sie kaum,
00:53
even though they are constantly framing reality for me.
11
53866
4085
obwohl sie für mich permanent die Realität beeinflusst.
00:58
The technology I am talking about is designed to do the same thing:
12
58447
4016
Die Technologie, über die ich spreche, hat den selben Zweck:
01:02
change what we see and think
13
62487
2438
zu ändern, was wir sehen und denken, ohne dass wir es bemerken.
01:04
but go unnoticed.
14
64949
1760
01:07
Now, the only time I do notice my glasses
15
67780
3269
Ich nehme meine Brille nur dann wahr,
01:11
is when something happens to draw my attention to it,
16
71073
3258
wenn meine Aufmerksamkeit auf sie gelenkt wird,
01:14
like when it gets dirty or my prescription changes.
17
74355
3514
etwa wenn sie schmutzig ist oder die Gläser getauscht werden.
01:18
So I asked myself, "As an artist, what can I create
18
78481
4608
Ich fragte mich also: "Was kann ich als Künstlerin erschaffen,
01:23
to draw the same kind of attention
19
83113
2447
um diese Form von Aufmerksamkeit darauf zu richten,
01:25
to the ways digital media -- like news organizations, social media platforms,
20
85584
6171
wie digitale Medien, also Nachrichtenagenturen,
01:31
advertising and search engines --
21
91779
2261
Soziale Netzwerke, Werbung und Suchmaschinen
01:34
are shaping our reality?"
22
94064
2014
unsere Realität gestalten?
01:36
So I created a series of perceptual machines
23
96798
4772
Ich entwickelte Wahrnehmungsmaschinen,
01:41
to help us defamiliarize and question
24
101594
3566
die uns helfen, uns zu entfremden und in Frage zu stellen.
01:45
the ways we see the world.
25
105184
2120
wie wir die Welt sehen.
01:48
For example, nowadays, many of us have this kind of allergic reaction
26
108859
6033
Heutzutage reagieren viele von uns allergisch
01:54
to ideas that are different from ours.
27
114916
2493
auf Meinungen, die nicht mit unseren übereinstimmen.
01:57
We may not even realize that we've developed this kind of mental allergy.
28
117945
5656
Oft wissen wir gar nicht,
dass wir diese "geistige Allergie" entwickelt haben.
02:04
So I created a helmet that creates this artificial allergy to the color red.
29
124596
5643
Ich entwarf einen Helm, der diese "Allergie" in der Farbe Rot darstellt.
02:10
It simulates this hypersensitivity by making red things look bigger
30
130263
4453
Er stimuliert die Überempfindlichkeit, indem er rote Dinge vergrößert,
02:14
when you are wearing it.
31
134740
1280
wenn man ihn trägt.
02:16
It has two modes: nocebo and placebo.
32
136730
3558
02:21
In nocebo mode, it creates this sensorial experience of hyperallergy.
33
141272
5357
Im Nocebo-Modus schafft er das sensorische Erlebnis der Hyperallergie.
02:26
Whenever I see red, the red expands.
34
146653
2707
Wenn Rot auftaucht, dehnt es sich aus.
02:30
It's similar to social media's amplification effect,
35
150062
3531
Es ist ähnlich dem verstärkenden Effekt in den sozialen Medien,
02:33
like when you look at something that bothers you,
36
153617
2597
wo man etwas sieht, das einen ärgert.
02:36
you tend to stick with like-minded people
37
156238
2928
Man tendiert dazu, sich an Gleichgesinnte zu halten.
02:39
and exchange messages and memes, and you become even more angry.
38
159190
4595
Nachrichten und Memes auszutauschen, was einen noch ärgerlicher macht.
02:44
Sometimes, a trivial discussion gets amplified
39
164274
3662
Mitunter weiten sich banale Diskussionen so aus,
02:47
and blown way out of proportion.
40
167960
2401
dass sie übermäßig aufgebauscht werden.
02:51
Maybe that's even why we are living in the politics of anger.
41
171038
4520
Vielleicht sind wir sogar deswegen so wutgesteuert.
02:56
In placebo mode, it's an artificial cure for this allergy.
42
176756
3415
Der Placebo-Modus ist ein künstliches Heilmittel für diese Allergie.
03:00
Whenever you see red, the red shrinks.
43
180575
2292
Wenn Rot auftaucht, verringert sie sich.
03:03
It's a palliative, like in digital media.
44
183617
2875
Es ist ein Linderungsmittel in der digitalen Welt.
03:06
When you encounter people with different opinions,
45
186516
2899
Wenn wir Leuten mit anderen Meinungen begegnen,
03:09
we will unfollow them,
46
189439
1477
deaktivieren wir das Abonnement
03:10
remove them completely out of our feeds.
47
190940
2748
und entfernen ihre Beiträge aus unseren Feeds.
03:14
It cures this allergy by avoiding it.
48
194343
3203
Es heilt diese Allergie, indem sie sie vermeidet.
03:17
But this way of intentionally ignoring opposing ideas
49
197570
4547
Aber die Möglichkeit, andere Meinungen absichtlich zu ignorieren,
03:22
makes human community hyperfragmented and separated.
50
202141
4056
zersplittert und separiert die menschliche Kommunikation.
03:27
The device inside the helmet reshapes reality
51
207343
3059
Das Gerät im Helm formt die Realität neu
03:30
and projects into our eyes through a set of lenses
52
210426
2950
und projiziert durch ein Linsen-Paar
03:33
to create an augmented reality.
53
213400
1915
eine erweiterte Wirklichkeit in unsere Augen.
03:35
I picked the color red, because it's intense and emotional,
54
215935
4782
Die Farbe Rot deshalb, weil sie intensiv und emotional,
03:40
it has high visibility
55
220741
1958
hoch sichtbar und außerdem politisch ist.
03:42
and it's political.
56
222723
1278
03:44
So what if we take a look
57
224390
1263
Werfen wir mit dem Helm einen Blick auf die Karte
03:45
at the last American presidential election map
58
225677
3049
der letzten Präsidentschaftswahlen
03:48
through the helmet?
59
228750
1165
03:49
(Laughter)
60
229939
1008
(Gelächter)
03:50
You can see that it doesn't matter if you're a Democrat or a Republican,
61
230971
3573
Sie sehen, es spielt keine Rolle, ob Demokrat oder Republikaner,
03:54
because the mediation alters our perceptions.
62
234568
3989
weil die Wahrnehmung angepasst wird.
03:58
The allergy exists on both sides.
63
238581
3133
Die Allergie existiert auf beiden Seiten.
04:03
In digital media,
64
243134
1320
Was wir täglich in den digitalen Medien sehen, ist oft gefärbt
04:04
what we see every day is often mediated,
65
244478
3133
04:07
but it's also very nuanced.
66
247635
1733
aber auch sehr differenziert.
04:09
If we are not aware of this,
67
249758
1995
Wenn wir uns darüber nicht bewusst sind,
04:11
we will keep being vulnerable to many kinds of mental allergies.
68
251777
5405
bleiben wir anfällig für viele Arten geistiger Allergie.
04:18
Our perception is not only part of our identities,
69
258900
3510
Unsere Wahrnehmung ist nicht nur Teil unserer Identitäten,
04:22
but in digital media, it's also a part of the value chain.
70
262434
4294
in den digitalen Medien sind sie auch ein Teil der Wertekette.
04:27
Our visual field is packed with so much information
71
267992
3575
Unser Blickfeld ist voll von Informationen,
04:31
that our perception has become a commodity with real estate value.
72
271591
5512
sodass unsere Wahrnehmung eine Ware mit Immobilienwert ist.
04:38
Designs are used to exploit our unconscious biases,
73
278035
3529
Designs nutzen unsere unbewussten Vorurteile aus,
04:41
algorithms favor content that reaffirms our opinions,
74
281588
3480
Algorithmen erkennen Inhalte, die unsere Meinungen bestätigen,
04:45
so that every little corner of our field of view is being colonized
75
285092
4191
sodass jeder Blickwinkel besetzt ist, um Werbung zu betreiben.
04:49
to sell ads.
76
289307
1342
04:51
Like, when this little red dot comes out in your notifications,
77
291402
4017
Wie, wenn das rote Benachrichtigungs- Lämpchen aufleuchtet,
04:55
it grows and expands, and to your mind, it's huge.
78
295443
4244
es wird immer größer und ist schließlich riesig in unserem Kopf.
05:00
So I started to think of ways to put a little dirt,
79
300571
3361
Ich dachte also über Möglichkeiten nach, etwas Schmutz aufzutragen,
05:03
or change the lenses of my glasses,
80
303956
2698
oder die Brillengläser zu wechseln und entwickelte ein neues Projekt.
05:06
and came up with another project.
81
306678
2098
05:09
Now, keep in mind this is conceptual. It's not a real product.
82
309423
3801
Beachten Sie, es ist ein Konzept, kein echtes Produkt!
05:13
It's a web browser plug-in
83
313676
2073
Es ist ein Plug-In für den Webbrowser,
05:15
that could help us to notice the things that we would usually ignore.
84
315773
4342
das uns helfen kann, Dinge zu bemerken, die wir sonst ignorieren.
05:20
Like the helmet, the plug-in reshapes reality,
85
320709
3770
Wie der Helm, modifiziert das Plug-In die Realität,
05:24
but this time, directly into the digital media itself.
86
324503
3397
aber diesmal direkt in den digitalen Medien.
05:29
It shouts out the hidden filtered voices.
87
329066
3156
Es lässt die versteckten, gefilterten Stimmen frei.
05:32
What you should be noticing now
88
332246
1573
Was Sie jetzt wahrnehmen, ist größer und dynamischer.
05:33
will be bigger and vibrant,
89
333843
2509
05:36
like here, this story about gender bias emerging from the sea of cats.
90
336376
4295
Wie die Story über Geschlechtervorurteile, die aus einer Horde Katzen hervorgehen.
05:40
(Laughter)
91
340695
2021
(Gelächter)
05:42
The plug-in could dilute the things that are being amplified by an algorithm.
92
342740
5417
Das Plug-In mindert Inhalte, die durch Algorithmen verstärkt werden.
05:48
Like, here in this comment section,
93
348831
1696
Wie in diesem Kommentarbereich,
05:50
there are lots of people shouting about the same opinions.
94
350551
3069
wo viele Leute dieselbe Meinung herausposaunen.
05:54
The plug-in makes their comments super small.
95
354111
2870
Das Plug-In verkleinert ihre Kommentare.
05:57
(Laughter)
96
357005
1008
(Gelächter)
05:58
So now the amount of pixel presence they have on the screen
97
358037
5251
Ihre Pixel-Präsenz ist damit proportional
06:03
is proportional to the actual value they are contributing to the conversation.
98
363312
4554
zum Wert ihres Mitwirkens in der Diskussion.
06:07
(Laughter)
99
367890
1942
(Gelächter)
06:11
(Applause)
100
371345
3631
(Applaus)
06:16
The plug-in also shows the real estate value of our visual field
101
376919
4061
Das Plug-In zeigt auch den Wert unseres Sichtfeldes
06:21
and how much of our perception is being commoditized.
102
381004
3456
und wie viel von unserer Wahrnehmung kommerzialisiert wird.
06:24
Different from ad blockers,
103
384912
1589
Anders als Werbeblocker,
06:26
for every ad you see on the web page,
104
386525
2472
zeigt es anstelle einer Anzeige auf einer Webseite,
06:29
it shows the amount of money you should be earning.
105
389021
3407
wieviel Geld Sie verdienen sollten.
06:32
(Laughter)
106
392452
1245
(Gelächter)
06:34
We are living in a battlefield between reality
107
394356
2292
Wir leben im Schlachtfeld von Realität und vermarkteter Realität,
06:36
and commercial distributed reality,
108
396672
2253
06:39
so the next version of the plug-in could strike away that commercial reality
109
399329
5086
die nächste Version des Plug-Ins könnte also die kommerzielle Realität zerschlagen
06:44
and show you things as they really are.
110
404439
2799
und Dinge so zeigen, wie sie wirklich sind.
06:47
(Laughter)
111
407262
1791
(Gelächter)
06:50
(Applause)
112
410335
3629
(Applaus)
06:55
Well, you can imagine how many directions this could really go.
113
415179
3612
Sie können sich vorstellen, wohin das führen kann.
06:58
Believe me, I know the risks are high if this were to become a real product.
114
418815
4414
Glauben Sie mir, ich kenne die Risiken, sollte dies ein echtes Produkt werden.
07:04
And I created this with good intentions
115
424006
2939
Ich entwickelte es in bester Absicht,
07:06
to train our perception and eliminate biases.
116
426969
3837
um unsere Wahrnehmung zu fördern und Vorurteile abzubauen.
07:10
But the same approach could be used with bad intentions,
117
430830
3728
Aber derselbe Ansatz könnte mit negativen Absichten verfolgt werden,
07:14
like forcing citizens to install a plug-in like that
118
434582
3205
wie ein Installations-Zwang des Plug-Ins,
07:17
to control the public narrative.
119
437811
2126
um die öffentliche Meinung zu kontrollieren.
07:20
It's challenging to make it fair and personal
120
440768
2737
Es fair und persönlich zu gestalten,
07:23
without it just becoming another layer of mediation.
121
443529
3155
ohne eine weitere Instanz einer Mediation herzustellen, ist schwierig.
07:27
So what does all this mean for us?
122
447933
2662
Was bedeutet all das nun für uns?
07:31
Even though technology is creating this isolation,
123
451230
3733
Obwohl Technologie diese Isolation schafft,
07:34
we could use it to make the world connected again
124
454987
3602
könnten wir sie nutzen, um die Welt wieder zu verbinden,
07:38
by breaking the existing model and going beyond it.
125
458613
3247
indem wir das gängige Modell aufbrechen und überwinden.
07:42
By exploring how we interface with these technologies,
126
462508
3338
Wenn wir ergründen, wie wir mit der Technologie verknüpft sind,
07:45
we could step out of our habitual, almost machine-like behavior
127
465870
5185
können wir unser gewohntes, fast automatisiertes Handeln abstreifen
07:51
and finally find common ground between each other.
128
471079
2670
und endlich einen gemeinsamen Nenner finden.
07:54
Technology is never neutral.
129
474915
1789
Technologie ist niemals neutral.
07:57
It provides a context and frames reality.
130
477191
3019
Es bietet einen Kontext und gestaltet die Realität.
08:00
It's part of the problem and part of the solution.
131
480234
2888
Sie ist sowohl Teil des Problems als auch der Lösung.
08:03
We could use it to uncover our blind spots and retrain our perception
132
483624
5640
Sie kann unsere Schwachpunkte finden und unsere Wahrnehmung justieren,
08:09
and consequently, choose how we see each other.
133
489949
3506
und somit entscheiden, wie wir uns gegenseitig betrachten.
08:13
Thank you.
134
493892
1191
Vielen Dank!
08:15
(Applause)
135
495107
2685
(Applaus)
Über diese Website

Auf dieser Seite finden Sie YouTube-Videos, die zum Englischlernen nützlich sind. Sie sehen Englischlektionen, die von hochkarätigen Lehrern aus der ganzen Welt unterrichtet werden. Doppelklicken Sie auf die englischen Untertitel, die auf jeder Videoseite angezeigt werden, um das Video von dort aus abzuspielen. Die Untertitel laufen synchron mit der Videowiedergabe. Wenn Sie irgendwelche Kommentare oder Wünsche haben, kontaktieren Sie uns bitte über dieses Kontaktformular.

https://forms.gle/WvT1wiN1qDtmnspy7