Art that reveals how technology frames reality | Jiabao Li

79,380 views ・ 2020-04-06

TED


下の英語字幕をダブルクリックすると動画を再生できます。

翻訳: Hiroshi Uchiyama 校正: Moe Shoji
00:12
I'm an artist and an engineer.
0
12887
2396
私はアーティストであり エンジニアです
00:15
And lately, I've been thinking a lot about how technology mediates
1
15307
5774
近ごろ 私たちの知覚にテクノロジーが どのように介在するかについて
00:21
the way we perceive reality.
2
21105
2041
よく考えています
00:23
And it's being done in a superinvisible and nuanced way.
3
23653
4640
それは全く目に付かないように 巧妙に行われています
00:29
Technology is designed to shape our sense of reality
4
29260
3646
テクノロジーは現実世界の 実体験であるかのように装って
00:32
by masking itself as the actual experience of the world.
5
32930
3811
私たちの現実に対する認識を 形作るように作られています
00:37
As a result, we are becoming unconscious and unaware
6
37430
4686
その結果 そのようなテクノロジーの存在を 私たちはまったく意識しなくなり
00:42
that it is happening at all.
7
42140
2185
気づきさえしなくなっています
00:45
Take the glasses I usually wear, for example.
8
45360
2488
私がいつもかけているメガネを 例にとってみましょう
00:47
These have become part of the way I ordinarily experience my surroundings.
9
47872
4024
メガネは 私が身の回りを 日常的に経験する方法の一部となっています
00:52
I barely notice them,
10
52352
1490
メガネによって 常に
00:53
even though they are constantly framing reality for me.
11
53866
4085
現実が切り取られていても ほとんど気にも留めません
00:58
The technology I am talking about is designed to do the same thing:
12
58447
4016
私の言うテクノロジーも同じように 機能するようデザインされています
01:02
change what we see and think
13
62487
2438
私たちが見たり考えたりすることに 変化を与えながらも
01:04
but go unnoticed.
14
64949
1760
存在は意識されません
01:07
Now, the only time I do notice my glasses
15
67780
3269
私が自分のメガネを意識するのは
01:11
is when something happens to draw my attention to it,
16
71073
3258
メガネに意識を向けさせることが 起きた時くらいのものです
01:14
like when it gets dirty or my prescription changes.
17
74355
3514
メガネが汚れたり 処方が変わったりした時です
01:18
So I asked myself, "As an artist, what can I create
18
78481
4608
そこで自問しました 「アーティストとして何ができるだろう?
01:23
to draw the same kind of attention
19
83113
2447
私たちの現実を形作っている―
01:25
to the ways digital media -- like news organizations, social media platforms,
20
85584
6171
報道やソーシャルメディア 広告やサーチエンジンなどの
01:31
advertising and search engines --
21
91779
2261
デジタルメディアに どうしたら同じように
01:34
are shaping our reality?"
22
94064
2014
注意を向けられるだろう?」と
01:36
So I created a series of perceptual machines
23
96798
4772
そこで 私は 様々な知覚装置を作りました
01:41
to help us defamiliarize and question
24
101594
3566
自分たちの世界の見方に 違和感を持たせ
01:45
the ways we see the world.
25
105184
2120
疑問を投げかける装置です
01:48
For example, nowadays, many of us have this kind of allergic reaction
26
108859
6033
例えば 昨今では 私たちの多くが 自分の意見とは違う意見に対して
01:54
to ideas that are different from ours.
27
114916
2493
アレルギー反応のようなものを 起こします
01:57
We may not even realize that we've developed this kind of mental allergy.
28
117945
5656
いわば「心理的アレルギー」があることにさえ 気づいていないかもしれません
02:04
So I created a helmet that creates this artificial allergy to the color red.
29
124596
5643
そこで 赤色に対して人工的にアレルギーを 引き起こすヘルメットを作りました
02:10
It simulates this hypersensitivity by making red things look bigger
30
130263
4453
これを装着すると 感覚過敏を模して 赤いものが
大きく見えるようになります
02:14
when you are wearing it.
31
134740
1280
02:16
It has two modes: nocebo and placebo.
32
136730
3558
ノシーボとプラシーボの 2つのモードがあります
02:21
In nocebo mode, it creates this sensorial experience of hyperallergy.
33
141272
5357
ノシーボモードでは 感覚過敏の知覚体験を作り出します
02:26
Whenever I see red, the red expands.
34
146653
2707
赤色が目に入る度に 赤が大きく見えます
02:30
It's similar to social media's amplification effect,
35
150062
3531
ソーシャルメディアの 増幅効果に類似していて
02:33
like when you look at something that bothers you,
36
153617
2597
何か気に入らないものが目に入ると
02:36
you tend to stick with like-minded people
37
156238
2928
自分と同じような考え方をする人と 一緒になって
02:39
and exchange messages and memes, and you become even more angry.
38
159190
4595
メッセージやミームを交換するので さらに怒りが増幅されるというものです
02:44
Sometimes, a trivial discussion gets amplified
39
164274
3662
ときには ほんの些細な議論が増幅され
02:47
and blown way out of proportion.
40
167960
2401
度を失った規模に 膨れ上がります
02:51
Maybe that's even why we are living in the politics of anger.
41
171038
4520
それは私たちが怒りの政治の中で 生きているからかもしれません
02:56
In placebo mode, it's an artificial cure for this allergy.
42
176756
3415
プラシーボモードは こんなアレルギーへの人工治療です
03:00
Whenever you see red, the red shrinks.
43
180575
2292
赤色が目に入る度に 赤が縮んで見えます
03:03
It's a palliative, like in digital media.
44
183617
2875
デジタルメディア同様 一時しのぎに過ぎません
03:06
When you encounter people with different opinions,
45
186516
2899
自分と意見が異なる人々に出くわすと
03:09
we will unfollow them,
46
189439
1477
フォローを外して
03:10
remove them completely out of our feeds.
47
190940
2748
一切 目に入らないようにするのです
03:14
It cures this allergy by avoiding it.
48
194343
3203
対象を回避することで アレルギーを治療するのです
03:17
But this way of intentionally ignoring opposing ideas
49
197570
4547
でも反対意見を意図的に無視する このやり方では
03:22
makes human community hyperfragmented and separated.
50
202141
4056
人間の社会は過度に細分化され 分断を深めてしまいます
03:27
The device inside the helmet reshapes reality
51
207343
3059
このヘルメットの内部のデバイスは 現実を再構築し
03:30
and projects into our eyes through a set of lenses
52
210426
2950
拡張現実を創り出す 一連のレンズを通して
03:33
to create an augmented reality.
53
213400
1915
私たちの目に映し出します
03:35
I picked the color red, because it's intense and emotional,
54
215935
4782
赤色を取り上げたのは 強烈で感情に訴えるからですが
03:40
it has high visibility
55
220741
1958
可視性も高いと同時に
03:42
and it's political.
56
222723
1278
政治的でもあります
03:44
So what if we take a look
57
224390
1263
前回 行われた―
03:45
at the last American presidential election map
58
225677
3049
アメリカ大統領選挙の勢力地図を このヘルメットを通して見ると
03:48
through the helmet?
59
228750
1165
どうなるでしょうか?
03:49
(Laughter)
60
229939
1008
(笑)
03:50
You can see that it doesn't matter if you're a Democrat or a Republican,
61
230971
3573
あなたが共和党支持か民主党支持かは まったく関係ありません
03:54
because the mediation alters our perceptions.
62
234568
3989
なぜなら媒介により私たちの知覚が 改変されているからです
03:58
The allergy exists on both sides.
63
238581
3133
どちらの側も アレルギーを持っているのです
04:03
In digital media,
64
243134
1320
デジタルメディアでは
04:04
what we see every day is often mediated,
65
244478
3133
私たちが毎日目にするものは しばしば介在されており
04:07
but it's also very nuanced.
66
247635
1733
非常に巧妙に行われています
04:09
If we are not aware of this,
67
249758
1995
もし私たちがこの事を 意識しなければ
04:11
we will keep being vulnerable to many kinds of mental allergies.
68
251777
5405
多くの心理的アレルギーに対して 脆弱なままであり続けることになります
04:18
Our perception is not only part of our identities,
69
258900
3510
知覚は私たちのアイデンティティの 一部であるだけではなく
04:22
but in digital media, it's also a part of the value chain.
70
262434
4294
デジタルメディアにおいては バリューチェーンの一部でもあるのです
04:27
Our visual field is packed with so much information
71
267992
3575
私たちの視界には あまりに多くの情報が詰め込まれ
04:31
that our perception has become a commodity with real estate value.
72
271591
5512
私たちの知覚は不動産価値を持つ 商品になってしまったのです
04:38
Designs are used to exploit our unconscious biases,
73
278035
3529
無意識の偏りを悪用するために デザインは利用され
04:41
algorithms favor content that reaffirms our opinions,
74
281588
3480
自分の意見を再確認するコンテンツを アルゴリズムは好みます
04:45
so that every little corner of our field of view is being colonized
75
285092
4191
それゆえ 視野の隅々までもが 広告を販売するために
04:49
to sell ads.
76
289307
1342
侵食されるのです
04:51
Like, when this little red dot comes out in your notifications,
77
291402
4017
このように あなたの通知画面に 小さな赤い点が現れると
04:55
it grows and expands, and to your mind, it's huge.
78
295443
4244
それは大きく広がり 頭の中を埋め尽くします
05:00
So I started to think of ways to put a little dirt,
79
300571
3361
メガネにちょっとした汚れを つける方法や
05:03
or change the lenses of my glasses,
80
303956
2698
メガネのレンズを変える方法を 考え始めるうちに
05:06
and came up with another project.
81
306678
2098
別のプロジェクトを思いつきました
05:09
Now, keep in mind this is conceptual. It's not a real product.
82
309423
3801
これからお見せするのはコンセプトです 現実の製品ではありません
05:13
It's a web browser plug-in
83
313676
2073
ウェブブラウザのプラグインで
05:15
that could help us to notice the things that we would usually ignore.
84
315773
4342
いつもは気も留めないような事柄に 気づかせてくれます
05:20
Like the helmet, the plug-in reshapes reality,
85
320709
3770
先ほどのヘルメットのように このプラグインは現実を再構築しますが
05:24
but this time, directly into the digital media itself.
86
324503
3397
今回はデジタルメディア そのものを再構築します
05:29
It shouts out the hidden filtered voices.
87
329066
3156
ふるい落とされた 隠れた声を目立たせます
05:32
What you should be noticing now
88
332246
1573
あなたが着目すべきことが
05:33
will be bigger and vibrant,
89
333843
2509
より大きく活性化していきます
05:36
like here, this story about gender bias emerging from the sea of cats.
90
336376
4295
この例では猫たちの中から ジェンダーバイアスの記事が浮かび上がります
05:40
(Laughter)
91
340695
2021
(笑)
05:42
The plug-in could dilute the things that are being amplified by an algorithm.
92
342740
5417
アルゴリズムによって増幅される事象を このプラグインで希釈できました
05:48
Like, here in this comment section,
93
348831
1696
このコメント欄のように
05:50
there are lots of people shouting about the same opinions.
94
350551
3069
同じ意見を叫んでいる人が たくさんいると
05:54
The plug-in makes their comments super small.
95
354111
2870
このプラグインはそのようなコメントを ものすごく小さくします
05:57
(Laughter)
96
357005
1008
(笑)
05:58
So now the amount of pixel presence they have on the screen
97
358037
5251
画面上で表示されるピクセルの量が
06:03
is proportional to the actual value they are contributing to the conversation.
98
363312
4554
このスレッドに貢献している 実際の価値に比例しています
06:07
(Laughter)
99
367890
1942
(笑)
06:11
(Applause)
100
371345
3631
(拍手)
06:16
The plug-in also shows the real estate value of our visual field
101
376919
4061
このプラグインは 私たちの視界の不動産価値も示し
06:21
and how much of our perception is being commoditized.
102
381004
3456
私たちの知覚がどれほど 商品化されているかを教えてくれます
06:24
Different from ad blockers,
103
384912
1589
広告ブロッカーとは異なり
06:26
for every ad you see on the web page,
104
386525
2472
あなたがウェブで目にする すべての広告について
06:29
it shows the amount of money you should be earning.
105
389021
3407
あなたが稼げるはずの広告料を 表示してくれます
06:32
(Laughter)
106
392452
1245
(笑)
06:34
We are living in a battlefield between reality
107
394356
2292
私たちは現実と 商用流通化された現実との
06:36
and commercial distributed reality,
108
396672
2253
2つの現実のはざまにある 戦場で生活しており
06:39
so the next version of the plug-in could strike away that commercial reality
109
399329
5086
このプラグインの次のバージョンは 商用化現実を打ちのめして
06:44
and show you things as they really are.
110
404439
2799
ありのままの事実を 見せるようにします
06:47
(Laughter)
111
407262
1791
(笑)
06:50
(Applause)
112
410335
3629
(拍手)
06:55
Well, you can imagine how many directions this could really go.
113
415179
3612
このアイデアに様々な道があることが 想像できるでしょう
06:58
Believe me, I know the risks are high if this were to become a real product.
114
418815
4414
この技術を実際に製品化するなら 高いリスクになるのは分かっています
07:04
And I created this with good intentions
115
424006
2939
私はこのプラグインを 善意をもって
07:06
to train our perception and eliminate biases.
116
426969
3837
知覚を訓練し 偏りを排除するために 作り上げました
07:10
But the same approach could be used with bad intentions,
117
430830
3728
でも同様のアプローチは 悪用することもできます
07:14
like forcing citizens to install a plug-in like that
118
434582
3205
例えば世論を操作するために このようなプラグインの
07:17
to control the public narrative.
119
437811
2126
インストールを 市民に強要するようなことです
07:20
It's challenging to make it fair and personal
120
440768
2737
公正かつ個人的なものにするのは 簡単ではなく
07:23
without it just becoming another layer of mediation.
121
443529
3155
その努力がなければ 介在するものを 増やすだけになってしまいます
07:27
So what does all this mean for us?
122
447933
2662
さて これは私たちにとって どういう意味を持つのでしょう?
07:31
Even though technology is creating this isolation,
123
451230
3733
テクノロジーが 人々の分断を 深めているのだとしても
07:34
we could use it to make the world connected again
124
454987
3602
既存のモデルを打ち壊し さらにその先に進むことによって
07:38
by breaking the existing model and going beyond it.
125
458613
3247
再び世界をつなぐことに 利用できると思うのです
07:42
By exploring how we interface with these technologies,
126
462508
3338
これらのテクノロジーと いかに接点を持つかを探ることで
07:45
we could step out of our habitual, almost machine-like behavior
127
465870
5185
私たちは習慣化した 機械的ともいえる行動から抜け出して
07:51
and finally find common ground between each other.
128
471079
2670
最終的にお互いの共通の基盤を 見いだせるのです
07:54
Technology is never neutral.
129
474915
1789
テクノロジーは 中立になりえません
07:57
It provides a context and frames reality.
130
477191
3019
文脈をもたらし 現実を切り取ります
08:00
It's part of the problem and part of the solution.
131
480234
2888
これは問題でもありますが 解決策でもあります
08:03
We could use it to uncover our blind spots and retrain our perception
132
483624
5640
私たちの盲点を発見し 知覚を訓練し直すことに利用でき
08:09
and consequently, choose how we see each other.
133
489949
3506
そうすれば お互いの見方を 選び取れるのです
08:13
Thank you.
134
493892
1191
ありがとうございました
08:15
(Applause)
135
495107
2685
(拍手)
このウェブサイトについて

このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。

https://forms.gle/WvT1wiN1qDtmnspy7