下の英語字幕をダブルクリックすると動画を再生できます。
翻訳: Hiroshi Uchiyama
校正: Moe Shoji
00:12
I'm an artist and an engineer.
0
12887
2396
私はアーティストであり
エンジニアです
00:15
And lately, I've been thinking a lot
about how technology mediates
1
15307
5774
近ごろ 私たちの知覚にテクノロジーが
どのように介在するかについて
00:21
the way we perceive reality.
2
21105
2041
よく考えています
00:23
And it's being done
in a superinvisible and nuanced way.
3
23653
4640
それは全く目に付かないように
巧妙に行われています
00:29
Technology is designed
to shape our sense of reality
4
29260
3646
テクノロジーは現実世界の
実体験であるかのように装って
00:32
by masking itself as
the actual experience of the world.
5
32930
3811
私たちの現実に対する認識を
形作るように作られています
00:37
As a result, we are becoming
unconscious and unaware
6
37430
4686
その結果 そのようなテクノロジーの存在を
私たちはまったく意識しなくなり
00:42
that it is happening at all.
7
42140
2185
気づきさえしなくなっています
00:45
Take the glasses
I usually wear, for example.
8
45360
2488
私がいつもかけているメガネを
例にとってみましょう
00:47
These have become part of the way
I ordinarily experience my surroundings.
9
47872
4024
メガネは 私が身の回りを
日常的に経験する方法の一部となっています
00:52
I barely notice them,
10
52352
1490
メガネによって 常に
00:53
even though they are constantly
framing reality for me.
11
53866
4085
現実が切り取られていても
ほとんど気にも留めません
00:58
The technology I am talking about
is designed to do the same thing:
12
58447
4016
私の言うテクノロジーも同じように
機能するようデザインされています
01:02
change what we see and think
13
62487
2438
私たちが見たり考えたりすることに
変化を与えながらも
01:04
but go unnoticed.
14
64949
1760
存在は意識されません
01:07
Now, the only time I do notice my glasses
15
67780
3269
私が自分のメガネを意識するのは
01:11
is when something happens
to draw my attention to it,
16
71073
3258
メガネに意識を向けさせることが
起きた時くらいのものです
01:14
like when it gets dirty
or my prescription changes.
17
74355
3514
メガネが汚れたり
処方が変わったりした時です
01:18
So I asked myself,
"As an artist, what can I create
18
78481
4608
そこで自問しました
「アーティストとして何ができるだろう?
01:23
to draw the same kind of attention
19
83113
2447
私たちの現実を形作っている―
01:25
to the ways digital media -- like news
organizations, social media platforms,
20
85584
6171
報道やソーシャルメディア
広告やサーチエンジンなどの
01:31
advertising and search engines --
21
91779
2261
デジタルメディアに
どうしたら同じように
01:34
are shaping our reality?"
22
94064
2014
注意を向けられるだろう?」と
01:36
So I created a series
of perceptual machines
23
96798
4772
そこで 私は
様々な知覚装置を作りました
01:41
to help us defamiliarize and question
24
101594
3566
自分たちの世界の見方に
違和感を持たせ
01:45
the ways we see the world.
25
105184
2120
疑問を投げかける装置です
01:48
For example, nowadays, many of us
have this kind of allergic reaction
26
108859
6033
例えば 昨今では 私たちの多くが
自分の意見とは違う意見に対して
01:54
to ideas that are different from ours.
27
114916
2493
アレルギー反応のようなものを
起こします
01:57
We may not even realize that we've
developed this kind of mental allergy.
28
117945
5656
いわば「心理的アレルギー」があることにさえ
気づいていないかもしれません
02:04
So I created a helmet that creates
this artificial allergy to the color red.
29
124596
5643
そこで 赤色に対して人工的にアレルギーを
引き起こすヘルメットを作りました
02:10
It simulates this hypersensitivity
by making red things look bigger
30
130263
4453
これを装着すると
感覚過敏を模して 赤いものが
大きく見えるようになります
02:14
when you are wearing it.
31
134740
1280
02:16
It has two modes: nocebo and placebo.
32
136730
3558
ノシーボとプラシーボの
2つのモードがあります
02:21
In nocebo mode, it creates this
sensorial experience of hyperallergy.
33
141272
5357
ノシーボモードでは
感覚過敏の知覚体験を作り出します
02:26
Whenever I see red, the red expands.
34
146653
2707
赤色が目に入る度に
赤が大きく見えます
02:30
It's similar to social media's
amplification effect,
35
150062
3531
ソーシャルメディアの
増幅効果に類似していて
02:33
like when you look at something
that bothers you,
36
153617
2597
何か気に入らないものが目に入ると
02:36
you tend to stick with like-minded people
37
156238
2928
自分と同じような考え方をする人と
一緒になって
02:39
and exchange messages and memes,
and you become even more angry.
38
159190
4595
メッセージやミームを交換するので
さらに怒りが増幅されるというものです
02:44
Sometimes, a trivial
discussion gets amplified
39
164274
3662
ときには ほんの些細な議論が増幅され
02:47
and blown way out of proportion.
40
167960
2401
度を失った規模に
膨れ上がります
02:51
Maybe that's even why
we are living in the politics of anger.
41
171038
4520
それは私たちが怒りの政治の中で
生きているからかもしれません
02:56
In placebo mode, it's
an artificial cure for this allergy.
42
176756
3415
プラシーボモードは
こんなアレルギーへの人工治療です
03:00
Whenever you see red, the red shrinks.
43
180575
2292
赤色が目に入る度に
赤が縮んで見えます
03:03
It's a palliative, like in digital media.
44
183617
2875
デジタルメディア同様
一時しのぎに過ぎません
03:06
When you encounter people
with different opinions,
45
186516
2899
自分と意見が異なる人々に出くわすと
03:09
we will unfollow them,
46
189439
1477
フォローを外して
03:10
remove them completely out of our feeds.
47
190940
2748
一切 目に入らないようにするのです
03:14
It cures this allergy by avoiding it.
48
194343
3203
対象を回避することで
アレルギーを治療するのです
03:17
But this way of intentionally
ignoring opposing ideas
49
197570
4547
でも反対意見を意図的に無視する
このやり方では
03:22
makes human community
hyperfragmented and separated.
50
202141
4056
人間の社会は過度に細分化され
分断を深めてしまいます
03:27
The device inside the helmet
reshapes reality
51
207343
3059
このヘルメットの内部のデバイスは
現実を再構築し
03:30
and projects into our eyes
through a set of lenses
52
210426
2950
拡張現実を創り出す
一連のレンズを通して
03:33
to create an augmented reality.
53
213400
1915
私たちの目に映し出します
03:35
I picked the color red,
because it's intense and emotional,
54
215935
4782
赤色を取り上げたのは
強烈で感情に訴えるからですが
03:40
it has high visibility
55
220741
1958
可視性も高いと同時に
03:42
and it's political.
56
222723
1278
政治的でもあります
03:44
So what if we take a look
57
224390
1263
前回 行われた―
03:45
at the last American
presidential election map
58
225677
3049
アメリカ大統領選挙の勢力地図を
このヘルメットを通して見ると
03:48
through the helmet?
59
228750
1165
どうなるでしょうか?
03:49
(Laughter)
60
229939
1008
(笑)
03:50
You can see that it doesn't matter
if you're a Democrat or a Republican,
61
230971
3573
あなたが共和党支持か民主党支持かは
まったく関係ありません
03:54
because the mediation
alters our perceptions.
62
234568
3989
なぜなら媒介により私たちの知覚が
改変されているからです
03:58
The allergy exists on both sides.
63
238581
3133
どちらの側も
アレルギーを持っているのです
04:03
In digital media,
64
243134
1320
デジタルメディアでは
04:04
what we see every day
is often mediated,
65
244478
3133
私たちが毎日目にするものは
しばしば介在されており
04:07
but it's also very nuanced.
66
247635
1733
非常に巧妙に行われています
04:09
If we are not aware of this,
67
249758
1995
もし私たちがこの事を
意識しなければ
04:11
we will keep being vulnerable
to many kinds of mental allergies.
68
251777
5405
多くの心理的アレルギーに対して
脆弱なままであり続けることになります
04:18
Our perception is not only
part of our identities,
69
258900
3510
知覚は私たちのアイデンティティの
一部であるだけではなく
04:22
but in digital media, it's also
a part of the value chain.
70
262434
4294
デジタルメディアにおいては
バリューチェーンの一部でもあるのです
04:27
Our visual field is packed
with so much information
71
267992
3575
私たちの視界には
あまりに多くの情報が詰め込まれ
04:31
that our perception has become
a commodity with real estate value.
72
271591
5512
私たちの知覚は不動産価値を持つ
商品になってしまったのです
04:38
Designs are used to exploit
our unconscious biases,
73
278035
3529
無意識の偏りを悪用するために
デザインは利用され
04:41
algorithms favor content
that reaffirms our opinions,
74
281588
3480
自分の意見を再確認するコンテンツを
アルゴリズムは好みます
04:45
so that every little corner
of our field of view is being colonized
75
285092
4191
それゆえ 視野の隅々までもが
広告を販売するために
04:49
to sell ads.
76
289307
1342
侵食されるのです
04:51
Like, when this little red dot
comes out in your notifications,
77
291402
4017
このように あなたの通知画面に
小さな赤い点が現れると
04:55
it grows and expands,
and to your mind, it's huge.
78
295443
4244
それは大きく広がり
頭の中を埋め尽くします
05:00
So I started to think of ways
to put a little dirt,
79
300571
3361
メガネにちょっとした汚れを
つける方法や
05:03
or change the lenses of my glasses,
80
303956
2698
メガネのレンズを変える方法を
考え始めるうちに
05:06
and came up with another project.
81
306678
2098
別のプロジェクトを思いつきました
05:09
Now, keep in mind this is conceptual.
It's not a real product.
82
309423
3801
これからお見せするのはコンセプトです
現実の製品ではありません
05:13
It's a web browser plug-in
83
313676
2073
ウェブブラウザのプラグインで
05:15
that could help us to notice
the things that we would usually ignore.
84
315773
4342
いつもは気も留めないような事柄に
気づかせてくれます
05:20
Like the helmet,
the plug-in reshapes reality,
85
320709
3770
先ほどのヘルメットのように
このプラグインは現実を再構築しますが
05:24
but this time, directly
into the digital media itself.
86
324503
3397
今回はデジタルメディア
そのものを再構築します
05:29
It shouts out the hidden filtered voices.
87
329066
3156
ふるい落とされた
隠れた声を目立たせます
05:32
What you should be noticing now
88
332246
1573
あなたが着目すべきことが
05:33
will be bigger and vibrant,
89
333843
2509
より大きく活性化していきます
05:36
like here, this story about gender bias
emerging from the sea of cats.
90
336376
4295
この例では猫たちの中から
ジェンダーバイアスの記事が浮かび上がります
05:40
(Laughter)
91
340695
2021
(笑)
05:42
The plug-in could dilute the things
that are being amplified by an algorithm.
92
342740
5417
アルゴリズムによって増幅される事象を
このプラグインで希釈できました
05:48
Like, here in this comment section,
93
348831
1696
このコメント欄のように
05:50
there are lots of people shouting
about the same opinions.
94
350551
3069
同じ意見を叫んでいる人が
たくさんいると
05:54
The plug-in makes
their comments super small.
95
354111
2870
このプラグインはそのようなコメントを
ものすごく小さくします
05:57
(Laughter)
96
357005
1008
(笑)
05:58
So now the amount of pixel presence
they have on the screen
97
358037
5251
画面上で表示されるピクセルの量が
06:03
is proportional to the actual value
they are contributing to the conversation.
98
363312
4554
このスレッドに貢献している
実際の価値に比例しています
06:07
(Laughter)
99
367890
1942
(笑)
06:11
(Applause)
100
371345
3631
(拍手)
06:16
The plug-in also shows the real estate
value of our visual field
101
376919
4061
このプラグインは
私たちの視界の不動産価値も示し
06:21
and how much of our perception
is being commoditized.
102
381004
3456
私たちの知覚がどれほど
商品化されているかを教えてくれます
06:24
Different from ad blockers,
103
384912
1589
広告ブロッカーとは異なり
06:26
for every ad you see on the web page,
104
386525
2472
あなたがウェブで目にする
すべての広告について
06:29
it shows the amount of money
you should be earning.
105
389021
3407
あなたが稼げるはずの広告料を
表示してくれます
06:32
(Laughter)
106
392452
1245
(笑)
06:34
We are living in a battlefield
between reality
107
394356
2292
私たちは現実と
商用流通化された現実との
06:36
and commercial distributed reality,
108
396672
2253
2つの現実のはざまにある
戦場で生活しており
06:39
so the next version of the plug-in
could strike away that commercial reality
109
399329
5086
このプラグインの次のバージョンは
商用化現実を打ちのめして
06:44
and show you things as they really are.
110
404439
2799
ありのままの事実を
見せるようにします
06:47
(Laughter)
111
407262
1791
(笑)
06:50
(Applause)
112
410335
3629
(拍手)
06:55
Well, you can imagine how many directions
this could really go.
113
415179
3612
このアイデアに様々な道があることが
想像できるでしょう
06:58
Believe me, I know the risks are high
if this were to become a real product.
114
418815
4414
この技術を実際に製品化するなら
高いリスクになるのは分かっています
07:04
And I created this with good intentions
115
424006
2939
私はこのプラグインを
善意をもって
07:06
to train our perception
and eliminate biases.
116
426969
3837
知覚を訓練し 偏りを排除するために
作り上げました
07:10
But the same approach
could be used with bad intentions,
117
430830
3728
でも同様のアプローチは
悪用することもできます
07:14
like forcing citizens
to install a plug-in like that
118
434582
3205
例えば世論を操作するために
このようなプラグインの
07:17
to control the public narrative.
119
437811
2126
インストールを
市民に強要するようなことです
07:20
It's challenging to make it
fair and personal
120
440768
2737
公正かつ個人的なものにするのは
簡単ではなく
07:23
without it just becoming
another layer of mediation.
121
443529
3155
その努力がなければ 介在するものを
増やすだけになってしまいます
07:27
So what does all this mean for us?
122
447933
2662
さて これは私たちにとって
どういう意味を持つのでしょう?
07:31
Even though technology
is creating this isolation,
123
451230
3733
テクノロジーが 人々の分断を
深めているのだとしても
07:34
we could use it to make
the world connected again
124
454987
3602
既存のモデルを打ち壊し
さらにその先に進むことによって
07:38
by breaking the existing model
and going beyond it.
125
458613
3247
再び世界をつなぐことに
利用できると思うのです
07:42
By exploring how we interface
with these technologies,
126
462508
3338
これらのテクノロジーと
いかに接点を持つかを探ることで
07:45
we could step out of our habitual,
almost machine-like behavior
127
465870
5185
私たちは習慣化した
機械的ともいえる行動から抜け出して
07:51
and finally find common ground
between each other.
128
471079
2670
最終的にお互いの共通の基盤を
見いだせるのです
07:54
Technology is never neutral.
129
474915
1789
テクノロジーは
中立になりえません
07:57
It provides a context and frames reality.
130
477191
3019
文脈をもたらし 現実を切り取ります
08:00
It's part of the problem
and part of the solution.
131
480234
2888
これは問題でもありますが
解決策でもあります
08:03
We could use it to uncover our blind spots
and retrain our perception
132
483624
5640
私たちの盲点を発見し
知覚を訓練し直すことに利用でき
08:09
and consequently, choose
how we see each other.
133
489949
3506
そうすれば お互いの見方を
選び取れるのです
08:13
Thank you.
134
493892
1191
ありがとうございました
08:15
(Applause)
135
495107
2685
(拍手)
New videos
このウェブサイトについて
このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。