Technology that knows what you're feeling | Poppy Crum

137,815 views ・ 2018-07-10

TED


下の英語字幕をダブルクリックすると動画を再生できます。

翻訳: Yasushi Aoki 校正: Tomoyuki Suzuki
00:12
What happens when technology knows more about us than we do?
0
12881
4456
テクノロジーが 私達のことを 私達自身よりも よく知るようになったら どうなるでしょう?
00:17
A computer now can detect our slightest facial microexpressions
1
17992
3672
今のコンピューターは ごくかすかな表情も検出でき
00:21
and be able to tell the difference between a real smile and a fake one.
2
21688
3611
笑顔が本物かどうかを 言い当てられます
00:25
That's only the beginning.
3
25323
1734
それもまだ序の口です
00:27
Technology has become incredibly intelligent
4
27466
2865
テクノロジーはものすごく 知的になっていて
00:30
and already knows a lot about our internal states.
5
30355
3400
人の内面について 既にかなりのことが分かります
00:34
And whether we like it or not,
6
34085
2286
気に入ろうが入るまいが
00:36
we already are sharing parts of our inner lives
7
36395
3499
私達は既に 自分の内面のある部分を
00:39
that's out of our control.
8
39918
1733
隠せなくなっています
00:43
That seems like a problem,
9
43413
1421
これは問題と思えます
00:44
because a lot of us like to keep what's going on inside
10
44858
3246
多くの人は 心の中のことは
知られたくないからです
00:48
from what people actually see.
11
48128
1647
00:50
We want to have agency over what we share and what we don't.
12
50323
4420
何を外に出し 何を出さないかは 自分で制御したいと思います
00:55
We all like to have a poker face.
13
55473
2321
ポーカーフェイスでいたいんです
00:59
But I'm here to tell you that I think that's a thing of the past.
14
59584
3346
でも それはもう過去のことです
01:03
And while that might sound scary, it's not necessarily a bad thing.
15
63347
4770
これは怖く感じるかもしれませんが 必ずしも悪いことではありません
私達のそれぞれが持つ 独特な知覚された現実を生み出す
01:09
I've spent a lot of time studying the circuits in the brain
16
69030
2770
01:11
that create the unique perceptual realities that we each have.
17
71824
3693
脳の回路について 私は研究してきました
01:16
And now I bring that together
18
76110
1405
それを今まとめて
01:17
with the capabilities of current technology
19
77539
2062
最新のテクノロジーと組み合わせ
01:19
to create new technology that does make us better,
20
79625
2537
私達がもっとよく感じ取れ 繋がり合えるようにする
01:22
feel more, connect more.
21
82186
1600
人をより良くする技術を 作ろうとしています
01:24
And I believe to do that,
22
84482
1786
そのためには ある程度制御を失うことも
01:26
we have to be OK losing some of our agency.
23
86292
2749
受け入れるべきだと 思っています
01:30
With some animals, it's really amazing,
24
90149
2523
これはすごいことなんですが ある種の動物について
01:32
and we get to see into their internal experiences.
25
92696
3474
その内的な経験を 捉えられるようになっています
01:36
We get this upfront look at the mechanistic interaction
26
96649
3722
まわりの世界への反応と
体の生物学的システムの状態の間の 機械的な関係を
01:40
between how they respond to the world around them
27
100395
2817
01:43
and the state of their biological systems.
28
103236
2008
見て取ることができます
01:45
This is where evolutionary pressures like eating, mating
29
105268
3809
食べ つがいになり 食べられないようにするという
01:49
and making sure we don't get eaten
30
109101
1762
進化圧によって
01:50
drive deterministic behavioral responses to information in the world.
31
110887
4157
周りの世界の情報に対する 決まった 応答行動が生み出されているのです
01:55
And we get to see into this window,
32
115806
2794
私達は 生き物の内面や その生物学的体験を
01:58
into their internal states and their biological experiences.
33
118624
3636
覗き込み始めています
02:02
It's really pretty cool.
34
122284
1642
結構すごいことだと思います
02:03
Now, stay with me for a moment -- I'm a violinist, not a singer.
35
123950
4103
ちょっとお耳を汚すことになりますが— 私はバイオリンはやりますが歌手ではないので
02:08
But the spider's already given me a critical review.
36
128077
3590
でも 批評なら既に このクモが 出しているのかもしれません
02:16
(Video) (Singing in a low pitch)
37
136907
2060
(低音の歌声)
02:19
(Singing in a middle pitch)
38
139868
2888
(中音の歌声)
02:23
(Singing in a high pitch)
39
143800
2505
(高音の歌声—クモが反応する)
02:27
(Singing in a low pitch)
40
147069
1421
(低音の歌声)
02:29
(Singing in a middle pitch)
41
149236
1600
(中音の歌声)
02:31
(Singing in a high pitch)
42
151403
1777
(高音の歌声—クモが反応する)
02:33
(Laughter)
43
153204
1150
(笑)
02:36
Poppy Crum: It turns out, some spiders tune their webs like violins
44
156387
3198
ある種のクモは 巣をバイオリンみたいに
02:39
to resonate with certain sounds.
45
159609
2158
ある音に共鳴するよう 調弦するんです
02:41
And likely, the harmonics of my voice as it went higher
46
161791
2771
私の歌う声の 高さや音量が高くなり
02:44
coupled with how loud I was singing
47
164586
1730
それが捕食者のコウモリの エコーロケーションや
02:46
recreated either the predatory call of an echolocating bat or a bird,
48
166340
4467
鳥の鳴き声に近くなったとき
02:50
and the spider did what it should.
49
170831
1881
クモはしかるべき 反応をし
02:53
It predictively told me to bug off.
50
173300
2817
立ち去れと 私に言ったんです
02:56
I love this.
51
176824
1150
すごく面白いと思います
02:58
The spider's responding to its external world
52
178546
3309
クモの外界への反応によって
03:01
in a way that we get to see and know what's happening to its internal world.
53
181879
4350
内側で起きていることが 見て取れます
03:07
Biology is controlling the spider's response;
54
187069
2206
生物学的に 制御された反応に
03:09
it's wearing its internal state on its sleeve.
55
189299
2776
クモの内面が 現れているんです
03:13
But us, humans --
56
193768
1655
でも私達人間は 違いますよね
03:16
we're different.
57
196184
1150
03:17
We like to think we have cognitive control over what people see, know and understand
58
197899
5735
自分の内面について 他人が見 知り 理解することは
03:23
about our internal states --
59
203658
1409
制御できると思っています
03:25
our emotions, our insecurities, our bluffs, our trials and tribulations --
60
205091
4303
感情も 不安も はったりも
艱難辛苦や それに対する反応も
03:29
and how we respond.
61
209418
1267
03:31
We get to have our poker face.
62
211927
2282
私達はポーカーフェイスが使えます
03:35
Or maybe we don't.
63
215799
1200
でも そうでもないのかも
03:37
Try this with me.
64
217728
1182
ちょっと試してみましょう
03:38
Your eye responds to how hard your brain is working.
65
218934
2690
目は脳の働き具合に反応します
03:42
The response you're about to see is driven entirely by mental effort
66
222363
3230
ご覧いただく目の反応は 精神的努力によって生じたもので
03:45
and has nothing to do with changes in lighting.
67
225617
2635
光量の変化によるもの ではありません
03:48
We know this from neuroscience.
68
228276
1650
神経科学で 裏付けられています
03:49
I promise, your eyes are doing the same thing as the subject in our lab,
69
229950
4560
皆さんの目も この被験者と 同じことをしています
03:54
whether you want them to or not.
70
234534
1734
望むと望まざるとに かかわらず
03:56
At first, you'll hear some voices.
71
236292
2173
複数の声が聞こえるので
03:58
Try and understand them and keep watching the eye in front of you.
72
238489
3278
何と言っているのか聞き取りつつ この目を見ていてください
04:01
It's going to be hard at first,
73
241791
1498
最初は難しいですが
04:03
one should drop out, and it should get really easy.
74
243313
2391
一方が消えると ずっと簡単になります
努力の程度の変化が 瞳孔の大きさに見て取れます
04:05
You're going to see the change in effort in the diameter of the pupil.
75
245728
3325
04:10
(Video) (Two overlapping voices talking)
76
250140
2567
(重なった2人の声)
04:12
(Single voice) Intelligent technology depends on personal data.
77
252731
2963
(1人の声) インテリジェンス技術は 個人データに依存している
04:15
(Two overlapping voices talking)
78
255718
2446
(重なった2人の声)
04:18
(Single voice) Intelligent technology depends on personal data.
79
258188
2976
(1人の声) インテリジェンス技術は 個人データに依存している
04:21
PC: Your pupil doesn't lie.
80
261680
1326
瞳は嘘をつきません
04:23
Your eye gives away your poker face.
81
263030
2400
目がポーカーフェイスを 破っています
04:25
When your brain's having to work harder,
82
265990
1913
脳が必死に 働かねばならないと
04:27
your autonomic nervous system drives your pupil to dilate.
83
267927
2785
自律神経系が 瞳孔を拡張させ
04:30
When it's not, it contracts.
84
270736
1555
そうでないときは 縮小します
04:32
When I take away one of the voices,
85
272680
1691
2つの声の一方を取り除くと
04:34
the cognitive effort to understand the talkers
86
274395
2262
話を理解するのは
04:36
gets a lot easier.
87
276681
1158
ずっと楽になります
04:37
I could have put the two voices in different spatial locations,
88
277863
3000
2つの声を空間的に 別の位置に配したり
04:40
I could have made one louder.
89
280887
1666
一方の声を大きくすることでも 楽になります
04:42
You would have seen the same thing.
90
282577
1738
経験があるはずです
04:45
We might think we have more agency over the reveal of our internal state
91
285006
4786
私達は内面を隠すことを
クモよりもうまくできる つもりでいますが
04:49
than that spider,
92
289816
1579
04:51
but maybe we don't.
93
291419
1266
そうでもない かもしれません
最新の技術により 人の内面を明らかにする様々な兆候が
04:53
Today's technology is starting to make it really easy
94
293021
2969
04:56
to see the signals and tells that give us away.
95
296014
2690
容易に検出できるように なってきています
04:59
The amalgamation of sensors paired with machine learning
96
299109
3294
私達自身や 周りの環境についての センサーデータと
05:02
on us, around us and in our environments,
97
302427
2413
機械学習を 組み合わせることで
05:04
is a lot more than cameras and microphones tracking our external actions.
98
304864
4653
外面を捉えるカメラやマイクより ずっと多くのことがわかります
05:12
Our bodies radiate our stories
99
312529
2818
生理的な体温変化を通して
05:15
from changes in the temperature of our physiology.
100
315371
2666
私達の体は 物語を語っています
05:18
We can look at these as infrared thermal images
101
318546
2261
スクリーンに出ているのは 赤外線熱画像で
05:20
showing up behind me,
102
320831
1160
赤が温かい部分
05:22
where reds are hotter and blues are cooler.
103
322015
2070
青が冷たい部分です
05:24
The dynamic signature of our thermal response
104
324458
3183
体温変化のパターンから 多くのことが分かります
05:27
gives away our changes in stress,
105
327665
3031
ストレスの状態や
05:30
how hard our brain is working,
106
330720
2008
どれほど頭を働かせているか
05:32
whether we're paying attention
107
332752
1936
注意を払っているか
05:34
and engaged in the conversation we might be having
108
334712
2627
会話について いっているか
05:37
and even whether we're experiencing a picture of fire as if it were real.
109
337363
4095
火の写真を 本当の火のように 感じているかどうかまで
05:41
We can actually see people give off heat on their cheeks
110
341482
2643
実際 炎の画像への反応として
05:44
in response to an image of flame.
111
344149
2200
頬が熱くなるのがわかります
05:48
But aside from giving away our poker bluffs,
112
348013
2929
ポーカーでのはったりが ばれるだけでなく
05:50
what if dimensions of data from someone's thermal response
113
350966
4746
体温変化から 相手に対する関心を
05:55
gave away a glow of interpersonal interest?
114
355736
2659
読み取れるとしたら どうでしょう?
05:58
Tracking the honesty of feelings in someone's thermal image
115
358966
3532
熱画像に現れる 正直な感情を見ることが
06:02
might be a new part of how we fall in love and see attraction.
116
362522
3626
恋愛関係を始めるプロセスの 一部になるかもしれません
06:06
Our technology can listen, develop insights and make predictions
117
366172
3693
マイクで捉えた
話す言葉のタイミングの 変化を分析することで
06:09
about our mental and physical health
118
369889
2095
06:12
just by analyzing the timing dynamics of our speech and language
119
372008
4000
精神的 肉体的な 健康状態に耳を澄ませ
洞察し 予測する こともできます
06:16
picked up by microphones.
120
376032
1443
言葉の統計的な変化を 機械学習にかけることで
06:18
Groups have shown that changes in the statistics of our language
121
378038
3880
06:21
paired with machine learning
122
381942
1420
その人が精神病になりそうか
06:23
can predict the likelihood someone will develop psychosis.
123
383386
3161
予測できることが 示されています
06:27
I'm going to take it a step further
124
387442
1751
これをさらに進めて
様々な病状に応じて現れる
06:29
and look at linguistic changes and changes in our voice
125
389217
2587
言葉や声の変化を 観察することもできるでしょう
06:31
that show up with a lot of different conditions.
126
391828
2239
06:34
Dementia, diabetes can alter the spectral coloration of our voice.
127
394091
4367
痴呆症や糖尿病により 声の特性は変化します
06:39
Changes in our language associated with Alzheimer's
128
399205
3119
アルツハイマー病に関連する 言語的な変化は
06:42
can sometimes show up more than 10 years before clinical diagnosis.
129
402348
4365
病気が診断される10年以上前から 現れることがあります
06:47
What we say and how we say it tells a much richer story
130
407236
3960
何を どう言うかは 以前に考えられていたよりも
ずっと多くのことを 物語っているのです
06:51
than we used to think.
131
411220
1254
06:53
And devices we already have in our homes could, if we let them,
132
413022
4047
そして 受け入れさえするなら
家庭にあるデバイスを使って 貴重な洞察を得ることができます
06:57
give us invaluable insight back.
133
417093
2134
06:59
The chemical composition of our breath
134
419998
2978
呼気の化学組成から
07:03
gives away our feelings.
135
423959
1354
感情がわかります
07:06
There's a dynamic mixture of acetone, isoprene and carbon dioxide
136
426363
4478
アセトンとイソプレンと 二酸化炭素の混合物ですが
07:10
that changes when our heart speeds up, when our muscles tense,
137
430865
3384
心拍が早くなり 筋肉が緊張すると
07:14
and all without any obvious change in our behaviors.
138
434809
2897
見た目では分からなくとも 呼気の成分比が変化します
07:18
Alright, I want you to watch this clip with me.
139
438268
2738
一緒に映像を見て頂きます
07:21
Some things might be going on on the side screens,
140
441030
3119
横の画面に何か出ますが
07:24
but try and focus on the image in the front
141
444173
3777
正面の画面に出る
窓辺の男に 注目していてください
07:27
and the man at the window.
142
447974
1463
07:31
(Eerie music)
143
451633
2658
(不気味な音楽)
07:39
(Woman screams)
144
459767
1437
(女性の悲鳴)
07:50
PC: Sorry about that. I needed to get a reaction.
145
470692
2395
驚かせてごめんなさい 皆さんの反応を見たかったので
07:53
(Laughter)
146
473111
1785
(笑)
07:55
I'm actually tracking the carbon dioxide you exhale in the room right now.
147
475412
4972
今 皆さんが吐く二酸化炭素を 計測しています
08:01
We've installed tubes throughout the theater,
148
481903
3293
会場中にチューブが 配置されていて
CO2は空気よりも重いので 床の近くなんですが
08:05
lower to the ground, because CO2 is heavier than air.
149
485220
2595
08:07
But they're connected to a device in the back
150
487839
2667
そのチューブが 裏にある装置に繋がっていて
08:10
that lets us measure, in real time, with high precision,
151
490530
3287
CO2濃度変化を
リアルタイムで 正確に計測しています
08:13
the continuous differential concentration of CO2.
152
493841
2922
08:17
The clouds on the sides are actually the real-time data visualization
153
497246
5508
横の画面の 雲みたいなのは
会場のCO2濃度を リアルタイムで可視化したものです
08:22
of the density of our CO2.
154
502778
1998
08:25
You might still see a patch of red on the screen,
155
505374
3699
画面に赤い部分が 見えるかと思いますが
08:29
because we're showing increases with larger colored clouds,
156
509097
3705
ホラー映像を見ていたときに
08:32
larger colored areas of red.
157
512826
2196
赤い部分が大きくなっています
08:35
And that's the point where a lot of us jumped.
158
515046
2559
皆さんが ビクッとしたところです
08:38
It's our collective suspense driving a change in carbon dioxide.
159
518173
4915
みんなの不安が 二酸化炭素濃度を変化させたのです
08:43
Alright, now, watch this with me one more time.
160
523649
2722
映像をもう一度見てみましょう
08:46
(Cheerful music)
161
526395
2238
(陽気な音楽)
08:54
(Woman laughs)
162
534553
2137
(女性の笑い声)
09:05
PC: You knew it was coming.
163
545344
1349
予期していた というのもありますが
09:06
But it's a lot different when we changed the creator's intent.
164
546717
3363
作者の意図を変えると 全然違ったものになるのが分かります
09:10
Changing the music and the sound effects
165
550776
2769
音楽や効果音によって
09:13
completely alter the emotional impact of that scene.
166
553569
3603
同じシーンの感情的反応が まったく変わってしまい
09:17
And we can see it in our breath.
167
557196
2134
そのことが呼気から 読み取れます
09:20
Suspense, fear, joy
168
560196
2262
不安や恐怖や 喜びがすべて
09:22
all show up as reproducible, visually identifiable moments.
169
562482
4507
再現可能で視覚的に識別可能な 瞬間として現れるのです
09:27
We broadcast a chemical signature of our emotions.
170
567473
4151
私達は自分の感情の化学的痕跡を 放出し続けています
09:35
It is the end of the poker face.
171
575249
2133
ポーカーフェイスは 終わりということです
09:38
Our spaces, our technology will know what we're feeling.
172
578582
3566
身の周りの空間やテクノロジーが 私達の感情を把握するようになるでしょう
09:42
We will know more about each other than we ever have.
173
582736
2785
私達は互いのことが ずっとよく分かるようになり
09:45
We get a chance to reach in and connect to the experience and sentiments
174
585911
4307
相手の人間として基本的な 経験や気持ちに触れ
09:50
that are fundamental to us as humans
175
590242
1742
感情的に 社会的に 繋がれるようになるかもしれません
09:52
in our senses, emotionally and socially.
176
592008
2410
09:55
I believe it is the era of the empath.
177
595482
2540
共感能力者の時代が やってきます
09:58
And we are enabling the capabilities that true technological partners can bring
178
598046
5222
人間同士や 人間とテクノロジーの 繋がりに対し
真の技術的パートナーがもたらせる能力を 私達は手にしつつあります
10:03
to how we connect with each other and with our technology.
179
603292
3047
10:06
If we recognize the power of becoming technological empaths,
180
606363
3389
技術によって共感能力者となることの 効力を認めるなら
10:09
we get this opportunity
181
609776
1936
感情的 認知的な分断を テクノロジーで橋渡しできる
10:11
where technology can help us bridge the emotional and cognitive divide.
182
611736
4424
可能性が出てきます
10:16
And in that way, we get to change how we tell our stories.
183
616680
2723
そうやって 私達の物語る方法が 変わることでしょう
10:19
We can enable a better future for technologies like augmented reality
184
619427
3580
拡張現実のような技術によって 自分の能力を強化しつつ
10:23
to extend our own agency and connect us at a much deeper level.
185
623031
4193
より深く他者と繋がり より良い未来を作り出せるでしょう
10:27
Imagine a high school counselor being able to realize
186
627625
2547
想像してみてください 高校のカウンセラーが
外面は陽気な生徒に 深い悩みがあるのが分かり
10:30
that an outwardly cheery student really was having a deeply hard time,
187
630196
3826
手を差し伸べて 重要な変化を起こすことを
10:34
where reaching out can make a crucial, positive difference.
188
634046
3180
10:37
Or authorities, being able to know the difference
189
637766
3230
あるいは当局が
心の病を抱える人や
10:41
between someone having a mental health crisis
190
641020
2325
攻撃性のタイプの 違いがわかり
10:43
and a different type of aggression,
191
643369
1826
適切な対応が できるようになることを
10:45
and responding accordingly.
192
645219
1800
10:47
Or an artist, knowing the direct impact of their work.
193
647609
3273
あるいは芸術家が 自分の作品に対する 直接的な反応が分かるようになることを
10:52
Leo Tolstoy defined his perspective of art
194
652173
2643
トルストイの芸術の考え方は
10:54
by whether what the creator intended
195
654840
1785
作者が意図したとおりのことを
10:56
was experienced by the person on the other end.
196
656649
2586
受け手が経験するかどうか ということでした
10:59
Today's artists can know what we're feeling.
197
659259
2566
今日の芸術家は 私達がどう感じているか 知ることができます
11:02
But regardless of whether it's art or human connection,
198
662204
3005
芸術にせよ 人間関係にせよ—
11:06
today's technologies will know and can know
199
666608
2802
今日のテクノロジーによって
相手の経験していることが 分かるようになり
11:09
what we're experiencing on the other side,
200
669434
2048
11:11
and this means we can be closer and more authentic.
201
671506
2618
それによって私達は より近しく より真摯になれるでしょう
11:14
But I realize a lot of us have a really hard time
202
674498
4293
でも 自分のデータを 共有することに
抵抗があるのも分かります
11:18
with the idea of sharing our data,
203
678815
2267
11:21
and especially the idea that people know things about us
204
681673
3111
特に自分が共有することを 選んではいないことが
11:24
that we didn't actively choose to share.
205
684808
2321
みんなに知られて しまうのは嫌でしょう
11:28
Anytime we talk to someone,
206
688728
2216
私達が誰かと話すとき
11:31
look at someone
207
691946
1555
誰かを見るとき
11:33
or choose not to look,
208
693525
1468
あるいは見まいとするとき
11:35
data is exchanged, given away,
209
695017
2647
交換されるデータがあり
11:38
that people use to learn,
210
698533
2205
そこから人は何かを知り
11:40
make decisions about their lives and about ours.
211
700762
3267
自分や他の人についての 決断をします
11:45
I'm not looking to create a world where our inner lives are ripped open
212
705469
3968
私達の内的な生活が さらけ出され
個人データやプライバシーが 自分の望まない相手や組織に
11:49
and our personal data and our privacy given away
213
709461
2348
11:51
to people and entities where we don't want to see it go.
214
711833
2713
勝手に渡されるような世界に したいとは思っていません
私が築きたい世界は
11:55
But I am looking to create a world
215
715117
2762
人々がもっと お互いを気にかけ
11:57
where we can care about each other more effectively,
216
717903
3408
私達が注意を向けるべき感情を 誰かが抱いているときに
12:01
we can know more about when someone is feeling something
217
721335
3060
12:04
that we ought to pay attention to.
218
724419
1872
それと分かるような世界です
12:06
And we can have richer experiences from our technology.
219
726800
3335
私達はテクノロジーによって より豊かな体験ができます
12:10
Any technology can be used for good or bad.
220
730887
2357
テクノロジーというのは 良い使い方も悪い使い方もできます
12:13
Transparency to engagement and effective regulation
221
733268
2412
このようなものに 信頼を構築する上では
12:15
are absolutely critical to building the trust for any of this.
222
735704
3120
透明性や効果的な規制が 大切です
12:20
But the benefits that "empathetic technology" can bring to our lives
223
740106
4834
「共感のテクノロジー」が 私達の生活にもたらす恩恵は
12:24
are worth solving the problems that make us uncomfortable.
224
744964
3891
私達を不安にさせる問題に 取り組むだけの価値があります
12:29
And if we don't, there are too many opportunities and feelings
225
749315
4025
そうしないなら あまりに多くの機会や感情が
12:33
we're going to be missing out on.
226
753364
1695
見逃されてしまうことでしょう
12:35
Thank you.
227
755083
1175
ありがとうございました
12:36
(Applause)
228
756282
2479
(拍手)
このウェブサイトについて

このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。

https://forms.gle/WvT1wiN1qDtmnspy7