How I'm using biological data to tell better stories -- and spark social change | Heidi Boisvert

52,538 views

2020-01-02 ・ TED


New videos

How I'm using biological data to tell better stories -- and spark social change | Heidi Boisvert

52,538 views ・ 2020-01-02

TED


下の英語字幕をダブルクリックすると動画を再生できます。

翻訳: Yuri Naka 校正: Masami Mutsukado and Kacie Wright
00:13
For the past 15 years I've been trying to change your mind.
0
13458
3542
15年の間 人々の考えを 変えようとしてきました
00:17
In my work I harness pop culture and emerging technology
1
17917
3851
大衆文化と新技術を利用して 人々の文化規範を変えるのが
00:21
to shift cultural norms.
2
21792
1458
私の仕事です
00:23
I've made video games to promote human rights,
3
23833
3685
人権問題を知ってもらうためのゲームを作り
00:27
I've made animations to raise awareness about unfair immigration laws
4
27542
5059
不公平な移民法を知ってもらうための アニメも作りました
00:32
and I've even made location-based augmented reality apps
5
32625
4226
ホームレスに対する認識を変えるために
00:36
to change perceptions around homelessness
6
36875
2643
位置情報を利用した 拡張現実アプリまで 作りました
00:39
well before Pokémon Go.
7
39542
1934
ポケモンGOよりずっと前ですよ
00:41
(Laughter)
8
41500
1351
(笑)
00:42
But then I began to wonder whether a game or an app
9
42875
4018
しかしそのうち ゲームやアプリが 人の態度や行動を
00:46
can really change attitudes and behaviors,
10
46917
2476
本当に変えることができるのか 疑問に思い始めました
00:49
and if so, can I measure that change?
11
49417
3017
もし変えられたとして その変化を測れるのかということもです
00:52
What's the science behind that process?
12
52458
2976
その過程の背後には どんな科学が存在するのでしょうか
00:55
So I shifted my focus from making media and technology
13
55458
3726
そこで焦点を変え メディアやテクノロジーの開発ではなく
00:59
to measuring their neurobiological effects.
14
59208
3042
神経生物学的な効果の測定を始めました
01:03
Here's what I discovered.
15
63458
1851
私が発見した事を お話しします
01:05
The web, mobile devices, virtual and augmented reality
16
65333
3893
ウェブ 携帯端末 仮想現実や拡張現実は
01:09
were rescripting our nervous systems.
17
69250
2684
神経システムを書き換えていました
01:11
And they were literally changing the structure of our brain.
18
71958
2959
それらは文字通り 脳の構造を変化させます
01:15
The very technologies I had been using to positively influence hearts and minds
19
75875
4976
精神に良い影響を与えようと思って 私が使っていたテクノロジーが
01:20
were actually eroding functions in the brain necessary for empathy
20
80875
4393
実は 共感や意思決定に必要な脳の機能を
01:25
and decision-making.
21
85292
1851
むしばんでいたのです
01:27
In fact, our dependence upon the web and mobile devices
22
87167
4142
それどころか ウェブや携帯端末に依存することで
01:31
might be taking over our cognitive and affective faculties,
23
91333
4101
認知能力や感情が奪われて
01:35
rendering us socially and emotionally incompetent,
24
95458
3560
私たちは社会的にも情緒的にも 能力が低下しているかもしれません
01:39
and I felt complicit in this dehumanization.
25
99042
3291
私は自分が この人間性喪失の 共謀者であるかのように感じました
01:43
I realized that before I could continue making media about social issues,
26
103292
4642
社会問題についてのメディアを 作り続ける前に
01:47
I needed to reverse engineer the harmful effects of technology.
27
107958
4417
テクノロジーが及ぼす悪影響を 分析する必要があることに気づきました
01:52
To tackle this I asked myself,
28
112917
2767
この問題に立ち向かうため 考えました
01:55
"How can I translate the mechanisms of empathy,
29
115708
3393
「どうやったら 共感のメカニズムや
認知 感情 動機といった要素を
01:59
the cognitive, affective and motivational aspects,
30
119125
3643
私たちの行動を促す ストーリー材料を作る原動力に
02:02
into an engine that simulates the narrative ingredients
31
122792
3226
02:06
that move us to act?"
32
126042
1291
変換できるのか」
02:08
To answer this, I had to build a machine.
33
128583
3935
この問いに答えるため 私は機械を作らざるを得ませんでした
02:12
(Laughter)
34
132542
1726
(笑)
02:14
I've been developing an open-source biometric lab,
35
134292
2892
オープンソースのソフトの生体認証機器で
02:17
an AI system which I call the Limbic Lab.
36
137208
3476
Limbic LabというAIシステムの開発です
02:20
The lab not only captures
37
140708
1435
この機器は 脳や身体の
02:22
the brain and body's unconscious response to media and technology
38
142167
4226
メディアやテクノロジーに対する 無意識的な反応を計測するだけでなく
02:26
but also uses machine learning to adapt content
39
146417
2976
得られた生物学的反応に基づいて 内容を適用させる―
02:29
based on these biological responses.
40
149417
2208
機械学習を利用しています
02:32
My goal is to find out what combination of narrative ingredients
41
152667
3517
私の目標は どんなストーリー材料の組み合わせが
02:36
are the most appealing and galvanizing
42
156208
2143
その特定の視聴者の興味を 最もそそるのかを突き止め
02:38
to specific target audiences
43
158375
1809
02:40
to enable social justice, cultural and educational organizations
44
160208
5018
社会的公平 文化 教育に関わる機関が
より効果的なメディアを 制作できるようにすることです
02:45
to create more effective media.
45
165250
2643
02:47
The Limbic Lab consists of two components:
46
167917
2851
Limbic Labは2つの要素から成っています
02:50
a narrative engine and a media machine.
47
170792
2541
ストーリーエンジンとメディアマシンです
02:54
While a subject is viewing or interacting with media content,
48
174375
4226
ある視聴者が メディアコンテンツの 観賞や利用をしている間
02:58
the narrative engine takes in and syncs real-time data from brain waves,
49
178625
4184
ストーリーエンジンは
脳波や心拍数 血流 体温 筋肉収縮 また視線や顔の表情といった
03:02
biophysical data like heart rate, blood flow, body temperature
50
182833
3560
生物物理学的なリアルタイムデータを
03:06
and muscle contraction,
51
186417
1684
03:08
as well as eye-tracking and facial expressions.
52
188125
2958
取り込んで 同期させます
03:12
Data is captured at key places where critical plot points,
53
192083
3726
データは ストーリー展開や キャラクターの会話
03:15
character interaction or unusual camera angles occur.
54
195833
3417
カメラの角度などにおいて 特徴的な場面から集めます
03:20
Like the final scene in "Game of Thrones, Red Wedding,"
55
200292
2726
ドラマシリーズ 『ゲーム・オブ・スローンズ』の
03:23
when shockingly,
56
203042
2309
あるラストシーンのように
突然 全員が死ぬような場面です
03:25
everybody dies.
57
205375
1559
03:26
(Laughter)
58
206958
1250
(笑)
03:29
Survey data on that person's political beliefs,
59
209042
3184
その人の政治理念も
03:32
along with their psychographic and demographic data,
60
212250
3143
サイコグラフィックス(心理学的属性)や 人口統計的データと併せて
03:35
are integrated into the system
61
215417
1767
システムに統合されます
03:37
to gain a deeper understanding of the individual.
62
217208
2709
その人をより深く理解するためです
03:40
Let me give you an example.
63
220833
1542
例を挙げましょう
03:43
Matching people's TV preferences with their views on social justice issues
64
223708
4851
好きなテレビ番組と 社会正義に対する考えの関係を見ると
移民問題を重要な問題の 上位3位内に挙げるアメリカ国民は
03:48
reveals that Americans who rank immigration among their top three concerns
65
228583
4268
03:52
are more likely to be fans of "The Walking Dead,"
66
232875
2792
ドラマ『ウォーキング・デッド』を 好む傾向にあります
03:56
and they often watch for the adrenaline boost,
67
236958
2810
興奮を味わう為なのですが それはアドレナリンの計測でわかります
03:59
which is measurable.
68
239792
1291
04:01
A person's biological signature and their survey response
69
241792
3934
一人の人間の生物学的特徴と 調査への回答を組み合わせて
04:05
combines into a database to create their unique media imprint.
70
245750
4851
独自のメディアパターンが できあがります
04:10
Then our predictive model finds patterns between media imprints
71
250625
4268
そして私たちの予測モデルが メディアパターンの共通性を見つけだし
04:14
and tells me which narrative ingredients
72
254917
1976
どんなストーリー材料が
04:16
are more likely to lead to engagement in altruistic behavior
73
256917
3767
その人を不安や無関心ではなく
利他的な行動へ導くのかを教えてくれるのです
04:20
rather than distress and apathy.
74
260708
2685
04:23
The more imprints added to the database
75
263417
2184
データベースに テレビシリーズからゲームまで
04:25
across mediums from episodic television to games,
76
265625
3226
様々なメディアから 多くのパターンを集めるほど
04:28
the better the predictive models become.
77
268875
2167
予測モデルの精度が上がります
04:32
In short, I am mapping the first media genome.
78
272417
3851
つまりメディアゲノムを 初めて解読しているのです
04:36
(Applause and cheers)
79
276292
3791
(拍手と歓声)
04:44
Whereas the human genome identifies all genes involved
80
284083
3185
ヒトゲノムは人間のDNA配列にある―
04:47
in sequencing human DNA,
81
287292
1833
すべての遺伝子を特定するのに対し
04:49
the growing database of media imprints will eventually allow me
82
289917
3226
メディアパターンの 増大するデータベースは
04:53
to determine the media DNA for a specific person.
83
293167
4125
ある個人のメディアDNAを 特定することができるのです
04:58
Already the Limbic Lab's narrative engine
84
298250
2833
既にLimbic Labのストーリーエンジンは
05:02
helps content creators refine their storytelling,
85
302333
2601
コンテンツ制作者がストーリーを洗練させて
05:04
so that it resonates with their target audiences on an individual level.
86
304958
4000
特定の視聴者の共感を 個人レベルで引き出すのに役立っています
05:11
The Limbic Lab's other component,
87
311042
2184
Limbic Labのもう一つの要素である―
05:13
the media machine,
88
313250
1976
メディアマシンは
05:15
will assess how media elicits an emotional and physiological response,
89
315250
4476
メディアがどのように情緒的 生理的な 反応を引き起こすのかを調べ
05:19
then pulls scenes from a content library
90
319750
2434
個人特有のメディアDNAを対象とした
05:22
targeted to person-specific media DNA.
91
322208
2584
コンテンツライブラリからシーンを抽出します
05:26
Applying artificial intelligence to biometric data
92
326042
3892
人工知能を生体データに適用することで
05:29
creates a truly personalized experience.
93
329958
2726
個々人に特化した経験を作り出せるのです
05:32
One that adapts content based on real-time unconscious responses.
94
332708
5084
リアルタイムの無意識な反応に基づいて 選ばれた内容を利用するのです
05:38
Imagine if nonprofits and media makers were able to measure how audiences feel
95
338625
6059
非営利団体やメディア制作者が リアルタイムで
視聴者の感想を 知ることができたらどうでしょう
05:44
as they experience it
96
344708
1851
05:46
and alter content on the fly.
97
346583
2393
そして その場で内容を変えられたら?
私は それが将来のメディアの姿だと思います
05:49
I believe this is the future of media.
98
349000
3458
05:53
To date, most media and social-change strategies
99
353333
2601
これまで メディアや 社会変革戦略のほとんどは
05:55
have attempted to appeal to mass audiences,
100
355958
2851
大衆としての視聴者に 訴えかけようとしていました
05:58
but the future is media customized for each person.
101
358833
3500
しかしこれからのメディアは 個人毎にカスタマイズされるのです
06:03
As real-time measurement of media consumption
102
363458
2685
メディア消費のリアルタイム計測と
06:06
and automated media production becomes the norm,
103
366167
2851
自動メディア制作が標準化することで
06:09
we will soon be consuming media tailored directly to our cravings
104
369042
4059
私たちはじきに サイコグラフィックスと 生体データとAIを融合させたものを利用して
06:13
using a blend of psychographics, biometrics and AI.
105
373125
4208
個々人の要求に応じたメディアを 消費するようになるでしょう
06:18
It's like personalized medicine based on our DNA.
106
378250
3559
個人のDNAに合わせて 薬をカスタマイズするようなものです
06:21
I call it "biomedia."
107
381833
2167
「バイオメディア」と呼びましょう
06:25
I am currently testing the Limbic Lab in a pilot study
108
385042
3267
私は現在 ノーマン・リア・センターと共同で
Limbic Labの予備研究を行っています
06:28
with the Norman Lear Center,
109
388333
2018
06:30
which looks at the top 50 episodic television shows.
110
390375
3726
ストーリーのあるテレビ番組の トップ50を調査対象にしたものです
06:34
But I am grappling with an ethical dilemma.
111
394125
3018
しかしある倫理的なジレンマを抱えています
06:37
If I design a tool that can be turned into a weapon,
112
397167
3851
もし私の開発したツールが 武器として使われるとしたら
06:41
should I build it?
113
401042
1291
それを作るべきでしょうか
06:43
By open-sourcing the lab to encourage access and inclusivity,
114
403750
3643
Limbic Labをオープンソース化し だれもが利用できるようにすることで
06:47
I also run the risk of enabling powerful governments
115
407417
3434
リスクも生じます 支配的な政府や利益至上主義の企業が
06:50
and profit-driven companies to appropriate the platform
116
410875
2934
フェイクニュースやマーケティングや 大衆操作のために
06:53
for fake news, marketing or other forms of mass persuasion.
117
413833
4084
プラットフォームを私物化するかもしれません
06:59
For me, therefore, it is critical to make my research
118
419375
3351
ですから私の研究を 視聴者にとって 遺伝子組み換え情報のラベルと同等に
07:02
as transparent to lay audiences as GMO labels.
119
422750
3583
透明性のあるものにすることが 非常に大事だと考えています
07:07
However, this is not enough.
120
427333
2542
ですが それだけでは不十分です
07:11
As creative technologists,
121
431208
1643
クリエイティブ・テクノロジストとして
07:12
we have a responsibility
122
432875
2226
私たちには責任があります
07:15
not only to reflect upon how present technology shapes our cultural values
123
435125
4768
現在のテクノロジーが 文化的価値観と 社会的行動に どのように影響するかを
07:19
and social behavior,
124
439917
2017
十分に検討するだけでなく
07:21
but also to actively challenge the trajectory of future technology.
125
441958
4935
未来のテクノロジーがどこへ向かうのか 積極的に議論しなければなりません
07:26
It is my hope that we make an ethical commitment
126
446917
4059
私たちが 倫理的に 確約できることを願います
07:31
to harvesting the body's intelligence
127
451000
2351
身体の情報を利用して
07:33
for the creation of authentic and just stories
128
453375
3434
本物で公正な物語を作ることを―
07:36
that transform media and technology
129
456833
2393
それはメディアとテクノロジーを 有害な武器ではなく
07:39
from harmful weapons into narrative medicine.
130
459250
3476
人を癒すストーリーにするためなのです
07:42
Thank you.
131
462750
1268
ありがとうございました
07:44
(Applause and cheers)
132
464042
2208
(拍手と歓声)
このウェブサイトについて

このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。

https://forms.gle/WvT1wiN1qDtmnspy7