How I'm using biological data to tell better stories -- and spark social change | Heidi Boisvert
52,488 views ・ 2020-01-02
아래 영문자막을 더블클릭하시면 영상이 재생됩니다.
번역: Kelly An
검토: Jungmin Hwang
00:13
For the past 15 years I've been trying
to change your mind.
0
13458
3542
저는 지난 15년간 여러분의
마음을 바꾸려는 노력을 해왔습니다.
00:17
In my work I harness pop culture
and emerging technology
1
17917
3851
제가 하는 일은,
대중문화와 새로운 기술을 이용해서
00:21
to shift cultural norms.
2
21792
1458
문화적 규법을 변화시키는 것입니다.
00:23
I've made video games
to promote human rights,
3
23833
3685
인권을 향상시키기 위한
비디오 게임을 만들었고,
00:27
I've made animations to raise awareness
about unfair immigration laws
4
27542
5059
불공정한 이민법을 알리기 위해
애니메이션을 제작했으며,
00:32
and I've even made location-based
augmented reality apps
5
32625
4226
노숙자들에 대한 인식을 바꾸기 위해서
00:36
to change perceptions around homelessness
6
36875
2643
위치기반 증강현실 앱을
만들기도 했습니다.
00:39
well before Pokémon Go.
7
39542
1934
포켓몬 고 게임보다
훨씬 전에 말입니다.
00:41
(Laughter)
8
41500
1351
(웃음)
00:42
But then I began to wonder
whether a game or an app
9
42875
4018
그러던 어느 순간, 의문이 생겼습니다.
게임이나 앱이 사람의 태도나 행동을
실제로 변화시킬 수 있을까요?
00:46
can really change attitudes and behaviors,
10
46917
2476
00:49
and if so, can I measure that change?
11
49417
3017
그리고 만약 그렇다면,
그 변화를 측정할 수 있을까요?
00:52
What's the science behind that process?
12
52458
2976
그러한 과정의 이면에는
어떤 과학적인 설명이 있을까요?
00:55
So I shifted my focus
from making media and technology
13
55458
3726
그래서 저는 미디어 제작이었던
저의 관심사를
00:59
to measuring their
neurobiological effects.
14
59208
3042
그것이 미치는 신경생물학적 효과를
측정하는 것으로 옮겼습니다.
01:03
Here's what I discovered.
15
63458
1851
이것이 제가 발견한 결과입니다.
01:05
The web, mobile devices,
virtual and augmented reality
16
65333
3893
인터넷, 모바일 장치,
가상현실과 증강현실은
01:09
were rescripting our nervous systems.
17
69250
2684
우리 신경계를 다시 쓰고 있었습니다.
01:11
And they were literally changing
the structure of our brain.
18
71958
2959
실제로 사람의 뇌 구조를
변화시켰습니다.
01:15
The very technologies I had been using
to positively influence hearts and minds
19
75875
4976
감정과 정신에 긍정적인 영향을
주기 위해 사용했던 기술이
01:20
were actually eroding functions
in the brain necessary for empathy
20
80875
4393
실제로는 공감과 의사결정에
필요한 뇌 기능을
01:25
and decision-making.
21
85292
1851
약화시키는 결과를 보였습니다.
01:27
In fact, our dependence
upon the web and mobile devices
22
87167
4142
인터넷과 모바일 장치에 대한 의존성이
01:31
might be taking over
our cognitive and affective faculties,
23
91333
4101
우리의 인지와 정서 기능을 장악하여
01:35
rendering us socially
and emotionally incompetent,
24
95458
3560
우리를 사회적으로, 정서적으로
무능하게 만드는 것일지도 모릅니다.
01:39
and I felt complicit
in this dehumanization.
25
99042
3291
그리고 이런 비인간화에
제가 관여했다는 생각이 들었습니다.
01:43
I realized that before I could continue
making media about social issues,
26
103292
4642
사회문제에 관한 미디어를
계속해서 제작하기 전에,
01:47
I needed to reverse engineer
the harmful effects of technology.
27
107958
4417
기술이 미치는 해로운 영향을
제거할 필요가 있음을 깨달았습니다.
01:52
To tackle this I asked myself,
28
112917
2767
이 문제를 해결하기 위해
제 자신에게 질문을 했습니다.
01:55
"How can I translate
the mechanisms of empathy,
29
115708
3393
'어떻게 하면 공감의 메커니즘인
인지, 정서, 그리고 동기적 양상을
01:59
the cognitive, affective
and motivational aspects,
30
119125
3643
02:02
into an engine that simulates
the narrative ingredients
31
122792
3226
바탕으로 한 이야기 엔진을 만들어
02:06
that move us to act?"
32
126042
1291
행동을 이끌어 낼 수 있을까?"
02:08
To answer this, I had to build a machine.
33
128583
3935
그 답을 찾기 위해
기계를 만들어야 했습니다.
02:12
(Laughter)
34
132542
1726
(웃음)
02:14
I've been developing
an open-source biometric lab,
35
134292
2892
저는 개방형 소스 생체측정 연구소인
02:17
an AI system which I call the Limbic Lab.
36
137208
3476
'림빅 랩'이라고 불리는
AI 시스템을 개발하고 있습니다.
02:20
The lab not only captures
37
140708
1435
림빅 랩은 미디어와 기술에 대한
02:22
the brain and body's unconscious response
to media and technology
38
142167
4226
뇌와 신체의 무의식적인 반응을
포착할 뿐만 아니라,
02:26
but also uses machine learning
to adapt content
39
146417
2976
기계학습을 이용함으로써
생물학적 반응에 맞게
콘텐츠를 조정하기도 합니다.
02:29
based on these biological responses.
40
149417
2208
02:32
My goal is to find out what combination
of narrative ingredients
41
152667
3517
저의 목표는, 특정 집단의 사람들에게
02:36
are the most appealing and galvanizing
42
156208
2143
가장 호소력있고 충격적인
서술적 요소의 결합을 찾아냄으로써
02:38
to specific target audiences
43
158375
1809
사회정의, 문화, 교육 단체들이
02:40
to enable social justice, cultural
and educational organizations
44
160208
5018
더욱 효과적인 미디어를
제작할 수 있게 하는 것입니다.
02:45
to create more effective media.
45
165250
2643
02:47
The Limbic Lab consists of two components:
46
167917
2851
림빅 랩은 두 가지 구성요소인
02:50
a narrative engine and a media machine.
47
170792
2541
이야기 엔진과 미디어 머신으로
이루어져 있습니다.
02:54
While a subject is viewing
or interacting with media content,
48
174375
4226
실험 대상이 미디어 콘텐츠를
시청하거나 사용하는 동안,
02:58
the narrative engine takes in and syncs
real-time data from brain waves,
49
178625
4184
이야기 엔진은 실시간 뇌파 자료와,
03:02
biophysical data like heart rate,
blood flow, body temperature
50
182833
3560
심박수, 혈류와 체온, 근육수축을
측정한 생물물리학적 자료,
03:06
and muscle contraction,
51
186417
1684
03:08
as well as eye-tracking
and facial expressions.
52
188125
2958
그리고 눈동자의 움직임과 얼굴 표정을
입력하고 동기화시킵니다.
03:12
Data is captured at key places
where critical plot points,
53
192083
3726
줄거리에서 중요한 지점,
인물간의 상호작용,
또는 특이한 카메라 엥글이 사용된
중요한 시점에서
03:15
character interaction
or unusual camera angles occur.
54
195833
3417
이러한 자료가 포착됩니다.
03:20
Like the final scene
in "Game of Thrones, Red Wedding,"
55
200292
2726
"왕좌의 게임, 피의 결혼식"에서
03:23
when shockingly,
56
203042
2309
모두가 죽어버리는
충격적인 마지막 장면처럼 말이죠.
03:25
everybody dies.
57
205375
1559
03:26
(Laughter)
58
206958
1250
(웃음)
03:29
Survey data on that
person's political beliefs,
59
209042
3184
설문조사를 통해서
개인의 정치적 신념, 심리 데이터,
그리고 정보 기록을 얻은 후
03:32
along with their psychographic
and demographic data,
60
212250
3143
03:35
are integrated into the system
61
215417
1767
시스템에 통합함으로써,
03:37
to gain a deeper understanding
of the individual.
62
217208
2709
개인에 대한 더 깊은 이해가
가능해집니다.
03:40
Let me give you an example.
63
220833
1542
예를 들어 보겠습니다.
03:43
Matching people's TV preferences
with their views on social justice issues
64
223708
4851
사람들이 선호하는 TV 프로그램과
사회 정의에 대한 관점을 비교하면
03:48
reveals that Americans who rank
immigration among their top three concerns
65
228583
4268
가장 관심 있는
세 가지 사회문제 중 하나로
이민 문제를 뽑은 미국인들은
03:52
are more likely to be fans
of "The Walking Dead,"
66
232875
2792
"워킹 데드"를 좋아하는
팬일 가능성이 더 컸으며,
03:56
and they often watch
for the adrenaline boost,
67
236958
2810
이를 시청하는 주된 이유가
아드레날린 분비의 촉진이었는데,
03:59
which is measurable.
68
239792
1291
이것은 측정이 가능합니다.
04:01
A person's biological signature
and their survey response
69
241792
3934
개개인의 생물학적 특징과
설문조사에 대한 응답을
04:05
combines into a database
to create their unique media imprint.
70
245750
4851
결합한 데이터베이스를 이용해서,
개인의 독특한 성향을 보여주는
미디어 발자국을 만들 수 있습니다.
04:10
Then our predictive model
finds patterns between media imprints
71
250625
4268
그런 다음, 예측 모델이
여러 발자국 속의 패턴을 찾아내어
04:14
and tells me which narrative ingredients
72
254917
1976
어떤 서술적 요소를 사용할 때
04:16
are more likely to lead
to engagement in altruistic behavior
73
256917
3767
이타적 행동을 이끌어 낼 가능성이
더 높은지 알려줍니다.
04:20
rather than distress and apathy.
74
260708
2685
고통과 무관심 대신에요.
04:23
The more imprints added to the database
75
263417
2184
데이터베이스에 더 많은
발자국이 추가되고,
04:25
across mediums from episodic
television to games,
76
265625
3226
시리즈물부터 게임까지,
넓은 범위의 데이터가 수집된다면
04:28
the better the predictive models become.
77
268875
2167
예측모델의 정확성이 더 높아집니다.
04:32
In short, I am mapping
the first media genome.
78
272417
3851
간략히 말씀드리자면,
저는 지금 최초의 미디어 게놈을
만들고 있습니다.
04:36
(Applause and cheers)
79
276292
3791
(박수와 환호)
04:44
Whereas the human genome
identifies all genes involved
80
284083
3185
인간의 게놈을 통해서
DNA에 포함된 모든 유전자를
04:47
in sequencing human DNA,
81
287292
1833
밝힐 수 있듯이,
04:49
the growing database of media imprints
will eventually allow me
82
289917
3226
점점 더 커지고 있는
미디어 발자국 데이터베이스를 통해
04:53
to determine the media DNA
for a specific person.
83
293167
4125
특정 개인의
미디어 DNA를 결정하는 것이
가능해질 것입니다.
04:58
Already the Limbic Lab's narrative engine
84
298250
2833
림빅 랩의 이야기 엔진은 이미,
05:02
helps content creators
refine their storytelling,
85
302333
2601
콘텐츠 제작자로 하여금
개별 이용자에 맞추어
05:04
so that it resonates with their target
audiences on an individual level.
86
304958
4000
스토리텔링을 개조하도록
도움을 주고 있습니다.
05:11
The Limbic Lab's other component,
87
311042
2184
림빅 랩의 또 다른 구성요소인,
미디어 머신은
05:13
the media machine,
88
313250
1976
05:15
will assess how media elicits
an emotional and physiological response,
89
315250
4476
미디어가 어떻게 감정적, 생리적 반응을
이끌어내는지 진단한 뒤
05:19
then pulls scenes from a content library
90
319750
2434
콘텐츠 도서관에서
적합한 장면을 뽑아내
05:22
targeted to person-specific media DNA.
91
322208
2584
개개인의 미디어 DNA에 맞추어
콘텐츠를 제공합니다.
05:26
Applying artificial intelligence
to biometric data
92
326042
3892
인공지능을 생체측정 데이터에 적용하여
05:29
creates a truly personalized experience.
93
329958
2726
개인의 성향에 정확하게 맞춘
경험을 만들어낼 수 있습니다.
05:32
One that adapts content based
on real-time unconscious responses.
94
332708
5084
실시간으로 측정된
무의식 반응을 기반으로
콘텐츠가 조정되는 것입니다.
05:38
Imagine if nonprofits and media makers
were able to measure how audiences feel
95
338625
6059
비영리 미디어 제작자가
미디어를 경험하면서 느끼는
이용자의 반응을 측정해서
05:44
as they experience it
96
344708
1851
05:46
and alter content on the fly.
97
346583
2393
실시간을 콘텐츠를 수정한다고
상상해보세요.
05:49
I believe this is the future of media.
98
349000
3458
저는 이것이
미디어의 미래라고 믿습니다.
05:53
To date, most media
and social-change strategies
99
353333
2601
지금까지, 대부분의 미디어와
사회변화 전략은
05:55
have attempted to appeal
to mass audiences,
100
355958
2851
일반 대중에게 호소하려는
시도를 해왔습니다.
05:58
but the future is media
customized for each person.
101
358833
3500
그러나 미래의 미디어는
각 개인을 위한 맞춤형입니다.
06:03
As real-time measurement
of media consumption
102
363458
2685
미디어 이용에 대한 실시간 측정과
06:06
and automated media production
becomes the norm,
103
366167
2851
자동화된 미디어 생산이
일반적인 기준이 됨에 따라서,
06:09
we will soon be consuming media
tailored directly to our cravings
104
369042
4059
개인의 요구에 정확하게 맞춰진
미디어를 이용하게 되는 날이
머지 않았습니다.
06:13
using a blend of psychographics,
biometrics and AI.
105
373125
4208
사이코그래픽, 생리적 데이터,
그리고 AI를 사용해서요.
06:18
It's like personalized medicine
based on our DNA.
106
378250
3559
개인의 DNA에 맞는 약을
만드는 것과 비슷합니다.
06:21
I call it "biomedia."
107
381833
2167
저는 이러한 미디어를
'바이오 미디어'라고 부릅니다.
06:25
I am currently testing
the Limbic Lab in a pilot study
108
385042
3267
저는 현재 노만 리어 센터와 함께
파일럿 연구를 진행하여
림빅 랩을 테스트하고 있습니다.
06:28
with the Norman Lear Center,
109
388333
2018
06:30
which looks at the top 50
episodic television shows.
110
390375
3726
이 연구는 가장 많이 시청되는
50개의 에피소드식 TV 쇼를
분석합니다.
06:34
But I am grappling
with an ethical dilemma.
111
394125
3018
그런데 저는 지금
윤리적 딜레마에 빠젔습니다.
06:37
If I design a tool
that can be turned into a weapon,
112
397167
3851
'내가 설계하는 도구가
무기로 변할 수 있다면,
06:41
should I build it?
113
401042
1291
그래도 만들어야 하는가?'
06:43
By open-sourcing the lab
to encourage access and inclusivity,
114
403750
3643
접근성과 참여를 촉진하기 위해서
림빅 랩의 소스를 개방함으로써,
06:47
I also run the risk
of enabling powerful governments
115
407417
3434
권력을 가진 정부와
이윤을 추구하는 회사가
06:50
and profit-driven companies
to appropriate the platform
116
410875
2934
플랫폼을 악용하여
06:53
for fake news, marketing
or other forms of mass persuasion.
117
413833
4084
가짜뉴스와 광고를 남발할
위험도 감수하고 있습니다.
06:59
For me, therefore,
it is critical to make my research
118
419375
3351
따라서 제 연구를
일반 미디어 이용자들에게
07:02
as transparent to
lay audiences as GMO labels.
119
422750
3583
GMO 라벨만큼
투명하게 만드는 것이 중요합니다.
07:07
However, this is not enough.
120
427333
2542
그러나 이것만으로는
충분하지 않습니다.
07:11
As creative technologists,
121
431208
1643
창조적 과학기술 전문가로서,
07:12
we have a responsibility
122
432875
2226
현재의 기술이
문화적 가치와 사회적 행동을
07:15
not only to reflect upon how present
technology shapes our cultural values
123
435125
4768
어떻게 형성하는지에 대해서
심사숙고해야 할 뿐만 아니라,
07:19
and social behavior,
124
439917
2017
07:21
but also to actively challenge
the trajectory of future technology.
125
441958
4935
미래 기술이 나아가는 방향에
적극적으로 이의를 제기하는 것이
우리의 책임입니다.
07:26
It is my hope that we make
an ethical commitment
126
446917
4059
저는 우리 모두가 윤리적 서약을 통해
07:31
to harvesting the body's intelligence
127
451000
2351
인간에 대해 수집한 정보를
진실되고 공정한
이야기를 만드는 데 사용하여
07:33
for the creation of authentic
and just stories
128
453375
3434
07:36
that transform media and technology
129
456833
2393
미디어와 기술을 바꾸기를 바랍니다.
07:39
from harmful weapons
into narrative medicine.
130
459250
3476
해로운 무기를
이야기 약으로 바꾸어 봅시다.
07:42
Thank you.
131
462750
1268
감사합니다.
07:44
(Applause and cheers)
132
464042
2208
(박수와 환호)
New videos
Original video on YouTube.com
이 웹사이트 정보
이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.