How I'm using biological data to tell better stories -- and spark social change | Heidi Boisvert

52,488 views

2020-01-02 ・ TED


New videos

How I'm using biological data to tell better stories -- and spark social change | Heidi Boisvert

52,488 views ・ 2020-01-02

TED


아래 영문자막을 더블클릭하시면 영상이 재생됩니다.

번역: Kelly An 검토: Jungmin Hwang
00:13
For the past 15 years I've been trying to change your mind.
0
13458
3542
저는 지난 15년간 여러분의 마음을 바꾸려는 노력을 해왔습니다.
00:17
In my work I harness pop culture and emerging technology
1
17917
3851
제가 하는 일은, 대중문화와 새로운 기술을 이용해서
00:21
to shift cultural norms.
2
21792
1458
문화적 규법을 변화시키는 것입니다.
00:23
I've made video games to promote human rights,
3
23833
3685
인권을 향상시키기 위한 비디오 게임을 만들었고,
00:27
I've made animations to raise awareness about unfair immigration laws
4
27542
5059
불공정한 이민법을 알리기 위해 애니메이션을 제작했으며,
00:32
and I've even made location-based augmented reality apps
5
32625
4226
노숙자들에 대한 인식을 바꾸기 위해서
00:36
to change perceptions around homelessness
6
36875
2643
위치기반 증강현실 앱을 만들기도 했습니다.
00:39
well before Pokémon Go.
7
39542
1934
포켓몬 고 게임보다 훨씬 전에 말입니다.
00:41
(Laughter)
8
41500
1351
(웃음)
00:42
But then I began to wonder whether a game or an app
9
42875
4018
그러던 어느 순간, 의문이 생겼습니다.
게임이나 앱이 사람의 태도나 행동을 실제로 변화시킬 수 있을까요?
00:46
can really change attitudes and behaviors,
10
46917
2476
00:49
and if so, can I measure that change?
11
49417
3017
그리고 만약 그렇다면, 그 변화를 측정할 수 있을까요?
00:52
What's the science behind that process?
12
52458
2976
그러한 과정의 이면에는 어떤 과학적인 설명이 있을까요?
00:55
So I shifted my focus from making media and technology
13
55458
3726
그래서 저는 미디어 제작이었던 저의 관심사를
00:59
to measuring their neurobiological effects.
14
59208
3042
그것이 미치는 신경생물학적 효과를 측정하는 것으로 옮겼습니다.
01:03
Here's what I discovered.
15
63458
1851
이것이 제가 발견한 결과입니다.
01:05
The web, mobile devices, virtual and augmented reality
16
65333
3893
인터넷, 모바일 장치, 가상현실과 증강현실은
01:09
were rescripting our nervous systems.
17
69250
2684
우리 신경계를 다시 쓰고 있었습니다.
01:11
And they were literally changing the structure of our brain.
18
71958
2959
실제로 사람의 뇌 구조를 변화시켰습니다.
01:15
The very technologies I had been using to positively influence hearts and minds
19
75875
4976
감정과 정신에 긍정적인 영향을 주기 위해 사용했던 기술이
01:20
were actually eroding functions in the brain necessary for empathy
20
80875
4393
실제로는 공감과 의사결정에 필요한 뇌 기능을
01:25
and decision-making.
21
85292
1851
약화시키는 결과를 보였습니다.
01:27
In fact, our dependence upon the web and mobile devices
22
87167
4142
인터넷과 모바일 장치에 대한 의존성이
01:31
might be taking over our cognitive and affective faculties,
23
91333
4101
우리의 인지와 정서 기능을 장악하여
01:35
rendering us socially and emotionally incompetent,
24
95458
3560
우리를 사회적으로, 정서적으로 무능하게 만드는 것일지도 모릅니다.
01:39
and I felt complicit in this dehumanization.
25
99042
3291
그리고 이런 비인간화에 제가 관여했다는 생각이 들었습니다.
01:43
I realized that before I could continue making media about social issues,
26
103292
4642
사회문제에 관한 미디어를 계속해서 제작하기 전에,
01:47
I needed to reverse engineer the harmful effects of technology.
27
107958
4417
기술이 미치는 해로운 영향을 제거할 필요가 있음을 깨달았습니다.
01:52
To tackle this I asked myself,
28
112917
2767
이 문제를 해결하기 위해 제 자신에게 질문을 했습니다.
01:55
"How can I translate the mechanisms of empathy,
29
115708
3393
'어떻게 하면 공감의 메커니즘인 인지, 정서, 그리고 동기적 양상을
01:59
the cognitive, affective and motivational aspects,
30
119125
3643
02:02
into an engine that simulates the narrative ingredients
31
122792
3226
바탕으로 한 이야기 엔진을 만들어
02:06
that move us to act?"
32
126042
1291
행동을 이끌어 낼 수 있을까?"
02:08
To answer this, I had to build a machine.
33
128583
3935
그 답을 찾기 위해 기계를 만들어야 했습니다.
02:12
(Laughter)
34
132542
1726
(웃음)
02:14
I've been developing an open-source biometric lab,
35
134292
2892
저는 개방형 소스 생체측정 연구소인
02:17
an AI system which I call the Limbic Lab.
36
137208
3476
'림빅 랩'이라고 불리는 AI 시스템을 개발하고 있습니다.
02:20
The lab not only captures
37
140708
1435
림빅 랩은 미디어와 기술에 대한
02:22
the brain and body's unconscious response to media and technology
38
142167
4226
뇌와 신체의 무의식적인 반응을 포착할 뿐만 아니라,
02:26
but also uses machine learning to adapt content
39
146417
2976
기계학습을 이용함으로써
생물학적 반응에 맞게 콘텐츠를 조정하기도 합니다.
02:29
based on these biological responses.
40
149417
2208
02:32
My goal is to find out what combination of narrative ingredients
41
152667
3517
저의 목표는, 특정 집단의 사람들에게
02:36
are the most appealing and galvanizing
42
156208
2143
가장 호소력있고 충격적인 서술적 요소의 결합을 찾아냄으로써
02:38
to specific target audiences
43
158375
1809
사회정의, 문화, 교육 단체들이
02:40
to enable social justice, cultural and educational organizations
44
160208
5018
더욱 효과적인 미디어를 제작할 수 있게 하는 것입니다.
02:45
to create more effective media.
45
165250
2643
02:47
The Limbic Lab consists of two components:
46
167917
2851
림빅 랩은 두 가지 구성요소인
02:50
a narrative engine and a media machine.
47
170792
2541
이야기 엔진과 미디어 머신으로 이루어져 있습니다.
02:54
While a subject is viewing or interacting with media content,
48
174375
4226
실험 대상이 미디어 콘텐츠를 시청하거나 사용하는 동안,
02:58
the narrative engine takes in and syncs real-time data from brain waves,
49
178625
4184
이야기 엔진은 실시간 뇌파 자료와,
03:02
biophysical data like heart rate, blood flow, body temperature
50
182833
3560
심박수, 혈류와 체온, 근육수축을 측정한 생물물리학적 자료,
03:06
and muscle contraction,
51
186417
1684
03:08
as well as eye-tracking and facial expressions.
52
188125
2958
그리고 눈동자의 움직임과 얼굴 표정을 입력하고 동기화시킵니다.
03:12
Data is captured at key places where critical plot points,
53
192083
3726
줄거리에서 중요한 지점, 인물간의 상호작용,
또는 특이한 카메라 엥글이 사용된 중요한 시점에서
03:15
character interaction or unusual camera angles occur.
54
195833
3417
이러한 자료가 포착됩니다.
03:20
Like the final scene in "Game of Thrones, Red Wedding,"
55
200292
2726
"왕좌의 게임, 피의 결혼식"에서
03:23
when shockingly,
56
203042
2309
모두가 죽어버리는 충격적인 마지막 장면처럼 말이죠.
03:25
everybody dies.
57
205375
1559
03:26
(Laughter)
58
206958
1250
(웃음)
03:29
Survey data on that person's political beliefs,
59
209042
3184
설문조사를 통해서
개인의 정치적 신념, 심리 데이터, 그리고 정보 기록을 얻은 후
03:32
along with their psychographic and demographic data,
60
212250
3143
03:35
are integrated into the system
61
215417
1767
시스템에 통합함으로써,
03:37
to gain a deeper understanding of the individual.
62
217208
2709
개인에 대한 더 깊은 이해가 가능해집니다.
03:40
Let me give you an example.
63
220833
1542
예를 들어 보겠습니다.
03:43
Matching people's TV preferences with their views on social justice issues
64
223708
4851
사람들이 선호하는 TV 프로그램과 사회 정의에 대한 관점을 비교하면
03:48
reveals that Americans who rank immigration among their top three concerns
65
228583
4268
가장 관심 있는 세 가지 사회문제 중 하나로
이민 문제를 뽑은 미국인들은
03:52
are more likely to be fans of "The Walking Dead,"
66
232875
2792
"워킹 데드"를 좋아하는 팬일 가능성이 더 컸으며,
03:56
and they often watch for the adrenaline boost,
67
236958
2810
이를 시청하는 주된 이유가 아드레날린 분비의 촉진이었는데,
03:59
which is measurable.
68
239792
1291
이것은 측정이 가능합니다.
04:01
A person's biological signature and their survey response
69
241792
3934
개개인의 생물학적 특징과 설문조사에 대한 응답을
04:05
combines into a database to create their unique media imprint.
70
245750
4851
결합한 데이터베이스를 이용해서,
개인의 독특한 성향을 보여주는 미디어 발자국을 만들 수 있습니다.
04:10
Then our predictive model finds patterns between media imprints
71
250625
4268
그런 다음, 예측 모델이 여러 발자국 속의 패턴을 찾아내어
04:14
and tells me which narrative ingredients
72
254917
1976
어떤 서술적 요소를 사용할 때
04:16
are more likely to lead to engagement in altruistic behavior
73
256917
3767
이타적 행동을 이끌어 낼 가능성이 더 높은지 알려줍니다.
04:20
rather than distress and apathy.
74
260708
2685
고통과 무관심 대신에요.
04:23
The more imprints added to the database
75
263417
2184
데이터베이스에 더 많은 발자국이 추가되고,
04:25
across mediums from episodic television to games,
76
265625
3226
시리즈물부터 게임까지, 넓은 범위의 데이터가 수집된다면
04:28
the better the predictive models become.
77
268875
2167
예측모델의 정확성이 더 높아집니다.
04:32
In short, I am mapping the first media genome.
78
272417
3851
간략히 말씀드리자면,
저는 지금 최초의 미디어 게놈을 만들고 있습니다.
04:36
(Applause and cheers)
79
276292
3791
(박수와 환호)
04:44
Whereas the human genome identifies all genes involved
80
284083
3185
인간의 게놈을 통해서 DNA에 포함된 모든 유전자를
04:47
in sequencing human DNA,
81
287292
1833
밝힐 수 있듯이,
04:49
the growing database of media imprints will eventually allow me
82
289917
3226
점점 더 커지고 있는 미디어 발자국 데이터베이스를 통해
04:53
to determine the media DNA for a specific person.
83
293167
4125
특정 개인의 미디어 DNA를 결정하는 것이
가능해질 것입니다.
04:58
Already the Limbic Lab's narrative engine
84
298250
2833
림빅 랩의 이야기 엔진은 이미,
05:02
helps content creators refine their storytelling,
85
302333
2601
콘텐츠 제작자로 하여금 개별 이용자에 맞추어
05:04
so that it resonates with their target audiences on an individual level.
86
304958
4000
스토리텔링을 개조하도록 도움을 주고 있습니다.
05:11
The Limbic Lab's other component,
87
311042
2184
림빅 랩의 또 다른 구성요소인, 미디어 머신은
05:13
the media machine,
88
313250
1976
05:15
will assess how media elicits an emotional and physiological response,
89
315250
4476
미디어가 어떻게 감정적, 생리적 반응을 이끌어내는지 진단한 뒤
05:19
then pulls scenes from a content library
90
319750
2434
콘텐츠 도서관에서 적합한 장면을 뽑아내
05:22
targeted to person-specific media DNA.
91
322208
2584
개개인의 미디어 DNA에 맞추어 콘텐츠를 제공합니다.
05:26
Applying artificial intelligence to biometric data
92
326042
3892
인공지능을 생체측정 데이터에 적용하여
05:29
creates a truly personalized experience.
93
329958
2726
개인의 성향에 정확하게 맞춘 경험을 만들어낼 수 있습니다.
05:32
One that adapts content based on real-time unconscious responses.
94
332708
5084
실시간으로 측정된 무의식 반응을 기반으로
콘텐츠가 조정되는 것입니다.
05:38
Imagine if nonprofits and media makers were able to measure how audiences feel
95
338625
6059
비영리 미디어 제작자가
미디어를 경험하면서 느끼는 이용자의 반응을 측정해서
05:44
as they experience it
96
344708
1851
05:46
and alter content on the fly.
97
346583
2393
실시간을 콘텐츠를 수정한다고 상상해보세요.
05:49
I believe this is the future of media.
98
349000
3458
저는 이것이 미디어의 미래라고 믿습니다.
05:53
To date, most media and social-change strategies
99
353333
2601
지금까지, 대부분의 미디어와 사회변화 전략은
05:55
have attempted to appeal to mass audiences,
100
355958
2851
일반 대중에게 호소하려는 시도를 해왔습니다.
05:58
but the future is media customized for each person.
101
358833
3500
그러나 미래의 미디어는 각 개인을 위한 맞춤형입니다.
06:03
As real-time measurement of media consumption
102
363458
2685
미디어 이용에 대한 실시간 측정과
06:06
and automated media production becomes the norm,
103
366167
2851
자동화된 미디어 생산이 일반적인 기준이 됨에 따라서,
06:09
we will soon be consuming media tailored directly to our cravings
104
369042
4059
개인의 요구에 정확하게 맞춰진
미디어를 이용하게 되는 날이 머지 않았습니다.
06:13
using a blend of psychographics, biometrics and AI.
105
373125
4208
사이코그래픽, 생리적 데이터, 그리고 AI를 사용해서요.
06:18
It's like personalized medicine based on our DNA.
106
378250
3559
개인의 DNA에 맞는 약을 만드는 것과 비슷합니다.
06:21
I call it "biomedia."
107
381833
2167
저는 이러한 미디어를 '바이오 미디어'라고 부릅니다.
06:25
I am currently testing the Limbic Lab in a pilot study
108
385042
3267
저는 현재 노만 리어 센터와 함께 파일럿 연구를 진행하여
림빅 랩을 테스트하고 있습니다.
06:28
with the Norman Lear Center,
109
388333
2018
06:30
which looks at the top 50 episodic television shows.
110
390375
3726
이 연구는 가장 많이 시청되는
50개의 에피소드식 TV 쇼를 분석합니다.
06:34
But I am grappling with an ethical dilemma.
111
394125
3018
그런데 저는 지금 윤리적 딜레마에 빠젔습니다.
06:37
If I design a tool that can be turned into a weapon,
112
397167
3851
'내가 설계하는 도구가 무기로 변할 수 있다면,
06:41
should I build it?
113
401042
1291
그래도 만들어야 하는가?'
06:43
By open-sourcing the lab to encourage access and inclusivity,
114
403750
3643
접근성과 참여를 촉진하기 위해서 림빅 랩의 소스를 개방함으로써,
06:47
I also run the risk of enabling powerful governments
115
407417
3434
권력을 가진 정부와 이윤을 추구하는 회사가
06:50
and profit-driven companies to appropriate the platform
116
410875
2934
플랫폼을 악용하여
06:53
for fake news, marketing or other forms of mass persuasion.
117
413833
4084
가짜뉴스와 광고를 남발할 위험도 감수하고 있습니다.
06:59
For me, therefore, it is critical to make my research
118
419375
3351
따라서 제 연구를 일반 미디어 이용자들에게
07:02
as transparent to lay audiences as GMO labels.
119
422750
3583
GMO 라벨만큼 투명하게 만드는 것이 중요합니다.
07:07
However, this is not enough.
120
427333
2542
그러나 이것만으로는 충분하지 않습니다.
07:11
As creative technologists,
121
431208
1643
창조적 과학기술 전문가로서,
07:12
we have a responsibility
122
432875
2226
현재의 기술이 문화적 가치와 사회적 행동을
07:15
not only to reflect upon how present technology shapes our cultural values
123
435125
4768
어떻게 형성하는지에 대해서 심사숙고해야 할 뿐만 아니라,
07:19
and social behavior,
124
439917
2017
07:21
but also to actively challenge the trajectory of future technology.
125
441958
4935
미래 기술이 나아가는 방향에 적극적으로 이의를 제기하는 것이
우리의 책임입니다.
07:26
It is my hope that we make an ethical commitment
126
446917
4059
저는 우리 모두가 윤리적 서약을 통해
07:31
to harvesting the body's intelligence
127
451000
2351
인간에 대해 수집한 정보를
진실되고 공정한 이야기를 만드는 데 사용하여
07:33
for the creation of authentic and just stories
128
453375
3434
07:36
that transform media and technology
129
456833
2393
미디어와 기술을 바꾸기를 바랍니다.
07:39
from harmful weapons into narrative medicine.
130
459250
3476
해로운 무기를 이야기 약으로 바꾸어 봅시다.
07:42
Thank you.
131
462750
1268
감사합니다.
07:44
(Applause and cheers)
132
464042
2208
(박수와 환호)
이 웹사이트 정보

이 사이트는 영어 학습에 유용한 YouTube 동영상을 소개합니다. 전 세계 최고의 선생님들이 가르치는 영어 수업을 보게 될 것입니다. 각 동영상 페이지에 표시되는 영어 자막을 더블 클릭하면 그곳에서 동영상이 재생됩니다. 비디오 재생에 맞춰 자막이 스크롤됩니다. 의견이나 요청이 있는 경우 이 문의 양식을 사용하여 문의하십시오.

https://forms.gle/WvT1wiN1qDtmnspy7