How I'm using biological data to tell better stories -- and spark social change | Heidi Boisvert

52,140 views ・ 2020-01-02

TED


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

Переводчик: Elena McDonnell Редактор: Anna Kotova
00:13
For the past 15 years I've been trying to change your mind.
0
13458
3542
Последние 15 лет я пытаюсь переубедить вас.
00:17
In my work I harness pop culture and emerging technology
1
17917
3851
В своей работе я использую поп-культуру и новые технологии
00:21
to shift cultural norms.
2
21792
1458
для сдвига культурных норм.
00:23
I've made video games to promote human rights,
3
23833
3685
Я разрабатывала видеоигры для продвижения прав человека,
00:27
I've made animations to raise awareness about unfair immigration laws
4
27542
5059
создавала мультипликацию о несправедливых иммиграционных законах
00:32
and I've even made location-based augmented reality apps
5
32625
4226
и даже писала навигационные приложения с дополненной реальностью,
00:36
to change perceptions around homelessness
6
36875
2643
чтобы изменить отношение людей к бездомным,
00:39
well before Pokémon Go.
7
39542
1934
задолго до Pokémon Go.
00:41
(Laughter)
8
41500
1351
(Смех)
00:42
But then I began to wonder whether a game or an app
9
42875
4018
Но позже я задумалась, может ли игра или приложение
00:46
can really change attitudes and behaviors,
10
46917
2476
действительно изменить взгляды и поведение,
00:49
and if so, can I measure that change?
11
49417
3017
и если да, то можно ли измерить эти изменения?
00:52
What's the science behind that process?
12
52458
2976
Каковы их научные обоснования?
00:55
So I shifted my focus from making media and technology
13
55458
3726
Поэтому вместо создания мультимедиа и технологий
00:59
to measuring their neurobiological effects.
14
59208
3042
я сосредоточилась на измерении их нейробиологических эффектов.
01:03
Here's what I discovered.
15
63458
1851
Я выяснила следующее.
01:05
The web, mobile devices, virtual and augmented reality
16
65333
3893
Интернет, мобильные устройства, виртуальная и дополненная реальность
01:09
were rescripting our nervous systems.
17
69250
2684
переписывали нашу нервную систему.
01:11
And they were literally changing the structure of our brain.
18
71958
2959
Они в буквальном смысле меняли структуру нашего головного мозга.
01:15
The very technologies I had been using to positively influence hearts and minds
19
75875
4976
Те самые технологии, которые я использовала,
чтобы положительно влиять на наши сердца и умы,
01:20
were actually eroding functions in the brain necessary for empathy
20
80875
4393
на самом деле разрушали мозговые функции, необходимые для сострадания
01:25
and decision-making.
21
85292
1851
и принятия решений.
01:27
In fact, our dependence upon the web and mobile devices
22
87167
4142
По сути, наша зависимость от Интернета и мобильных устройств
01:31
might be taking over our cognitive and affective faculties,
23
91333
4101
может завладевать нашими умственными и эмоциональными способностями,
01:35
rendering us socially and emotionally incompetent,
24
95458
3560
делая нас социально и эмоционально некомпетентными,
01:39
and I felt complicit in this dehumanization.
25
99042
3291
и я почувствовала себя соучастницей этого обесчеловечивания.
01:43
I realized that before I could continue making media about social issues,
26
103292
4642
Я поняла, что прежде чем продолжать создавать медиа о социальных проблемах,
01:47
I needed to reverse engineer the harmful effects of technology.
27
107958
4417
мне нужно было устранить вредное воздействие технологий.
01:52
To tackle this I asked myself,
28
112917
2767
Чтобы справиться с этим, я задалась вопросом:
01:55
"How can I translate the mechanisms of empathy,
29
115708
3393
«Как я могу преобразовать механизмы сочувствия,
01:59
the cognitive, affective and motivational aspects,
30
119125
3643
когнитивные, эмоциональные и мотивационные аспекты в двигатель,
02:02
into an engine that simulates the narrative ingredients
31
122792
3226
который воспроизводит повествовательные элементы,
заставляющие нас действовать?»
02:06
that move us to act?"
32
126042
1291
02:08
To answer this, I had to build a machine.
33
128583
3935
Чтобы ответить на этот вопрос, мне пришлось создать механизм.
02:12
(Laughter)
34
132542
1726
(Смех)
02:14
I've been developing an open-source biometric lab,
35
134292
2892
Я разрабатываю общедоступную биометрическую лабораторию —
систему искусственного интеллекта, которую я назвала Limbic Lab.
02:17
an AI system which I call the Limbic Lab.
36
137208
3476
02:20
The lab not only captures
37
140708
1435
Лаборатория не только фиксирует
02:22
the brain and body's unconscious response to media and technology
38
142167
4226
бессознательные реакции мозга и тела на мультимедиа и технологии,
02:26
but also uses machine learning to adapt content
39
146417
2976
но также использует машинное обучение для адаптации содержания
02:29
based on these biological responses.
40
149417
2208
в соответствии с этими биологическими реакциями.
02:32
My goal is to find out what combination of narrative ingredients
41
152667
3517
Моя задача — выяснить, какое сочетание повествовательных элементов
02:36
are the most appealing and galvanizing
42
156208
2143
является наиболее привлекательным и стимулирующим для целевой аудитории,
02:38
to specific target audiences
43
158375
1809
02:40
to enable social justice, cultural and educational organizations
44
160208
5018
чтобы обеспечить социальную справедливость
и позволить культурным и образовательным организациям
02:45
to create more effective media.
45
165250
2643
создавать более эффективную мультимедийную продукцию.
02:47
The Limbic Lab consists of two components:
46
167917
2851
Limbic Lab состоит из двух компонентов:
02:50
a narrative engine and a media machine.
47
170792
2541
сюжетного двигателя и медиамашины.
02:54
While a subject is viewing or interacting with media content,
48
174375
4226
Когда человек просматривает медиаконтент или взаимодействует с ним,
02:58
the narrative engine takes in and syncs real-time data from brain waves,
49
178625
4184
сюжетный двигатель получает
и в режиме реального времени синхронизирует данные о мозговых волнах,
03:02
biophysical data like heart rate, blood flow, body temperature
50
182833
3560
биофизические данные, такие как пульс, кровообращение, температура тела
03:06
and muscle contraction,
51
186417
1684
и сокращение мышц,
03:08
as well as eye-tracking and facial expressions.
52
188125
2958
а также движение глаз и мимика.
03:12
Data is captured at key places where critical plot points,
53
192083
3726
Данные собираются во время критических моментов сюжета,
03:15
character interaction or unusual camera angles occur.
54
195833
3417
взаимодействия персонажей или необычных ракурсов съёмки.
03:20
Like the final scene in "Game of Thrones, Red Wedding,"
55
200292
2726
Как в финальной сцене «Красной свадьбы» в сериале «Игра престолов»,
03:23
when shockingly,
56
203042
2309
когда, на удивление,
03:25
everybody dies.
57
205375
1559
все умирают.
03:26
(Laughter)
58
206958
1250
(Смех)
03:29
Survey data on that person's political beliefs,
59
209042
3184
Информация о политических взглядах человека,
03:32
along with their psychographic and demographic data,
60
212250
3143
а также его психографические и демографические данные
03:35
are integrated into the system
61
215417
1767
используются системой
для лучшего понимания личности.
03:37
to gain a deeper understanding of the individual.
62
217208
2709
03:40
Let me give you an example.
63
220833
1542
Приведу пример.
03:43
Matching people's TV preferences with their views on social justice issues
64
223708
4851
Сравнение телевизионных предпочтений людей с их взглядами на социальные проблемы
03:48
reveals that Americans who rank immigration among their top three concerns
65
228583
4268
демонстрирует, что американцы,
считающие иммиграцию одной из трёх важнейших проблем,
03:52
are more likely to be fans of "The Walking Dead,"
66
232875
2792
с большей вероятностью будут поклонниками «Ходячих мертвецов»,
03:56
and they often watch for the adrenaline boost,
67
236958
2810
и они часто смотрят телевизор, чтобы получить дозу адреналина,
03:59
which is measurable.
68
239792
1291
которую можно измерить.
04:01
A person's biological signature and their survey response
69
241792
3934
Биологические признаки человека и его результаты опроса
04:05
combines into a database to create their unique media imprint.
70
245750
4851
объединяются в базу данных, чтобы создать его уникальный медиапрофиль.
04:10
Then our predictive model finds patterns between media imprints
71
250625
4268
Затем наша прогнозирующая модель находит закономерности в медиапрофилях
04:14
and tells me which narrative ingredients
72
254917
1976
и сообщает мне, какие повествовательные элементы
04:16
are more likely to lead to engagement in altruistic behavior
73
256917
3767
с большей вероятностью приведут к альтруистичным действиям,
04:20
rather than distress and apathy.
74
260708
2685
а не к апатии и стрессу.
04:23
The more imprints added to the database
75
263417
2184
Чем больше в базе данных профилей
04:25
across mediums from episodic television to games,
76
265625
3226
для разных видов медиа — от сериалов до игр, —
04:28
the better the predictive models become.
77
268875
2167
тем более точными становятся прогнозирующие модели.
04:32
In short, I am mapping the first media genome.
78
272417
3851
Иными словами, я впервые расшифровываю медиагеном.
04:36
(Applause and cheers)
79
276292
3791
(Аплодисменты и одобрительные возгласы)
04:44
Whereas the human genome identifies all genes involved
80
284083
3185
В то время как геном человека распознаёт гены,
04:47
in sequencing human DNA,
81
287292
1833
составляющие последовательность ДНК,
04:49
the growing database of media imprints will eventually allow me
82
289917
3226
растущая база данных медиапрофилей когда-нибудь позволит мне
04:53
to determine the media DNA for a specific person.
83
293167
4125
определить медиа-ДНК конкретного человека.
04:58
Already the Limbic Lab's narrative engine
84
298250
2833
Сюжетный двигатель Limbic Lab
05:02
helps content creators refine their storytelling,
85
302333
2601
уже помогает авторам вносить улучшения в свои истории таким образом,
05:04
so that it resonates with their target audiences on an individual level.
86
304958
4000
чтобы они вызывали в целевой аудитории личный отклик.
05:11
The Limbic Lab's other component,
87
311042
2184
Другой компонент Limbic Lab,
05:13
the media machine,
88
313250
1976
медиамашина,
05:15
will assess how media elicits an emotional and physiological response,
89
315250
4476
оценивает, как мультимедиа вызывает эмоциональную и физиологическую реакцию,
05:19
then pulls scenes from a content library
90
319750
2434
а затем извлекает сцены из библиотеки контента,
05:22
targeted to person-specific media DNA.
91
322208
2584
направленные на медиа-ДНК конкретного зрителя.
05:26
Applying artificial intelligence to biometric data
92
326042
3892
Применение искусственного интеллекта к биометрическим данным
05:29
creates a truly personalized experience.
93
329958
2726
создаёт поистине индивидуальный подход.
05:32
One that adapts content based on real-time unconscious responses.
94
332708
5084
Контент мгновенно адаптируется на основании подсознательных реакций.
05:38
Imagine if nonprofits and media makers were able to measure how audiences feel
95
338625
6059
Представьте, что некоммерческие организации и создатели медиа
могут измерять чувства своей аудитории
05:44
as they experience it
96
344708
1851
при восприятии медиапродукции
05:46
and alter content on the fly.
97
346583
2393
и на ходу изменять контент.
05:49
I believe this is the future of media.
98
349000
3458
Мне кажется, за этим — будущее мультимедиа.
05:53
To date, most media and social-change strategies
99
353333
2601
На настоящий момент все СМИ и стратегии социальных изменений
05:55
have attempted to appeal to mass audiences,
100
355958
2851
направлены на массовую аудиторию,
05:58
but the future is media customized for each person.
101
358833
3500
но будущее — за индивидуальным подходом к каждому.
06:03
As real-time measurement of media consumption
102
363458
2685
По мере того, как измерение потребления мультимедиа
06:06
and automated media production becomes the norm,
103
366167
2851
и автоматизированное создание медиаматериалов становится нормой,
06:09
we will soon be consuming media tailored directly to our cravings
104
369042
4059
вскоре мы будем получать мультимедиа «индивидуального пошива»,
06:13
using a blend of psychographics, biometrics and AI.
105
373125
4208
созданные с помощью психографики, биометрики и искусственного интеллекта,
06:18
It's like personalized medicine based on our DNA.
106
378250
3559
как персонализированный лекарственный препарат, основанный на нашей ДНК.
06:21
I call it "biomedia."
107
381833
2167
Я называю это «биомедиа».
06:25
I am currently testing the Limbic Lab in a pilot study
108
385042
3267
В настоящее время Limbic Lab участвует в пробном исследовании
06:28
with the Norman Lear Center,
109
388333
2018
совместно с центром Norman Lear Center,
06:30
which looks at the top 50 episodic television shows.
110
390375
3726
в котором рассматриваются 50 самых популярных телесериалов.
06:34
But I am grappling with an ethical dilemma.
111
394125
3018
Но я не могу решить этическую дилемму:
06:37
If I design a tool that can be turned into a weapon,
112
397167
3851
если я разрабатываю средство, которое может быть использовано в качестве оружия,
06:41
should I build it?
113
401042
1291
следует ли его создавать?
06:43
By open-sourcing the lab to encourage access and inclusivity,
114
403750
3643
Если я делаю лабораторию доступной всем и каждому,
06:47
I also run the risk of enabling powerful governments
115
407417
3434
я также даю возможность могущественным государствам
06:50
and profit-driven companies to appropriate the platform
116
410875
2934
и коммерческим компаниям использовать платформу
06:53
for fake news, marketing or other forms of mass persuasion.
117
413833
4084
для распространения ложной информации, проведения маркетинговых кампаний
и других видов массового убеждения.
06:59
For me, therefore, it is critical to make my research
118
419375
3351
Поэтому для меня крайне важно, чтобы мои исследования
07:02
as transparent to lay audiences as GMO labels.
119
422750
3583
были так же транспарентны для широкой аудитории, как ярлыки о ГМО.
07:07
However, this is not enough.
120
427333
2542
Но этого недостаточно.
07:11
As creative technologists,
121
431208
1643
Творчески работая с технологиями,
07:12
we have a responsibility
122
432875
2226
мы несём ответственность за то,
07:15
not only to reflect upon how present technology shapes our cultural values
123
435125
4768
чтобы анализировать не только как они формируют наши культурные ценности
07:19
and social behavior,
124
439917
2017
и социальное поведение сегодня,
07:21
but also to actively challenge the trajectory of future technology.
125
441958
4935
но и их будущую траекторию.
07:26
It is my hope that we make an ethical commitment
126
446917
4059
Я надеюсь, что мы возьмём на себя моральное обязательство
07:31
to harvesting the body's intelligence
127
451000
2351
собирать данные телесных реакций
07:33
for the creation of authentic and just stories
128
453375
3434
для создания достоверных и справедливых историй,
07:36
that transform media and technology
129
456833
2393
превращающих медиа и технологии
07:39
from harmful weapons into narrative medicine.
130
459250
3476
не в опасное оружие, а в повествовательное лекарство.
07:42
Thank you.
131
462750
1268
Спасибо.
07:44
(Applause and cheers)
132
464042
2208
(Аплодисменты и одобрительные возгласы)
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7