How I'm using biological data to tell better stories -- and spark social change | Heidi Boisvert

52,136 views ・ 2020-01-02

TED


Будь ласка, двічі клацніть на англійські субтитри нижче, щоб відтворити відео.

Перекладач: Sofia Kovalchuk Утверджено: Khrystyna Romashko
00:13
For the past 15 years I've been trying to change your mind.
0
13458
3542
Протягом останніх 15 років я намагалася змінити вашу думку про світ.
00:17
In my work I harness pop culture and emerging technology
1
17917
3851
У своїй роботі я використовую поп-культуру та новітні технології
00:21
to shift cultural norms.
2
21792
1458
для переосмислення культурних норм.
00:23
I've made video games to promote human rights,
3
23833
3685
Я створювала відеоігри для пропагування прав людини,
00:27
I've made animations to raise awareness about unfair immigration laws
4
27542
5059
я випускала мультиплікації, щоб наголосити на несправедливих законах про імміграцію.
00:32
and I've even made location-based augmented reality apps
5
32625
4226
Я навіть запустила програму з доповненою реальністю на основі місцезнаходження,
00:36
to change perceptions around homelessness
6
36875
2643
щоб змінити думку про безпритульність
00:39
well before Pokémon Go.
7
39542
1934
ще задовго до Pokémon Go.
00:41
(Laughter)
8
41500
1351
(Сміх)
00:42
But then I began to wonder whether a game or an app
9
42875
4018
Проте згодом я почала замислюватися: чи може гра або ж програма
00:46
can really change attitudes and behaviors,
10
46917
2476
суттєво змінити ставлення чи поведінку,
00:49
and if so, can I measure that change?
11
49417
3017
а якщо так, то чи можу я оцінити ці зміни?
00:52
What's the science behind that process?
12
52458
2976
А що наука каже про такі процеси?
00:55
So I shifted my focus from making media and technology
13
55458
3726
Отже, я змінила сферу діяльності: від створення медіа та технологій
00:59
to measuring their neurobiological effects.
14
59208
3042
до вивчення їх наслідків з точки зору нейробіології.
01:03
Here's what I discovered.
15
63458
1851
Ось що я дізналася.
01:05
The web, mobile devices, virtual and augmented reality
16
65333
3893
Інтернет-простір, мобільні пристрої, віртуальна та доповнена реальність
01:09
were rescripting our nervous systems.
17
69250
2684
"перепрошивали" нашу нервову систему.
01:11
And they were literally changing the structure of our brain.
18
71958
2959
І вони, без перебільшення, змінювали структуру нашого мозку.
01:15
The very technologies I had been using to positively influence hearts and minds
19
75875
4976
Ті технології, які я використовувала для позитивного впливу на серце та розум,
01:20
were actually eroding functions in the brain necessary for empathy
20
80875
4393
насправді руйнували ті можливості мозку, які необхідні для співчуття
01:25
and decision-making.
21
85292
1851
та прийняття рішень.
01:27
In fact, our dependence upon the web and mobile devices
22
87167
4142
Фактично, наша залежність від Інтернету та мобільних пристроїв
01:31
might be taking over our cognitive and affective faculties,
23
91333
4101
може поглинати наш когнітивний та емоційний інтелект,
01:35
rendering us socially and emotionally incompetent,
24
95458
3560
робити нас соціально та емоційно нестійкими,
01:39
and I felt complicit in this dehumanization.
25
99042
3291
тому я відчуваю, що стала співучасником цієї дегуманізації.
01:43
I realized that before I could continue making media about social issues,
26
103292
4642
Я усвідомила, що зможу знову взятися за створення контенту про соціальні проблеми
01:47
I needed to reverse engineer the harmful effects of technology.
27
107958
4417
лише тоді, коли зупиню цей руйнівний вплив технологій.
01:52
To tackle this I asked myself,
28
112917
2767
Щоб упоратися з завданням, я запитала себе:
01:55
"How can I translate the mechanisms of empathy,
29
115708
3393
як я можу перетворити здатність співчувати,
01:59
the cognitive, affective and motivational aspects,
30
119125
3643
когнітивні, емоційні та мотиваційні риси,
02:02
into an engine that simulates the narrative ingredients
31
122792
3226
на рушій, який буде імітувати елементи розповіді,
02:06
that move us to act?"
32
126042
1291
які надихнуть нас на вчинки?"
02:08
To answer this, I had to build a machine.
33
128583
3935
Щоб знайти відповідь, мені довелося створити машину.
02:12
(Laughter)
34
132542
1726
(Сміх)
02:14
I've been developing an open-source biometric lab,
35
134292
2892
Я створювала загальнодоступну біометричну лабораторію,
02:17
an AI system which I call the Limbic Lab.
36
137208
3476
тобто систему ШІ, яку я називаю "The Limbic Lab".
02:20
The lab not only captures
37
140708
1435
Лабораторія не лише фіксує
02:22
the brain and body's unconscious response to media and technology
38
142167
4226
підсвідому реакцію тіла і розуму на медіа та технології,
02:26
but also uses machine learning to adapt content
39
146417
2976
а також використовує машинне навчання для пристосування даних
02:29
based on these biological responses.
40
149417
2208
на основі цих біологічних реакцій.
02:32
My goal is to find out what combination of narrative ingredients
41
152667
3517
Моя мета -- з'ясувати, яке наповнення контенту
02:36
are the most appealing and galvanizing
42
156208
2143
є найбільш привабливим та стимулюючим
02:38
to specific target audiences
43
158375
1809
для конкретної цільової аудиторії,
02:40
to enable social justice, cultural and educational organizations
44
160208
5018
у якій соціальна справедливість, культурні та освітні організації
02:45
to create more effective media.
45
165250
2643
зможуть створювати більш ефективні ЗМІ.
02:47
The Limbic Lab consists of two components:
46
167917
2851
The Limbic Lab складається з двох частин:
02:50
a narrative engine and a media machine.
47
170792
2541
описового механізму та медіамашини.
02:54
While a subject is viewing or interacting with media content,
48
174375
4226
Коли людина переглядає чи взаємодіє з медіаконтентом,
02:58
the narrative engine takes in and syncs real-time data from brain waves,
49
178625
4184
описовий механізм приймає та синхронізує дані в той момент: мозкову активність,
03:02
biophysical data like heart rate, blood flow, body temperature
50
182833
3560
біофізичні дані, до прикладу, серцебиття, кровообіг, температуру тіла
03:06
and muscle contraction,
51
186417
1684
та скорочення м'язів,
03:08
as well as eye-tracking and facial expressions.
52
188125
2958
а ще рухи очима та вирази обличчя.
03:12
Data is captured at key places where critical plot points,
53
192083
3726
Інформація збирається під час несподіваних поворотів сюжету,
03:15
character interaction or unusual camera angles occur.
54
195833
3417
взаємодії між героями, або ж незвичайних ракурсів зйомки.
03:20
Like the final scene in "Game of Thrones, Red Wedding,"
55
200292
2726
Наприклад, фінальна сцена у "Грі престолів: Червоне весілля,"
03:23
when shockingly,
56
203042
2309
це приголомшливо,
03:25
everybody dies.
57
205375
1559
але всі помирають.
03:26
(Laughter)
58
206958
1250
(Сміх)
03:29
Survey data on that person's political beliefs,
59
209042
3184
Дані опитування на тему політичних поглядів,
03:32
along with their psychographic and demographic data,
60
212250
3143
а також психографічна та демографічна інформація,
03:35
are integrated into the system
61
215417
1767
інтегровані в систему
03:37
to gain a deeper understanding of the individual.
62
217208
2709
для кращого розуміння людини.
03:40
Let me give you an example.
63
220833
1542
Давайте я наведу приклад.
03:43
Matching people's TV preferences with their views on social justice issues
64
223708
4851
Порівняння телевізійних вподобань людей з поглядами на соціальні проблеми показали,
03:48
reveals that Americans who rank immigration among their top three concerns
65
228583
4268
що американці, для яких проблема імміграції одна з найголовніших --
03:52
are more likely to be fans of "The Walking Dead,"
66
232875
2792
можливо, є фанами "Ходячих мерців",
03:56
and they often watch for the adrenaline boost,
67
236958
2810
і часто дивляться серіал, щоб отримати порцію адреналіну,
03:59
which is measurable.
68
239792
1291
а це можна виміряти.
04:01
A person's biological signature and their survey response
69
241792
3934
Біологічний слід людини, а також результати опитування
04:05
combines into a database to create their unique media imprint.
70
245750
4851
об'єднують у базі даних, щоб створити її унікальний медіа-відбиток.
04:10
Then our predictive model finds patterns between media imprints
71
250625
4268
Потім наша "машина прогнозів" знаходить взаємозв'язки між медіа-відбитками
04:14
and tells me which narrative ingredients
72
254917
1976
та показує, який з елементів розповіді,
04:16
are more likely to lead to engagement in altruistic behavior
73
256917
3767
можливо, спровокує бажання до альтруїстичної поведінки,
04:20
rather than distress and apathy.
74
260708
2685
а не до страждання та апатії.
04:23
The more imprints added to the database
75
263417
2184
Чим більше реакцій на різний контент --
04:25
across mediums from episodic television to games,
76
265625
3226
від телепередач до ігор, які ми додаємо у базу даних, --
04:28
the better the predictive models become.
77
268875
2167
тим точнішими стають передбачення.
04:32
In short, I am mapping the first media genome.
78
272417
3851
Коротко кажучи, я створюю перший медіа-геном.
04:36
(Applause and cheers)
79
276292
3791
(Оплески та вигуки)
04:44
Whereas the human genome identifies all genes involved
80
284083
3185
Якщо врахувати, що геном людини -- це сукупність усіх генів,
04:47
in sequencing human DNA,
81
287292
1833
які передаються через ДНК,
04:49
the growing database of media imprints will eventually allow me
82
289917
3226
то одного дня, завдяки величезній базі даних медіа-відбитків,
04:53
to determine the media DNA for a specific person.
83
293167
4125
я зможу визначити медіа-ДНК конкретної людини.
04:58
Already the Limbic Lab's narrative engine
84
298250
2833
Описовий механізм моєї лабораторії вже допомагає
05:02
helps content creators refine their storytelling,
85
302333
2601
творцям контенту вдосконалювати їхню роботу,
05:04
so that it resonates with their target audiences on an individual level.
86
304958
4000
щоб повідомлення мало вплив на кожного в цільовій аудиторії.
05:11
The Limbic Lab's other component,
87
311042
2184
Інший механізм "The Limbic Lab" --
05:13
the media machine,
88
313250
1976
медіамашина --
05:15
will assess how media elicits an emotional and physiological response,
89
315250
4476
оцінює емоційну та фізіологічну реакцію, яку викликає взаємодія з медіа,
05:19
then pulls scenes from a content library
90
319750
2434
та згодом групує її з даними з "медіасховища",
05:22
targeted to person-specific media DNA.
91
322208
2584
яке є особистим відповідно до конкретного медіа-ДНК людини.
05:26
Applying artificial intelligence to biometric data
92
326042
3892
Завдяки тому, що біометричні дані опрацьовує штучний інтелект,
05:29
creates a truly personalized experience.
93
329958
2726
ми отримуємо цілком індивідуалізовані результати.
05:32
One that adapts content based on real-time unconscious responses.
94
332708
5084
І відповідно до них підбираємо контент, опираючись на миттєві підсвідомі реакції.
05:38
Imagine if nonprofits and media makers were able to measure how audiences feel
95
338625
6059
Лише уявіть, якби некомерційні організації та ЗМІ могли оцінювати реакцію аудиторії
05:44
as they experience it
96
344708
1851
під час взаємодії з контентом
05:46
and alter content on the fly.
97
346583
2393
та одразу ж доопрацьовувати його.
05:49
I believe this is the future of media.
98
349000
3458
Я впевнена, що це майбутнє медіа.
05:53
To date, most media and social-change strategies
99
353333
2601
Більшість сучасних ЗМІ та стратегій змін у суспільстві
05:55
have attempted to appeal to mass audiences,
100
355958
2851
намагаються привернути увагу широкої аудиторії,
05:58
but the future is media customized for each person.
101
358833
3500
проте майбутнє медіа -- бути індивідуальними для кожного.
06:03
As real-time measurement of media consumption
102
363458
2685
Через те, що вимірювання споживання ЗМІ проводяться в реальному часі,
06:06
and automated media production becomes the norm,
103
366167
2851
а автоматизовані матеріали ЗМІ стають нормою,
06:09
we will soon be consuming media tailored directly to our cravings
104
369042
4059
згодом ми поглинатимемо медіа, які адаптовані до наших бажань,
06:13
using a blend of psychographics, biometrics and AI.
105
373125
4208
що засновані на психографічних, біометричних даних та ШІ.
06:18
It's like personalized medicine based on our DNA.
106
378250
3559
Це схоже на персоналізовану медицину на основі нашого ДНК.
06:21
I call it "biomedia."
107
381833
2167
Я називаю це "біомедіа".
06:25
I am currently testing the Limbic Lab in a pilot study
108
385042
3267
Нині я тестую "The Limbic Lab" в експериментальному дослідженні
06:28
with the Norman Lear Center,
109
388333
2018
разом з Дослідницьким центром Нормана,
06:30
which looks at the top 50 episodic television shows.
110
390375
3726
для якого ми використовуємо 50 епізодів із вибраних телевізійних передач.
06:34
But I am grappling with an ethical dilemma.
111
394125
3018
Але я намагаюся вирішити етичну дилему.
06:37
If I design a tool that can be turned into a weapon,
112
397167
3851
Якщо я створюю механізм, який можна перетворити на зброю,
06:41
should I build it?
113
401042
1291
чи слід мені робити це?
06:43
By open-sourcing the lab to encourage access and inclusivity,
114
403750
3643
Через відкритий доступ до лабораторії для кожного, хто хоче взяти участь,
06:47
I also run the risk of enabling powerful governments
115
407417
3434
є ризик, що я надам можливість урядам могутніх країн
06:50
and profit-driven companies to appropriate the platform
116
410875
2934
та компаніям, які орієнтовані на прибуток, використовувати її
06:53
for fake news, marketing or other forms of mass persuasion.
117
413833
4084
для фейкових новин, просування товарів та інших інструментів масового переконання.
06:59
For me, therefore, it is critical to make my research
118
419375
3351
Отже, для мене надзвичайно важливо проводити дослідження
07:02
as transparent to lay audiences as GMO labels.
119
422750
3583
настільки відкрито, щоб попередити аудиторію про можливий "ГМО" контент.
07:07
However, this is not enough.
120
427333
2542
Проте, цього все ще недостатньо.
07:11
As creative technologists,
121
431208
1643
Ми -- креативні технологи --
07:12
we have a responsibility
122
432875
2226
несемо відповідальність
07:15
not only to reflect upon how present technology shapes our cultural values
123
435125
4768
не лише за те, що показуємо, як сучасні технології впливають на культурні цінності
07:19
and social behavior,
124
439917
2017
та соціальну поведінку,
07:21
but also to actively challenge the trajectory of future technology.
125
441958
4935
а також кидаємо виклик розвитку майбутніх технологій.
07:26
It is my hope that we make an ethical commitment
126
446917
4059
Я сподіваюся, що ми поставимо перед собою етичне зобов'язання
07:31
to harvesting the body's intelligence
127
451000
2351
збирати інформацію про тіло
07:33
for the creation of authentic and just stories
128
453375
3434
для створення достовірних та правдивих сюжетів,
07:36
that transform media and technology
129
456833
2393
які перетворять медіа та технології
07:39
from harmful weapons into narrative medicine.
130
459250
3476
зі згубної зброї на особливі ліки.
07:42
Thank you.
131
462750
1268
Дякую.
07:44
(Applause and cheers)
132
464042
2208
(Оплески та вигуки)
Про цей сайт

Цей сайт познайомить вас з відеороликами YouTube, корисними для вивчення англійської мови. Ви побачите уроки англійської мови, які проводять першокласні викладачі з усього світу. Двічі клацніть на англійських субтитрах, що відображаються на кожній сторінці відео, щоб відтворити відео з цієї сторінки. Субтитри прокручуються синхронно з відтворенням відео. Якщо у вас є коментарі або побажання, будь ласка, зв'яжіться з нами за допомогою цієї контактної форми.

https://forms.gle/WvT1wiN1qDtmnspy7