How I'm using biological data to tell better stories -- and spark social change | Heidi Boisvert

52,109 views

2020-01-02 ・ TED


New videos

How I'm using biological data to tell better stories -- and spark social change | Heidi Boisvert

52,109 views ・ 2020-01-02

TED


Dvaput kliknite na engleske titlove ispod za reprodukciju videozapisa.

Prevoditelj: Nina Bassi Recezent: Sanda L
00:13
For the past 15 years I've been trying to change your mind.
0
13458
3542
Posljednjih 15 godina pokušavam promijeniti vaše mišljenje.
00:17
In my work I harness pop culture and emerging technology
1
17917
3851
U mom radu koristim pop kulturu i novonastalu tehnologiju
00:21
to shift cultural norms.
2
21792
1458
kako bih promijenila kulturne norme.
00:23
I've made video games to promote human rights,
3
23833
3685
Napravila sam video igrice kako bih promovirala ljudska prava,
00:27
I've made animations to raise awareness about unfair immigration laws
4
27542
5059
napravila sam animacije da podignem svijest o nepravednim imigrantskim zakonima,
00:32
and I've even made location-based augmented reality apps
5
32625
4226
čak sam napravila i aplikacije proširene stvarnosti temeljene na lokaciji
00:36
to change perceptions around homelessness
6
36875
2643
kako bih promijenila percepciju beskućništva
00:39
well before Pokémon Go.
7
39542
1934
puno prije igrice Pokémon Go.
00:41
(Laughter)
8
41500
1351
(Smijeh)
00:42
But then I began to wonder whether a game or an app
9
42875
4018
Ali onda sam se zapitala može li igrica ili aplikacija
00:46
can really change attitudes and behaviors,
10
46917
2476
zapravo promijeniti stavove i ponašanja,
00:49
and if so, can I measure that change?
11
49417
3017
a ako da, mogu li izmjeriti tu promjenu?
00:52
What's the science behind that process?
12
52458
2976
Kakva je znanost iza tog procesa?
00:55
So I shifted my focus from making media and technology
13
55458
3726
Tako da sam prebacila fokus sa stvaranja medija i tehnologije
00:59
to measuring their neurobiological effects.
14
59208
3042
do mjerenja njihovih neurobioloških učinaka.
01:03
Here's what I discovered.
15
63458
1851
Evo što sam otkrila.
01:05
The web, mobile devices, virtual and augmented reality
16
65333
3893
Web, mobilni uređaji, virtualna i proširena stvarnost
01:09
were rescripting our nervous systems.
17
69250
2684
mijenjale su naš živčani sustav.
01:11
And they were literally changing the structure of our brain.
18
71958
2959
I doslovno su mijenjale strukturu našeg mozga.
01:15
The very technologies I had been using to positively influence hearts and minds
19
75875
4976
Same tehnologije koje sam upotrebljavala kako bih pozitivno utjecala na srca i um
01:20
were actually eroding functions in the brain necessary for empathy
20
80875
4393
zapravo su narušavale funkcije u mozgu potrebne za empatiju
01:25
and decision-making.
21
85292
1851
i donošenje odluka.
01:27
In fact, our dependence upon the web and mobile devices
22
87167
4142
U stvari, naša ovisnost o mreži i mobilnim uređajima
01:31
might be taking over our cognitive and affective faculties,
23
91333
4101
možda preuzima naše kognitivne i afektivne sposobnosti,
01:35
rendering us socially and emotionally incompetent,
24
95458
3560
čineći nas društveno i emocionalno nesposobnima
01:39
and I felt complicit in this dehumanization.
25
99042
3291
i osjećam se kao suučesnik u toj dehumanizaciji.
01:43
I realized that before I could continue making media about social issues,
26
103292
4642
Shvatila sam da prije nego što mogu nastaviti stvarati medije
o društvenim problemima, moram obrnuti štetne učinke tehnologije.
01:47
I needed to reverse engineer the harmful effects of technology.
27
107958
4417
01:52
To tackle this I asked myself,
28
112917
2767
Kako bih se uhvatila ovoga, zapitala sam se:
01:55
"How can I translate the mechanisms of empathy,
29
115708
3393
"Kako mogu prenijeti mehanizme empatijskih,
01:59
the cognitive, affective and motivational aspects,
30
119125
3643
kognitivnih, afektivnih i motivacijskih aspekata
02:02
into an engine that simulates the narrative ingredients
31
122792
3226
u sustav koji simulira narativne dijelove
02:06
that move us to act?"
32
126042
1291
koji nas potiču na djelovanje?"
02:08
To answer this, I had to build a machine.
33
128583
3935
Kako bih odgovorila na ovo, morala sam napraviti stroj.
02:12
(Laughter)
34
132542
1726
(Smijeh)
02:14
I've been developing an open-source biometric lab,
35
134292
2892
Razvijam biometrički laboratorij s otvorenim kodom,
02:17
an AI system which I call the Limbic Lab.
36
137208
3476
sustav UI koji nazivam Limbički laboratorij.
02:20
The lab not only captures
37
140708
1435
Ne samo da laboratorij bilježi
02:22
the brain and body's unconscious response to media and technology
38
142167
4226
mozgovne i nesvjesne tjelesne odgovore na medije i tehnologiju,
02:26
but also uses machine learning to adapt content
39
146417
2976
nego također koristi strojno učenje kako bi prilagodio sadržaj
02:29
based on these biological responses.
40
149417
2208
temeljeći se na tim biološkim odgovorima.
02:32
My goal is to find out what combination of narrative ingredients
41
152667
3517
Moj je cilj otkriti koje kombinacije narativnih dijelova
02:36
are the most appealing and galvanizing
42
156208
2143
su najprimamljivije i najstimulativnije
02:38
to specific target audiences
43
158375
1809
za određenu ciljanu publiku,
02:40
to enable social justice, cultural and educational organizations
44
160208
5018
kako bih omogućila društvenu pravdu, kulturne i obrazovne organizacije,
02:45
to create more effective media.
45
165250
2643
kako bih stvorila učinkovitije medije.
02:47
The Limbic Lab consists of two components:
46
167917
2851
Limbički laboratorij sastoji se od dva dijela:
02:50
a narrative engine and a media machine.
47
170792
2541
modula za priče i modula za medije.
02:54
While a subject is viewing or interacting with media content,
48
174375
4226
Dok subjekt gleda ili komunicira s medijskim sadržajem,
02:58
the narrative engine takes in and syncs real-time data from brain waves,
49
178625
4184
modul za priče uzima i sinkronizira podatke moždanih valova u stvarnom vremenu,
03:02
biophysical data like heart rate, blood flow, body temperature
50
182833
3560
biološke podatke kao otkucaje srca, krvotok, tjelesnu temperaturu
03:06
and muscle contraction,
51
186417
1684
i kontrakciju mišića,
03:08
as well as eye-tracking and facial expressions.
52
188125
2958
kao i praćenje oka i izraze lica.
03:12
Data is captured at key places where critical plot points,
53
192083
3726
Podaci su uzeti s ključnih mjesta gdje kritična radnja pokazuje
03:15
character interaction or unusual camera angles occur.
54
195833
3417
interakciju karaktera ili gdje se dogodi neobičan kut kamere.
03:20
Like the final scene in "Game of Thrones, Red Wedding,"
55
200292
2726
Kao posljednja scena u Igri prijestolja, "Crveno vjenčanje",
03:23
when shockingly,
56
203042
2309
kada iznenađujuće,
03:25
everybody dies.
57
205375
1559
svi umru.
03:26
(Laughter)
58
206958
1250
(Smijeh)
03:29
Survey data on that person's political beliefs,
59
209042
3184
Podaci iz anketa političkih uvjerenja te osobe,
03:32
along with their psychographic and demographic data,
60
212250
3143
zajedno s njezinim psihografskim i demografskim podacima,
03:35
are integrated into the system
61
215417
1767
integrirani su u sustav
03:37
to gain a deeper understanding of the individual.
62
217208
2709
kako bi se dobilo dublje razumijevanje pojedinca.
03:40
Let me give you an example.
63
220833
1542
Dat ću vam primjer.
03:43
Matching people's TV preferences with their views on social justice issues
64
223708
4851
Sparivanje TV prioriteta osobe s njihovim pogledima na probleme društvene pravde
03:48
reveals that Americans who rank immigration among their top three concerns
65
228583
4268
otkriva kako su Amerikanci koji stavljaju imigraciju na prva tri mjesta po zabrinutosti
03:52
are more likely to be fans of "The Walking Dead,"
66
232875
2792
vjerojatnije obožavatelji Hodajućih mrtvaca
03:56
and they often watch for the adrenaline boost,
67
236958
2810
i često traže adrenalinski podražaj
03:59
which is measurable.
68
239792
1291
koji se može izmjeriti.
04:01
A person's biological signature and their survey response
69
241792
3934
Biološki potpis osobe i njihov odgovor na istraživanje
04:05
combines into a database to create their unique media imprint.
70
245750
4851
kombinira se u bazu podataka kako bi se stvorio jedinstveni medijski utisak.
04:10
Then our predictive model finds patterns between media imprints
71
250625
4268
Tada naš model za predviđanja pronalazi uzorke među medijskim utiscima
04:14
and tells me which narrative ingredients
72
254917
1976
i govori mi koji dijelovi priče
04:16
are more likely to lead to engagement in altruistic behavior
73
256917
3767
više vode prema angažiranju i altruističnom ponašanju,
04:20
rather than distress and apathy.
74
260708
2685
nego prema boli i apatiji.
04:23
The more imprints added to the database
75
263417
2184
Što je više utisaka u bazi podataka iz medija
04:25
across mediums from episodic television to games,
76
265625
3226
od televizijskih serija do igara,
04:28
the better the predictive models become.
77
268875
2167
model za predviđanje postaje bolji.
04:32
In short, I am mapping the first media genome.
78
272417
3851
Ukratko, bilježim prve medijske genome.
04:36
(Applause and cheers)
79
276292
3791
(Pljesak i klicanje)
04:44
Whereas the human genome identifies all genes involved
80
284083
3185
Dok ljudski genom identificira sve gene koji su uključeni
04:47
in sequencing human DNA,
81
287292
1833
u sekvenciranje ljudske DNK,
04:49
the growing database of media imprints will eventually allow me
82
289917
3226
rastuća baza podataka medijskih utisaka s vremenom će mi omogućiti
04:53
to determine the media DNA for a specific person.
83
293167
4125
da odredim medijsku DNK za pojedinu osobu.
04:58
Already the Limbic Lab's narrative engine
84
298250
2833
Narativni modul Limbičkog laboratorija
05:02
helps content creators refine their storytelling,
85
302333
2601
pomaže stvarateljima sadržaja da usavrše svoje pričanje priča
05:04
so that it resonates with their target audiences on an individual level.
86
304958
4000
tako da rezonira s ciljanom publikom na individualnoj razini.
05:11
The Limbic Lab's other component,
87
311042
2184
Druga sastavnica Limbičkog laboratorija,
05:13
the media machine,
88
313250
1976
medijski modul,
05:15
will assess how media elicits an emotional and physiological response,
89
315250
4476
procijenit će kako mediji izazivaju emocionalni i fiziološki odgovor
05:19
then pulls scenes from a content library
90
319750
2434
i onda izvući scene iz knjižnice sadržaja
05:22
targeted to person-specific media DNA.
91
322208
2584
ciljane za medijsku DNK određene osobe.
05:26
Applying artificial intelligence to biometric data
92
326042
3892
Primjenjivanje umjetne inteligencije na biometričke podatke
05:29
creates a truly personalized experience.
93
329958
2726
stvara zaista personalizirano iskustvo.
05:32
One that adapts content based on real-time unconscious responses.
94
332708
5084
Ono koje prilagođava sadržaj prema nesvjesnim odgovorima u stvarnom vremenu.
05:38
Imagine if nonprofits and media makers were able to measure how audiences feel
95
338625
6059
Zamislite kada bi neprofitne ustanove i stvaratelji medija bili sposobni izmjeriti
kako se publika osjeća dok prolazi kroz iskustvo
05:44
as they experience it
96
344708
1851
05:46
and alter content on the fly.
97
346583
2393
i odmah promijeniti sadržaj.
05:49
I believe this is the future of media.
98
349000
3458
Vjerujem kako je ovo budućnost medija.
05:53
To date, most media and social-change strategies
99
353333
2601
Do danas, većina medijskih i društvenih strategija
05:55
have attempted to appeal to mass audiences,
100
355958
2851
pokušale su doprijeti do masivne publike,
05:58
but the future is media customized for each person.
101
358833
3500
ali budućnost leži u medijima skrojenima za svaku osobu.
06:03
As real-time measurement of media consumption
102
363458
2685
Dok mjerenja medijskih pretraga u stvarnom vremenu
06:06
and automated media production becomes the norm,
103
366167
2851
kao i automatska proizvodnja medija postanu standardne,
06:09
we will soon be consuming media tailored directly to our cravings
104
369042
4059
konzumirat ćemo medije skrojene direktno po našim željama,
06:13
using a blend of psychographics, biometrics and AI.
105
373125
4208
koristeći spoj psihografije, biometrije i UI.
06:18
It's like personalized medicine based on our DNA.
106
378250
3559
To je kao personalizirana medicina temeljena na našoj DNK.
06:21
I call it "biomedia."
107
381833
2167
Zovem je "biomedija".
06:25
I am currently testing the Limbic Lab in a pilot study
108
385042
3267
Trenutno testiram Limbički laboratorij u pilot studiji
06:28
with the Norman Lear Center,
109
388333
2018
u Norman Lear Centru,
06:30
which looks at the top 50 episodic television shows.
110
390375
3726
koji promatra 50 najpoznatijih televizijskih serija.
06:34
But I am grappling with an ethical dilemma.
111
394125
3018
Ali se borim s etičkom dilemom.
06:37
If I design a tool that can be turned into a weapon,
112
397167
3851
Ako stvorim alat koji se može pretvoriti u oružje,
06:41
should I build it?
113
401042
1291
trebam li ga napraviti?
06:43
By open-sourcing the lab to encourage access and inclusivity,
114
403750
3643
Ako stavim laboratorij kao izvorni kod kako bih potakla pristup i uključivanje,
06:47
I also run the risk of enabling powerful governments
115
407417
3434
također postoji rizik da omogućim moćnim vladama
06:50
and profit-driven companies to appropriate the platform
116
410875
2934
i tvrtkama koje se vode profitom da prilagode platformu
06:53
for fake news, marketing or other forms of mass persuasion.
117
413833
4084
za lažne vijesti, marketing i ostale načine uvjeravanja masa.
06:59
For me, therefore, it is critical to make my research
118
419375
3351
Dakle, za mene je ključno napraviti moje istraživanje
07:02
as transparent to lay audiences as GMO labels.
119
422750
3583
transparentno laičkoj publici jednako kao što su to GMO naljepnice.
07:07
However, this is not enough.
120
427333
2542
Ali, ovo nije dovoljno.
07:11
As creative technologists,
121
431208
1643
Kao kreativni tehnolozi
07:12
we have a responsibility
122
432875
2226
odgovorni smo
07:15
not only to reflect upon how present technology shapes our cultural values
123
435125
4768
razmišljati ne samo o tome kako današnja tehnologija
oblikuje naše kulturne vrijednosti i društveno ponašanje,
07:19
and social behavior,
124
439917
2017
07:21
but also to actively challenge the trajectory of future technology.
125
441958
4935
nego i aktivno izazivati putanju buduće tehnologije.
07:26
It is my hope that we make an ethical commitment
126
446917
4059
Nadam se kako ćemo se etički obvezati
07:31
to harvesting the body's intelligence
127
451000
2351
da uzimamo tjelesnu inteligenciju
07:33
for the creation of authentic and just stories
128
453375
3434
za stvaranje autentičnih priča i samo priča
07:36
that transform media and technology
129
456833
2393
koje mijenjaju medije i tehnologiju
07:39
from harmful weapons into narrative medicine.
130
459250
3476
od štetnih oružja prema narativnom lijeku.
07:42
Thank you.
131
462750
1268
Hvala.
07:44
(Applause and cheers)
132
464042
2208
(Pljesak i klicanje)
O ovoj web stranici

Ova stranica će vas upoznati s YouTube videozapisima koji su korisni za učenje engleskog jezika. Vidjet ćete lekcije engleskog koje vode vrhunski profesori iz cijelog svijeta. Dvaput kliknite na engleske titlove prikazane na svakoj video stranici da biste reproducirali video s tog mjesta. Titlovi se pomiču sinkronizirano s reprodukcijom videozapisa. Ako imate bilo kakvih komentara ili zahtjeva, obratite nam se putem ovog obrasca za kontakt.

https://forms.gle/WvT1wiN1qDtmnspy7