How I'm using biological data to tell better stories -- and spark social change | Heidi Boisvert

52,140 views ・ 2020-01-02

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: ilker cartı Gözden geçirme: Nevaz Mescioğlu
00:13
For the past 15 years I've been trying to change your mind.
0
13458
3542
Son 15 yıldır fikirlerinizi değiştirmeye çalışıyorum.
00:17
In my work I harness pop culture and emerging technology
1
17917
3851
İşimde popüler kültür ve gelişen teknolojiden yararlanarak
00:21
to shift cultural norms.
2
21792
1458
kültürel normları yükseltiyorum.
00:23
I've made video games to promote human rights,
3
23833
3685
İnsan haklarını savunmak için video oyunları yaptım,
00:27
I've made animations to raise awareness about unfair immigration laws
4
27542
5059
adil olmayan göç kanunlarıyla ilgili farkındalık yaratmak için animasyonlar
00:32
and I've even made location-based augmented reality apps
5
32625
4226
ve evsizlik algısını değiştirmek için
00:36
to change perceptions around homelessness
6
36875
2643
konum tabanlı artırılmış gerçeklik uygulamaları yaptım,
00:39
well before Pokémon Go.
7
39542
1934
Pokémon Go'dan önce.
00:41
(Laughter)
8
41500
1351
(Gülüşmeler)
00:42
But then I began to wonder whether a game or an app
9
42875
4018
Ama sonradan düşündüm ki bir uygulama ya da oyun
00:46
can really change attitudes and behaviors,
10
46917
2476
tutum ve davranışları gerçekten değiştirebiliyorsa
00:49
and if so, can I measure that change?
11
49417
3017
bu değişim ölçülebilir miydi?
00:52
What's the science behind that process?
12
52458
2976
Bu sürecin ardındaki bilim nasıldı?
00:55
So I shifted my focus from making media and technology
13
55458
3726
Böylece odağımı medya ve teknoloji üretiminden
00:59
to measuring their neurobiological effects.
14
59208
3042
onların nörobiyolojik etkisine değiştirdim.
01:03
Here's what I discovered.
15
63458
1851
Şunu keşfettim:
01:05
The web, mobile devices, virtual and augmented reality
16
65333
3893
İnternet ağı, mobil cihazlar, sanal ve artırılmış gerçeklik
01:09
were rescripting our nervous systems.
17
69250
2684
sinir sistemimizi baştan yazıyordu.
01:11
And they were literally changing the structure of our brain.
18
71958
2959
Beynimizin yapısını tamı tamına değiştiriyordu.
01:15
The very technologies I had been using to positively influence hearts and minds
19
75875
4976
Olumlu yönde kalbimize dokunması
ve zihnimizi etkilemesi için kullandığım teknolojiler
01:20
were actually eroding functions in the brain necessary for empathy
20
80875
4393
beynimizde empati ve karar alma için gerekli fonksiyonları yıpratıyordu.
01:25
and decision-making.
21
85292
1851
01:27
In fact, our dependence upon the web and mobile devices
22
87167
4142
Aslında internet ve mobil cihazlara bağlılığımız
01:31
might be taking over our cognitive and affective faculties,
23
91333
4101
bilişsel ve duyusal yetkinliğimizin yerini alarak
01:35
rendering us socially and emotionally incompetent,
24
95458
3560
bizi sosyal ve duygusal yetersizliğe bırakıyor olabilirdi
01:39
and I felt complicit in this dehumanization.
25
99042
3291
ve ben bu yabanileşmenin suç ortağı olduğumu hissettim.
01:43
I realized that before I could continue making media about social issues,
26
103292
4642
Farkına vardım ki sosyal konularla ilgili medya üretebilmemden önce
01:47
I needed to reverse engineer the harmful effects of technology.
27
107958
4417
teknolojinin zararlı etkilerini tersine çevirmeliydim.
01:52
To tackle this I asked myself,
28
112917
2767
Bunu aşmak için kendime sordum:
01:55
"How can I translate the mechanisms of empathy,
29
115708
3393
"Empatinin, bilişsel, duyusal ve motivasyonel yönlerinin mekanizmasını
01:59
the cognitive, affective and motivational aspects,
30
119125
3643
bizi öyküsel içeriğiyle harekete geçiren
02:02
into an engine that simulates the narrative ingredients
31
122792
3226
bir simülasyon motoruna
02:06
that move us to act?"
32
126042
1291
nasıl aktarabilirim?"
02:08
To answer this, I had to build a machine.
33
128583
3935
Bunu cevaplamak için bir makine yapmalıydım.
02:12
(Laughter)
34
132542
1726
(Gülüşmeler)
02:14
I've been developing an open-source biometric lab,
35
134292
2892
Bir açık kaynak biyometrik laboratuvarı geliştiriyorum,
02:17
an AI system which I call the Limbic Lab.
36
137208
3476
adına "Limbic Lab" dediğim bir yapay zekâ.
02:20
The lab not only captures
37
140708
1435
Lab hem beynin ve bedenin
02:22
the brain and body's unconscious response to media and technology
38
142167
4226
medya ve teknolojiye bilinçsiz tepkilerini topluyor
02:26
but also uses machine learning to adapt content
39
146417
2976
hem de bu biyolojik tepkilere içerik tabanlı adaptasyon için
02:29
based on these biological responses.
40
149417
2208
yapay öğrenmeyi kullanıyor.
02:32
My goal is to find out what combination of narrative ingredients
41
152667
3517
Amacım, sosyal adalet, kültürel ve eğitimsel organizasyonlarının
02:36
are the most appealing and galvanizing
42
156208
2143
daha etkili medya yaratmasını sağlamak için özgün hedef topluluklara
02:38
to specific target audiences
43
158375
1809
02:40
to enable social justice, cultural and educational organizations
44
160208
5018
ne tür bir öyküsel içerik kombinasyonunun en cazip ve teşvik edici olduğunu bulmak.
02:45
to create more effective media.
45
165250
2643
02:47
The Limbic Lab consists of two components:
46
167917
2851
Limbik Lab iki bileşenden oluşuyor:
02:50
a narrative engine and a media machine.
47
170792
2541
bir öykü motoru ve bir medya makinesi.
02:54
While a subject is viewing or interacting with media content,
48
174375
4226
Bir kişi medya içeriğini görüntülüyor ya da onunla etkileşiyorken öykü motoru,
02:58
the narrative engine takes in and syncs real-time data from brain waves,
49
178625
4184
beyin dalgaları, kalp ritmi, kan akışı,
03:02
biophysical data like heart rate, blood flow, body temperature
50
182833
3560
vücut sıcaklığı ve kas kasılması gibi biyofiziksel veriler ile
03:06
and muscle contraction,
51
186417
1684
03:08
as well as eye-tracking and facial expressions.
52
188125
2958
göz takip ve yüz ifadeleri verilerini senkronize ediyor.
Veri, karakter etkileşimi ya da sıra dışı kamera açıları gibi
03:12
Data is captured at key places where critical plot points,
53
192083
3726
03:15
character interaction or unusual camera angles occur.
54
195833
3417
kritik anahtar noktalardan okunuyor.
03:20
Like the final scene in "Game of Thrones, Red Wedding,"
55
200292
2726
"Game of Thrones, Red Wedding" finalinde
03:23
when shockingly,
56
203042
2309
şok edici biçimde
03:25
everybody dies.
57
205375
1559
herkesin ölümündeki gibi.
03:26
(Laughter)
58
206958
1250
(Gülüşmeler)
03:29
Survey data on that person's political beliefs,
59
209042
3184
Kişinin politik görüşüyle ilgili anket verileri,
03:32
along with their psychographic and demographic data,
60
212250
3143
psikografik ve demografik verileriyle birlikte, birey hakkında
03:35
are integrated into the system
61
215417
1767
daha derinlemesine bilgi elde etmek için
03:37
to gain a deeper understanding of the individual.
62
217208
2709
sisteme dahil ediliyor.
03:40
Let me give you an example.
63
220833
1542
Bir örnek vereyim.
03:43
Matching people's TV preferences with their views on social justice issues
64
223708
4851
İnsanların TV tercihleri ve sosyal adalet konusundaki fikirleri
03:48
reveals that Americans who rank immigration among their top three concerns
65
228583
4268
gösteriyor ki ilk üç kaygısı göç alımı olan Amerikalılar
03:52
are more likely to be fans of "The Walking Dead,"
66
232875
2792
"The Walking Dead" hayranı olmaya daha yatkınlar
03:56
and they often watch for the adrenaline boost,
67
236958
2810
ve sıklıkla adrenalini yükseltmek için izliyorlar
03:59
which is measurable.
68
239792
1291
ki bu ölçülebiliyor.
04:01
A person's biological signature and their survey response
69
241792
3934
Bir insanın biyolojik imzası ve anket yanıtları
04:05
combines into a database to create their unique media imprint.
70
245750
4851
onun özgün medya izini yaratmak için kombine ediliyor.
04:10
Then our predictive model finds patterns between media imprints
71
250625
4268
Sonra öngörüsel modelimiz, medya izleri arasındaki şablonlardan
04:14
and tells me which narrative ingredients
72
254917
1976
hangi öyküsel bileşenin
04:16
are more likely to lead to engagement in altruistic behavior
73
256917
3767
üzüntü ya da duyarsızlıktan çok
04:20
rather than distress and apathy.
74
260708
2685
özgeci bağlanmaya götürdüğünü buluyor.
04:23
The more imprints added to the database
75
263417
2184
Televizyondan oyuna ne kadar bölüm izi
04:25
across mediums from episodic television to games,
76
265625
3226
veri tabanına eklenirse
04:28
the better the predictive models become.
77
268875
2167
öngürüsel modeller o kadar iyi oluyor.
04:32
In short, I am mapping the first media genome.
78
272417
3851
Kısaca, ben ilk medya genomunu haritalıyorum.
04:36
(Applause and cheers)
79
276292
3791
(Alkışlar ve tezahüratlar)
04:44
Whereas the human genome identifies all genes involved
80
284083
3185
İnsan genomunun, insan DNA'sındaki dizilimindeki tüm genleri
04:47
in sequencing human DNA,
81
287292
1833
tanımlaması gibi
04:49
the growing database of media imprints will eventually allow me
82
289917
3226
büyüyen medya izi veri tabanı da sonuçta
04:53
to determine the media DNA for a specific person.
83
293167
4125
her bir kişiye özgü medya DNA'sını tanımayı sağlayacak.
04:58
Already the Limbic Lab's narrative engine
84
298250
2833
Limbic Lab'ı öyküsel motoru içerik üreticilerin öykücülüğünü
05:02
helps content creators refine their storytelling,
85
302333
2601
rafine etmeye yardım ediyor
05:04
so that it resonates with their target audiences on an individual level.
86
304958
4000
böylece hedef topluluklara kişisel düzeyde hitap ediyor.
05:11
The Limbic Lab's other component,
87
311042
2184
Limbic Lab'ın diğer bileşeni,
05:13
the media machine,
88
313250
1976
medya makinesi,
05:15
will assess how media elicits an emotional and physiological response,
89
315250
4476
medyanın nasıl duygusal ve psikolojik tepki vereceğini belirleyecek
05:19
then pulls scenes from a content library
90
319750
2434
sonra da kişiye özgü medya DNA'sını
05:22
targeted to person-specific media DNA.
91
322208
2584
içerik kütüphanesinden seçecek.
05:26
Applying artificial intelligence to biometric data
92
326042
3892
Biyometrik veriye yapay zekâ uygulamak
05:29
creates a truly personalized experience.
93
329958
2726
tamamen kişiselleştirilmiş bir deneyim oluşturuyor,
05:32
One that adapts content based on real-time unconscious responses.
94
332708
5084
gerçek zamanlı bilinçsiz tepkiler baz alınarak içerik ayarlanıyor.
05:38
Imagine if nonprofits and media makers were able to measure how audiences feel
95
338625
6059
Düşünün ki kâr amaçlı olmayanlar ve medya üreticileri
izleyicilerin bunu deneyimlerken nasıl hissettiklerini ölçebiliyor
05:44
as they experience it
96
344708
1851
05:46
and alter content on the fly.
97
346583
2393
ve aynı anda uyarlayabiliyorlar.
05:49
I believe this is the future of media.
98
349000
3458
Bunun medyanın geleceği olduğuna inanıyorum.
05:53
To date, most media and social-change strategies
99
353333
2601
Günümüze kadar çoğu medya ve sosyal dönüşüm stratejileri,
05:55
have attempted to appeal to mass audiences,
100
355958
2851
kitlesel topluluğu cezbetmeyi hedeflediler
05:58
but the future is media customized for each person.
101
358833
3500
ancak medyanın geleceği, her bir bireye uyarlanması.
06:03
As real-time measurement of media consumption
102
363458
2685
Gerçek zamanlı medya tüketimi ölçümü
06:06
and automated media production becomes the norm,
103
366167
2851
ve otomatikleşmiş medya üretimi norm olunca
06:09
we will soon be consuming media tailored directly to our cravings
104
369042
4059
psikografiklerimizin, biyometriklerimizin ve yapay zekânın karışımını kullanarak
06:13
using a blend of psychographics, biometrics and AI.
105
373125
4208
canımızın çektiğine uyarlanmış medyayı tüketiyor olacağız.
06:18
It's like personalized medicine based on our DNA.
106
378250
3559
DNA'ya göre kişiselleştirilmiş ilaç gibi.
06:21
I call it "biomedia."
107
381833
2167
Ben buna "biyomedya" diyorum.
06:25
I am currently testing the Limbic Lab in a pilot study
108
385042
3267
Bugünlerde Limbic Lab'ı, Norman Lear Center'da
06:28
with the Norman Lear Center,
109
388333
2018
en iyi 50 bölümlü televizyon yayınını inceleyen bir pilot çalışmasını yapıyoruz.
06:30
which looks at the top 50 episodic television shows.
110
390375
3726
06:34
But I am grappling with an ethical dilemma.
111
394125
3018
Ancak etik bir ikilemdeyim.
06:37
If I design a tool that can be turned into a weapon,
112
397167
3851
Bir silaha dönüşebilecek bir araç tasarlasam
06:41
should I build it?
113
401042
1291
onu yaratmalı mıyım?
06:43
By open-sourcing the lab to encourage access and inclusivity,
114
403750
3643
Laboratuvarı erişim ve kapsamlılık için açık kaynaklı yaparak
06:47
I also run the risk of enabling powerful governments
115
407417
3434
aynı zamanda güçlü hükûmetlerin
06:50
and profit-driven companies to appropriate the platform
116
410875
2934
ve kâr amaçlı şirketlerin, sahte haber, pazarlama
06:53
for fake news, marketing or other forms of mass persuasion.
117
413833
4084
ya da diğer kitlesel ikna yapılanmalarına açık hâle getirme riskini alıyorum.
06:59
For me, therefore, it is critical to make my research
118
419375
3351
Benim açımdan araştırmamın topluluklara ulaşacak
07:02
as transparent to lay audiences as GMO labels.
119
422750
3583
GDO etiketi kadar şeffaf olması kritik.
07:07
However, this is not enough.
120
427333
2542
Yine de bu yeterli değil.
07:11
As creative technologists,
121
431208
1643
Yaratıcı teknologlar olarak
07:12
we have a responsibility
122
432875
2226
günümüz teknolojisinin
07:15
not only to reflect upon how present technology shapes our cultural values
123
435125
4768
sadece kültürel değeri ve sosyal davranışı şekillendirmesini yansıtmakla kalmayıp
07:19
and social behavior,
124
439917
2017
aktif olarak geleceğin teknolojisine
07:21
but also to actively challenge the trajectory of future technology.
125
441958
4935
yol çizmede meydan okuması sorumluluğumuz var.
07:26
It is my hope that we make an ethical commitment
126
446917
4059
Umudum şu ki
medya ve teknolojiyi zararlı silahlardan anlatısal tıbba dönüştüren
07:31
to harvesting the body's intelligence
127
451000
2351
07:33
for the creation of authentic and just stories
128
453375
3434
07:36
that transform media and technology
129
456833
2393
gerçek ve dürüst öyküler yaratmada
07:39
from harmful weapons into narrative medicine.
130
459250
3476
bedensel zekâmızın ürünlerini kullanacağımıza etik bir söz verelim.
07:42
Thank you.
131
462750
1268
Teşekkürler.
07:44
(Applause and cheers)
132
464042
2208
(Alkışlar ve tezahüratlar)
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7