How I'm using biological data to tell better stories -- and spark social change | Heidi Boisvert

52,136 views ・ 2020-01-02

TED


Silakan klik dua kali pada teks bahasa Inggris di bawah ini untuk memutar video.

Translator: Fiar Saahi Reviewer: Emi Kurnia
00:13
For the past 15 years I've been trying to change your mind.
0
13458
3542
Selama 15 tahun terakhir saya mencoba mengubah pikiran Anda.
00:17
In my work I harness pop culture and emerging technology
1
17917
3851
Pekerjaan saya memanfaatkan budaya populer dan teknologi munculan
00:21
to shift cultural norms.
2
21792
1458
untuk menggeser norma budaya.
00:23
I've made video games to promote human rights,
3
23833
3685
Saya menciptakan permainan video untuk mempromosikan hak asasi manusia,
00:27
I've made animations to raise awareness about unfair immigration laws
4
27542
5059
animasi untuk meningkatkan kesadaran tentang hukum imigrasi yang tidak adil,
00:32
and I've even made location-based augmented reality apps
5
32625
4226
bahkan membuat aplikasi realitas tertambah berbasis lokasi
00:36
to change perceptions around homelessness
6
36875
2643
untuk mengubah persepsi tentang tunawisma
00:39
well before Pokémon Go.
7
39542
1934
jauh sebelum permainan Pokemon Go ada.
00:41
(Laughter)
8
41500
1351
(Tertawa)
00:42
But then I began to wonder whether a game or an app
9
42875
4018
Lalu saya mulai berpikir, benarkah permainan atau aplikasi
00:46
can really change attitudes and behaviors,
10
46917
2476
dapat mengubah sikap dan perilaku,
00:49
and if so, can I measure that change?
11
49417
3017
dan jika bisa, dapatkah saya mempelajari perubahan itu?
00:52
What's the science behind that process?
12
52458
2976
Apa ilmu di balik proses itu?
00:55
So I shifted my focus from making media and technology
13
55458
3726
Jadi saya mengubah fokus dari pembuatan media dan teknologi
00:59
to measuring their neurobiological effects.
14
59208
3042
menjadi pengukuran efek neurobiologis.
01:03
Here's what I discovered.
15
63458
1851
Saya menemukan fakta seperti berikut:
01:05
The web, mobile devices, virtual and augmented reality
16
65333
3893
jaringan, peranti bergerak, realitas maya dan realitas tertambah
01:09
were rescripting our nervous systems.
17
69250
2684
menyusun ulang sistem saraf kita
01:11
And they were literally changing the structure of our brain.
18
71958
2959
dan benar-benar mengubah struktur otak kita.
01:15
The very technologies I had been using to positively influence hearts and minds
19
75875
4976
Teknologi yang digunakan untuk memengaruhi hati dan pikiran secara positif
01:20
were actually eroding functions in the brain necessary for empathy
20
80875
4393
ternyata malah mengikis fungsi otak yang diperlukan untuk mengatur empati
01:25
and decision-making.
21
85292
1851
dan pengambilan keputusan.
01:27
In fact, our dependence upon the web and mobile devices
22
87167
4142
Bahkan, ketergantungan kita pada jaringan dan peranti bergerak
01:31
might be taking over our cognitive and affective faculties,
23
91333
4101
bisa mengambil alih kemampuan kognitif dan afektif,
01:35
rendering us socially and emotionally incompetent,
24
95458
3560
yang memengaruhi kompetensi sosial dan emosional kita
01:39
and I felt complicit in this dehumanization.
25
99042
3291
dan saya merasa bertanggung jawab terhadap dehumanisasi ini.
01:43
I realized that before I could continue making media about social issues,
26
103292
4642
Saya menyadari bahwa sebelum melanjutkan pembuatan media tentang masalah sosial,
01:47
I needed to reverse engineer the harmful effects of technology.
27
107958
4417
saya perlu merekayasa balik efek teknologi yang berbahaya.
01:52
To tackle this I asked myself,
28
112917
2767
Untuk mengatasi ini saya bertanya kepada diri sendiri,
01:55
"How can I translate the mechanisms of empathy,
29
115708
3393
"Bagaimana saya bisa memindahkan mekanisme aspek empati,
01:59
the cognitive, affective and motivational aspects,
30
119125
3643
kognitif, afektif dan motivasi,
02:02
into an engine that simulates the narrative ingredients
31
122792
3226
ke dalam mesin yang mensimulasikan bahan narasi
02:06
that move us to act?"
32
126042
1291
untuk mengambil tindakan?"
02:08
To answer this, I had to build a machine.
33
128583
3935
Untuk menjawab ini, saya harus membuat sebuah mesin.
02:12
(Laughter)
34
132542
1726
(Tertawa)
02:14
I've been developing an open-source biometric lab,
35
134292
2892
Saya mengembangkan laboratorium biometrik sumber-terbuka,
02:17
an AI system which I call the Limbic Lab.
36
137208
3476
sebuah sistem AI, yang saya beri nama Lab Limbic.
02:20
The lab not only captures
37
140708
1435
Lab itu bukan hanya menangkap
02:22
the brain and body's unconscious response to media and technology
38
142167
4226
respons bawah sadar otak dan tubuh melalui media dan teknologi
02:26
but also uses machine learning to adapt content
39
146417
2976
tetapi juga menggunakan pembelajaran mesin untuk mengadaptasi
02:29
based on these biological responses.
40
149417
2208
konten berdasarkan respons biologis.
02:32
My goal is to find out what combination of narrative ingredients
41
152667
3517
Tujuan saya adalah untuk mempelajari jenis kombinasi bahan narasi
02:36
are the most appealing and galvanizing
42
156208
2143
yang paling menarik dan merangsang minat
02:38
to specific target audiences
43
158375
1809
khalayak tertentu
02:40
to enable social justice, cultural and educational organizations
44
160208
5018
sehingga memungkinkan keadilan sosial, budaya dan organisasi pendidikan
02:45
to create more effective media.
45
165250
2643
menciptakan media yang lebih efektif.
02:47
The Limbic Lab consists of two components:
46
167917
2851
Lab Limbic terdiri dari dua komponen:
02:50
a narrative engine and a media machine.
47
170792
2541
mesin narasi dan mesin media.
02:54
While a subject is viewing or interacting with media content,
48
174375
4226
Saat subjek menatap atau berinteraksi dengan konten media,
02:58
the narrative engine takes in and syncs real-time data from brain waves,
49
178625
4184
mesin narasi menerima dan menyinkronkan data waktu nyata dari gelombang otak,
03:02
biophysical data like heart rate, blood flow, body temperature
50
182833
3560
data biofisik seperti detak jantung, aliran darah, suhu tubuh
03:06
and muscle contraction,
51
186417
1684
dan kontraksi otot,
03:08
as well as eye-tracking and facial expressions.
52
188125
2958
serta pelacakan mata dan ekspresi wajah.
03:12
Data is captured at key places where critical plot points,
53
192083
3726
Data diambil di lokasi utama, tempat munculnya titik plot kritis,
03:15
character interaction or unusual camera angles occur.
54
195833
3417
interaksi karakter atau sudut kamera yang tidak normal.
03:20
Like the final scene in "Game of Thrones, Red Wedding,"
55
200292
2726
Seperti adegan terakhir "Game of Thrones, Red Wedding,"
03:23
when shockingly,
56
203042
2309
ketika tiba-tiba
03:25
everybody dies.
57
205375
1559
semua orang tewas.
03:26
(Laughter)
58
206958
1250
(Tertawa)
03:29
Survey data on that person's political beliefs,
59
209042
3184
Data survei tentang keyakinan politik seorang individu,
03:32
along with their psychographic and demographic data,
60
212250
3143
berikut data psikografis dan data demografisnya,
03:35
are integrated into the system
61
215417
1767
diintegrasikan ke dalam sistem
03:37
to gain a deeper understanding of the individual.
62
217208
2709
untuk menggali pemahaman individu yang lebih dalam.
03:40
Let me give you an example.
63
220833
1542
Saya berikan Anda sebuah contoh.
03:43
Matching people's TV preferences with their views on social justice issues
64
223708
4851
Mencocokkan preferensi TV dengan pandangan individu tentang masalah keadilan sosial
03:48
reveals that Americans who rank immigration among their top three concerns
65
228583
4268
membuktikan orang Amerika yang menempatkan imigrasi di antara 3 kepentingan utama
03:52
are more likely to be fans of "The Walking Dead,"
66
232875
2792
cenderung menjadi penggemar "The Walking Dead,"
03:56
and they often watch for the adrenaline boost,
67
236958
2810
dan mereka menonton serial itu untuk meningkatkan adrenalin
03:59
which is measurable.
68
239792
1291
yang terkendali.
04:01
A person's biological signature and their survey response
69
241792
3934
Tanda tangan biologis dan respons survei individu
04:05
combines into a database to create their unique media imprint.
70
245750
4851
dirangkai dalam basis data untuk membuat jejak media yang unik.
04:10
Then our predictive model finds patterns between media imprints
71
250625
4268
Kemudian model prediksi kami menemukan pola di antara jejak media
04:14
and tells me which narrative ingredients
72
254917
1976
dan memberi informasi bahan narasi
04:16
are more likely to lead to engagement in altruistic behavior
73
256917
3767
yang cenderung melibatkan perilaku altruistik,
04:20
rather than distress and apathy.
74
260708
2685
bukan kesedihan dan apati.
04:23
The more imprints added to the database
75
263417
2184
Semakin banyak jejak di dalam basis data
04:25
across mediums from episodic television to games,
76
265625
3226
yang melintasi medium dari acara televisi episodik ke permainan,
04:28
the better the predictive models become.
77
268875
2167
semakin baik model prediksi yang muncul.
04:32
In short, I am mapping the first media genome.
78
272417
3851
Singkatnya, saya berhasil memetakan genom media pertama.
04:36
(Applause and cheers)
79
276292
3791
(Tepuk tangan)
04:44
Whereas the human genome identifies all genes involved
80
284083
3185
Genom manusia mengidentifikasi semua gen yang terlibat
04:47
in sequencing human DNA,
81
287292
1833
dalam pengurutan DNA manusia,
04:49
the growing database of media imprints will eventually allow me
82
289917
3226
basis data yang berkembang dari jejak media bisa saya gunakan untuk
04:53
to determine the media DNA for a specific person.
83
293167
4125
menentukan DNA media bagi individu tertentu.
04:58
Already the Limbic Lab's narrative engine
84
298250
2833
Mesin narasi Limbic Lab
05:02
helps content creators refine their storytelling,
85
302333
2601
membantu pembuat konten menyempurnakan cerita
05:04
so that it resonates with their target audiences on an individual level.
86
304958
4000
sehingga memengaruhi sasaran khalayak pada tingkat individu.
05:11
The Limbic Lab's other component,
87
311042
2184
Komponen Lab Limbic lainnya,
05:13
the media machine,
88
313250
1976
mesin media,
05:15
will assess how media elicits an emotional and physiological response,
89
315250
4476
mengevaluasi cara media memunculkan respons emosional dan fisiologis,
05:19
then pulls scenes from a content library
90
319750
2434
lalu mengambil adegan dari pustaka konten
05:22
targeted to person-specific media DNA.
91
322208
2584
yang ditujukan untuk DNA media pada individu tertentu.
05:26
Applying artificial intelligence to biometric data
92
326042
3892
Menerapkan kecerdasan buatan (AI) untuk data biometrik
05:29
creates a truly personalized experience.
93
329958
2726
akan menciptakan pengalaman yang bersifat sangat pribadi,
05:32
One that adapts content based on real-time unconscious responses.
94
332708
5084
yaitu mengadaptasi konten berdasarkan respons bawah sadar pada waktu nyata.
05:38
Imagine if nonprofits and media makers were able to measure how audiences feel
95
338625
6059
Bayangkan jika organisasi nirlaba dan pencipta media bisa mengukur perasaan
05:44
as they experience it
96
344708
1851
saat penonton merasakan sesuatu
05:46
and alter content on the fly.
97
346583
2393
dan mengubah konten dengan cepat.
05:49
I believe this is the future of media.
98
349000
3458
Saya yakin, seperti inilah masa depan media.
05:53
To date, most media and social-change strategies
99
353333
2601
Sebagian besar media dan strategi perubahan sosial,
05:55
have attempted to appeal to mass audiences,
100
355958
2851
saat ini, dibuat untuk memikat khalayak umum,
05:58
but the future is media customized for each person.
101
358833
3500
tetapi di masa depan, media akan dibuat khusus untuk setiap individu.
06:03
As real-time measurement of media consumption
102
363458
2685
Ketika pengukuran waktu nyata konsumsi media
06:06
and automated media production becomes the norm,
103
366167
2851
dan produksi media otomatis menjadi standar,
06:09
we will soon be consuming media tailored directly to our cravings
104
369042
4059
kita akan menikmati media yang disesuaikan langsung dengan keinginan individu,
06:13
using a blend of psychographics, biometrics and AI.
105
373125
4208
menggunakan perpaduan psikografis, biometrik, dan AI.
06:18
It's like personalized medicine based on our DNA.
106
378250
3559
Ini seperti obat yang diatur berdasarkan DNA individu.
06:21
I call it "biomedia."
107
381833
2167
Saya menyebutnya "biomedia."
06:25
I am currently testing the Limbic Lab in a pilot study
108
385042
3267
Saat ini saya sedang menguji Lab Limbic dalam studi percontohan
06:28
with the Norman Lear Center,
109
388333
2018
bekerja sama dengan Norman Lear Center,
06:30
which looks at the top 50 episodic television shows.
110
390375
3726
yang menempati urutan 50 teratas acara televisi episodik.
06:34
But I am grappling with an ethical dilemma.
111
394125
3018
Tetapi saya bergumul dengan dilema etis.
06:37
If I design a tool that can be turned into a weapon,
112
397167
3851
Jika saya mampu mendesain alat yang bisa diubah menjadi senjata,
06:41
should I build it?
113
401042
1291
haruskah saya melakukannya?
06:43
By open-sourcing the lab to encourage access and inclusivity,
114
403750
3643
Menjadikan lab sumber-terbuka untuk mendorong akses dan inklusivitas,
06:47
I also run the risk of enabling powerful governments
115
407417
3434
saya harus menanggung risiko pelibatan pemerintah yang kuat
06:50
and profit-driven companies to appropriate the platform
116
410875
2934
dan perusahaan laba agar dapat menyesuaikan platform
06:53
for fake news, marketing or other forms of mass persuasion.
117
413833
4084
untuk berita palsu, pemasaran atau bentuk-bentuk persuasi massa lainnya.
06:59
For me, therefore, it is critical to make my research
118
419375
3351
Hal itu sangat penting agar penelitian saya
07:02
as transparent to lay audiences as GMO labels.
119
422750
3583
transparan bagi khalayak, sama seperti label GMO.
07:07
However, this is not enough.
120
427333
2542
Namun, itu saja belum cukup.
07:11
As creative technologists,
121
431208
1643
Sebagai ahli teknologi kreatif,
07:12
we have a responsibility
122
432875
2226
kami memiliki tanggung jawab
07:15
not only to reflect upon how present technology shapes our cultural values
123
435125
4768
bukan hanya mempelajari cara teknologi saat ini membentuk nilai budaya
07:19
and social behavior,
124
439917
2017
dan perilaku sosial,
07:21
but also to actively challenge the trajectory of future technology.
125
441958
4935
tetapi secara aktif menantang lintasan teknologi masa depan.
07:26
It is my hope that we make an ethical commitment
126
446917
4059
Saya berharap kami dapat membuat komitmen etis
07:31
to harvesting the body's intelligence
127
451000
2351
atas pemanfaatan kecerdasan tubuh
07:33
for the creation of authentic and just stories
128
453375
3434
untuk kreasi otentik dan cerita yang jujur,
07:36
that transform media and technology
129
456833
2393
yang bisa mengubah media dan teknologi
07:39
from harmful weapons into narrative medicine.
130
459250
3476
dari senjata berbahaya menjadi pengobatan naratif.
07:42
Thank you.
131
462750
1268
Terima kasih.
07:44
(Applause and cheers)
132
464042
2208
(Tepuk tangan)
Tentang situs web ini

Situs ini akan memperkenalkan Anda pada video YouTube yang berguna untuk belajar bahasa Inggris. Anda akan melihat pelajaran bahasa Inggris yang diajarkan oleh guru-guru terbaik dari seluruh dunia. Klik dua kali pada subtitle bahasa Inggris yang ditampilkan di setiap halaman video untuk memutar video dari sana. Subtitle bergulir selaras dengan pemutaran video. Jika Anda memiliki komentar atau permintaan, silakan hubungi kami menggunakan formulir kontak ini.

https://forms.gle/WvT1wiN1qDtmnspy7