How I'm using biological data to tell better stories -- and spark social change | Heidi Boisvert

52,538 views

2020-01-02 ・ TED


New videos

How I'm using biological data to tell better stories -- and spark social change | Heidi Boisvert

52,538 views ・ 2020-01-02

TED


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video.

Translator: An Bình Nguyễn
00:13
For the past 15 years I've been trying to change your mind.
0
13458
3542
Suốt 15 năm qua, tôi đã cố gắng thay đổi suy nghĩ của bạn.
00:17
In my work I harness pop culture and emerging technology
1
17917
3851
Tôi sử dụng văn hóa thịnh hành và công nghệ đang phát triển
00:21
to shift cultural norms.
2
21792
1458
để thay đổi các chuẩn mực văn hóa.
00:23
I've made video games to promote human rights,
3
23833
3685
Tôi tạo ra trò chơi điện tử để thúc đẩy quyền con người,
00:27
I've made animations to raise awareness about unfair immigration laws
4
27542
5059
tôi sản xuất hoạt hình để nâng cao nhận thức về luật nhập cư bất công
00:32
and I've even made location-based augmented reality apps
5
32625
4226
và tôi tạo ra các ứng dụng thực tế tăng cường dựa trên địa điểm
00:36
to change perceptions around homelessness
6
36875
2643
để thay đổi nhận thức về tình trạng vô gia cư
00:39
well before Pokémon Go.
7
39542
1934
từ rất lâu trước khi có Pokémon Go.
00:41
(Laughter)
8
41500
1351
(Tiếng cười)
00:42
But then I began to wonder whether a game or an app
9
42875
4018
Nhưng rồi tôi bắt đầu tự hỏi liệu một trò chơi hay ứng dụng
00:46
can really change attitudes and behaviors,
10
46917
2476
có thể thay đổi thái độ và hành vi không,
00:49
and if so, can I measure that change?
11
49417
3017
và nếu được, tôi có thể đo lường mức độ thay đổi không?
00:52
What's the science behind that process?
12
52458
2976
Lý giải khoa học đằng sau quá trình đó là gì?
00:55
So I shifted my focus from making media and technology
13
55458
3726
Tôi đã chuyển sự tập trung từ tạo phương tiện truyền thông và công nghệ
00:59
to measuring their neurobiological effects.
14
59208
3042
sang đo lường tác động sinh học thần kinh của chúng.
01:03
Here's what I discovered.
15
63458
1851
Đây là điều tôi khám phá ra.
01:05
The web, mobile devices, virtual and augmented reality
16
65333
3893
Trang web, thiết bị di động, thực tế ảo và tăng cường
01:09
were rescripting our nervous systems.
17
69250
2684
tái tạo lại hệ thần kinh của ta.
01:11
And they were literally changing the structure of our brain.
18
71958
2959
Và chúng thay đổi cấu trúc não bộ của ta.
01:15
The very technologies I had been using to positively influence hearts and minds
19
75875
4976
Công nghệ gần đây nhất tôi dùng để tác động tích cực đến trái tim và tâm trí
01:20
were actually eroding functions in the brain necessary for empathy
20
80875
4393
thực tế đang làm xói mòn chức năng não bộ cần thiết cho sự đồng cảm
01:25
and decision-making.
21
85292
1851
và đưa ra quyết định.
01:27
In fact, our dependence upon the web and mobile devices
22
87167
4142
Sự phụ thuộc của ta vào web và thiết bị điện tử
01:31
might be taking over our cognitive and affective faculties,
23
91333
4101
có thể kiểm soát cả nhận thức và tình cảm của chúng ta,
01:35
rendering us socially and emotionally incompetent,
24
95458
3560
khiến ta giảm năng lực xã hội và cảm xúc,
01:39
and I felt complicit in this dehumanization.
25
99042
3291
và tôi cảm thấy mình đồng lõa trong quá trình phi nhân tính hóa này.
01:43
I realized that before I could continue making media about social issues,
26
103292
4642
Tôi nhận ra trước khi tôi có thể tiếp tục truyền thông về các vấn đề xã hội,
01:47
I needed to reverse engineer the harmful effects of technology.
27
107958
4417
tôi cần đảo ngược tác hại của công nghệ.
01:52
To tackle this I asked myself,
28
112917
2767
Để giải quyết điều này, tôi đã tự hỏi mình,
01:55
"How can I translate the mechanisms of empathy,
29
115708
3393
"Làm sao để chuyển các cơ chế của sự đồng cảm,
01:59
the cognitive, affective and motivational aspects,
30
119125
3643
nhận thức, tình cảm và các khía cạnh về động lực,
02:02
into an engine that simulates the narrative ingredients
31
122792
3226
vào một phương tiện mô phỏng các thành phần câu chuyện
02:06
that move us to act?"
32
126042
1291
thúc đẩy ta hành động?"
02:08
To answer this, I had to build a machine.
33
128583
3935
Để trả lời nó, tôi phải tạo dựng một cỗ máy.
02:12
(Laughter)
34
132542
1726
(Tiếng cười)
02:14
I've been developing an open-source biometric lab,
35
134292
2892
Tôi đang phát triển phòng thí nghiệm sinh trắc học nguồn mở,
02:17
an AI system which I call the Limbic Lab.
36
137208
3476
một hệ thống trí tuệ nhân tạo (AI) có tên Phòng thí nghiệm Hệ viền.
02:20
The lab not only captures
37
140708
1435
Phòng thí nghiệm không chỉ
02:22
the brain and body's unconscious response to media and technology
38
142167
4226
ghi nhận phản xạ vô thức của não và cơ thể với truyền thông và công nghệ
02:26
but also uses machine learning to adapt content
39
146417
2976
mà còn sử dụng học máy để tạo ra nội dung tương thích
02:29
based on these biological responses.
40
149417
2208
dựa trên những phản xạ sinh học này.
02:32
My goal is to find out what combination of narrative ingredients
41
152667
3517
Mục tiêu của tôi là tìm ra sự kết hợp thành phần câu chuyện nào
02:36
are the most appealing and galvanizing
42
156208
2143
có sức hấp dẫn và gây hưng phấn nhất
02:38
to specific target audiences
43
158375
1809
với đối tượng khán giả cụ thể
02:40
to enable social justice, cultural and educational organizations
44
160208
5018
để giúp các tổ chức văn hóa, giáo dục và công bằng xã hội
02:45
to create more effective media.
45
165250
2643
truyền thông hiệu quả hơn.
02:47
The Limbic Lab consists of two components:
46
167917
2851
Phòng thí nghiệm Hệ viền bao gồm hai phần:
02:50
a narrative engine and a media machine.
47
170792
2541
một phương tiện kể chuyện và một cỗ máy truyền thông.
02:54
While a subject is viewing or interacting with media content,
48
174375
4226
Trong khi một đối tượng xem hoặc tương tác với nội dung truyền thông,
02:58
the narrative engine takes in and syncs real-time data from brain waves,
49
178625
4184
phương tiện kể chuyện tham gia đồng bộ hóa dữ liệu thời gian thực từ sóng não,
03:02
biophysical data like heart rate, blood flow, body temperature
50
182833
3560
dữ liệu sinh lý như nhịp tim, lưu lượng máu, nhiệt độ cơ thể
03:06
and muscle contraction,
51
186417
1684
và co bóp cơ,
03:08
as well as eye-tracking and facial expressions.
52
188125
2958
cũng như theo dõi hành vi mắt và biểu cảm khuôn mặt.
03:12
Data is captured at key places where critical plot points,
53
192083
3726
Dữ liệu được thu thập ở vị trí quan trọng nơi có tình tiết nổi bật,
03:15
character interaction or unusual camera angles occur.
54
195833
3417
tương tác nhân vật hoặc góc máy bất thường xảy ra.
03:20
Like the final scene in "Game of Thrones, Red Wedding,"
55
200292
2726
Như cảnh cuối của "Trò chơi vương quyền, Huyết hôn,"
03:23
when shockingly,
56
203042
2309
khi bất ngờ,
03:25
everybody dies.
57
205375
1559
mọi người đều chết.
03:26
(Laughter)
58
206958
1250
(Tiếng cười)
03:29
Survey data on that person's political beliefs,
59
209042
3184
Dữ liệu khảo sát về niềm tin chính trị của người đó,
03:32
along with their psychographic and demographic data,
60
212250
3143
cùng với dữ liệu tâm lý học và nhân khẩu học,
03:35
are integrated into the system
61
215417
1767
được tích hợp vào hệ thống
03:37
to gain a deeper understanding of the individual.
62
217208
2709
để hiểu rõ hơn về cá nhân.
03:40
Let me give you an example.
63
220833
1542
Để tôi nêu ra một ví dụ.
03:43
Matching people's TV preferences with their views on social justice issues
64
223708
4851
Đối chiếu sở thích xem TV với quan điểm về các vấn đề chính trị xã hội của mọi người
03:48
reveals that Americans who rank immigration among their top three concerns
65
228583
4268
tiết lộ rằng những người Mỹ coi nhập cư là một trong ba vấn đề đáng quan tâm nhất
03:52
are more likely to be fans of "The Walking Dead,"
66
232875
2792
thường có xu hướng hâm mộ phim "Xác sống",
03:56
and they often watch for the adrenaline boost,
67
236958
2810
và họ thường xem để tăng sự phấn khích,
03:59
which is measurable.
68
239792
1291
đó là thứ có thể đo lường được.
04:01
A person's biological signature and their survey response
69
241792
3934
Đặc điểm sinh học của một người và phản xạ của họ qua khảo sát
04:05
combines into a database to create their unique media imprint.
70
245750
4851
được kết hợp thành cơ sở dữ liệu để tạo nên dấu ấn truyền thông độc đáo.
04:10
Then our predictive model finds patterns between media imprints
71
250625
4268
Rồi mô hình dự đoán của chúng tôi tìm khuôn mẫu giữa các dấu ấn truyền thông
04:14
and tells me which narrative ingredients
72
254917
1976
và nói cho tôi biết thành phần nào của câu chuyện
04:16
are more likely to lead to engagement in altruistic behavior
73
256917
3767
có khả năng khơi gợi hành động vị tha
04:20
rather than distress and apathy.
74
260708
2685
hơn là sự thờ ơ và phiền muộn.
04:23
The more imprints added to the database
75
263417
2184
Càng nhiều dấu ấn được đưa vào cơ sở dữ liệu
04:25
across mediums from episodic television to games,
76
265625
3226
thông qua các phương tiện từ chương trình truyền hình tới trò chơi,
04:28
the better the predictive models become.
77
268875
2167
các mô hình dự đoán lại càng chính xác.
04:32
In short, I am mapping the first media genome.
78
272417
3851
Tóm lại, tôi đang phác thảo bộ gen truyền thông đầu tiên.
04:36
(Applause and cheers)
79
276292
3791
(Tiếng vỗ tay và cổ vũ)
04:44
Whereas the human genome identifies all genes involved
80
284083
3185
Trong khi bộ gen của con người xác định tất cả các gen liên quan
04:47
in sequencing human DNA,
81
287292
1833
thuộc chuỗi ADN,
04:49
the growing database of media imprints will eventually allow me
82
289917
3226
cơ sở dữ liệu ngày càng tăng của dấu ấn truyền thông sẽ cho phép tôi
04:53
to determine the media DNA for a specific person.
83
293167
4125
xác định ADN truyền thông cho mỗi cá nhân cụ thể.
04:58
Already the Limbic Lab's narrative engine
84
298250
2833
Phương tiện kể chuyện của Phòng thí nghiệm Hệ viền
05:02
helps content creators refine their storytelling,
85
302333
2601
đã giúp các nhà sáng tạo nội dung tinh chỉnh cách kể chuyện,
05:04
so that it resonates with their target audiences on an individual level.
86
304958
4000
để nó cộng hưởng với khán giả mà họ hướng tới ở mức độ cá nhân.
05:11
The Limbic Lab's other component,
87
311042
2184
Các phần khác của Phòng thí nghiệm Hệ viền,
05:13
the media machine,
88
313250
1976
cỗ máy truyền thông,
05:15
will assess how media elicits an emotional and physiological response,
89
315250
4476
sẽ đánh giá cách truyền thông khơi gợi phản ứng cảm xúc và sinh lý,
05:19
then pulls scenes from a content library
90
319750
2434
rồi lấy những bối cảnh từ một thư viện nội dung
05:22
targeted to person-specific media DNA.
91
322208
2584
để nhắm tới ADN truyền thông cụ thể của một người.
05:26
Applying artificial intelligence to biometric data
92
326042
3892
Áp dụng trí tuệ nhân tạo vào dữ liệu sinh trắc học
05:29
creates a truly personalized experience.
93
329958
2726
tạo nên một trải nghiệm cá nhân hóa thực thụ.
05:32
One that adapts content based on real-time unconscious responses.
94
332708
5084
Trải nghiệm tạo ra nội dung tương thích dựa trên phản xạ vô thức thời gian thực.
05:38
Imagine if nonprofits and media makers were able to measure how audiences feel
95
338625
6059
Tưởng tượng nếu nhà sản xuất truyền thông và tổ chức phi lợi nhuận có thể đo lường
05:44
as they experience it
96
344708
1851
cảm nhận của khán giả khi trải qua nó
05:46
and alter content on the fly.
97
346583
2393
và thay đổi nội dung nhanh chóng.
05:49
I believe this is the future of media.
98
349000
3458
Tôi tin đây là tương lai của truyền thông.
Tới nay, hầu hết các chiến lược truyền thông và thay đổi xã hội
05:53
To date, most media and social-change strategies
99
353333
2601
05:55
have attempted to appeal to mass audiences,
100
355958
2851
đang cố gắng thu hút lượng lớn khán giả,
05:58
but the future is media customized for each person.
101
358833
3500
nhưng trong tương lai truyền thông sẽ được tùy biến cho từng cá nhân.
Đến khi việc đo lường mức tiêu thụ và sản xuất truyền thông tự động
06:03
As real-time measurement of media consumption
102
363458
2685
06:06
and automated media production becomes the norm,
103
366167
2851
thời gian thực trở thành chuẩn mực,
06:09
we will soon be consuming media tailored directly to our cravings
104
369042
4059
ta sẽ sớm tiêu thụ nội dung truyền thông được ra theo đúng sở thích của mình
06:13
using a blend of psychographics, biometrics and AI.
105
373125
4208
bằng việc kết hợp tâm lý học, sinh trắc học và AI.
06:18
It's like personalized medicine based on our DNA.
106
378250
3559
Nó giống như y học cá thể hóa dựa trên ADN của ta.
06:21
I call it "biomedia."
107
381833
2167
Tôi gọi nó là "truyền thông sinh học."
06:25
I am currently testing the Limbic Lab in a pilot study
108
385042
3267
Hiện tôi đang thử Phòng thí nghiệm Hệ viền trong một nghiên cứu mới
06:28
with the Norman Lear Center,
109
388333
2018
với Trung tâm Norman Lear,
06:30
which looks at the top 50 episodic television shows.
110
390375
3726
đó là xem xét 50 chương trình truyền hình đứng đầu bảng xếp hạng.
06:34
But I am grappling with an ethical dilemma.
111
394125
3018
Nhưng tôi đang vật lộn với một tình huống khó xử về đạo đức.
06:37
If I design a tool that can be turned into a weapon,
112
397167
3851
Nếu tôi thiết kế một công cụ có khả năng biến thành vũ khí,
06:41
should I build it?
113
401042
1291
tôi có nên tạo ra nó?
06:43
By open-sourcing the lab to encourage access and inclusivity,
114
403750
3643
Với phòng thí nghiệm nguồn mở giúp thúc đẩy việc tiếp cận và sự toàn diện,
06:47
I also run the risk of enabling powerful governments
115
407417
3434
tôi cũng gặp rủi ro trong việc khiến chính quyền
06:50
and profit-driven companies to appropriate the platform
116
410875
2934
và các công ty hoạt động vì lợi nhuận chiếm dụng nền tảng này
06:53
for fake news, marketing or other forms of mass persuasion.
117
413833
4084
để tạo ra tin giả, tiếp thị hay các hình thức thuyết phục đại chúng khác.
06:59
For me, therefore, it is critical to make my research
118
419375
3351
Vì vậy, với tôi, quan trọng là phải làm cho nghiên cứu của mình
07:02
as transparent to lay audiences as GMO labels.
119
422750
3583
minh bạch với khán giả như nhãn GMO vậy.
07:07
However, this is not enough.
120
427333
2542
Tuy nhiên, điều này là chưa đủ.
07:11
As creative technologists,
121
431208
1643
Là những kỹ thuật viên sáng tạo,
07:12
we have a responsibility
122
432875
2226
chúng tôi có trách nhiệm
07:15
not only to reflect upon how present technology shapes our cultural values
123
435125
4768
không chỉ phản ánh cách công nghệ định hình các giá trị văn hóa
07:19
and social behavior,
124
439917
2017
và hành vi xã hội của ta,
07:21
but also to actively challenge the trajectory of future technology.
125
441958
4935
mà còn phải chủ động thách thức đường đi của công nghệ trong tương lai.
07:26
It is my hope that we make an ethical commitment
126
446917
4059
Tôi hi vọng chúng tôi có thể cam kết về mặt đạo đức
07:31
to harvesting the body's intelligence
127
451000
2351
khi thu thập trí tuệ con người
07:33
for the creation of authentic and just stories
128
453375
3434
nhằm sáng tạo nên những câu chuyện giá trị
07:36
that transform media and technology
129
456833
2393
làm thay đổi truyền thông và công nghệ
07:39
from harmful weapons into narrative medicine.
130
459250
3476
từ vũ khí gây hại thành y học kể chuyện.
07:42
Thank you.
131
462750
1268
Xin cảm ơn.
07:44
(Applause and cheers)
132
464042
2208
(Vỗ tay và cổ vũ)
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7