How I'm using biological data to tell better stories -- and spark social change | Heidi Boisvert

52,538 views

2020-01-02 ・ TED


New videos

How I'm using biological data to tell better stories -- and spark social change | Heidi Boisvert

52,538 views ・ 2020-01-02

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: Ali Khaki
00:13
For the past 15 years I've been trying to change your mind.
0
13458
3542
طی ۱۵ سال گذشته در تلاش بوده‌ام که نظر شما را تغییر دهم.
00:17
In my work I harness pop culture and emerging technology
1
17917
3851
من در کارم فرهنگ پاپ و فناوریِ نوظهور را برای تغییر هنجارهایِ فرهنگی
00:21
to shift cultural norms.
2
21792
1458
تحت کنترل درمی‌آورم.
00:23
I've made video games to promote human rights,
3
23833
3685
من برای ارتقاء حقوق بشر بازی‌های ویدئویی ساخته‌ام
00:27
I've made animations to raise awareness about unfair immigration laws
4
27542
5059
برای افزایش آگاهی در مورد قوانین غیرقانونی مهاجرت، انیمیشن ساخته‌ام
00:32
and I've even made location-based augmented reality apps
5
32625
4226
و حتی برنامه‌های واقعیت افزوده مبتنی بر مکان را
00:36
to change perceptions around homelessness
6
36875
2643
جهت تغییر تصورات مربوط به بی‌خانمانی ساخته‌ام.
00:39
well before Pokémon Go.
7
39542
1934
خیلی قبل از بازی پوکمون گو.
00:41
(Laughter)
8
41500
1351
(خنده حضار)
00:42
But then I began to wonder whether a game or an app
9
42875
4018
اما بعد برایم سوال پیش آمد، چه بازی و یا برنامه‌ای
00:46
can really change attitudes and behaviors,
10
46917
2476
واقعا می‌توانند نگرش و رفتارها را تغییر دهند؟
00:49
and if so, can I measure that change?
11
49417
3017
و اگر اینطور باشد، آیا می‌توانم تغییرش را اندازه بگیرم؟
00:52
What's the science behind that process?
12
52458
2976
علم پشت این روند چیست؟
00:55
So I shifted my focus from making media and technology
13
55458
3726
بنابراین تمرکز خود را از ساخت رسانه و فناوری
00:59
to measuring their neurobiological effects.
14
59208
3042
برای اندازه‌ گیری اثرات عصبی آن‌ها تغییر دادم.
01:03
Here's what I discovered.
15
63458
1851
این چیزی است که من کشف کردم.
01:05
The web, mobile devices, virtual and augmented reality
16
65333
3893
وب، دستگاه‌های تلفن همراه، واقعیت مجازی و واقعیت افزوده
01:09
were rescripting our nervous systems.
17
69250
2684
در حال نوشتن سیستم‌های عصبی ما بودند.
01:11
And they were literally changing the structure of our brain.
18
71958
2959
و آن‌ها به معنای واقعی کلمه در حالِ تغییر ساختار مغز ما بودند.
01:15
The very technologies I had been using to positively influence hearts and minds
19
75875
4976
همان فناوری‌هایی که من استفاده کرده‌ بودم تا بتوانند بر قلب و ذهن تأثیر بگذارند
01:20
were actually eroding functions in the brain necessary for empathy
20
80875
4393
در واقع کارکردهای لازم برای همدلی کردن در مغز
01:25
and decision-making.
21
85292
1851
و همچنین تصمیم گیری را مختل می‌کردند.
01:27
In fact, our dependence upon the web and mobile devices
22
87167
4142
در حقیقت، وابستگی ما به وب و دستگاه‌های تلفن همراه
01:31
might be taking over our cognitive and affective faculties,
23
91333
4101
ممکن است استعدادهایِ شناختی و عاطفی ما را تصرف کرده،
01:35
rendering us socially and emotionally incompetent,
24
95458
3560
و ما را به لحاظ اجتماعی و عاطفی ناتوان کنند،
01:39
and I felt complicit in this dehumanization.
25
99042
3291
و من در این از دست دادن صفات انسانی احساسِ همدستی داشتم.
01:43
I realized that before I could continue making media about social issues,
26
103292
4642
فهمیدم، قبل از اینکه بتوانم ایجاد رسانه در مورد مسائل اجتماعی را ادامه دهم،
01:47
I needed to reverse engineer the harmful effects of technology.
27
107958
4417
نیاز به مهندسی معکوس کردنِ آثار مضر فناوری داشتم.
01:52
To tackle this I asked myself,
28
112917
2767
برای مقابله با این، از خودم پرسیدم
01:55
"How can I translate the mechanisms of empathy,
29
115708
3393
«چگونه می‌توانم مکانیسم‌های همدلی را ترجمه کنم،
01:59
the cognitive, affective and motivational aspects,
30
119125
3643
جنبه‌های شناختی، عاطفی و انگیزشی،
02:02
into an engine that simulates the narrative ingredients
31
122792
3226
داخل یک موتور که مواد روایی را شبیه سازی می‌کند
02:06
that move us to act?"
32
126042
1291
و ما را به سمت عمل سوق می‌دهد؟»
02:08
To answer this, I had to build a machine.
33
128583
3935
برای جواب دادن به این، مجبورشدم ماشینی بسازم.
02:12
(Laughter)
34
132542
1726
(خنده حضار)
02:14
I've been developing an open-source biometric lab,
35
134292
2892
من در حال توسعه آزمایشگاه بیومتریک منبعِ باز هستم،
02:17
an AI system which I call the Limbic Lab.
36
137208
3476
یک سیستم هوشِ مصنوعی که من به آن آزمایشگاه لیمبیک می‌گویم.
02:20
The lab not only captures
37
140708
1435
آزمایشگاهی که نه فقط پاسخِ
02:22
the brain and body's unconscious response to media and technology
38
142167
4226
ناخودآگاه مغز و بدن به رسانه و فناوری
02:26
but also uses machine learning to adapt content
39
146417
2976
بلکه از ماشین برایِ یادگیری تطبیق محتوا
02:29
based on these biological responses.
40
149417
2208
بر اساس این پاسخ‌های بیولوژیکی استفاده می‌کند.
02:32
My goal is to find out what combination of narrative ingredients
41
152667
3517
هدف من این است که دریابم مواد سازنده
02:36
are the most appealing and galvanizing
42
156208
2143
جذاب‌ترین و گالوانیزه‌ترین داستان
02:38
to specific target audiences
43
158375
1809
در نظر مخاطبان خاص برای فعال کردن
02:40
to enable social justice, cultural and educational organizations
44
160208
5018
عدالت اجتماعی، فرهنگی و سازمان‌های آموزشی
02:45
to create more effective media.
45
165250
2643
برای ایجاد رسانه مؤثرتر چه چیزهایی هستند‌.
02:47
The Limbic Lab consists of two components:
46
167917
2851
آزمایشگاه لیمبیک از دو مؤلفه تشکیل شده است:
02:50
a narrative engine and a media machine.
47
170792
2541
یک موتور روایتگر و یک دستگاه رسانه‌ای.
02:54
While a subject is viewing or interacting with media content,
48
174375
4226
در حالی که یک موضوع در حال مشاهده یا تعامل با محتوای رسانه است،
02:58
the narrative engine takes in and syncs real-time data from brain waves,
49
178625
4184
موتور داده‌ها، زمان واقعی از امواج مغزی را روایت و همگام سازی می‌کند،
03:02
biophysical data like heart rate, blood flow, body temperature
50
182833
3560
داده‌های بیوفیزیکی مانند ضربان قلب، جریان خون، دمای بدن
03:06
and muscle contraction,
51
186417
1684
و انقباض عضلات،
03:08
as well as eye-tracking and facial expressions.
52
188125
2958
و همچنین ردیابی چشم و حالات چهره.
03:12
Data is captured at key places where critical plot points,
53
192083
3726
اطلاعات در مکان‌های کلیدی ضبط می‌شوند جایی که نقاط نقشه بحرانی
03:15
character interaction or unusual camera angles occur.
54
195833
3417
تعامل شخصیت یا زوایای غیرعادی دوربین رخ می‌دهد.
03:20
Like the final scene in "Game of Thrones, Red Wedding,"
55
200292
2726
مثل صحنه آخر در «بازی تاج و تخت، عروسی سرخ»
03:23
when shockingly,
56
203042
2309
وقتی در نهایت حیرت
03:25
everybody dies.
57
205375
1559
همه می‌میرند.
03:26
(Laughter)
58
206958
1250
(خنده حضار)
03:29
Survey data on that person's political beliefs,
59
209042
3184
داده‌های نظرسنجی در مورد اعتقادات سیاسی آن شخص،
03:32
along with their psychographic and demographic data,
60
212250
3143
همراه با روانشناسی آن‌ها و داده‌های جمعیتی،
03:35
are integrated into the system
61
215417
1767
در سیستم
03:37
to gain a deeper understanding of the individual.
62
217208
2709
برای درک عمیق‌تر از آن فرد ادغام شده‌اند.
03:40
Let me give you an example.
63
220833
1542
بگذارید برای شما مثالی بزنم.
03:43
Matching people's TV preferences with their views on social justice issues
64
223708
4851
مطابق ترجیحات تلویزیونی مردم و نظراتشان در مورد مسائل عدالت اجتماعی در‌میابیم
03:48
reveals that Americans who rank immigration among their top three concerns
65
228583
4268
آمریکایی‌ها که مهاجرت را در‌میان سه نگرانی برترشان رتبه‌بندی می‌کنند
03:52
are more likely to be fans of "The Walking Dead,"
66
232875
2792
به احتمال زیاد طرفدار سریال «مُردگان متحرک» هستند
03:56
and they often watch for the adrenaline boost,
67
236958
2810
و آن‌ها را اغلب برای تقویت آدرنالین تماشا می‌کنند،
03:59
which is measurable.
68
239792
1291
که قابل اندازه گیری است.
04:01
A person's biological signature and their survey response
69
241792
3934
امضای بیولوژیکی شخص و پاسخ نظرسنجی آن‌ها
04:05
combines into a database to create their unique media imprint.
70
245750
4851
با یک بانک اطلاعاتی ترکیب می‌شوند تا اثر رسانه‌ای بی‌نظیر خود را ایجاد کنند.
04:10
Then our predictive model finds patterns between media imprints
71
250625
4268
سپس مدل پیش‌بینی ما الگوهای بین رسانه‌ها را پیدا می‌کند
04:14
and tells me which narrative ingredients
72
254917
1976
و به من می‌گوید کدام عناصر روایی
04:16
are more likely to lead to engagement in altruistic behavior
73
256917
3767
به احتمال زیاد، رفتار نوع دوستانه را
04:20
rather than distress and apathy.
74
260708
2685
به جای استرس و بی‌تفاوتی منجر می‌شود.
04:23
The more imprints added to the database
75
263417
2184
هرچه نشان بیشتری به پایگاه داده اضافه شود
04:25
across mediums from episodic television to games,
76
265625
3226
در سراسر رسانه، از برنامه‌هایِ تلویزیونی گرفته تا بازی‌ها
04:28
the better the predictive models become.
77
268875
2167
مدل‌های پیش بینی بهتر می‌شوند.
04:32
In short, I am mapping the first media genome.
78
272417
3851
به‌طور خلاصه من در حال نقشه کردن اولین ژنوم رسانه هستم.
04:36
(Applause and cheers)
79
276292
3791
(تشویق حضار)
04:44
Whereas the human genome identifies all genes involved
80
284083
3185
در حالی که ژنوم انسان تمام ژن‌های درگیر را در
04:47
in sequencing human DNA,
81
287292
1833
توالی دی‌ان‌اِی شناسایی می‌کند‌.
04:49
the growing database of media imprints will eventually allow me
82
289917
3226
پایگاه داده رو به رشد از رسانه‌ها سرانجام به من اجازه خواهد داد
04:53
to determine the media DNA for a specific person.
83
293167
4125
که دی‌ان‌اِی را برای یک شخص خاص تعیین کنم.
04:58
Already the Limbic Lab's narrative engine
84
298250
2833
موتور روایتگر آزمایشگاه لیمبیک از قبل
05:02
helps content creators refine their storytelling,
85
302333
2601
به سازنگان محتوا در ساخت و اصلاح داستان کمک می‌کند،
05:04
so that it resonates with their target audiences on an individual level.
86
304958
4000
به طوری که در سطح فردی با مخاطبان‌ هدف آن‌ها طنین انداز شود.
05:11
The Limbic Lab's other component,
87
311042
2184
مؤلفه دیگر آزمایشگاه لیمبیک،
05:13
the media machine,
88
313250
1976
دستگاه رسانه‌ای،
05:15
will assess how media elicits an emotional and physiological response,
89
315250
4476
نحوه انتخاب پاسخ احساسی و فیزیولوژیکی رسانه را ارزیابی می‌کند،
05:19
then pulls scenes from a content library
90
319750
2434
سپس صحنه‌ها را از یک کتابخانه محتوا
05:22
targeted to person-specific media DNA.
91
322208
2584
از دی‌ان‌ای شخص-محور رسانه بیرون می کشد.
05:26
Applying artificial intelligence to biometric data
92
326042
3892
استفاده از هوش مصنوعی به داده‌های بیومتریک که
05:29
creates a truly personalized experience.
93
329958
2726
تجربه‌ای واقعاً شخصی ایجاد می‌کند.
05:32
One that adapts content based on real-time unconscious responses.
94
332708
5084
تجربه‌ای که محتوا را مبتنی بر پاسخ‌های ناخودآگاه در زمان واقعی سازگار می‌کند.
05:38
Imagine if nonprofits and media makers were able to measure how audiences feel
95
338625
6059
تصور کنید افراد غیرذی‌نفع و سازندگان رسانه قادر به سنجش احساس مخاطبان باشند
05:44
as they experience it
96
344708
1851
آن‌ها را تجربه کنند
05:46
and alter content on the fly.
97
346583
2393
و محتوا را در حال اجرا تغییر دهند.
05:49
I believe this is the future of media.
98
349000
3458
من معتقدم این آینده رسانه‌ها است.
05:53
To date, most media and social-change strategies
99
353333
2601
تا به امروز بیشتر رسانه‌ها و راهبرد‌های تغییر اجتماعی
05:55
have attempted to appeal to mass audiences,
100
355958
2851
سعی در تجدید نظر به عموم مخاطبان را دارند،
05:58
but the future is media customized for each person.
101
358833
3500
اما آینده رسانه سفارشی برای هر شخص است.
06:03
As real-time measurement of media consumption
102
363458
2685
به عنوان اندازه‌ گیری بلادرنگ مصرف رسانه
06:06
and automated media production becomes the norm,
103
366167
2851
و تولید خودکار رسانه‌ها عادی می‌شود،
06:09
we will soon be consuming media tailored directly to our cravings
104
369042
4059
ما به زودی مصرف رسانه را با بهره‌ گیریِ ترکیبی از
06:13
using a blend of psychographics, biometrics and AI.
105
373125
4208
روانشناسی، بیومتریک و هوش مصنوعی با هدف‌هایمان متناسب خواهیم‌ کرد
06:18
It's like personalized medicine based on our DNA.
106
378250
3559
مثل داروی شخصی بر اساس دی‌ان‌اِی ما است.
06:21
I call it "biomedia."
107
381833
2167
من آن را «زیست رسانه» می‌نامم.
06:25
I am currently testing the Limbic Lab in a pilot study
108
385042
3267
من هم‌اکنون، درحال تست آزمایشگاه لیمبیک در یک مطالعه مقدماتی هستم
06:28
with the Norman Lear Center,
109
388333
2018
با مرکز نورمَن لیر،
06:30
which looks at the top 50 episodic television shows.
110
390375
3726
که به بیش از۵۰ برنامه تلویزیونی می‌نگرد.
06:34
But I am grappling with an ethical dilemma.
111
394125
3018
اما من با معضلی اخلاقی دست و پنجه نرم می‌کنم.
06:37
If I design a tool that can be turned into a weapon,
112
397167
3851
اگر ابزاری طراحی‌کنم که بتواند به یک سلاح تبدیل شود،
06:41
should I build it?
113
401042
1291
آیا باید آن را بسازم؟
06:43
By open-sourcing the lab to encourage access and inclusivity,
114
403750
3643
من با باز‌کردن منبع آزمایشگاه برای تشویق دسترسی و فراگیری،
06:47
I also run the risk of enabling powerful governments
115
407417
3434
من در معرض خطر قادر کردن دولت‌های قدرتمند
06:50
and profit-driven companies to appropriate the platform
116
410875
2934
و شرکت‌های سود‌محور برای متناسب‌ سازی بستر
06:53
for fake news, marketing or other forms of mass persuasion.
117
413833
4084
برای اخبار جعلی، بازاریابی یا اشکال دیگر ترغیب جمعی هستم.
06:59
For me, therefore, it is critical to make my research
118
419375
3351
لذا، برای من بسیار مهم است این تحقیقات
07:02
as transparent to lay audiences as GMO labels.
119
422750
3583
برای مخاطبان به اندازه‌، داشتن برچسب‌ ارگانسم اصلاح شده‌ی ژنتیکی شفاف باشد.
07:07
However, this is not enough.
120
427333
2542
به هر حال، این کافی نیست.
07:11
As creative technologists,
121
431208
1643
به عنوان تکنسین‌های خلاق،
07:12
we have a responsibility
122
432875
2226
ما یک مسئولیت داریم
07:15
not only to reflect upon how present technology shapes our cultural values
123
435125
4768
نه تنها به این نکته توجه کنیم که چگونه فناوری موجود، شکل دهنده ارزش‌های فرهنگی
07:19
and social behavior,
124
439917
2017
و رفتار‌های اجتماعی ما است،
07:21
but also to actively challenge the trajectory of future technology.
125
441958
4935
بلکه به طور جدی به چالش کشیدن مسیر تکنولوژی آینده است.
07:26
It is my hope that we make an ethical commitment
126
446917
4059
امیدوارم که ما تعهد اخلاقی داشته باشیم
برای جمع‌آوری هوش بدن
07:31
to harvesting the body's intelligence
127
451000
2351
07:33
for the creation of authentic and just stories
128
453375
3434
برای خلق داستان‌های معتبر و عادلانه
07:36
that transform media and technology
129
456833
2393
که رسانه و فناوری را
07:39
from harmful weapons into narrative medicine.
130
459250
3476
از سلاح‌های مضر به داروی روایت‌گری دگرگون کند.
07:42
Thank you.
131
462750
1268
سپاسگزارم.
07:44
(Applause and cheers)
132
464042
2208
(تشویق حضار)
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7