Rana el Kaliouby: This app knows how you feel — from the look on your face

137,905 views ・ 2015-06-15

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: Kimia Kiani Reviewer: Leila Ataei
00:12
Our emotions influence every aspect of our lives,
0
12556
4017
احساسات ما روی همه‌ی جنبه‌های زندگیمان تأثیر می‌گذارد،
00:16
from our health and how we learn, to how we do business and make decisions,
1
16573
3576
از سلامتی و چگونگی یادگیریمان گرفته، تا شیوه‌ی کسب و کار و تصمیم‌گیریمان،
00:20
big ones and small.
2
20149
1773
از ریز تا درشت.
00:22
Our emotions also influence how we connect with one another.
3
22672
3490
احساساتمان روی برقراری ارتباطمات با دیگران نیز تأثیر می‌گذارد.
00:27
We've evolved to live in a world like this,
4
27132
3976
ما چنان رشد کرده‌ایم تا در جهانی این‌چنین زندگی کنیم،
00:31
but instead, we're living more and more of our lives like this --
5
31108
4319
ولی در مقابل، بیشتر این‌گونه زندگی می‌کنیم --
00:35
this is the text message from my daughter last night --
6
35427
3134
این پیامک را دخترم، شب گذشته برایم فرستاده است --
00:38
in a world that's devoid of emotion.
7
38561
2740
در جهانی که خالی از احساسات است.
00:41
So I'm on a mission to change that.
8
41301
1951
من مأموریت دارم که وضعیت را تغییر دهم.
00:43
I want to bring emotions back into our digital experiences.
9
43252
4091
می‌خواهم احساسات را به تجربه‌ی دیجیتال بیاورم.
00:48
I started on this path 15 years ago.
10
48223
3077
این راه را ۱۵ سال پیش آغاز کردم.
00:51
I was a computer scientist in Egypt,
11
51300
2066
من یک دانشمند کامپیوتر در مصر بودم،
00:53
and I had just gotten accepted to a Ph.D. program at Cambridge University.
12
53366
4505
و به‌تازگی در یک برنامه‌ی دکترا در دانشگاه کمبریج پذیرفته شده‌ بودم.
00:57
So I did something quite unusual
13
57871
2113
من کاری به نسبت غیر معمول
00:59
for a young newlywed Muslim Egyptian wife:
14
59984
4225
برای یک زن مسلمان مصری تازه عروس انجام دادم:
01:05
With the support of my husband, who had to stay in Egypt,
15
65599
2999
با حمایت همسرم که باید در مصر می‌ماند
01:08
I packed my bags and I moved to England.
16
68598
3018
چمدان‌هایم را برداشتم و به انگلیس رفتم.
01:11
At Cambridge, thousands of miles away from home,
17
71616
3228
در کمبریج، هزاران مایل دور از خانه،
01:14
I realized I was spending more hours with my laptop
18
74844
3413
فهمیدم که بیشتر ساعات را با لپ‌تاپم سپری می‌کنم
01:18
than I did with any other human.
19
78257
2229
تا با دیگر انسان‌ها.
01:20
Yet despite this intimacy, my laptop had absolutely no idea how I was feeling.
20
80486
4853
با وجود این صمیمیت، لپ‌تاپ من هیچ ایده‌ای درباره‌ی آن‌چه من احساس می‌کردم نداشت.
01:25
It had no idea if I was happy,
21
85339
3211
هیچ ایده‌ای درباره‌ی این که من خوش‌حالم
01:28
having a bad day, or stressed, confused,
22
88550
2988
روز بدی را گذرانده‌ام، استرس داشته‌ام، یا گیجم،
01:31
and so that got frustrating.
23
91538
2922
و خب، این‌ها ناامید‌کننده شد.
01:35
Even worse, as I communicated online with my family back home,
24
95600
5231
حتی بدتر، هنگامی که با خانواده‌ام، به صورت آنلاین ارتباط برقرار می‌کردم،
01:41
I felt that all my emotions disappeared in cyberspace.
25
101421
3282
احساس می‌کردم که تمام احساسات من در فضای سایبری ناپدید می‌شوند.
01:44
I was homesick, I was lonely, and on some days I was actually crying,
26
104703
5155
من دلتنگ خانه بودم، تنها بودم، و بعضی روز‌ها واقعا گریه می‌کردم،
01:49
but all I had to communicate these emotions was this.
27
109858
4928
ولی تنها راه ابراز احساساتم این شکلک بود.
01:54
(Laughter)
28
114786
2020
(خنده‌ی حضار)
01:56
Today's technology has lots of I.Q., but no E.Q.;
29
116806
4974
تکنولوژیِ امروز، بهره‌ی هوشی بالایی دارد ولی بهره‌ی احساسی ندارد؛
02:01
lots of cognitive intelligence, but no emotional intelligence.
30
121780
3176
هوشِ شناختیِ فراوانی دارد، ولی هوش احساسی ندارد.
02:04
So that got me thinking,
31
124956
2197
این مرا به فکر فرو برد،
02:07
what if our technology could sense our emotions?
32
127153
3624
اگر تکنولوژی می‌توانست احساسات ما را بفهمد، چه می‌شد؟
02:10
What if our devices could sense how we felt and reacted accordingly,
33
130777
4076
چه می‌شد اگر وسایل ما می‌توانستند احساست ما را بفهمند و با توجه به آن‌ها واکنش نشان‌دهند،
02:14
just the way an emotionally intelligent friend would?
34
134853
3013
مثل هر یک از دوستان ما که هوش احساسی دارد و واکنش نشان می‌دهد؟
02:18
Those questions led me and my team
35
138666
3564
این سؤالات، من و تیمم را
02:22
to create technologies that can read and respond to our emotions,
36
142230
4377
به ساخت تکنولوژی‌هایی که بتوانند احساساتِ ما را بخوانند و به آن‌ پاسخ بدهند سوق داد،
02:26
and our starting point was the human face.
37
146607
3090
و نقطه‌ی شروع ما چهره‌ی انسان‌ها بود.
02:30
So our human face happens to be one of the most powerful channels
38
150577
3173
چهره‌ی انسان‌، یکی از قوی‌ترین کانال‌هاست
02:33
that we all use to communicate social and emotional states,
39
153750
4016
که همه‌ی ما از آن استفاده می‌کنیم، تا حالت‌های اجتماعی و احساسی را ابراز کنیم،
02:37
everything from enjoyment, surprise,
40
157766
3010
همه‌چیز، شوق و شگفتی‌ِمان،
02:40
empathy and curiosity.
41
160776
4203
هم‌دلی و کنجکاویمان.
02:44
In emotion science, we call each facial muscle movement an action unit.
42
164979
4928
در دانش احساسات، ما به هر حرکت عضلات صورت یک واحد حرکت می‌گوییم.
02:49
So for example, action unit 12,
43
169907
2925
در نتیجه، برای مثال، حرکتِ واحدِ ۱۲،
02:52
it's not a Hollywood blockbuster,
44
172832
2038
یک فیلم پرفروش هالیوودی نیست،
02:54
it is actually a lip corner pull, which is the main component of a smile.
45
174870
3442
بلکه در حقیقت، بالا رفتن گوشه‌ی لب است، که یک جز‌ٔ اصلی لب‌خند است.
02:58
Try it everybody. Let's get some smiles going on.
46
178312
2988
همه امتحانش کنید. بیایید چندین لبخند داشته‌باشیم.
03:01
Another example is action unit 4. It's the brow furrow.
47
181300
2654
مثال دیگر، حرکتِ واحدِ ۴ است، که حرکتِ چروک انداختن ابرو است.
03:03
It's when you draw your eyebrows together
48
183954
2238
زمانی که شما ابرو‌هایتان را درهم می‌‌کشید
03:06
and you create all these textures and wrinkles.
49
186192
2267
و همه‌ی این الگو‌ها و چین‌ها را می‌سازید.
03:08
We don't like them, but it's a strong indicator of a negative emotion.
50
188459
4295
ما اخم را دوست نداریم، ولی این حرکت نشانگری قوی برای احساسات منفی است.
03:12
So we have about 45 of these action units,
51
192754
2206
ما حدود ۴۵ واحد حرکتی داریم،
03:14
and they combine to express hundreds of emotions.
52
194960
3390
و همه‌ی آن‌ها با هم ترکیب می‌شوند تا صد‌ها احساس را ابراز و بیان کنند.
03:18
Teaching a computer to read these facial emotions is hard,
53
198350
3901
آموزش خواندن احساسات چهره به یک کامپیوتر سخت است،
03:22
because these action units, they can be fast, they're subtle,
54
202251
2972
زیرا این واحد‌های حرکتی می‌توانند سریع، دقیق، و ماهرانه باشند.
03:25
and they combine in many different ways.
55
205223
2554
و به شکل‌های مختلف با هم ترکیب شوند.
03:27
So take, for example, the smile and the smirk.
56
207777
3738
برای مثال، لبخند و پوزخند زدن را در نظر بگیرید.
03:31
They look somewhat similar, but they mean very different things.
57
211515
3753
آن‌ها از جهاتی، شبیه به هم هستند، ولی معانی کاملا متفاوتی دارند.
03:35
(Laughter)
58
215268
1718
(خنده‌ی حضار)
03:36
So the smile is positive,
59
216986
3004
لبخند مثبت است،
03:39
a smirk is often negative.
60
219990
1270
و پوزخند معمولاً منفی‌.
03:41
Sometimes a smirk can make you become famous.
61
221260
3876
بعضی اوقات، یک پوزخند می‌تواند شما را معروف کند.
03:45
But seriously, it's important for a computer to be able
62
225136
2824
ولی جداً، برای یک کامپیوتر مهم است که بتواند
03:47
to tell the difference between the two expressions.
63
227960
2855
دو حالت متفاوت را از هم تشخیص دهد.
03:50
So how do we do that?
64
230815
1812
حال، ما این کار را چگونه انجام می‌دهیم؟
03:52
We give our algorithms
65
232627
1787
ما به الگوریتم‌هایمان
03:54
tens of thousands of examples of people we know to be smiling,
66
234414
4110
ده‌ها مثال از صد‌ها مثالی که مردم در آن‌ها می‌خندند را می‌دهیم،
03:58
from different ethnicities, ages, genders,
67
238524
3065
از فرهنگ‌ها، سنین، و جنسیت‌های متفاوت،
04:01
and we do the same for smirks.
68
241589
2811
و همین کار را برای پوزخند‌ها انجام می‌دهیم.
04:04
And then, using deep learning,
69
244400
1554
و سپس، با کمک یادگیری عمیق،‌
04:05
the algorithm looks for all these textures and wrinkles
70
245954
2856
الگوریتمْ به همه‌ی این الگو‌ها و چین‌و‌چروک‌ها
04:08
and shape changes on our face,
71
248810
2580
و تغییرات قالبِ چهره‌مان نگاه می‌کند،
04:11
and basically learns that all smiles have common characteristics,
72
251390
3202
و به طور اساسی یاد می‌گیرد که همه‌ی لبخند‌ها ویژگی‌های مشابهی دارند
04:14
all smirks have subtly different characteristics.
73
254592
3181
و همه‌ی پوزخند‌ها، ویژگی‌های ماهرانه‌، اما متفاوتی دارند.
04:17
And the next time it sees a new face,
74
257773
2368
و دفعه‌ی بعد که یک چهره‌ی جدید را می‌بیند،
04:20
it essentially learns that
75
260141
2299
ضرورتاً می‌فهمد
04:22
this face has the same characteristics of a smile,
76
262440
3033
که این چهره، ویژگی‌های یک لبخند را دارد،
04:25
and it says, "Aha, I recognize this. This is a smile expression."
77
265473
4278
و می‌گوید: «آها، من این را تشخیص می‌دهم. این جلوه‌ی یک لبخند است.»
04:30
So the best way to demonstrate how this technology works
78
270381
2800
پس بهترین راه برای نشان‌دادن چگونگی عمل‌کرد این تکنولوژی
04:33
is to try a live demo,
79
273181
2136
اجرای یک نمایش زنده است،
04:35
so I need a volunteer, preferably somebody with a face.
80
275317
3913
پس من یک داوطلب می‌خواهم، ترجیحاً فردی با یک صورت.
04:39
(Laughter)
81
279230
2334
(خنده‌ی حضار)
04:41
Cloe's going to be our volunteer today.
82
281564
2771
کلوی داوطلب امروز ما خواهد بود.
04:45
So over the past five years, we've moved from being a research project at MIT
83
285325
4458
در پنج سالِ گذشته، ما از یک پروژه‌ی تحقیقاتی در MIT،
04:49
to a company,
84
289783
1156
به یک شرکت تبدیل شدیم،
04:50
where my team has worked really hard to make this technology work,
85
290939
3192
جایی که تیم من، به سختی کار کرده‌است تا این تکنولوژی کار کند،
04:54
as we like to say, in the wild.
86
294131
2409
که چیزی است که می‌خواهیم در واقعیت بگوییم تا در تئوری.
04:56
And we've also shrunk it so that the core emotion engine
87
296540
2670
هم‌چنین ما، آن را کوچک کرده‌ایم تا هسته‌ی موتور احساسات
04:59
works on any mobile device with a camera, like this iPad.
88
299210
3320
روی هر دستگاه موبایلِ مجهز به دوربین، مانند این آی‌پد، کار کند.
05:02
So let's give this a try.
89
302530
2786
پس بیایید امتحانش کنیم.
05:06
As you can see, the algorithm has essentially found Cloe's face,
90
306756
3924
همان‌طور که می‌توانید مشاهده‌کنید، الگوریتم صورت کلوی را یافته‌ است،
05:10
so it's this white bounding box,
91
310680
1692
پس این جعبه‌ی سفید کادر صورت را نشان می‌دهد،
05:12
and it's tracking the main feature points on her face,
92
312372
2571
که دارد خصوصیات اصلی صورتش را دنبال می‌کند؛
05:14
so her eyebrows, her eyes, her mouth and her nose.
93
314943
2856
ابرو‌هایش، چشمانش، دهانش، و دماغش.
05:17
The question is, can it recognize her expression?
94
317799
2987
سؤال این است که آیا می‌تواند احساساتش را نیز شناسایی کند؟
05:20
So we're going to test the machine.
95
320786
1671
پس ما دستگاه را تست می‌کنیم.
05:22
So first of all, give me your poker face. Yep, awesome. (Laughter)
96
322457
4186
اول از همه، صورت بدون احساست را به من نشان بده. بله، عالی است! (خنده‌ی حضار)
05:26
And then as she smiles, this is a genuine smile, it's great.
97
326643
2813
حالا او می‌خندد، این یک خنده‌ی خالص است، عالی است.
05:29
So you can see the green bar go up as she smiles.
98
329456
2300
می‌توانید ببینید که نوار سبز با خندیدن او بزرگ می‌شود.
05:31
Now that was a big smile.
99
331756
1222
این یک خنده‌ی بزرگ بود.
05:32
Can you try a subtle smile to see if the computer can recognize?
100
332978
3043
می‌توانی کمی ملایم بخندی تا ببینیم کامپیوتر می‌تواند آن را شناسایی کند؟
05:36
It does recognize subtle smiles as well.
101
336021
2331
بله، می‌تواند خنده‌ی ماهرانه را هم به همین ترتیب شناسایی کند.
05:38
We've worked really hard to make that happen.
102
338352
2125
ما واقعا سخت کار کرده‌ایم تا این کار را انجام دهیم.
05:40
And then eyebrow raised, indicator of surprise.
103
340477
2962
و بعد، بالا رفتن ابرو‌ها، که نشان‌دهنده‌ی شگفتی است.
05:43
Brow furrow, which is an indicator of confusion.
104
343439
4249
چین‌خوردگی پیشانی، نشان‌دهنده‌ی گیجی است.
05:47
Frown. Yes, perfect.
105
347688
4007
رو ترش کُن. بله، عالی است.
05:51
So these are all the different action units. There's many more of them.
106
351695
3493
پس این‌‌ها همه‌ی واحد‌هایِ حرکتیِ‌ متفاوت هستند. چندین حرکت دیگر نیز وجود دارد.
05:55
This is just a slimmed-down demo.
107
355188
2032
این یک نمایش کوچک‌شده است.
05:57
But we call each reading an emotion data point,
108
357220
3148
ما به هر خواندن، یک نقطه‌ی داده‌ی احساسات می‌گوییم.
06:00
and then they can fire together to portray different emotions.
109
360368
2969
و این نقاط می‌توانند با هم ترکیب شوند تا نشان‌دهنده‌ی احساسات متفاوت باشند.
06:03
So on the right side of the demo -- look like you're happy.
110
363337
4653
پس در سمتِ راستِ نمونه‌ی نمایشی-- نشان بده که خوشحالی.
06:07
So that's joy. Joy fires up.
111
367990
1454
این شوق است. شوق زیاد می‌شود.
06:09
And then give me a disgust face.
112
369444
1927
و حالا به من یک صورت منزجر نشان بده.
06:11
Try to remember what it was like when Zayn left One Direction.
113
371371
4272
احساست را، زمانی که زِین، گروهِ وان‌دایرِکشن را ترک کرد، به خاطر بیاور.
06:15
(Laughter)
114
375643
1510
(خنده‌ی حضار)
06:17
Yeah, wrinkle your nose. Awesome.
115
377153
4342
بله، دماغت را چین بده. عالی است.
06:21
And the valence is actually quite negative, so you must have been a big fan.
116
381495
3731
و نشان‌گر ظرفیت تا حدودی منفی شد، پس حتما یک طرفدار واقعی هستی.
06:25
So valence is how positive or negative an experience is,
117
385226
2700
معیارِ ظرفیت، مثبت یا منفی بودنِ تجربه را نشان می‌دهد،
06:27
and engagement is how expressive she is as well.
118
387926
2786
و معیارِ درگیری نشان‌دهنده‌ی تأثیری است که حالت صورت فرد خواهد گذاشت.
06:30
So imagine if Cloe had access to this real-time emotion stream,
119
390712
3414
پس زمانی را تصور کنید که کلوی به این رشته‌ی احساسات بی‌درنگ دسترسی داشت،
06:34
and she could share it with anybody she wanted to.
120
394126
2809
و می‌توانست آن را با هر کسی که می‌خواهد در میان بگذارد.
06:36
Thank you.
121
396935
2923
متشکرم.
06:39
(Applause)
122
399858
4621
(تشویق حضار)
06:45
So, so far, we have amassed 12 billion of these emotion data points.
123
405749
5270
تابه‌حال، ما ۱۲ میلیارد از این نقاطِ احساسی را جمع‌آوری کرده‌ایم.
06:51
It's the largest emotion database in the world.
124
411019
2611
این مجموعه، بزرگ‌ترین پایگاه‌داده‌ی احساسات در دنیاست.
06:53
We've collected it from 2.9 million face videos,
125
413630
2963
آن را از ۲/۹ میلیون ویدیوی چهره جمع‌آوری کرده‌ایم،
06:56
people who have agreed to share their emotions with us,
126
416593
2600
که شرکت‌کنندگان با در اختیار گذاشتن احساساتشان موافقت کرده‌اند،
06:59
and from 75 countries around the world.
127
419193
3205
و از ۷۵ کشور در سراسر جهان شرکت کرده‌اند.
07:02
It's growing every day.
128
422398
1715
این مجموعه، هر روز رو به رشد است.
07:04
It blows my mind away
129
424603
2067
مغزم منفجر می‌شود،
07:06
that we can now quantify something as personal as our emotions,
130
426670
3195
زمانی که فکر می‌کنم که ما می‌توانیم چیزی خصوصی مانند احساسات را
07:09
and we can do it at this scale.
131
429865
2235
تا این حد، اندازه بگیریم.
07:12
So what have we learned to date?
132
432100
2177
تا به حال چه آموخته‌ایم؟
07:15
Gender.
133
435057
2331
جنسیت.
07:17
Our data confirms something that you might suspect.
134
437388
3646
داده‌های ما، چیز‌هایی که ممکن است در آن‌ها شک داشته باشید را، تأیید می‌کنند.
07:21
Women are more expressive than men.
135
441034
1857
خانم‌ها از آقایان واضح‌تر ابراز احساسات می‌کنند.
07:22
Not only do they smile more, their smiles last longer,
136
442891
2683
نه تنها بیشتر لبخند می‌زنند، بلکه لبخند‌هایشان با دوام‌تر است.
07:25
and we can now really quantify what it is that men and women
137
445574
2904
و ما می‌توانیم ارزیابی کنیم، ‌ که زنان و مردان به چه چیز‌هایی
07:28
respond to differently.
138
448478
2136
واکنش‌های متفاوتی نشان می‌دهند.
07:30
Let's do culture: So in the United States,
139
450614
2290
بیایید فرهنگ را بررسی کنیم: در ایالات متحده‌،
07:32
women are 40 percent more expressive than men,
140
452904
3204
زنان ۴۰ درصد بیشتر از مردان در بیان احساسات خود گویا هستند،
07:36
but curiously, we don't see any difference in the U.K. between men and women.
141
456108
3645
ولی به شکل عجیبی، هیچ تفاوتی بین زنان و مردان در انگلستان، مشاهده نمی‌شود.
07:39
(Laughter)
142
459753
2506
(خنده‌ی حضار)
07:43
Age: People who are 50 years and older
143
463296
4027
سن: کسانی که ۵۰ سال یا بیشتر سن دارند،
07:47
are 25 percent more emotive than younger people.
144
467323
3436
۲۵ درصد بیشتر از افراد جوان‌تر احساساتی هستند.
07:51
Women in their 20s smile a lot more than men the same age,
145
471899
3852
زنان در دهه‌ی بیست‌سالگیشان، بسیار بیشتر از مردان با سن مشابه لبخند می‌زنند.
07:55
perhaps a necessity for dating.
146
475751
3839
شاید این یکی از الزامات معاشرت است.
07:59
But perhaps what surprised us the most about this data
147
479590
2617
اما شاید آن‌چه از بیشتر درباره‌ی این داده‌ها شگفت‌زده‌مان کرد
08:02
is that we happen to be expressive all the time,
148
482207
3203
این بود که ما در تمام مدت در حال ابرازِ احساساتیم،
08:05
even when we are sitting in front of our devices alone,
149
485410
2833
حتی زمانی که به تنهایی در مقابل دستگاهمان نشسته‌ایم،
08:08
and it's not just when we're watching cat videos on Facebook.
150
488243
3274
و نه تنها زمانی که داریم ویدیوی یک گربه را در فیس‌بوک می‌بینیم، بلکه همیشه.
08:12
We are expressive when we're emailing, texting, shopping online,
151
492217
3010
ما هنگام ای‌میل زدن،پیامک زدن، خرید آنلاین،
08:15
or even doing our taxes.
152
495227
2300
یا حتی پرداخت مالیات، در حال ابراز احساساتیم.
08:17
Where is this data used today?
153
497527
2392
امروزه، این داده‌ها در کجا استفاده می‌شود؟
08:19
In understanding how we engage with media,
154
499919
2763
در فهم این که ما چگونه با رسانه‌ها در ارتباطیم،
08:22
so understanding virality and voting behavior;
155
502682
2484
در فهم الگو‌های اشتراک‌گذاریِ ویدیو‌ها و رأی دادن؛
08:25
and also empowering or emotion-enabling technology,
156
505166
2740
و همچنین قدرت دادن یا احساسی کردن تکنولوژی،
08:27
and I want to share some examples that are especially close to my heart.
157
507906
4621
می‌خواهم چند مثال با شما در میان بگذارم که قلبم را در‌هم می‌فشارند.
08:33
Emotion-enabled wearable glasses can help individuals
158
513197
3068
عینک‌های هوشمند از نظر احساسات می‌توانند به افرادی که
08:36
who are visually impaired read the faces of others,
159
516265
3228
از نظر بینایی مشکل دارند، در فهمِ احساساتِ دیگران، یاری برسانند،
08:39
and it can help individuals on the autism spectrum interpret emotion,
160
519493
4187
و به افراد مبتلا به اوتیسم نیز در قالبِ مترجم احساسات کمک کنند،
08:43
something that they really struggle with.
161
523680
2778
مشکلی که واقعاً این افراد دارند با آن دست و پنجه نرم می‌کنند.
08:47
In education, imagine if your learning apps
162
527918
2859
در آموزش: اگر شما در حال یادگیری هستید، اپلیکیشن‌ها
08:50
sense that you're confused and slow down,
163
530777
2810
سردرگمی شما را احساس می‌کنند و سرعت‌شان کم می‌شود.
08:53
or that you're bored, so it's sped up,
164
533587
1857
یا اگر حوصله‌تان سر رفته سرعت‌شان بالا می‌رود،
08:55
just like a great teacher would in a classroom.
165
535444
2969
مانند یک معلم عالی در کلاس درس.
08:59
What if your wristwatch tracked your mood,
166
539043
2601
چه می‌شد اگر ساعت مچی شما احساساتتان را درک می‌کرد،
09:01
or your car sensed that you're tired,
167
541644
2693
یا ماشین‌تان می‌فهمید که شما خسته هستید،
09:04
or perhaps your fridge knows that you're stressed,
168
544337
2548
یا یخچال‌تان می‌فهمید که شما مضطرب هستید،
09:06
so it auto-locks to prevent you from binge eating. (Laughter)
169
546885
6066
و به‌طور خودکار بسته می‌شد تا از پرخوری شما جلوگیری کند. (خنده‌ی حضار)
09:12
I would like that, yeah.
170
552951
2717
من این را دوست دارم، بله.
09:15
What if, when I was in Cambridge,
171
555668
1927
چه می‌شد اگر زمانی که من در کمبریج بودم،
09:17
I had access to my real-time emotion stream,
172
557595
2313
به رشته‌ی احساسات بی‌درنگم دسترسی داشتم،
09:19
and I could share that with my family back home in a very natural way,
173
559908
3529
و می‌توانستم آن را با خانواده‌ام در خانه به صورت طبیعی در میان بگذارم،
09:23
just like I would've if we were all in the same room together?
174
563437
3971
همان‌طور که انگار با آن‌ها در یک اتاق هستم؟
09:27
I think five years down the line,
175
567408
3142
فکر می‌کنم که ۵ سال دیگر از الان،
09:30
all our devices are going to have an emotion chip,
176
570550
2337
همه‌ی وسایل ما یک تراشه‌ی احساسات خواهند داشت،
09:32
and we won't remember what it was like when we couldn't just frown at our device
177
572887
4064
و ما دیگر زمانی را به‌یاد نمی‌آوریم که نمی‌توانستیم به وسیله‌مان اخم کنیم،
09:36
and our device would say, "Hmm, you didn't like that, did you?"
178
576951
4249
و وسیله‌مان به ما می‌گوید: «هممم، این را دوست نداشتی، نه؟»
09:41
Our biggest challenge is that there are so many applications of this technology,
179
581200
3761
بزرگ‌ترین چالش ما کاربرد‌های زیاد این تکنولوژی است.
09:44
my team and I realize that we can't build them all ourselves,
180
584961
2903
من و تیمم به این نتیجه رسیدیم که نمی‌توانیم همه‌ی اپلیکیشن‌ها را خودمان بسازیم،
09:47
so we've made this technology available so that other developers
181
587864
3496
پس این تکنولوژی را در دسترس قرار دادیم تا سایر توسعه‌دهندگان
09:51
can get building and get creative.
182
591360
2114
بتوانند این برنامه‌ها را بسازند و خلاق باشند.
09:53
We recognize that there are potential risks
183
593474
4086
ما متوجه شدیم که امکان خطر
09:57
and potential for abuse,
184
597560
2067
و همچنین سؤاستفاده وجود دارد،
09:59
but personally, having spent many years doing this,
185
599627
2949
ولی به‌شخصه، بعد از چندین سال انجام این کار،
10:02
I believe that the benefits to humanity
186
602576
2972
باور دارم که این تکنولوژی مزایایی برای انسانیت دارد
10:05
from having emotionally intelligent technology
187
605548
2275
و داشتن تکنولوژی هوشمند احساسی
10:07
far outweigh the potential for misuse.
188
607823
3576
ارزشمندتر امکان سؤاستفاده است.
10:11
And I invite you all to be part of the conversation.
189
611399
2531
من شما را دعوت می‌کنم که بخشی از این گفت‌و‌گو شوید.
10:13
The more people who know about this technology,
190
613930
2554
این که افراد بیشتری درباره‌ی این تکنولوژی بدانند،
10:16
the more we can all have a voice in how it's being used.
191
616484
3177
کمک می‌کند تا بیشتر بتوانیم بگوییم که چگونه از آن استفاده می‌شود.
10:21
So as more and more of our lives become digital,
192
621081
4574
همان‌طور که زندگی‌مان بیشتر و بیشتر دیجیتالی می‌شود،
10:25
we are fighting a losing battle trying to curb our usage of devices
193
625655
3498
در یک جنگ شکست خورده مبارزه می‌کنیم تا از استفاده از وسایل در زندگی‌مان کم کنیم
10:29
in order to reclaim our emotions.
194
629153
2229
به این منظور که احساساتمان را بازگردانیم.
10:32
So what I'm trying to do instead is to bring emotions into our technology
195
632622
3914
چیزی که من در عوض برایش تلاش می‌کنم این است که احساسات را به درون تکنولوژی بیاورم
10:36
and make our technologies more responsive.
196
636536
2229
و کاری کنم که تکنولوژی‌هایمان پاسخ‌گوتر باشد.
10:38
So I want those devices that have separated us
197
638765
2670
پس می‌خواهم وسایلی که ما را از هم جدا کرده‌اند،
10:41
to bring us back together.
198
641435
2462
دوباره ما را به هم بازگردانند.
10:43
And by humanizing technology, we have this golden opportunity
199
643897
4588
با انسانی کردن تکنولوژی، این فرصت طلایی را داریم
10:48
to reimagine how we connect with machines,
200
648485
3297
که دوباره درباره‌ی ارتباطمان با ماشین‌ها فکر کنیم،
10:51
and therefore, how we, as human beings,
201
651782
4481
و در نهایت، این که چگونه ما، به عنوان انسان‌ها،
10:56
connect with one another.
202
656263
1904
با یکدیگر ارتباط برقرار می‌کنیم.
10:58
Thank you.
203
658167
2160
متشکرم.
11:00
(Applause)
204
660327
3313
(تشویق حضار)
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7