Rana el Kaliouby: This app knows how you feel — from the look on your face

137,190 views ・ 2015-06-15

TED


Please double-click on the English subtitles below to play the video.

Translator: Daban Q. Jaff Reviewer: Razaw S. Bor
هه‌سته‌كانمان كاریگه‌ری له‌سه‌ر هه‌موو بواره‌كانی ژیانمان هه‌یه‌،
له‌ته‌ندروستی و شێوازی فێربونمانه‌وه‌، تا چۆنیه‌تی بازرگانیكردن و بڕیاردانیشمان،
گه‌وره‌ تا بچوكی.
00:12
Our emotions influence every aspect of our lives,
0
12556
4017
هەستەكانمان كاریگەریش دەكەنە سەر چۆنیەتی مامەڵەكردنمان لەگەڵ یەكتری
00:16
from our health and how we learn, to how we do business and make decisions,
1
16573
3576
پەرەمان سەندوە تا لە جیهانێكی وەهادا بژین
00:20
big ones and small.
2
20149
1773
00:22
Our emotions also influence how we connect with one another.
3
22672
3490
لەجیاتی ئەوە، زیاتر و زیاتر بەم شێوەیە دەژین
ئەمە نامەیەكە لە كچەكەمەوە شەوی ڕابردوو
00:27
We've evolved to live in a world like this,
4
27132
3976
لەجیهانێكدا كە دابراوە لە هەست
00:31
but instead, we're living more and more of our lives like this --
5
31108
4319
من بە ئەرکێک هەستاوم ئەوە بگۆڕم.
دەمەوێ هەست بگێڕمەوە بۆ ناو ئەزموونە دیجیتاڵییەكانمان
00:35
this is the text message from my daughter last night --
6
35427
3134
00:38
in a world that's devoid of emotion.
7
38561
2740
پانزە ساڵ لەمەوبەر ئەم رێگایەم دەستپێكرد
00:41
So I'm on a mission to change that.
8
41301
1951
زانای بواری كۆمپیوتەر بووم لە میسر
00:43
I want to bring emotions back into our digital experiences.
9
43252
4091
لە دكتۆرای كۆمپیوتەر وەرگیرام لە زانكۆی كامبریدج
00:48
I started on this path 15 years ago.
10
48223
3077
شتێكی نائاسایم كرد
00:51
I was a computer scientist in Egypt,
11
51300
2066
بۆ تازەبوكێكی گەنجی میسری موسوڵمان
00:53
and I had just gotten accepted to a Ph.D. program at Cambridge University.
12
53366
4505
00:57
So I did something quite unusual
13
57871
2113
بەهاوكاری هاوسەرەكەم كە دەبوایە له‌میسر بمێنێتەوە
00:59
for a young newlywed Muslim Egyptian wife:
14
59984
4225
جانتاكانم كۆكردەوە و چوومە بەریتانیا
لە كامبریدج، كە هەزاران میل لە ووڵاتی خۆمەوە دوورە
01:05
With the support of my husband, who had to stay in Egypt,
15
65599
2999
هەستمكرد كە كاتی زیاتر بەسەردەبەم لەسەر لاپتۆپ
01:08
I packed my bags and I moved to England.
16
68598
3018
زیاتر لەوەی لەگەڵ هیچ مرۆڤێكی تر بەسەری دەبەم
01:11
At Cambridge, thousands of miles away from home,
17
71616
3228
سەرباری ئەو دۆستایەتییە، لاپتۆپەكەم قه‌ت هەستی نەدەكرد ئاخۆ من هەستم چۆنە
01:14
I realized I was spending more hours with my laptop
18
74844
3413
هیچ نەیدەزانی ئەگەر دڵخۆش بم،
01:18
than I did with any other human.
19
78257
2229
01:20
Yet despite this intimacy, my laptop had absolutely no idea how I was feeling.
20
80486
4853
ڕۆژێکی خراپم هەبێت، یان سترێسم هەبێت، سەرم لێشێوابێت و
ئەوەش کەمێک دڵەڕاوکێی دروستکرد.
01:25
It had no idea if I was happy,
21
85339
3211
لەوەش خراپتر، كاتێك قسەم لەگەڵ ماڵەوە دەكرد بە ئینتەرنێت
01:28
having a bad day, or stressed, confused,
22
88550
2988
01:31
and so that got frustrating.
23
91538
2922
هەستمدەكرد هەموو هەستەكان وندەبن لەناو تۆری ئینتەرنێت
01:35
Even worse, as I communicated online with my family back home,
24
95600
5231
غەریب بووم، تەنیابووم و هەندێ رۆژیش دەستمدەكرد بەگریان
01:41
I felt that all my emotions disappeared in cyberspace.
25
101421
3282
به‌ڵام هه‌موو ئه‌وه‌ی كه‌ له‌ڕێگایه‌وه‌ ئه‌م هه‌ستانه‌م ده‌گه‌یاند ئه‌م شته‌ بوو.
01:44
I was homesick, I was lonely, and on some days I was actually crying,
26
104703
5155
(پێكه‌نین)
ته‌كنه‌لۆژیای سه‌رده‌م زیره‌كیه‌كی زۆری هه‌یه‌ به‌ڵام به‌بێ سۆز؛
01:49
but all I had to communicate these emotions was this.
27
109858
4928
توانایه‌كی زۆری زیره‌كی و فێربوون به‌ڵام بێ زیره‌كی سۆزی.
01:54
(Laughter)
28
114786
2020
01:56
Today's technology has lots of I.Q., but no E.Q.;
29
116806
4974
ئه‌مه‌ وایلێكردم بیربكه‌مه‌وه‌،
چی ده‌بێ ئه‌گه‌ر ته‌كنه‌لۆژیا هه‌ست به‌ سۆزه‌كانمان بكات؟
02:01
lots of cognitive intelligence, but no emotional intelligence.
30
121780
3176
چی ده‌بێ كه‌ ئامێره‌كانمان بزانن هه‌ستمان چۆنه‌ و كاردانه‌وه‌یان به‌وپێیه‌ بێت.
02:04
So that got me thinking,
31
124956
2197
ڕێك به‌و شێوازه‌ی كه‌ هاورێییه‌كی هۆشمه‌ندی سۆزدارمان ده‌یكات؟
02:07
what if our technology could sense our emotions?
32
127153
3624
02:10
What if our devices could sense how we felt and reacted accordingly,
33
130777
4076
ئه‌م پرسیارانه‌ وای له‌ من و تیمه‌كه‌م كرد
ته‌كنه‌لۆژیای وا دروست بكه‌ین بتوانێ هه‌ستمان بخوێنێته‌وه‌ و وه‌ڵامی بۆ هه‌بێت،
02:14
just the way an emotionally intelligent friend would?
34
134853
3013
02:18
Those questions led me and my team
35
138666
3564
وه‌ ده‌سپێكی ئیشه‌كه‌شمان به‌ روخساری مرۆڤ بوو.
02:22
to create technologies that can read and respond to our emotions,
36
142230
4377
روخسارمان یه‌كێكه‌ له‌ به‌هێزترین ڕێگاكان
كه‌ هه‌موومان به‌كاریده‌هێنین بۆ گه‌یاندنی هەست و سۆزمان.
02:26
and our starting point was the human face.
37
146607
3090
هه‌موو شتێك، له‌ چێژبردن، سه‌رسوڕمان،
02:30
So our human face happens to be one of the most powerful channels
38
150577
3173
هاوسۆزی بوون و حەسرەت گرتنیش.
02:33
that we all use to communicate social and emotional states,
39
153750
4016
له‌زانستی سۆزدا، جوڵه‌ی هه‌ر ماسولكه‌یه‌كی رووخسار یه‌كه‌یه‌كی كاره‌.
02:37
everything from enjoyment, surprise,
40
157766
3010
02:40
empathy and curiosity.
41
160776
4203
بۆنمونه‌، یه‌كه‌ی كاری ١٢،
02:44
In emotion science, we call each facial muscle movement an action unit.
42
164979
4928
فیلمه‌ كاریگه‌رو پڕداهاته‌كانی هۆڵیود نیه‌
له‌راستیدا گۆشه‌ی لێوه‌، كه‌ پێكهێنه‌ری سه‌ره‌كی بزه‌كردنه‌.
02:49
So for example, action unit 12,
43
169907
2925
هه‌مووتان تاقی بكه‌نه‌وه‌. باهه‌ندێ زه‌رده‌خه‌نه‌ بكه‌ین.
02:52
it's not a Hollywood blockbuster,
44
172832
2038
نمونه‌یه‌كی تر یه‌كه‌ی كاری ٤، درزی نێوان برۆكانه‌.
02:54
it is actually a lip corner pull, which is the main component of a smile.
45
174870
3442
كاتێك هه‌ردوو برۆت بۆیه‌كتری ده‌هێنیته‌وه‌
وه‌ هه‌موو ئه‌و لۆچیانه‌ درووست ده‌كه‌یت.
02:58
Try it everybody. Let's get some smiles going on.
46
178312
2988
حه‌زمان پێیی نایه‌ت، به‌ڵام نیشانه‌یه‌كی به‌هێزی هه‌ستی نەرێنییە.
03:01
Another example is action unit 4. It's the brow furrow.
47
181300
2654
03:03
It's when you draw your eyebrows together
48
183954
2238
نزیکەی ٤٥ یەکەی کارمان هەیە و
03:06
and you create all these textures and wrinkles.
49
186192
2267
ئه‌م یه‌كانه‌ تێكه‌ڵ ده‌بن و سه‌دان هه‌ستی جیاواز ده‌رده‌بڕن.
03:08
We don't like them, but it's a strong indicator of a negative emotion.
50
188459
4295
فێركردنی كۆمپیوته‌ر بۆ خوێندنه‌وه‌ی ئه‌و هه‌ستانه‌ی ده‌مووچاو زۆر قورسه‌،
03:12
So we have about 45 of these action units,
51
192754
2206
له‌به‌رئه‌وه‌ی ئه‌م یه‌كانه‌، ده‌توانن زۆر خێرابن، زۆر وردبن،
03:14
and they combine to express hundreds of emotions.
52
194960
3390
به‌شێوازی زۆر جیاوازیش تێكه‌ڵاوبن.
03:18
Teaching a computer to read these facial emotions is hard,
53
198350
3901
بۆنمونه‌ با بزه‌كردن و زه‌رده‌خه‌نه‌ی فیز به‌ نمونه‌ وه‌ربگرین.
03:22
because these action units, they can be fast, they're subtle,
54
202251
2972
تۆزێ له‌یه‌ك ده‌چن، به‌ڵام مانایان یه‌كجار جیاوازه‌.
03:25
and they combine in many different ways.
55
205223
2554
(پێكه‌نین)
03:27
So take, for example, the smile and the smirk.
56
207777
3738
بزه‌كردن ئەرێنییە،
03:31
They look somewhat similar, but they mean very different things.
57
211515
3753
زەردەخەنەی بەزۆر نەرێنییە.
هه‌ندێجار ئه‌و زه‌رده‌خه‌نه‌یه‌ وات لێده‌كا به‌ناوبانگ بیت.
03:35
(Laughter)
58
215268
1718
03:36
So the smile is positive,
59
216986
3004
به‌ڵام هەر بەڕاست، زۆر گرنگه‌ بۆ كۆمپیوته‌ر كه‌ بتوانێ
03:39
a smirk is often negative.
60
219990
1270
جیاوازی بكا له‌نێوان ئه‌و دوو هه‌ستەدا.
03:41
Sometimes a smirk can make you become famous.
61
221260
3876
کەواتە چۆن ئەوە بکەین؟
ئێمه‌ ڕیزبه‌ندییه‌كه‌مان دایه‌
03:45
But seriously, it's important for a computer to be able
62
225136
2824
ده‌یان هه‌زار نمونه‌ی زەردەخەنەی خه‌ڵكی ناسراو.
03:47
to tell the difference between the two expressions.
63
227960
2855
03:50
So how do we do that?
64
230815
1812
له‌ نه‌ژاد، ته‌مه‌ن و ره‌گه‌زی جیاواز
03:52
We give our algorithms
65
232627
1787
وه‌ هه‌مان شتیشمان كرد بۆ زه‌رده‌خه‌نه‌ی بەزۆریش کرد.
03:54
tens of thousands of examples of people we know to be smiling,
66
234414
4110
دواتر، فێربونی زۆرمان به‌كارهێنا
ریزبه‌ندییه‌كه‌ ده‌گه‌ڕا بۆ هه‌موو پێكهاته‌ و لۆچیه‌كان
03:58
from different ethnicities, ages, genders,
67
238524
3065
وه‌ هه‌موو شێواز گۆڕینه‌كان له‌سه‌ر ده‌مووچاومان،
04:01
and we do the same for smirks.
68
241589
2811
فێربوو كه‌ هه‌موو بزه‌كان كۆمه‌ڵێ تایبەتمەندی هاوبه‌شیان هه‌یه‌،
04:04
And then, using deep learning,
69
244400
1554
04:05
the algorithm looks for all these textures and wrinkles
70
245954
2856
زەردەخەنە بەزۆرەکانیش چەند جیاوازییەکی کەمیان هەیە.
04:08
and shape changes on our face,
71
248810
2580
هه‌ركاتێك روخسارێكی تازه‌ی بینیبا
04:11
and basically learns that all smiles have common characteristics,
72
251390
3202
فێرده‌بوو كه‌
ئه‌و روخساره‌ هه‌مان جیاكه‌ره‌وه‌ی بزه‌كردنی هه‌یه‌.
04:14
all smirks have subtly different characteristics.
73
254592
3181
وه‌ ده‌یگووت "ئه‌ها، ئه‌وه‌ ده‌ناسمه‌وه‌. ئه‌مه‌ زەردەخەنەیە."
04:17
And the next time it sees a new face,
74
257773
2368
04:20
it essentially learns that
75
260141
2299
باشترین ڕێگا بۆ پشاندانی چۆنیه‌تی كاركردنی ته‌كنه‌لۆژیاكه‌
04:22
this face has the same characteristics of a smile,
76
262440
3033
تاقیكردنه‌وه‌ی نمونه‌یه‌كی راسته‌وخۆیه‌،
04:25
and it says, "Aha, I recognize this. This is a smile expression."
77
265473
4278
پێویستیم به‌ خۆبه‌خشێكه‌، باشتره‌ كه‌سێك بێت ده‌مووچاوی هه‌بێت.
04:30
So the best way to demonstrate how this technology works
78
270381
2800
(پێكه‌نین)
04:33
is to try a live demo,
79
273181
2136
كلۆی خۆبه‌خشه‌كه‌مان ده‌بێت.
04:35
so I need a volunteer, preferably somebody with a face.
80
275317
3913
له‌ ٥ ساڵی رابردوو، له‌ په‌یمانگای ماساچوسیت له‌ پرۆژه‌یه‌كی توێژینه‌وه‌وه‌ گۆراوین
04:39
(Laughter)
81
279230
2334
04:41
Cloe's going to be our volunteer today.
82
281564
2771
بۆ كۆمپانیایه‌ك،
تیمه‌كه‌م كاری زۆریان ئه‌نجامداوه‌ بۆ سه‌رخستنی ته‌كنه‌لۆژیاكه‌،
04:45
So over the past five years, we've moved from being a research project at MIT
83
285325
4458
وەک حەزدەکەین بڵێین، لە سروشتدا.
بچوكمان كردوه‌ته‌وه‌ تا كرۆكی مه‌كینه‌ی هه‌سته‌كه‌
04:49
to a company,
84
289783
1156
04:50
where my team has worked really hard to make this technology work,
85
290939
3192
له‌هه‌موو جۆره‌ مۆبایلێكدا كاربكات كه‌ .كامێرای هه‌بێت وه‌ك ئه‌م ئایپاده‌
04:54
as we like to say, in the wild.
86
294131
2409
با تاقی بكه‌ینه‌وه‌.
04:56
And we've also shrunk it so that the core emotion engine
87
296540
2670
وه‌ك ده‌یبینن، ریزبه‌ندییه‌كه‌ ده‌مووچاوی كلۆی دۆزییه‌وه‌،
04:59
works on any mobile device with a camera, like this iPad.
88
299210
3320
05:02
So let's give this a try.
89
302530
2786
ئه‌م بۆكسه‌ ده‌ور سپیه‌یه‌.
سه‌ره‌كیترین جیاكه‌ره‌وه‌كانی ده‌موچاوی كۆده‌كاته‌وه‌،
05:06
As you can see, the algorithm has essentially found Cloe's face,
90
306756
3924
برۆكانی، چاوه‌كانی، ده‌می و لووتی.
پرسیاره‌كه‌ ئه‌وه‌یه‌، ده‌توانێ ده‌ربڕینی روخساری بناسێته‌وه‌؟
05:10
so it's this white bounding box,
91
310680
1692
05:12
and it's tracking the main feature points on her face,
92
312372
2571
بۆیه‌ ئامێره‌كه‌ تاقی ده‌كه‌ینه‌وه‌.
05:14
so her eyebrows, her eyes, her mouth and her nose.
93
314943
2856
سه‌ره‌تا، با دەم و چاوە بێ دەربڕینەکەت . ببینین. دەی زۆرباشە.
05:17
The question is, can it recognize her expression?
94
317799
2987
دواتر كه‌ بزه‌ده‌كات، بزه‌یه‌كی راسته‌قینه‌یه‌، زۆر باشه‌.
05:20
So we're going to test the machine.
95
320786
1671
ببینن هێڵه‌ سه‌وزه‌كه‌ به‌رزده‌بێته‌وه‌ كه‌ بزه‌ ده‌كات
05:22
So first of all, give me your poker face. Yep, awesome. (Laughter)
96
322457
4186
ئه‌مه‌ بزه‌یه‌كی گه‌وره‌یه‌
ده‌توانی بزه‌یه‌كی كه‌م بكه‌ی بزانین كۆمپیوته‌ره‌كه‌ ده‌یدۆزێته‌وه‌؟
05:26
And then as she smiles, this is a genuine smile, it's great.
97
326643
2813
بزه‌ی زۆر كه‌میش ده‌دۆزێته‌وه‌.
05:29
So you can see the green bar go up as she smiles.
98
329456
2300
كاری سه‌ختمان كردووه‌ بۆ به‌دیهێنانی.
05:31
Now that was a big smile.
99
331756
1222
دواتر، به‌رزكردننه‌وه‌ی برۆ، نیشانه‌ی سه‌رسوڕمان.
05:32
Can you try a subtle smile to see if the computer can recognize?
100
332978
3043
هێنانه‌وه‌ی برۆ بۆیه‌كتر، نیشانه‌ی په‌شێوییه‌.
05:36
It does recognize subtle smiles as well.
101
336021
2331
05:38
We've worked really hard to make that happen.
102
338352
2125
مۆنی. به‌ڵێ ته‌واوه‌.
05:40
And then eyebrow raised, indicator of surprise.
103
340477
2962
05:43
Brow furrow, which is an indicator of confusion.
104
343439
4249
ئه‌مانه‌ هه‌موو یه‌كه‌ی كاری جیاوازن. زۆر زیاتریش هه‌ن.
ئه‌مه‌ ته‌نیا نمونه‌یه‌كی بچوككراوه‌یه‌.
05:47
Frown. Yes, perfect.
105
347688
4007
ئێمه‌ به‌هه‌ر خوێندنه‌وه‌یه‌كی هه‌سته‌كان ده‌ڵێین، خاڵێکی زانیاری.
05:51
So these are all the different action units. There's many more of them.
106
351695
3493
به‌یه‌كه‌وه‌ كارده‌كه‌ن و هه‌ستی جیاواز وێنا ده‌كه‌ن.
له‌لای راستی نمونه‌كه‌-- وادیاره‌ دڵخۆشی.
05:55
This is just a slimmed-down demo.
107
355188
2032
05:57
But we call each reading an emotion data point,
108
357220
3148
بۆیه‌ ئه‌مه‌ دڵخۆشییە.
06:00
and then they can fire together to portray different emotions.
109
360368
2969
ڕووخسارێکی قێزهاتنەوە بەرێ.
هەوڵبەن بیرتان بکەوێتەوە شتێکی چۆن بوو کە زەین وەن دایرێکشنی بەجێهێشت
06:03
So on the right side of the demo -- look like you're happy.
110
363337
4653
06:07
So that's joy. Joy fires up.
111
367990
1454
(پێكه‌نین)
به‌ڵێ، لوتت چرچ بكه‌. زۆر جوانه‌.
06:09
And then give me a disgust face.
112
369444
1927
06:11
Try to remember what it was like when Zayn left One Direction.
113
371371
4272
پێوه‌ره‌كه‌ زۆر نەرێنییە، بۆیە ئەبێ هەوادارێکی سەرسەخت بووبێتی.
06:15
(Laughter)
114
375643
1510
پێوەرەکە ئەوەیە ئەم ئەزموونە تا چەندێک ئەرێنی یان نەرێنییە، و
06:17
Yeah, wrinkle your nose. Awesome.
115
377153
4342
وه‌ په‌یوه‌ندییه‌كه‌ش ئه‌وه‌یه‌ تاچه‌ند ده‌ربڕه‌.
06:21
And the valence is actually quite negative, so you must have been a big fan.
116
381495
3731
بیهێننه‌ به‌رچاو گه‌ر كلۆی ده‌ستی گه‌یشتایه‌ به‌و زنجیره‌ هه‌ستانه‌
06:25
So valence is how positive or negative an experience is,
117
385226
2700
ده‌یتوانی له‌گه‌ڵ هه‌ركه‌سێك بیه‌وێت هاوبەشی بكات
06:27
and engagement is how expressive she is as well.
118
387926
2786
سوپاس.
06:30
So imagine if Cloe had access to this real-time emotion stream,
119
390712
3414
(چه‌پڵه‌)
06:34
and she could share it with anybody she wanted to.
120
394126
2809
06:36
Thank you.
121
396935
2923
تا ئێستا زیاتر له‌ ١٢ بلیۆن له‌و داتا پۆینتی هه‌ستانه‌مان كۆكردۆته‌وه‌
06:39
(Applause)
122
399858
4621
گه‌وره‌ترین داتابه‌یسی هه‌سته‌ له‌جیهاندا.
06:45
So, so far, we have amassed 12 billion of these emotion data points.
123
405749
5270
ئه‌مانه‌مان له‌ ٢.٩ ملیۆن ڤیدیۆی روخساره‌كان كۆكردۆته‌وه‌،
ئه‌و خه‌ڵكانه‌ی رازیبون هه‌ستیان له‌گه‌ڵمان شێر بكه‌ن
له‌ ٧٥ وڵاتی جیاوازی جیهانه‌وه‌
06:51
It's the largest emotion database in the world.
124
411019
2611
06:53
We've collected it from 2.9 million face videos,
125
413630
2963
رۆژبه‌رۆژ گه‌وره‌تر ده‌بێ.
06:56
people who have agreed to share their emotions with us,
126
416593
2600
مێشكم بڕوا ناكات
ئێستا ده‌توانین پێوانه‌ی شتێكی كه‌سی وه‌ك هه‌سته‌كان بكه‌ین
06:59
and from 75 countries around the world.
127
419193
3205
وه‌ ده‌توانین له‌سه‌ر ئه‌م پێوه‌ره‌ بیكه‌ین.
07:02
It's growing every day.
128
422398
1715
چی فێربووین تا ئێستا؟
07:04
It blows my mind away
129
424603
2067
07:06
that we can now quantify something as personal as our emotions,
130
426670
3195
ره‌گه‌ز.
داتاكانمان شتێكیان پشتڕاستكرۆده‌ته‌وه‌ ره‌نگه‌ پێشبینیتان كردبێ،
07:09
and we can do it at this scale.
131
429865
2235
07:12
So what have we learned to date?
132
432100
2177
ژنان هەست زیاتر دەردەبڕن له‌ پیاوان
ته‌نیا بزه‌ زیاتر ناكه‌ن، به‌ڵكو زیاتریش ده‌خایه‌نێ،
07:15
Gender.
133
435057
2331
07:17
Our data confirms something that you might suspect.
134
437388
3646
ده‌توانین ئێستا ئه‌وه‌ بژمێرین چ شتێكه‌ ژنان و پیاوان
وه‌ڵامی جیاوازیان بۆی هه‌یه‌.
07:21
Women are more expressive than men.
135
441034
1857
07:22
Not only do they smile more, their smiles last longer,
136
442891
2683
با باسی كه‌لتور بكه‌ین: له‌ ئه‌مریكا،
ژنان %٤٠ زیاتر هەست دەردەبڕن له‌ پیاوان،
07:25
and we can now really quantify what it is that men and women
137
445574
2904
به‌ڵام له‌به‌ریتانیا، هیچ جیاوازییه‌كمان نه‌بینینێ له‌نێوان ژنان و پیاواندا.
07:28
respond to differently.
138
448478
2136
07:30
Let's do culture: So in the United States,
139
450614
2290
(پێكه‌نین)
07:32
women are 40 percent more expressive than men,
140
452904
3204
ته‌مه‌ن: خه‌ڵكی ٥٠ ساڵ و سه‌روتر
07:36
but curiously, we don't see any difference in the U.K. between men and women.
141
456108
3645
٢٥% هەستیار ترن له‌گه‌نجه‌كان.
07:39
(Laughter)
142
459753
2506
07:43
Age: People who are 50 years and older
143
463296
4027
ژنان له‌ ته‌مه‌نی ٢٠ه‌كانیان زۆر به‌بزه‌ترن له‌پیاوانی هاوته‌مه‌نیان.
07:47
are 25 percent more emotive than younger people.
144
467323
3436
له‌وانه‌یه‌ پێویستی بێت بۆ ژوان.
07:51
Women in their 20s smile a lot more than men the same age,
145
471899
3852
ئه‌وه‌ی جێی سه‌رسوڕمانبوو بۆمان ده‌رباره‌ی ئه‌م داتایه‌
ئه‌وه‌ بوو كه‌ ئێمه‌ هه‌میشه‌ هه‌ستێك ده‌رده‌بڕین،
07:55
perhaps a necessity for dating.
146
475751
3839
ته‌نانه‌ت كاتێك به‌ته‌نیاین له‌به‌رده‌م ئامێره‌كانمان.
07:59
But perhaps what surprised us the most about this data
147
479590
2617
ته‌نیا ئه‌و كاتانه‌ نییه‌ كه‌ سه‌یری ڤیدیۆی فه‌یسبووك ده‌كه‌ین.
08:02
is that we happen to be expressive all the time,
148
482207
3203
كاتی ئیمه‌یل ناردن، نامه‌نوسین، بازاڕكردنی ئۆنلاین
08:05
even when we are sitting in front of our devices alone,
149
485410
2833
ته‌نانه‌ت كاتی باجدانیش.
08:08
and it's not just when we're watching cat videos on Facebook.
150
488243
3274
ئه‌و داتایه‌ له‌كوێ به‌كاردێت؟
له‌ تێگه‌یشتن بۆ چۆنیه‌تی مامه‌له‌مان له‌گه‌ڵ میدیا،
08:12
We are expressive when we're emailing, texting, shopping online,
151
492217
3010
تێگه‌یشتن له‌ خێرا بڵاوبونه‌وه‌ و خوی ده‌نگدان؛
08:15
or even doing our taxes.
152
495227
2300
هه‌روه‌ها به‌ده‌سه‌ڵاتكردنی یا هه‌ستكردنی ته‌كنه‌لۆژیا.
08:17
Where is this data used today?
153
497527
2392
08:19
In understanding how we engage with media,
154
499919
2763
ده‌مه‌وێ هه‌ندێ نمونه‌تان پشانده‌م كه‌ به‌راستی له‌دڵمه‌وه‌ نزیكن.
08:22
so understanding virality and voting behavior;
155
502682
2484
چاویلكه‌ی هه‌ستكه‌ر یارمه‌تی ده‌بێ بۆ ئه‌و تاكانه‌ی
08:25
and also empowering or emotion-enabling technology,
156
505166
2740
08:27
and I want to share some examples that are especially close to my heart.
157
507906
4621
كه‌ بیناییان له‌ده‌ستداوه‌، تا ده‌موچاوی ئه‌وانیتر بخوێننه‌وه‌،
یارمه‌تی نه‌خۆشانی ئۆتیزم ده‌دات هه‌سته‌كان لێكبده‌نه‌وه‌،
08:33
Emotion-enabled wearable glasses can help individuals
158
513197
3068
كه‌ شتێكه‌ به‌راستی گیرۆده‌ن پێوەی.
08:36
who are visually impaired read the faces of others,
159
516265
3228
08:39
and it can help individuals on the autism spectrum interpret emotion,
160
519493
4187
له‌ په‌روه‌رده‌دا، بیهێنه‌ به‌رچاوت ئەگه‌ر ئه‌پی فێربونه‌كه‌ت
هه‌ست به‌وه‌ بكات تۆ شێواوی و تاقه‌تت نه‌ماوه‌،
08:43
something that they really struggle with.
161
523680
2778
یاخود بێزاربووی، بۆیه‌ خۆی خێرا ده‌كات،
وه‌ك ئه‌وه‌ی مامۆستا باشه‌كان ده‌یكه‌ن له‌ناو پۆلدا.
08:47
In education, imagine if your learning apps
162
527918
2859
08:50
sense that you're confused and slow down,
163
530777
2810
چی ده‌بێ ئه‌گه‌ر سه‌عاتی ده‌ستت، مه‌زاجت بخوێنێته‌وه‌،
08:53
or that you're bored, so it's sped up,
164
533587
1857
یاخود ئۆتۆمبێله‌كه‌ت هه‌ستكا كه‌ تۆ بێتاقه‌تی،
08:55
just like a great teacher would in a classroom.
165
535444
2969
یاخود به‌فرگره‌كه‌ت بزانێ كه‌ تۆ سترێس هەیە،
وه‌ خۆی دابخات تا به‌دووربیت له‌زۆر خۆری.(پێكه‌نین)
08:59
What if your wristwatch tracked your mood,
166
539043
2601
09:01
or your car sensed that you're tired,
167
541644
2693
09:04
or perhaps your fridge knows that you're stressed,
168
544337
2548
ئەوەم بەدڵە، بەڵێ.
09:06
so it auto-locks to prevent you from binge eating. (Laughter)
169
546885
6066
چی ئەبوو، ئەگەر ئەوکاتەی لە کامبریدج بووم
دەستم بگەشتەیا بەم توانای گواستنەوەی هەستانە، و
بە شێوەیەکی زۆر سرووشتی نیشانی خێزانەکەم بایە لە ماڵەوە،
09:12
I would like that, yeah.
170
552951
2717
وه‌ك ئه‌وه‌ی هه‌موومان له‌هه‌مان ژوربین پێكه‌وه‌؟
09:15
What if, when I was in Cambridge,
171
555668
1927
09:17
I had access to my real-time emotion stream,
172
557595
2313
پێموایه‌ ٥ ساڵ دواتر،
09:19
and I could share that with my family back home in a very natural way,
173
559908
3529
هه‌موو ئامێره‌كانمان پارچه‌یه‌كی ده‌بێت بۆ هه‌ست.
09:23
just like I would've if we were all in the same room together?
174
563437
3971
بیرمان نابێت و خۆمان له‌مۆبایله‌كه‌ مۆن ده‌كه‌ین
09:27
I think five years down the line,
175
567408
3142
ئامێره‌كه‌ش ده‌ڵێ"همم، ئه‌مه‌ت به‌دڵ نییه‌، وایه‌؟"
09:30
all our devices are going to have an emotion chip,
176
570550
2337
09:32
and we won't remember what it was like when we couldn't just frown at our device
177
572887
4064
به‌ره‌نگارییه‌ گه‌وره‌كه‌مان ئه‌وه‌یه‌، ته‌كنه‌لۆژیاكه‌ به‌كارهێنانی زۆره‌،
09:36
and our device would say, "Hmm, you didn't like that, did you?"
178
576951
4249
من و تیمه‌كه‌م پێمانوایه‌ ده‌توانین هه‌موویان بكه‌ین،
ته‌كنه‌لۆژیاكه‌ ده‌خه‌ینه‌ به‌رده‌ست تا پەرەپێدەرەکانی تر
09:41
Our biggest challenge is that there are so many applications of this technology,
179
581200
3761
بتوانن بونیاتنه‌ر و دروستكه‌ربن.
09:44
my team and I realize that we can't build them all ourselves,
180
584961
2903
ده‌شزانین كه‌ هه‌ندێ مه‌ترسی شاراوه‌ هه‌یه‌
09:47
so we've made this technology available so that other developers
181
587864
3496
بۆ خراپ به‌كارهێنانی
09:51
can get building and get creative.
182
591360
2114
وه‌ك خۆم، چه‌ند ساڵم له‌مه‌دا سه‌رف كردووه‌،
09:53
We recognize that there are potential risks
183
593474
4086
باوه‌ڕم وایه‌ كه‌ سووده‌كانی بۆ مرۆڤایه‌تی
09:57
and potential for abuse,
184
597560
2067
له‌ هه‌بوونی ته‌كنه‌لۆژیایه‌كی خاوه‌ن هه‌ست
09:59
but personally, having spent many years doing this,
185
599627
2949
زۆر زیاتره‌ له‌زیانه‌ شاراوه‌كانی خراپ به‌كارهێنان.
10:02
I believe that the benefits to humanity
186
602576
2972
بانگێشتان ده‌كه‌م كه‌ ببنه‌ به‌شێك له‌و گفتوگۆیه‌
10:05
from having emotionally intelligent technology
187
605548
2275
تا خه‌ڵك زیاتر بزانێ له‌سه‌ر ئه‌م ته‌كنه‌لۆژیایه‌
10:07
far outweigh the potential for misuse.
188
607823
3576
بۆ ئەوەی هەموومان زیاتر دەستمان هەبێت لە باش بەکارهێنانیا.
10:11
And I invite you all to be part of the conversation.
189
611399
2531
له‌كاتێكدا ژیانمان زیاتر و زیاتر به‌ره‌و بەئەلیكترۆنیبوون ده‌روا،
10:13
The more people who know about this technology,
190
613930
2554
10:16
the more we can all have a voice in how it's being used.
191
616484
3177
شه‌ڕێكی دۆڕاو ده‌كه‌ین ئەگەر هەوڵبەین بۆ نه‌هێشتنی به‌كارهێنانی ئامێره‌كان
به‌مه‌به‌ستی گه‌راندنه‌وه‌ی هه‌سته‌كانمان
10:21
So as more and more of our lives become digital,
192
621081
4574
لەجیاتی ئەوە من هەوڵمداوە هەستەکان بگەڕێنمەوە ناو تەکنەلۆجیاکانمان و
10:25
we are fighting a losing battle trying to curb our usage of devices
193
625655
3498
وا له‌ ته‌كنه‌لۆژیاكانمان بكه‌ین وه‌ڵامده‌رتر بن.
10:29
in order to reclaim our emotions.
194
629153
2229
ده‌مه‌وێ ئه‌و ئامێرانه‌ی لێكیان دابڕیوین
10:32
So what I'm trying to do instead is to bring emotions into our technology
195
632622
3914
بمانگێڕنه‌وه‌ بۆ پێكه‌وه‌بوون.
به‌ بەمرۆڤایه‌تیكردنی ته‌كنه‌لۆژیا، ئه‌و هه‌له‌ زێڕینه‌مان هه‌یه‌
10:36
and make our technologies more responsive.
196
636536
2229
10:38
So I want those devices that have separated us
197
638765
2670
تا دووباره‌ وێنای بكه‌ینه‌وه‌ چۆن بە ئامێرەکانەوە پەیوەستین و
10:41
to bring us back together.
198
641435
2462
10:43
And by humanizing technology, we have this golden opportunity
199
643897
4588
له‌و ڕێگه‌یەشه‌وه‌، ئێمه‌ وه‌ك مرۆڤ
پەیوەندی بەیەکترەوە بکەین
10:48
to reimagine how we connect with machines,
200
648485
3297
سوپاس
10:51
and therefore, how we, as human beings,
201
651782
4481
(چه‌پڵه‌)
10:56
connect with one another.
202
656263
1904
10:58
Thank you.
203
658167
2160
11:00
(Applause)
204
660327
3313
About this website

This site will introduce you to YouTube videos that are useful for learning English. You will see English lessons taught by top-notch teachers from around the world. Double-click on the English subtitles displayed on each video page to play the video from there. The subtitles scroll in sync with the video playback. If you have any comments or requests, please contact us using this contact form.

https://forms.gle/WvT1wiN1qDtmnspy7