Rana el Kaliouby: This app knows how you feel — from the look on your face

137,190 views ・ 2015-06-15

TED


Please double-click on the English subtitles below to play the video.

Translator: Hiwa Foundation Reviewer: hiwa foundation
00:12
Our emotions influence every aspect of our lives,
0
12556
4017
هه‌سته‌كانمان كاریگه‌ری له‌سه‌ر هه‌موو بواره‌كانی ژیانمان هه‌یه‌،
00:16
from our health and how we learn, to how we do business and make decisions,
1
16573
3576
له‌ته‌ندروستی و شێوازی فێربونمانه‌وه‌، تا چۆنیه‌تی بازرگانیكردن و بڕیاردانیشمان،
00:20
big ones and small.
2
20149
1773
گه‌وره‌ تا بچوكی.
00:22
Our emotions also influence how we connect with one another.
3
22672
3490
هەستەكانمان كاریگەریش دەكەنە سەر چۆنیەتی مامەڵەكردنمان لەگەڵ یەكتری
00:27
We've evolved to live in a world like this,
4
27132
3976
پەرەمان سەندوە تا لە جیهانێكی وەهادا بژین
00:31
but instead, we're living more and more of our lives like this --
5
31108
4319
لەجیاتی ئەوە، زیاتر و زیاتر بەم شێوەیە دەژین
00:35
this is the text message from my daughter last night --
6
35427
3134
ئەمە نامەیەكە لە كچەكەمەوە شەوی ڕابردوو
00:38
in a world that's devoid of emotion.
7
38561
2740
لەجیهانێكدا كە دابراوە لە هەست
00:41
So I'm on a mission to change that.
8
41301
1951
من بە ئەرکێک هەستاوم ئەوە بگۆڕم.
00:43
I want to bring emotions back into our digital experiences.
9
43252
4091
دەمەوێ هەست بگێڕمەوە بۆ ناو ئەزموونە دیجیتاڵییەكانمان
00:48
I started on this path 15 years ago.
10
48223
3077
پانزە ساڵ لەمەوبەر ئەم رێگایەم دەستپێكرد
00:51
I was a computer scientist in Egypt,
11
51300
2066
زانای بواری كۆمپیوتەر بووم لە میسر
00:53
and I had just gotten accepted to a Ph.D. program at Cambridge University.
12
53366
4505
لە دكتۆرای كۆمپیوتەر وەرگیرام لە زانكۆی كامبریدج
00:57
So I did something quite unusual
13
57871
2113
شتێكی نائاسایم كرد
00:59
for a young newlywed Muslim Egyptian wife:
14
59984
4225
بۆ تازەبوكێكی گەنجی میسری موسوڵمان
01:05
With the support of my husband, who had to stay in Egypt,
15
65599
2999
بەهاوكاری هاوسەرەكەم كە دەبوایە له‌میسر بمێنێتەوە
01:08
I packed my bags and I moved to England.
16
68598
3018
جانتاكانم كۆكردەوە و چوومە بەریتانیا
01:11
At Cambridge, thousands of miles away from home,
17
71616
3228
لە كامبریدج، كە هەزاران میل لە ووڵاتی خۆمەوە دوورە
01:14
I realized I was spending more hours with my laptop
18
74844
3413
هەستمكرد كە كاتی زیاتر بەسەردەبەم لەسەر لاپتۆپ
01:18
than I did with any other human.
19
78257
2229
زیاتر لەوەی لەگەڵ هیچ مرۆڤێكی تر بەسەری دەبەم
01:20
Yet despite this intimacy, my laptop had absolutely no idea how I was feeling.
20
80486
4853
سەرباری ئەو دۆستایەتییە، لاپتۆپەكەم قه‌ت هەستی نەدەكرد ئاخۆ من هەستم چۆنە
01:25
It had no idea if I was happy,
21
85339
3211
هیچ نەیدەزانی ئەگەر دڵخۆش بم،
01:28
having a bad day, or stressed, confused,
22
88550
2988
ڕۆژێکی خراپم هەبێت، یان سترێسم هەبێت، سەرم لێشێوابێت و
01:31
and so that got frustrating.
23
91538
2922
ئەوەش کەمێک دڵەڕاوکێی دروستکرد.
01:35
Even worse, as I communicated online with my family back home,
24
95600
5231
لەوەش خراپتر، كاتێك قسەم لەگەڵ ماڵەوە دەكرد بە ئینتەرنێت
01:41
I felt that all my emotions disappeared in cyberspace.
25
101421
3282
هەستمدەكرد هەموو هەستەكان وندەبن لەناو تۆری ئینتەرنێت
01:44
I was homesick, I was lonely, and on some days I was actually crying,
26
104703
5155
غەریب بووم، تەنیابووم و هەندێ رۆژیش دەستمدەكرد بەگریان
01:49
but all I had to communicate these emotions was this.
27
109858
4928
به‌ڵام هه‌موو ئه‌وه‌ی كه‌ له‌ڕێگایه‌وه‌ ئه‌م هه‌ستانه‌م ده‌گه‌یاند ئه‌م شته‌ بوو.
01:54
(Laughter)
28
114786
2020
(پێكه‌نین)
01:56
Today's technology has lots of I.Q., but no E.Q.;
29
116806
4974
ته‌كنه‌لۆژیای سه‌رده‌م زیره‌كیه‌كی زۆری هه‌یه‌ به‌ڵام به‌بێ سۆز؛
02:01
lots of cognitive intelligence, but no emotional intelligence.
30
121780
3176
توانایه‌كی زۆری زیره‌كی و فێربوون به‌ڵام بێ زیره‌كی سۆزی.
02:04
So that got me thinking,
31
124956
2197
ئه‌مه‌ وایلێكردم بیربكه‌مه‌وه‌،
02:07
what if our technology could sense our emotions?
32
127153
3624
چی ده‌بێ ئه‌گه‌ر ته‌كنه‌لۆژیا هه‌ست به‌ سۆزه‌كانمان بكات؟
02:10
What if our devices could sense how we felt and reacted accordingly,
33
130777
4076
چی ده‌بێ كه‌ ئامێره‌كانمان بزانن هه‌ستمان چۆنه‌ و كاردانه‌وه‌یان به‌وپێیه‌ بێت.
02:14
just the way an emotionally intelligent friend would?
34
134853
3013
ڕێك به‌و شێوازه‌ی كه‌ هاورێییه‌كی هۆشمه‌ندی سۆزدارمان ده‌یكات؟
02:18
Those questions led me and my team
35
138666
3564
ئه‌م پرسیارانه‌ وای له‌ من و تیمه‌كه‌م كرد
02:22
to create technologies that can read and respond to our emotions,
36
142230
4377
ته‌كنه‌لۆژیای وا دروست بكه‌ین بتوانێ هه‌ستمان بخوێنێته‌وه‌ و وه‌ڵامی بۆ هه‌بێت،
02:26
and our starting point was the human face.
37
146607
3090
وه‌ ده‌سپێكی ئیشه‌كه‌شمان به‌ روخساری مرۆڤ بوو.
02:30
So our human face happens to be one of the most powerful channels
38
150577
3173
روخسارمان یه‌كێكه‌ له‌ به‌هێزترین ڕێگاكان
02:33
that we all use to communicate social and emotional states,
39
153750
4016
كه‌ هه‌موومان به‌كاریده‌هێنین بۆ گه‌یاندنی هەست و سۆزمان.
02:37
everything from enjoyment, surprise,
40
157766
3010
هه‌موو شتێك، له‌ چێژبردن، سه‌رسوڕمان،
02:40
empathy and curiosity.
41
160776
4203
هاوسۆزی بوون و حەسرەت گرتنیش.
02:44
In emotion science, we call each facial muscle movement an action unit.
42
164979
4928
له‌زانستی سۆزدا، جوڵه‌ی هه‌ر ماسولكه‌یه‌كی رووخسار یه‌كه‌یه‌كی كاره‌.
02:49
So for example, action unit 12,
43
169907
2925
بۆنمونه‌، یه‌كه‌ی كاری ١٢،
02:52
it's not a Hollywood blockbuster,
44
172832
2038
فیلمه‌ كاریگه‌رو پڕداهاته‌كانی هۆڵیود نیه‌
02:54
it is actually a lip corner pull, which is the main component of a smile.
45
174870
3442
له‌راستیدا گۆشه‌ی لێوه‌، كه‌ پێكهێنه‌ری سه‌ره‌كی بزه‌كردنه‌.
02:58
Try it everybody. Let's get some smiles going on.
46
178312
2988
هه‌مووتان تاقی بكه‌نه‌وه‌. باهه‌ندێ زه‌رده‌خه‌نه‌ بكه‌ین.
03:01
Another example is action unit 4. It's the brow furrow.
47
181300
2654
نمونه‌یه‌كی تر یه‌كه‌ی كاری ٤، درزی نێوان برۆكانه‌.
03:03
It's when you draw your eyebrows together
48
183954
2238
كاتێك هه‌ردوو برۆت بۆیه‌كتری ده‌هێنیته‌وه‌
03:06
and you create all these textures and wrinkles.
49
186192
2267
وه‌ هه‌موو ئه‌و لۆچیانه‌ درووست ده‌كه‌یت.
03:08
We don't like them, but it's a strong indicator of a negative emotion.
50
188459
4295
حه‌زمان پێیی نایه‌ت، به‌ڵام نیشانه‌یه‌كی به‌هێزی هه‌ستی نەرێنییە.
03:12
So we have about 45 of these action units,
51
192754
2206
نزیکەی ٤٥ یەکەی کارمان هەیە و
03:14
and they combine to express hundreds of emotions.
52
194960
3390
ئه‌م یه‌كانه‌ تێكه‌ڵ ده‌بن و سه‌دان هه‌ستی جیاواز ده‌رده‌بڕن.
03:18
Teaching a computer to read these facial emotions is hard,
53
198350
3901
فێركردنی كۆمپیوته‌ر بۆ خوێندنه‌وه‌ی ئه‌و هه‌ستانه‌ی ده‌مووچاو زۆر قورسه‌،
03:22
because these action units, they can be fast, they're subtle,
54
202251
2972
له‌به‌رئه‌وه‌ی ئه‌م یه‌كانه‌، ده‌توانن زۆر خێرابن، زۆر وردبن،
03:25
and they combine in many different ways.
55
205223
2554
به‌شێوازی زۆر جیاوازیش تێكه‌ڵاوبن.
03:27
So take, for example, the smile and the smirk.
56
207777
3738
بۆنمونه‌ با بزه‌كردن و زه‌رده‌خه‌نه‌ی فیز به‌ نمونه‌ وه‌ربگرین.
03:31
They look somewhat similar, but they mean very different things.
57
211515
3753
تۆزێ له‌یه‌ك ده‌چن، به‌ڵام مانایان یه‌كجار جیاوازه‌.
03:35
(Laughter)
58
215268
1718
(پێكه‌نین)
03:36
So the smile is positive,
59
216986
3004
بزه‌كردن ئەرێنییە،
03:39
a smirk is often negative.
60
219990
1270
زەردەخەنەی بەزۆر نەرێنییە.
03:41
Sometimes a smirk can make you become famous.
61
221260
3876
هه‌ندێجار ئه‌و زه‌رده‌خه‌نه‌یه‌ وات لێده‌كا به‌ناوبانگ بیت.
03:45
But seriously, it's important for a computer to be able
62
225136
2824
به‌ڵام هەر بەڕاست، زۆر گرنگه‌ بۆ كۆمپیوته‌ر كه‌ بتوانێ
03:47
to tell the difference between the two expressions.
63
227960
2855
جیاوازی بكا له‌نێوان ئه‌و دوو هه‌ستەدا.
03:50
So how do we do that?
64
230815
1812
کەواتە چۆن ئەوە بکەین؟
03:52
We give our algorithms
65
232627
1787
ئێمه‌ ڕیزبه‌ندییه‌كه‌مان دایه‌
03:54
tens of thousands of examples of people we know to be smiling,
66
234414
4110
ده‌یان هه‌زار نمونه‌ی زەردەخەنەی خه‌ڵكی ناسراو.
03:58
from different ethnicities, ages, genders,
67
238524
3065
له‌ نه‌ژاد، ته‌مه‌ن و ره‌گه‌زی جیاواز
04:01
and we do the same for smirks.
68
241589
2811
وه‌ هه‌مان شتیشمان كرد بۆ زه‌رده‌خه‌نه‌ی بەزۆریش کرد.
04:04
And then, using deep learning,
69
244400
1554
دواتر، فێربونی زۆرمان به‌كارهێنا
04:05
the algorithm looks for all these textures and wrinkles
70
245954
2856
ریزبه‌ندییه‌كه‌ ده‌گه‌ڕا بۆ هه‌موو پێكهاته‌ و لۆچیه‌كان
04:08
and shape changes on our face,
71
248810
2580
وه‌ هه‌موو شێواز گۆڕینه‌كان له‌سه‌ر ده‌مووچاومان،
04:11
and basically learns that all smiles have common characteristics,
72
251390
3202
فێربوو كه‌ هه‌موو بزه‌كان كۆمه‌ڵێ تایبەتمەندی هاوبه‌شیان هه‌یه‌،
04:14
all smirks have subtly different characteristics.
73
254592
3181
زەردەخەنە بەزۆرەکانیش چەند جیاوازییەکی کەمیان هەیە.
04:17
And the next time it sees a new face,
74
257773
2368
هه‌ركاتێك روخسارێكی تازه‌ی بینیبا
04:20
it essentially learns that
75
260141
2299
فێرده‌بوو كه‌
04:22
this face has the same characteristics of a smile,
76
262440
3033
ئه‌و روخساره‌ هه‌مان جیاكه‌ره‌وه‌ی بزه‌كردنی هه‌یه‌.
04:25
and it says, "Aha, I recognize this. This is a smile expression."
77
265473
4278
وه‌ ده‌یگووت "ئه‌ها، ئه‌وه‌ ده‌ناسمه‌وه‌. ئه‌مه‌ زەردەخەنەیە."
04:30
So the best way to demonstrate how this technology works
78
270381
2800
باشترین ڕێگا بۆ پشاندانی چۆنیه‌تی كاركردنی ته‌كنه‌لۆژیاكه‌
04:33
is to try a live demo,
79
273181
2136
تاقیكردنه‌وه‌ی نمونه‌یه‌كی راسته‌وخۆیه‌،
04:35
so I need a volunteer, preferably somebody with a face.
80
275317
3913
پێویستیم به‌ خۆبه‌خشێكه‌، باشتره‌ كه‌سێك بێت ده‌مووچاوی هه‌بێت.
04:39
(Laughter)
81
279230
2334
(پێكه‌نین)
04:41
Cloe's going to be our volunteer today.
82
281564
2771
كلۆی خۆبه‌خشه‌كه‌مان ده‌بێت.
04:45
So over the past five years, we've moved from being a research project at MIT
83
285325
4458
له‌ ٥ ساڵی رابردوو، له‌ په‌یمانگای ماساچوسیت له‌ پرۆژه‌یه‌كی توێژینه‌وه‌وه‌ گۆراوین
04:49
to a company,
84
289783
1156
بۆ كۆمپانیایه‌ك،
04:50
where my team has worked really hard to make this technology work,
85
290939
3192
تیمه‌كه‌م كاری زۆریان ئه‌نجامداوه‌ بۆ سه‌رخستنی ته‌كنه‌لۆژیاكه‌،
04:54
as we like to say, in the wild.
86
294131
2409
وەک حەزدەکەین بڵێین، لە سروشتدا.
04:56
And we've also shrunk it so that the core emotion engine
87
296540
2670
بچوكمان كردوه‌ته‌وه‌ تا كرۆكی مه‌كینه‌ی هه‌سته‌كه‌
04:59
works on any mobile device with a camera, like this iPad.
88
299210
3320
له‌هه‌موو جۆره‌ مۆبایلێكدا كاربكات كه‌ .كامێرای هه‌بێت وه‌ك ئه‌م ئایپاده‌
05:02
So let's give this a try.
89
302530
2786
با تاقی بكه‌ینه‌وه‌.
05:06
As you can see, the algorithm has essentially found Cloe's face,
90
306756
3924
وه‌ك ده‌یبینن، ریزبه‌ندییه‌كه‌ ده‌مووچاوی كلۆی دۆزییه‌وه‌،
05:10
so it's this white bounding box,
91
310680
1692
ئه‌م بۆكسه‌ ده‌ور سپیه‌یه‌.
05:12
and it's tracking the main feature points on her face,
92
312372
2571
سه‌ره‌كیترین جیاكه‌ره‌وه‌كانی ده‌موچاوی كۆده‌كاته‌وه‌،
05:14
so her eyebrows, her eyes, her mouth and her nose.
93
314943
2856
برۆكانی، چاوه‌كانی، ده‌می و لووتی.
05:17
The question is, can it recognize her expression?
94
317799
2987
پرسیاره‌كه‌ ئه‌وه‌یه‌، ده‌توانێ ده‌ربڕینی روخساری بناسێته‌وه‌؟
05:20
So we're going to test the machine.
95
320786
1671
بۆیه‌ ئامێره‌كه‌ تاقی ده‌كه‌ینه‌وه‌.
05:22
So first of all, give me your poker face. Yep, awesome. (Laughter)
96
322457
4186
سه‌ره‌تا، با دەم و چاوە بێ دەربڕینەکەت . ببینین. دەی زۆرباشە.
05:26
And then as she smiles, this is a genuine smile, it's great.
97
326643
2813
دواتر كه‌ بزه‌ده‌كات، بزه‌یه‌كی راسته‌قینه‌یه‌، زۆر باشه‌.
05:29
So you can see the green bar go up as she smiles.
98
329456
2300
ببینن هێڵه‌ سه‌وزه‌كه‌ به‌رزده‌بێته‌وه‌ كه‌ بزه‌ ده‌كات
05:31
Now that was a big smile.
99
331756
1222
ئه‌مه‌ بزه‌یه‌كی گه‌وره‌یه‌
05:32
Can you try a subtle smile to see if the computer can recognize?
100
332978
3043
ده‌توانی بزه‌یه‌كی كه‌م بكه‌ی بزانین كۆمپیوته‌ره‌كه‌ ده‌یدۆزێته‌وه‌؟
05:36
It does recognize subtle smiles as well.
101
336021
2331
بزه‌ی زۆر كه‌میش ده‌دۆزێته‌وه‌.
05:38
We've worked really hard to make that happen.
102
338352
2125
كاری سه‌ختمان كردووه‌ بۆ به‌دیهێنانی.
05:40
And then eyebrow raised, indicator of surprise.
103
340477
2962
دواتر، به‌رزكردننه‌وه‌ی برۆ، نیشانه‌ی سه‌رسوڕمان.
05:43
Brow furrow, which is an indicator of confusion.
104
343439
4249
هێنانه‌وه‌ی برۆ بۆیه‌كتر، نیشانه‌ی په‌شێوییه‌.
05:47
Frown. Yes, perfect.
105
347688
4007
مۆنی. به‌ڵێ ته‌واوه‌.
05:51
So these are all the different action units. There's many more of them.
106
351695
3493
ئه‌مانه‌ هه‌موو یه‌كه‌ی كاری جیاوازن. زۆر زیاتریش هه‌ن.
05:55
This is just a slimmed-down demo.
107
355188
2032
ئه‌مه‌ ته‌نیا نمونه‌یه‌كی بچوككراوه‌یه‌.
05:57
But we call each reading an emotion data point,
108
357220
3148
ئێمه‌ به‌هه‌ر خوێندنه‌وه‌یه‌كی هه‌سته‌كان ده‌ڵێین، خاڵێکی زانیاری.
06:00
and then they can fire together to portray different emotions.
109
360368
2969
به‌یه‌كه‌وه‌ كارده‌كه‌ن و هه‌ستی جیاواز وێنا ده‌كه‌ن.
06:03
So on the right side of the demo -- look like you're happy.
110
363337
4653
له‌لای راستی نمونه‌كه‌-- وادیاره‌ دڵخۆشی.
06:07
So that's joy. Joy fires up.
111
367990
1454
بۆیه‌ ئه‌مه‌ دڵخۆشییە.
06:09
And then give me a disgust face.
112
369444
1927
ڕووخسارێکی قێزهاتنەوە بەرێ.
06:11
Try to remember what it was like when Zayn left One Direction.
113
371371
4272
هەوڵبەن بیرتان بکەوێتەوە شتێکی چۆن بوو کە زەین وەن دایرێکشنی بەجێهێشت
06:15
(Laughter)
114
375643
1510
(پێكه‌نین)
06:17
Yeah, wrinkle your nose. Awesome.
115
377153
4342
به‌ڵێ، لوتت چرچ بكه‌. زۆر جوانه‌.
06:21
And the valence is actually quite negative, so you must have been a big fan.
116
381495
3731
پێوه‌ره‌كه‌ زۆر نەرێنییە، بۆیە ئەبێ هەوادارێکی سەرسەخت بووبێتی.
06:25
So valence is how positive or negative an experience is,
117
385226
2700
پێوەرەکە ئەوەیە ئەم ئەزموونە تا چەندێک ئەرێنی یان نەرێنییە، و
06:27
and engagement is how expressive she is as well.
118
387926
2786
وه‌ په‌یوه‌ندییه‌كه‌ش ئه‌وه‌یه‌ تاچه‌ند ده‌ربڕه‌.
06:30
So imagine if Cloe had access to this real-time emotion stream,
119
390712
3414
بیهێننه‌ به‌رچاو گه‌ر كلۆی ده‌ستی گه‌یشتایه‌ به‌و زنجیره‌ هه‌ستانه‌
06:34
and she could share it with anybody she wanted to.
120
394126
2809
ده‌یتوانی له‌گه‌ڵ هه‌ركه‌سێك بیه‌وێت هاوبەشی بكات
06:36
Thank you.
121
396935
2923
سوپاس.
06:39
(Applause)
122
399858
4621
(چه‌پڵه‌)
06:45
So, so far, we have amassed 12 billion of these emotion data points.
123
405749
5270
تا ئێستا زیاتر له‌ ١٢ بلیۆن له‌و داتا پۆینتی هه‌ستانه‌مان كۆكردۆته‌وه‌
06:51
It's the largest emotion database in the world.
124
411019
2611
گه‌وره‌ترین داتابه‌یسی هه‌سته‌ له‌جیهاندا.
06:53
We've collected it from 2.9 million face videos,
125
413630
2963
ئه‌مانه‌مان له‌ ٢.٩ ملیۆن ڤیدیۆی روخساره‌كان كۆكردۆته‌وه‌،
06:56
people who have agreed to share their emotions with us,
126
416593
2600
ئه‌و خه‌ڵكانه‌ی رازیبون هه‌ستیان له‌گه‌ڵمان شێر بكه‌ن
06:59
and from 75 countries around the world.
127
419193
3205
له‌ ٧٥ وڵاتی جیاوازی جیهانه‌وه‌
07:02
It's growing every day.
128
422398
1715
رۆژبه‌رۆژ گه‌وره‌تر ده‌بێ.
07:04
It blows my mind away
129
424603
2067
مێشكم بڕوا ناكات
07:06
that we can now quantify something as personal as our emotions,
130
426670
3195
ئێستا ده‌توانین پێوانه‌ی شتێكی كه‌سی وه‌ك هه‌سته‌كان بكه‌ین
07:09
and we can do it at this scale.
131
429865
2235
وه‌ ده‌توانین له‌سه‌ر ئه‌م پێوه‌ره‌ بیكه‌ین.
07:12
So what have we learned to date?
132
432100
2177
چی فێربووین تا ئێستا؟
07:15
Gender.
133
435057
2331
ره‌گه‌ز.
07:17
Our data confirms something that you might suspect.
134
437388
3646
داتاكانمان شتێكیان پشتڕاستكرۆده‌ته‌وه‌ ره‌نگه‌ پێشبینیتان كردبێ،
07:21
Women are more expressive than men.
135
441034
1857
ژنان هەست زیاتر دەردەبڕن له‌ پیاوان
07:22
Not only do they smile more, their smiles last longer,
136
442891
2683
ته‌نیا بزه‌ زیاتر ناكه‌ن، به‌ڵكو زیاتریش ده‌خایه‌نێ،
07:25
and we can now really quantify what it is that men and women
137
445574
2904
ده‌توانین ئێستا ئه‌وه‌ بژمێرین چ شتێكه‌ ژنان و پیاوان
07:28
respond to differently.
138
448478
2136
وه‌ڵامی جیاوازیان بۆی هه‌یه‌.
07:30
Let's do culture: So in the United States,
139
450614
2290
با باسی كه‌لتور بكه‌ین: له‌ ئه‌مریكا،
07:32
women are 40 percent more expressive than men,
140
452904
3204
ژنان %٤٠ زیاتر هەست دەردەبڕن له‌ پیاوان،
07:36
but curiously, we don't see any difference in the U.K. between men and women.
141
456108
3645
به‌ڵام له‌به‌ریتانیا، هیچ جیاوازییه‌كمان نه‌بینینێ له‌نێوان ژنان و پیاواندا.
07:39
(Laughter)
142
459753
2506
(پێكه‌نین)
07:43
Age: People who are 50 years and older
143
463296
4027
ته‌مه‌ن: خه‌ڵكی ٥٠ ساڵ و سه‌روتر
07:47
are 25 percent more emotive than younger people.
144
467323
3436
٢٥% هەستیار ترن له‌گه‌نجه‌كان.
07:51
Women in their 20s smile a lot more than men the same age,
145
471899
3852
ژنان له‌ ته‌مه‌نی ٢٠ه‌كانیان زۆر به‌بزه‌ترن له‌پیاوانی هاوته‌مه‌نیان.
07:55
perhaps a necessity for dating.
146
475751
3839
له‌وانه‌یه‌ پێویستی بێت بۆ ژوان.
07:59
But perhaps what surprised us the most about this data
147
479590
2617
ئه‌وه‌ی جێی سه‌رسوڕمانبوو بۆمان ده‌رباره‌ی ئه‌م داتایه‌
08:02
is that we happen to be expressive all the time,
148
482207
3203
ئه‌وه‌ بوو كه‌ ئێمه‌ هه‌میشه‌ هه‌ستێك ده‌رده‌بڕین،
08:05
even when we are sitting in front of our devices alone,
149
485410
2833
ته‌نانه‌ت كاتێك به‌ته‌نیاین له‌به‌رده‌م ئامێره‌كانمان.
08:08
and it's not just when we're watching cat videos on Facebook.
150
488243
3274
ته‌نیا ئه‌و كاتانه‌ نییه‌ كه‌ سه‌یری ڤیدیۆی فه‌یسبووك ده‌كه‌ین.
08:12
We are expressive when we're emailing, texting, shopping online,
151
492217
3010
كاتی ئیمه‌یل ناردن، نامه‌نوسین، بازاڕكردنی ئۆنلاین
08:15
or even doing our taxes.
152
495227
2300
ته‌نانه‌ت كاتی باجدانیش.
08:17
Where is this data used today?
153
497527
2392
ئه‌و داتایه‌ له‌كوێ به‌كاردێت؟
08:19
In understanding how we engage with media,
154
499919
2763
له‌ تێگه‌یشتن بۆ چۆنیه‌تی مامه‌له‌مان له‌گه‌ڵ میدیا،
08:22
so understanding virality and voting behavior;
155
502682
2484
تێگه‌یشتن له‌ خێرا بڵاوبونه‌وه‌ و خوی ده‌نگدان؛
08:25
and also empowering or emotion-enabling technology,
156
505166
2740
هه‌روه‌ها به‌ده‌سه‌ڵاتكردنی یا هه‌ستكردنی ته‌كنه‌لۆژیا.
08:27
and I want to share some examples that are especially close to my heart.
157
507906
4621
ده‌مه‌وێ هه‌ندێ نمونه‌تان پشانده‌م كه‌ به‌راستی له‌دڵمه‌وه‌ نزیكن.
08:33
Emotion-enabled wearable glasses can help individuals
158
513197
3068
چاویلكه‌ی هه‌ستكه‌ر یارمه‌تی ده‌بێ بۆ ئه‌و تاكانه‌ی
08:36
who are visually impaired read the faces of others,
159
516265
3228
كه‌ بیناییان له‌ده‌ستداوه‌، تا ده‌موچاوی ئه‌وانیتر بخوێننه‌وه‌،
08:39
and it can help individuals on the autism spectrum interpret emotion,
160
519493
4187
یارمه‌تی نه‌خۆشانی ئۆتیزم ده‌دات هه‌سته‌كان لێكبده‌نه‌وه‌،
08:43
something that they really struggle with.
161
523680
2778
كه‌ شتێكه‌ به‌راستی گیرۆده‌ن پێوەی.
08:47
In education, imagine if your learning apps
162
527918
2859
له‌ په‌روه‌رده‌دا، بیهێنه‌ به‌رچاوت ئەگه‌ر ئه‌پی فێربونه‌كه‌ت
08:50
sense that you're confused and slow down,
163
530777
2810
هه‌ست به‌وه‌ بكات تۆ شێواوی و تاقه‌تت نه‌ماوه‌،
08:53
or that you're bored, so it's sped up,
164
533587
1857
یاخود بێزاربووی، بۆیه‌ خۆی خێرا ده‌كات،
08:55
just like a great teacher would in a classroom.
165
535444
2969
وه‌ك ئه‌وه‌ی مامۆستا باشه‌كان ده‌یكه‌ن له‌ناو پۆلدا.
08:59
What if your wristwatch tracked your mood,
166
539043
2601
چی ده‌بێ ئه‌گه‌ر سه‌عاتی ده‌ستت، مه‌زاجت بخوێنێته‌وه‌،
09:01
or your car sensed that you're tired,
167
541644
2693
یاخود ئۆتۆمبێله‌كه‌ت هه‌ستكا كه‌ تۆ بێتاقه‌تی،
09:04
or perhaps your fridge knows that you're stressed,
168
544337
2548
یاخود به‌فرگره‌كه‌ت بزانێ كه‌ تۆ سترێس هەیە،
09:06
so it auto-locks to prevent you from binge eating. (Laughter)
169
546885
6066
وه‌ خۆی دابخات تا به‌دووربیت له‌زۆر خۆری.(پێكه‌نین)
09:12
I would like that, yeah.
170
552951
2717
ئەوەم بەدڵە، بەڵێ.
09:15
What if, when I was in Cambridge,
171
555668
1927
چی ئەبوو، ئەگەر ئەوکاتەی لە کامبریدج بووم
09:17
I had access to my real-time emotion stream,
172
557595
2313
دەستم بگەشتەیا بەم توانای گواستنەوەی هەستانە، و
09:19
and I could share that with my family back home in a very natural way,
173
559908
3529
بە شێوەیەکی زۆر سرووشتی نیشانی خێزانەکەم بایە لە ماڵەوە،
09:23
just like I would've if we were all in the same room together?
174
563437
3971
وه‌ك ئه‌وه‌ی هه‌موومان له‌هه‌مان ژوربین پێكه‌وه‌؟
09:27
I think five years down the line,
175
567408
3142
پێموایه‌ ٥ ساڵ دواتر،
09:30
all our devices are going to have an emotion chip,
176
570550
2337
هه‌موو ئامێره‌كانمان پارچه‌یه‌كی ده‌بێت بۆ هه‌ست.
09:32
and we won't remember what it was like when we couldn't just frown at our device
177
572887
4064
بیرمان نابێت و خۆمان له‌مۆبایله‌كه‌ مۆن ده‌كه‌ین
09:36
and our device would say, "Hmm, you didn't like that, did you?"
178
576951
4249
ئامێره‌كه‌ش ده‌ڵێ"همم، ئه‌مه‌ت به‌دڵ نییه‌، وایه‌؟"
09:41
Our biggest challenge is that there are so many applications of this technology,
179
581200
3761
به‌ره‌نگارییه‌ گه‌وره‌كه‌مان ئه‌وه‌یه‌، ته‌كنه‌لۆژیاكه‌ به‌كارهێنانی زۆره‌،
09:44
my team and I realize that we can't build them all ourselves,
180
584961
2903
من و تیمه‌كه‌م پێمانوایه‌ ده‌توانین هه‌موویان بكه‌ین،
09:47
so we've made this technology available so that other developers
181
587864
3496
ته‌كنه‌لۆژیاكه‌ ده‌خه‌ینه‌ به‌رده‌ست تا پەرەپێدەرەکانی تر
09:51
can get building and get creative.
182
591360
2114
بتوانن بونیاتنه‌ر و دروستكه‌ربن.
09:53
We recognize that there are potential risks
183
593474
4086
ده‌شزانین كه‌ هه‌ندێ مه‌ترسی شاراوه‌ هه‌یه‌
09:57
and potential for abuse,
184
597560
2067
بۆ خراپ به‌كارهێنانی
09:59
but personally, having spent many years doing this,
185
599627
2949
وه‌ك خۆم، چه‌ند ساڵم له‌مه‌دا سه‌رف كردووه‌،
10:02
I believe that the benefits to humanity
186
602576
2972
باوه‌ڕم وایه‌ كه‌ سووده‌كانی بۆ مرۆڤایه‌تی
10:05
from having emotionally intelligent technology
187
605548
2275
له‌ هه‌بوونی ته‌كنه‌لۆژیایه‌كی خاوه‌ن هه‌ست
10:07
far outweigh the potential for misuse.
188
607823
3576
زۆر زیاتره‌ له‌زیانه‌ شاراوه‌كانی خراپ به‌كارهێنان.
10:11
And I invite you all to be part of the conversation.
189
611399
2531
بانگێشتان ده‌كه‌م كه‌ ببنه‌ به‌شێك له‌و گفتوگۆیه‌
10:13
The more people who know about this technology,
190
613930
2554
تا خه‌ڵك زیاتر بزانێ له‌سه‌ر ئه‌م ته‌كنه‌لۆژیایه‌
10:16
the more we can all have a voice in how it's being used.
191
616484
3177
بۆ ئەوەی هەموومان زیاتر دەستمان هەبێت لە باش بەکارهێنانیا.
10:21
So as more and more of our lives become digital,
192
621081
4574
له‌كاتێكدا ژیانمان زیاتر و زیاتر به‌ره‌و بەئەلیكترۆنیبوون ده‌روا،
10:25
we are fighting a losing battle trying to curb our usage of devices
193
625655
3498
شه‌ڕێكی دۆڕاو ده‌كه‌ین ئەگەر هەوڵبەین بۆ نه‌هێشتنی به‌كارهێنانی ئامێره‌كان
10:29
in order to reclaim our emotions.
194
629153
2229
به‌مه‌به‌ستی گه‌راندنه‌وه‌ی هه‌سته‌كانمان
10:32
So what I'm trying to do instead is to bring emotions into our technology
195
632622
3914
لەجیاتی ئەوە من هەوڵمداوە هەستەکان بگەڕێنمەوە ناو تەکنەلۆجیاکانمان و
10:36
and make our technologies more responsive.
196
636536
2229
وا له‌ ته‌كنه‌لۆژیاكانمان بكه‌ین وه‌ڵامده‌رتر بن.
10:38
So I want those devices that have separated us
197
638765
2670
ده‌مه‌وێ ئه‌و ئامێرانه‌ی لێكیان دابڕیوین
10:41
to bring us back together.
198
641435
2462
بمانگێڕنه‌وه‌ بۆ پێكه‌وه‌بوون.
10:43
And by humanizing technology, we have this golden opportunity
199
643897
4588
به‌ بەمرۆڤایه‌تیكردنی ته‌كنه‌لۆژیا، ئه‌و هه‌له‌ زێڕینه‌مان هه‌یه‌
10:48
to reimagine how we connect with machines,
200
648485
3297
تا دووباره‌ وێنای بكه‌ینه‌وه‌ چۆن بە ئامێرەکانەوە پەیوەستین و
10:51
and therefore, how we, as human beings,
201
651782
4481
له‌و ڕێگه‌یەشه‌وه‌، ئێمه‌ وه‌ك مرۆڤ
10:56
connect with one another.
202
656263
1904
پەیوەندی بەیەکترەوە بکەین
10:58
Thank you.
203
658167
2160
سوپاس
11:00
(Applause)
204
660327
3313
(چه‌پڵه‌)
About this website

This site will introduce you to YouTube videos that are useful for learning English. You will see English lessons taught by top-notch teachers from around the world. Double-click on the English subtitles displayed on each video page to play the video from there. The subtitles scroll in sync with the video playback. If you have any comments or requests, please contact us using this contact form.

https://forms.gle/WvT1wiN1qDtmnspy7