Rana el Kaliouby: This app knows how you feel — from the look on your face

137,190 views ・ 2015-06-15

TED


Vă rugăm să faceți dublu clic pe subtitrările în limba engleză de mai jos pentru a reda videoclipul.

Traducător: Matei Sterian Corector: MC M
00:12
Our emotions influence every aspect of our lives,
0
12556
4017
Emoțiile influențează fiecare aspect al vieții noastre,
00:16
from our health and how we learn, to how we do business and make decisions,
1
16573
3576
de la sănătate și învățătură, la cum facem afaceri și cum luăm decizii,
00:20
big ones and small.
2
20149
1773
mari sau mici.
00:22
Our emotions also influence how we connect with one another.
3
22672
3490
Emoțiile influențează modul în care relaționăm unii cu ceilalți.
00:27
We've evolved to live in a world like this,
4
27132
3976
Am evoluat pentru a trăi într-o lume ca aceasta.
Dar în loc viețile noastre arată tot mai mult așa
00:31
but instead, we're living more and more of our lives like this --
5
31108
4319
00:35
this is the text message from my daughter last night --
6
35427
3134
– e un mesaj primit de la fiica mea aseară –
00:38
in a world that's devoid of emotion.
7
38561
2740
o lume lipsită de emoții.
00:41
So I'm on a mission to change that.
8
41301
1951
Misiunea mea e să schimb asta.
00:43
I want to bring emotions back into our digital experiences.
9
43252
4091
Vreau să aduc emoțiile înapoi în lumea digitală.
00:48
I started on this path 15 years ago.
10
48223
3077
Am început acest drum acum 15 ani.
Lucram în informatică, în Egipt,
00:51
I was a computer scientist in Egypt,
11
51300
2066
00:53
and I had just gotten accepted to a Ph.D. program at Cambridge University.
12
53366
4505
și tocmai fusesem acceptată la un doctorat la Universitatea Cambridge.
00:57
So I did something quite unusual
13
57871
2113
Așa că am făcut ceva neobișnuit
00:59
for a young newlywed Muslim Egyptian wife:
14
59984
4225
pentru o proaspăt căsătorită tânără musulmană din Egipt:
(Râsete)
01:05
With the support of my husband, who had to stay in Egypt,
15
65599
2999
cu ajutorul soțului meu, care a trebuit să rămână în Egipt,
01:08
I packed my bags and I moved to England.
16
68598
3018
mi-am făcut bagajele și m-am mutat în Anglia.
01:11
At Cambridge, thousands of miles away from home,
17
71616
3228
La Cambridge, mii de kilometri departe de casă,
01:14
I realized I was spending more hours with my laptop
18
74844
3413
am observat că petrec mai multe ore cu laptopul meu
decât cu alți oameni.
01:18
than I did with any other human.
19
78257
2229
01:20
Yet despite this intimacy, my laptop had absolutely no idea how I was feeling.
20
80486
4853
Dar în ciuda acestei intimități, laptopul n-avea idee cum mă simt.
01:25
It had no idea if I was happy,
21
85339
3211
Nu știa dacă sunt fericită,
01:28
having a bad day, or stressed, confused,
22
88550
2988
dacă am o zi proastă, dacă sunt stresată sau dezorientată,
01:31
and so that got frustrating.
23
91538
2922
iar asta era enervant.
01:35
Even worse, as I communicated online with my family back home,
24
95600
5231
Mai rău, când comunicam pe internet cu familia mea rămasă acasă
01:41
I felt that all my emotions disappeared in cyberspace.
25
101421
3282
simțeam că toate emoțiile mele dispar în spațiul virtual.
01:44
I was homesick, I was lonely, and on some days I was actually crying,
26
104703
5155
Îmi era dor de casă, mă simțeam singură și în unele zile chiar plângeam,
01:49
but all I had to communicate these emotions was this.
27
109858
4928
dar tot ce puteam folosi pentru a-mi comunica emoțiile era... asta.
01:54
(Laughter)
28
114786
2020
(Râsete)
01:56
Today's technology has lots of I.Q., but no E.Q.;
29
116806
4974
Tehnologia de azi e foarte inteligentă, dar nu și emoțională;
02:01
lots of cognitive intelligence, but no emotional intelligence.
30
121780
3176
multă inteligență cognitivă, dar nu și inteligență emoțională.
02:04
So that got me thinking,
31
124956
2197
Asta m-a pus pe gânduri:
02:07
what if our technology could sense our emotions?
32
127153
3624
ce-ar fi dacă tehnologia ne-ar putea simți emoțiile?
02:10
What if our devices could sense how we felt and reacted accordingly,
33
130777
4076
Ce-ar fi dacă dispozitivele ar ști ce simțim și ar reacționa în concordanță,
02:14
just the way an emotionally intelligent friend would?
34
134853
3013
la fel ca un prieten cu inteligență emoțională?
02:18
Those questions led me and my team
35
138666
3564
Aceste întrebări ne-au impulsionat pe mine și echipa mea
02:22
to create technologies that can read and respond to our emotions,
36
142230
4377
să creăm tehnologii care să citească și să răspundă la emoțiile noastre.
02:26
and our starting point was the human face.
37
146607
3090
Iar punctul nostru de start a fost chipul uman.
02:30
So our human face happens to be one of the most powerful channels
38
150577
3173
Chipul nostru e cel mai bun canal
02:33
that we all use to communicate social and emotional states,
39
153750
4016
cu care transmitem stări sociale și emoționale,
02:37
everything from enjoyment, surprise,
40
157766
3010
totul: bucurie, surpriză,
02:40
empathy and curiosity.
41
160776
4203
empatie și curiozitate.
02:44
In emotion science, we call each facial muscle movement an action unit.
42
164979
4928
În știința emoțiilor, fiecare mișcare a mușchilor feței e o unitate de acțiune.
02:49
So for example, action unit 12,
43
169907
2925
De exemplu, unitatea de acțiune 12
02:52
it's not a Hollywood blockbuster,
44
172832
2038
– nu garantează succesul la Hollywood –
02:54
it is actually a lip corner pull, which is the main component of a smile.
45
174870
3442
e o ridicare a colțului buzei, componenta principală a zâmbetului.
Încercați. Hai să vedem niște zâmbete.
02:58
Try it everybody. Let's get some smiles going on.
46
178312
2988
Un alt exemplu e unitatea 4: ridurile frunții.
03:01
Another example is action unit 4. It's the brow furrow.
47
181300
2654
03:03
It's when you draw your eyebrows together
48
183954
2238
E atunci când îți apropii sprâncenele și creezi textura aceea ridată.
03:06
and you create all these textures and wrinkles.
49
186192
2267
Nu ne place, dar este un indicator puternic a unei emoții negative.
03:08
We don't like them, but it's a strong indicator of a negative emotion.
50
188459
4295
Avem vreo 45 de astfel de unități,
03:12
So we have about 45 of these action units,
51
192754
2206
03:14
and they combine to express hundreds of emotions.
52
194960
3390
care se combină pentru a exprima sute de emoții.
03:18
Teaching a computer to read these facial emotions is hard,
53
198350
3901
E greu să înveți un calculator să recunoască emoțiile,
03:22
because these action units, they can be fast, they're subtle,
54
202251
2972
deoarece aceste unități pot fi rapide, subtile,
03:25
and they combine in many different ways.
55
205223
2554
și se combină în multe moduri.
03:27
So take, for example, the smile and the smirk.
56
207777
3738
Spre exemplu, zâmbetul și strâmbătura.
03:31
They look somewhat similar, but they mean very different things.
57
211515
3753
Seamănă cumva, dar reprezintă lucruri foarte diferite.
03:35
(Laughter)
58
215268
1718
(Râsete)
03:36
So the smile is positive,
59
216986
3004
Zâmbetul e pozitiv,
03:39
a smirk is often negative.
60
219990
1270
strâmbătura e adesea negativă.
Uneori strâmbătura te poate face celebru.
03:41
Sometimes a smirk can make you become famous.
61
221260
3876
03:45
But seriously, it's important for a computer to be able
62
225136
2824
Dar e important pentru un calculator să poată face diferența între cele două.
03:47
to tell the difference between the two expressions.
63
227960
2855
03:50
So how do we do that?
64
230815
1812
Cum facem asta?
03:52
We give our algorithms
65
232627
1787
Oferim algoritmilor noștri
03:54
tens of thousands of examples of people we know to be smiling,
66
234414
4110
zeci de mii de exemple de oameni despre care știm că zâmbesc,
03:58
from different ethnicities, ages, genders,
67
238524
3065
din diferite etnii, vârste, sexe,
04:01
and we do the same for smirks.
68
241589
2811
și la fel pentru strâmbături.
04:04
And then, using deep learning,
69
244400
1554
Apoi, folosind învățarea profundă,
04:05
the algorithm looks for all these textures and wrinkles
70
245954
2856
algoritmul caută aceste texturi și riduri
04:08
and shape changes on our face,
71
248810
2580
și schimbările de formă de pe fața noastră,
04:11
and basically learns that all smiles have common characteristics,
72
251390
3202
învățând astfel că toate zâmbetele au caracteristici comune
04:14
all smirks have subtly different characteristics.
73
254592
3181
și că strâmbăturile au caracteristici ușor diferite.
04:17
And the next time it sees a new face,
74
257773
2368
Iar data următoare când vede o față
04:20
it essentially learns that
75
260141
2299
învață că
04:22
this face has the same characteristics of a smile,
76
262440
3033
această față are aceleași caracteristici ale unui zâmbet
04:25
and it says, "Aha, I recognize this. This is a smile expression."
77
265473
4278
și spune: „Aha, recunosc asta, e expresia unui zâmbet.”
04:30
So the best way to demonstrate how this technology works
78
270381
2800
Cel mai bun mod de a ilustra tehnologia e să încercăm o demonstrație în direct.
04:33
is to try a live demo,
79
273181
2136
04:35
so I need a volunteer, preferably somebody with a face.
80
275317
3913
Am nevoie de un voluntar, preferabil cineva cu o față.
04:39
(Laughter)
81
279230
2334
(Râsete)
04:41
Cloe's going to be our volunteer today.
82
281564
2771
Cloe va fi voluntarul nostru azi.
04:45
So over the past five years, we've moved from being a research project at MIT
83
285325
4458
În ultimii cinci ani, dintr-un proiect de cercetare la MIT am devenit o firmă,
04:49
to a company,
84
289783
1156
04:50
where my team has worked really hard to make this technology work,
85
290939
3192
unde echipa mea s-a străduit să facă tehnologia să meargă,
04:54
as we like to say, in the wild.
86
294131
2409
cum spunem noi, în „sălbăticie”.
04:56
And we've also shrunk it so that the core emotion engine
87
296540
2670
În plus am comprimat-o încât nucleul ei să meargă pe orice dispozitiv cu o cameră,
04:59
works on any mobile device with a camera, like this iPad.
88
299210
3320
ca acest iPad.
05:02
So let's give this a try.
89
302530
2786
Hai să încercăm.
05:06
As you can see, the algorithm has essentially found Cloe's face,
90
306756
3924
După cum puteți vedea, algoritmul a găsit fața lui Cloe,
05:10
so it's this white bounding box,
91
310680
1692
acest dreptunghi alb,
05:12
and it's tracking the main feature points on her face,
92
312372
2571
și urmărește punctele reprezentative ale feței:
05:14
so her eyebrows, her eyes, her mouth and her nose.
93
314943
2856
sprâncenele, ochii, gura și nasul.
05:17
The question is, can it recognize her expression?
94
317799
2987
Întrebarea este: îi poate recunoaște expresia?
05:20
So we're going to test the machine.
95
320786
1671
Hai să testăm mașina.
Mai întâi arată-mi o față neutră.
05:22
So first of all, give me your poker face. Yep, awesome. (Laughter)
96
322457
4186
Da, super.
(Râsete)
05:26
And then as she smiles, this is a genuine smile, it's great.
97
326643
2813
Pe măsură ce zâmbește – un zâmbet autentic, super –
05:29
So you can see the green bar go up as she smiles.
98
329456
2300
vedeți cum crește bara verde.
05:31
Now that was a big smile.
99
331756
1222
A fost un zâmbet mare, poți încerca unul subtil
05:32
Can you try a subtle smile to see if the computer can recognize?
100
332978
3043
să vedem dacă îl recunoaște?
05:36
It does recognize subtle smiles as well.
101
336021
2331
Recunoaște și zâmbete subtile, ne-am străduit mult să iasă asta.
05:38
We've worked really hard to make that happen.
102
338352
2125
Și acum sprâncenele ridicate, indicatorul surprizei.
05:40
And then eyebrow raised, indicator of surprise.
103
340477
2962
05:43
Brow furrow, which is an indicator of confusion.
104
343439
4249
Acum riduri pe frunte, indicatorul confuziei.
05:47
Frown. Yes, perfect.
105
347688
4007
Încruntă-te.
Da, perfect.
05:51
So these are all the different action units. There's many more of them.
106
351695
3493
Ați văzut diferite unități de acțiune, mai sunt multe,
acesta e doar un demo redus.
05:55
This is just a slimmed-down demo.
107
355188
2032
Fiecare citire o numim „valoare măsurată a emoției”;
05:57
But we call each reading an emotion data point,
108
357220
3148
06:00
and then they can fire together to portray different emotions.
109
360368
2969
ele pot acționa împreună, creând diferite emoții.
06:03
So on the right side of the demo -- look like you're happy.
110
363337
4653
Pe dreapta...
Mimează fericirea.
06:07
So that's joy. Joy fires up.
111
367990
1454
Asta e bucuria, se aprinde.
06:09
And then give me a disgust face.
112
369444
1927
Acum arată-mi o față dezgustată.
06:11
Try to remember what it was like when Zayn left One Direction.
113
371371
4272
Gândește-te cum a fost când a plecat Zayn de la One Direction.
06:15
(Laughter)
114
375643
1510
(Râsete)
06:17
Yeah, wrinkle your nose. Awesome.
115
377153
4342
Da, încrețește-ți nasul. Super.
06:21
And the valence is actually quite negative, so you must have been a big fan.
116
381495
3731
Valența e destul de negativă, deci probabil i-ai fost mare fan.
Valența arată cât de pozitivă sau negativă e o experiență,
06:25
So valence is how positive or negative an experience is,
117
385226
2700
06:27
and engagement is how expressive she is as well.
118
387926
2786
iar angajamentul arată cât e de expresivă.
06:30
So imagine if Cloe had access to this real-time emotion stream,
119
390712
3414
Imaginați-vă că Cloe ar avea acces în timp real la fluxul de emoții
06:34
and she could share it with anybody she wanted to.
120
394126
2809
și că ar putea trimite emoții oricui.
06:36
Thank you.
121
396935
2923
Mulțumesc.
(Aplauze)
06:39
(Applause)
122
399858
4621
06:45
So, so far, we have amassed 12 billion of these emotion data points.
123
405749
5270
Până acum am strâns 12 miliarde de valori măsurate ale emoției;
e cea mai mare bază de date de emoții din lume.
06:51
It's the largest emotion database in the world.
124
411019
2611
06:53
We've collected it from 2.9 million face videos,
125
413630
2963
Am colectat-o din 2,9 milioane de videoclipuri cu fețe,
06:56
people who have agreed to share their emotions with us,
126
416593
2600
oameni care au fost de acord să ne transmită emoțiile,
06:59
and from 75 countries around the world.
127
419193
3205
din 75 de țări din toată lumea.
07:02
It's growing every day.
128
422398
1715
Și crește în fiecare zi.
07:04
It blows my mind away
129
424603
2067
Sunt uimită că am reușit să cuantificăm ceva atât de personal cum sunt emoțiile,
07:06
that we can now quantify something as personal as our emotions,
130
426670
3195
07:09
and we can do it at this scale.
131
429865
2235
la o scară atât de mare.
07:12
So what have we learned to date?
132
432100
2177
Ce am învățat până acum?
07:15
Gender.
133
435057
2331
Sexul.
07:17
Our data confirms something that you might suspect.
134
437388
3646
Datele noastre confirmă ceva ce ați putea bănui:
femeile sunt mai expresive decât bărbații:
07:21
Women are more expressive than men.
135
441034
1857
07:22
Not only do they smile more, their smiles last longer,
136
442891
2683
zâmbetele lor sunt mai intense și durează mai mult,
07:25
and we can now really quantify what it is that men and women
137
445574
2904
iar acum putem cuantifica la ce anume reacționează diferit bărbații și femeile.
07:28
respond to differently.
138
448478
2136
07:30
Let's do culture: So in the United States,
139
450614
2290
Să vorbim puțin de cultură: în SUA
07:32
women are 40 percent more expressive than men,
140
452904
3204
femeile sunt cu 40% mai expresive decât bărbații,
dar, surprinzător, diferența asta nu există în Regatul Unit.
07:36
but curiously, we don't see any difference in the U.K. between men and women.
141
456108
3645
07:39
(Laughter)
142
459753
2506
(Râsete)
07:43
Age: People who are 50 years and older
143
463296
4027
Vârstă: oamenii peste 50 de ani
07:47
are 25 percent more emotive than younger people.
144
467323
3436
sunt cu 25% mai emotivi decât cei mai tineri.
07:51
Women in their 20s smile a lot more than men the same age,
145
471899
3852
La 20–30 de ani femeile zâmbesc mult mai mult decât bărbații,
07:55
perhaps a necessity for dating.
146
475751
3839
poate din nevoia de a-și găsi pe cineva.
07:59
But perhaps what surprised us the most about this data
147
479590
2617
Dar ce ne-a surprins cel mai mult în aceste date
08:02
is that we happen to be expressive all the time,
148
482207
3203
e faptul că suntem expresivi mereu,
08:05
even when we are sitting in front of our devices alone,
149
485410
2833
chiar și când stăm singuri în fața dispozitivelor
08:08
and it's not just when we're watching cat videos on Facebook.
150
488243
3274
și nu doar când ne uităm la filmulețe cu pisici pe Facebook.
08:12
We are expressive when we're emailing, texting, shopping online,
151
492217
3010
Suntem expresivi când scriem mesaje, când cumpărăm online,
08:15
or even doing our taxes.
152
495227
2300
chiar și când ne plătim impozitele.
08:17
Where is this data used today?
153
497527
2392
La ce sunt folosite azi aceste date?
08:19
In understanding how we engage with media,
154
499919
2763
La a înțelege cum interacționăm cu media,
08:22
so understanding virality and voting behavior;
155
502682
2484
cu conținutul viral și comportamentul votanților,
08:25
and also empowering or emotion-enabling technology,
156
505166
2740
dar și la a dezvolta planul emotiv al tehnologiei.
08:27
and I want to share some examples that are especially close to my heart.
157
507906
4621
Și aș vrea să vă arăt câteva exemple la care țin foarte mult.
08:33
Emotion-enabled wearable glasses can help individuals
158
513197
3068
Ochelarii cu funcții emotive pot ajuta indivizii
08:36
who are visually impaired read the faces of others,
159
516265
3228
care au probleme cu vederea să citească fețele celorlalți
08:39
and it can help individuals on the autism spectrum interpret emotion,
160
519493
4187
și-i poate ajuta pe autiștii de diverse grade să interpreteze emoția,
08:43
something that they really struggle with.
161
523680
2778
lucru care pentru ei e complicat.
08:47
In education, imagine if your learning apps
162
527918
2859
În educație, imaginați-vă că aplicațiile de învățare
08:50
sense that you're confused and slow down,
163
530777
2810
vă percep confuzia, și atunci încetinesc,
08:53
or that you're bored, so it's sped up,
164
533587
1857
sau plictiseala, și atunci grăbesc pasul,
08:55
just like a great teacher would in a classroom.
165
535444
2969
cum ar face un profesor bun în clasă.
Ce ar fi dacă ceasul v-ar simți starea
08:59
What if your wristwatch tracked your mood,
166
539043
2601
09:01
or your car sensed that you're tired,
167
541644
2693
sau dacă mașina ar simți că sunteți obosiți,
09:04
or perhaps your fridge knows that you're stressed,
168
544337
2548
sau poate frigiderul simte că sunteți stresat
09:06
so it auto-locks to prevent you from binge eating. (Laughter)
169
546885
6066
și se încuie ca să nu mâncați frenetic? (Râsete)
Mi-ar plăcea asta, da!
09:12
I would like that, yeah.
170
552951
2717
09:15
What if, when I was in Cambridge,
171
555668
1927
Cum ar fi fost dacă la Cambridge aș fi avut acces la acest sistem
09:17
I had access to my real-time emotion stream,
172
557595
2313
09:19
and I could share that with my family back home in a very natural way,
173
559908
3529
și aș fi putut să le transmit rudelor emoțiile, într-un mod natural,
09:23
just like I would've if we were all in the same room together?
174
563437
3971
ca și când aș fi fost în aceeași cameră cu ei?
09:27
I think five years down the line,
175
567408
3142
Cred că în viitorii cinci ani
09:30
all our devices are going to have an emotion chip,
176
570550
2337
toate dispozitivele vor avea un cip al emoțiilor
09:32
and we won't remember what it was like when we couldn't just frown at our device
177
572887
4064
și nici nu ne vom aduce aminte cum era când nu te puteai încrunta la dispozitiv
09:36
and our device would say, "Hmm, you didn't like that, did you?"
178
576951
4249
ca să-și dea seama dintr-o privire: „Hmm, nu ți-a plăcut, nu?”
09:41
Our biggest challenge is that there are so many applications of this technology,
179
581200
3761
Cea mai mare dificultate e că tehnologia are așa multe aplicații
09:44
my team and I realize that we can't build them all ourselves,
180
584961
2903
încât eu și echipa mea înțelegem că nu putem face noi totul,
09:47
so we've made this technology available so that other developers
181
587864
3496
așa că am făcut tehnologia disponibilă,
pentru ca dezvoltatorii să înceapă să construiască și să creeze.
09:51
can get building and get creative.
182
591360
2114
09:53
We recognize that there are potential risks
183
593474
4086
Ne dăm seama că există riscuri
09:57
and potential for abuse,
184
597560
2067
și potențial pentru abuzuri,
09:59
but personally, having spent many years doing this,
185
599627
2949
dar personal, după ce am petrecut mulți ani făcând asta,
10:02
I believe that the benefits to humanity
186
602576
2972
cred că beneficiile pe care le poate avea omenirea
10:05
from having emotionally intelligent technology
187
605548
2275
din tehnologiile cu inteligență emoțională
10:07
far outweigh the potential for misuse.
188
607823
3576
depășesc cu mult riscurile de abuz.
10:11
And I invite you all to be part of the conversation.
189
611399
2531
Așa că vă invit să participați.
10:13
The more people who know about this technology,
190
613930
2554
Cu cât știe mai multă lume de această tehnologie,
10:16
the more we can all have a voice in how it's being used.
191
616484
3177
cu atât avem un cuvânt mai greu în cum e ea folosită.
10:21
So as more and more of our lives become digital,
192
621081
4574
Pe măsură ce viața noastră devine digitală
10:25
we are fighting a losing battle trying to curb our usage of devices
193
625655
3498
ne chinuim inutil să ne folosim mai puțin dispozitivele
10:29
in order to reclaim our emotions.
194
629153
2229
pentru a ne revendica emoțiile.
10:32
So what I'm trying to do instead is to bring emotions into our technology
195
632622
3914
Ceea ce încerc eu e să aduc emoțiile înapoi în tehnologie,
10:36
and make our technologies more responsive.
196
636536
2229
să ameliorez reacțiile tehnologiilor.
10:38
So I want those devices that have separated us
197
638765
2670
Visez ca aceste dispozitive care ne-au despărțit
10:41
to bring us back together.
198
641435
2462
să ne reunească.
10:43
And by humanizing technology, we have this golden opportunity
199
643897
4588
Umanizând tehnologia avem imensa șansă
10:48
to reimagine how we connect with machines,
200
648485
3297
de a reimagina modul în care ne conectăm cu mașinile,
10:51
and therefore, how we, as human beings,
201
651782
4481
și prin asta și modul în care noi, ca ființe umane,
10:56
connect with one another.
202
656263
1904
ne conectăm între noi.
10:58
Thank you.
203
658167
2160
Mulțumesc.
(Aplauze)
11:00
(Applause)
204
660327
3313
Despre acest site

Acest site vă va prezenta videoclipuri de pe YouTube care sunt utile pentru a învăța limba engleză. Veți vedea lecții de engleză predate de profesori de top din întreaga lume. Faceți dublu clic pe subtitrările în limba engleză afișate pe fiecare pagină video pentru a reda videoclipul de acolo. Subtitrările se derulează în sincron cu redarea videoclipului. Dacă aveți comentarii sau solicitări, vă rugăm să ne contactați folosind acest formular de contact.

https://forms.gle/WvT1wiN1qDtmnspy7