Can machines read your emotions? - Kostas Karpouzis

Pot dispozitivele tehnologice să-ți citească emoțiile? - Kostas Karpouzis

333,964 views

2016-11-29 ・ TED-Ed


New videos

Can machines read your emotions? - Kostas Karpouzis

Pot dispozitivele tehnologice să-ți citească emoțiile? - Kostas Karpouzis

333,964 views ・ 2016-11-29

TED-Ed


Vă rugăm să faceți dublu clic pe subtitrările în limba engleză de mai jos pentru a reda videoclipul.

Traducător: Bianca-Ioanidia Mirea Corector: Cristina Nicolae
00:07
With every year, machines surpass humans in more and more activities
0
7052
4590
An de an, dispozitivele tehnologice ne depășesc în tot mai multe activități
00:11
we once thought only we were capable of.
1
11642
3206
pe care cândva credeam că doar noi le putem înteprinde.
00:14
Today's computers can beat us in complex board games,
2
14848
3575
Computerele de astăzi ne pot învinge la jocuri de societate complexe,
00:18
transcribe speech in dozens of languages,
3
18423
2871
pot transcrie discursuri în zeci de limbi
00:21
and instantly identify almost any object.
4
21294
3452
și pot identifica instantaneu aproape orice obiect.
00:24
But the robots of tomorrow may go futher
5
24746
2366
Însă roboții viitorului ar putea avansa și mai mult
00:27
by learning to figure out what we're feeling.
6
27112
3131
învățând să descifreze ceea ce simțim.
00:30
And why does that matter?
7
30243
2138
De ce contează asta?
00:32
Because if machines and the people who run them
8
32381
2292
Deoarece dacă dispozitivele și utilizatorii acestora
00:34
can accurately read our emotional states,
9
34673
2550
ne pot citi cu acuratețe stările emoționale,
00:37
they may be able to assist us or manipulate us
10
37223
2970
ar putea fi în măsură să ne ajute sau să ne manipuleze
00:40
at unprecedented scales.
11
40193
2909
la un nivel fără precedent.
00:43
But before we get there,
12
43102
1512
Dar înainte de a ajunge la asta,
00:44
how can something so complex as emotion be converted into mere numbers,
13
44614
5039
cum se poate ca ceva atât de complex ca emoțiile să fie reduse la niște numere,
00:49
the only language machines understand?
14
49653
3600
singurul limbaj pe care dispozitivele tehnologice îl pot înțelege?
00:53
Essentially the same way our own brains interpret emotions,
15
53253
3590
În principiu, în același mod în care creierele noastre interpretează emoțiile:
00:56
by learning how to spot them.
16
56843
2151
învățând să le recunoască.
00:58
American psychologist Paul Ekman identified certain universal emotions
17
58994
5126
Psihologul american Paul Ekman a identificat anumite emoții universale
01:04
whose visual cues are understood the same way across cultures.
18
64120
5054
ale căror indicii vizuale sunt înțelese în același mod în diverse culturi.
01:09
For example, an image of a smile signals joy to modern urban dwellers
19
69174
5019
De exemplu, o imagine cu un zâmbet transmite bucurie atât orășenilor,
01:14
and aboriginal tribesmen alike.
20
74193
2772
cât și membrilor triburilor aborigene.
01:16
And according to Ekman,
21
76965
1129
Conform lui Ekman,
01:18
anger,
22
78094
729
01:18
disgust,
23
78823
710
supărarea,
dezgustul,
01:19
fear,
24
79533
742
teama,
01:20
joy,
25
80275
817
bucuria,
01:21
sadness,
26
81092
756
01:21
and surprise are equally recognizable.
27
81848
3585
tristețea
și surprinderea sunt la fel de ușor de recunoscut.
01:25
As it turns out, computers are rapidly getting better at image recognition
28
85433
4403
Se pare că computerele devin rapid tot mai bune la recunoașterea imaginilor
01:29
thanks to machine learning algorithms, such as neural networks.
29
89836
4179
datorită algoritmilor de învățare precum rețelele neuronale.
01:34
These consist of artificial nodes that mimic our biological neurons
30
94015
4190
Acestea consistă în noduri artificiale care ne mimează neuronii biologici
01:38
by forming connections and exchanging information.
31
98205
3579
prin formare de conexiuni și schimb de informații.
01:41
To train the network, sample inputs pre-classified into different categories,
32
101784
4501
Pentru a antrena rețeaua, exemple de probă pre-sortate pe categorii diferite,
01:46
such as photos marked happy or sad,
33
106285
2890
cum ar fi pozele clasificate drept fericite sau triste,
01:49
are fed into the system.
34
109175
2110
sunt introduse în sistem.
01:51
The network then learns to classify those samples
35
111285
2460
Astfel, rețeaua învață să sorteze aceste exemple
01:53
by adjusting the relative weights assigned to particular features.
36
113745
4660
prin ajustarea valorilor corespunzătoare anumitor trăsături.
01:58
The more training data it's given,
37
118405
1620
Cu cât este antrenat mai mult,
02:00
the better the algorithm becomes at correctly identifying new images.
38
120025
4770
cu atât mai bun devine algoritmul la identificarea corectă a noilor imagini.
02:04
This is similar to our own brains,
39
124795
1732
Se aseamănă creierelor noastre,
02:06
which learn from previous experiences to shape how new stimuli are processed.
40
126527
5198
care învață din experiențele trecute să modeleze prelucrarea de noi stimuli.
02:11
Recognition algorithms aren't just limited to facial expressions.
41
131725
3741
Algoritmii de recunoaștere nu se limitează numai la expresii faciale.
02:15
Our emotions manifest in many ways.
42
135466
2420
Emoțiile noastre se manifestă în multe feluri.
02:17
There's body language and vocal tone,
43
137886
2230
De pildă, limbajul corpului și tonul vocal,
02:20
changes in heart rate, complexion, and skin temperature,
44
140116
3121
modificări ale ritmului cardiac, tenului și ale temperaturii pielii
02:23
or even word frequency and sentence structure in our writing.
45
143237
4809
sau chiar ale frecvenței cuvintelor și ale structurii propoziției în scris.
Ai putea crede că antrenarea rețelelor neuronale pentru a le recunoaște
02:28
You might think that training neural networks to recognize these
46
148046
3159
02:31
would be a long and complicated task
47
151205
2432
ar fi un lucru complicat și de lungă durată,
02:33
until you realize just how much data is out there,
48
153637
3329
până când realizezi cât de multe date există deja
02:36
and how quickly modern computers can process it.
49
156966
3409
și cu câtă rapiditate pot fi prelucrate de computerele moderne.
02:40
From social media posts,
50
160375
1542
De la postări pe social media,
02:41
uploaded photos and videos,
51
161917
1669
poze, videoclipuri încărcate
02:43
and phone recordings,
52
163586
1401
și înregistrări telefonice,
02:44
to heat-sensitive security cameras
53
164987
1780
până la camere de supraveghere sensibile la căldură
02:46
and wearables that monitor physiological signs,
54
166767
3670
și dispozitive care monitorizează semne fiziologice,
02:50
the big question is not how to collect enough data,
55
170437
2510
problema nu este colectarea de date suficiente,
02:52
but what we're going to do with it.
56
172947
2308
ci cum le vom folosi.
02:55
There are plenty of beneficial uses for computerized emotion recognition.
57
175255
4451
Sunt multe întrebuințări benefice ale recunoașterii computerizate a emoțiilor.
02:59
Robots using algorithms to identify facial expressions
58
179706
2921
Roboții care folosesc algoritmi pentru a identifica expresii faciale,
03:02
can help children learn
59
182627
1619
pot ajuta copiii să învețe
03:04
or provide lonely people with a sense of companionship.
60
184246
3390
sau să ofere companie persoanelor care se simt singure.
03:07
Social media companies are considering using algorithms
61
187636
3001
Companiile de rețele sociale au în vedere utilizarea de algoritmi
03:10
to help prevent suicides by flagging posts that contain specific words or phrases.
62
190637
6410
care să ajute la prevenirea sinuciderilor prin semnalarea postărilor
care conțin anumite cuvinte sau expresii.
03:17
And emotion recognition software can help treat mental disorders
63
197047
4240
Software-ul de identificare a emoțiilor ajută la tratarea tulburărilor mentale
03:21
or even provide people with low-cost automated psychotherapy.
64
201287
4291
sau poate chiar oferi oamenilor psihoterapie online la un cost redus,
03:25
Despite the potential benefits,
65
205578
1610
În ciuda potențialelor beneficii,
03:27
the prospect of a massive network automatically scanning our photos,
66
207188
3681
gândul că o rețea masivă îți scanează în mod automat pozele,
03:30
communications,
67
210869
1089
corespondența
03:31
and physiological signs is also quite disturbing.
68
211958
4919
precum și semnalele fiziologice, este destul de deranjant.
03:36
What are the implications for our privacy when such impersonal systems
69
216877
3919
Care sunt implicațiile pentru intimitatea noastră când astfel de sisteme impersonale
03:40
are used by corporations to exploit our emotions through advertising?
70
220796
4412
sunt folosite de corporații pentru a ne exploata emoțiile prin publicitate?
03:45
And what becomes of our rights
71
225208
1510
Cum rămâne cu drepturile noastre
03:46
if authorities think they can identify the people likely to commit crimes
72
226718
4019
dacă autoritățile cred că pot identifica persoanele susceptibile de a încălca legea
03:50
before they even make a conscious decision to act?
73
230737
4190
înainte ca acestea să ia în mod conștient decizia de a acționa?
03:54
Robots currently have a long way to go
74
234927
2223
Roboții au încă un drum lung de parcurs
03:57
in distinguishing emotional nuances, like irony,
75
237150
3108
pentru a ajunge să distingă nuanțe ale emoțiilor, cum ar fi ironia
04:00
and scales of emotions, just how happy or sad someone is.
76
240258
4500
și treptele emoțiilor, care dezvăluie cât de fericit sau trist este cineva.
04:04
Nonetheless, they may eventually be able to accurately read our emotions
77
244758
4530
Totuși, aceștia ar putea reuși în final să ne citească cu acuratețe emoțiile
04:09
and respond to them.
78
249288
1850
și să răspundă la acestea.
04:11
Whether they can empathize with our fear of unwanted intrusion, however,
79
251138
4251
Dacă vor putea empatiza cu teama noastră de intruziuni nedorite,
04:15
that's another story.
80
255389
1498
ei bine, asta este o altă poveste.
Despre acest site

Acest site vă va prezenta videoclipuri de pe YouTube care sunt utile pentru a învăța limba engleză. Veți vedea lecții de engleză predate de profesori de top din întreaga lume. Faceți dublu clic pe subtitrările în limba engleză afișate pe fiecare pagină video pentru a reda videoclipul de acolo. Subtitrările se derulează în sincron cu redarea videoclipului. Dacă aveți comentarii sau solicitări, vă rugăm să ne contactați folosind acest formular de contact.

https://forms.gle/WvT1wiN1qDtmnspy7