Can machines read your emotions? - Kostas Karpouzis

Tudnak-e a gépek olvasni az érzelmeinkben? - Kostas Karpouzis

334,937 views

2016-11-29 ・ TED-Ed


New videos

Can machines read your emotions? - Kostas Karpouzis

Tudnak-e a gépek olvasni az érzelmeinkben? - Kostas Karpouzis

334,937 views ・ 2016-11-29

TED-Ed


A videó lejátszásához kattintson duplán az alábbi angol feliratokra.

Fordító: Andrea Kocsis Lektor: Beatrix Turán
00:07
With every year, machines surpass humans in more and more activities
0
7052
4590
A gépek évről évre egyre több olyan tevékenységben múlják felül az embert,
00:11
we once thought only we were capable of.
1
11642
3206
amelyről azt hittük, csak mi tudjuk elvégezni.
00:14
Today's computers can beat us in complex board games,
2
14848
3575
A mai számítógépek bonyolult társasjátékokban vernek meg minket,
00:18
transcribe speech in dozens of languages,
3
18423
2871
beszédeket írnak át több tucat nyelven
00:21
and instantly identify almost any object.
4
21294
3452
és azonnal azonosítanak szinte bármilyen tárgyat.
00:24
But the robots of tomorrow may go futher
5
24746
2366
De a jövő robotjai még tovább is mehetnek,
00:27
by learning to figure out what we're feeling.
6
27112
3131
ha megtanulják értelmezni az érzelmeinket.
00:30
And why does that matter?
7
30243
2138
S hogy miért fontos ez?
00:32
Because if machines and the people who run them
8
32381
2292
Mert ha a gépek és az őket üzemeltető emberek
00:34
can accurately read our emotional states,
9
34673
2550
pontosan ismerik érzelmi állapotunkat,
00:37
they may be able to assist us or manipulate us
10
37223
2970
eddig példátlan mértékben
00:40
at unprecedented scales.
11
40193
2909
segíthetnek vagy akár manipulálhatnak minket.
00:43
But before we get there,
12
43102
1512
De mielőtt még idáig jutunk:
00:44
how can something so complex as emotion be converted into mere numbers,
13
44614
5039
hogyan lehet valami olyan összetettet, mint az érzelem, átalakítani számokká,
00:49
the only language machines understand?
14
49653
3600
az egyetlen nyelvvé, amelyet a gépek értenek?
00:53
Essentially the same way our own brains interpret emotions,
15
53253
3590
Alapjában ugyanúgy, ahogy az agyunk értelmezi az érzelmeket,
00:56
by learning how to spot them.
16
56843
2151
azaz megtanulva, hogyan vegye őket észre.
00:58
American psychologist Paul Ekman identified certain universal emotions
17
58994
5126
Az amerikai pszichológus, Paul Ekman, azonosított bizonyos általános érzelmeket,
01:04
whose visual cues are understood the same way across cultures.
18
64120
5054
melyek jeleit minden kultúra ugyanúgy értelmezi.
01:09
For example, an image of a smile signals joy to modern urban dwellers
19
69174
5019
Például egy mosolygós kép ugyanúgy örömöt jelent egy városlakónak
01:14
and aboriginal tribesmen alike.
20
74193
2772
és egy ősi törzs tagjának.
01:16
And according to Ekman,
21
76965
1129
Ekman szerint
01:18
anger,
22
78094
729
01:18
disgust,
23
78823
710
a harag,
az undor,
01:19
fear,
24
79533
742
a félelem,
01:20
joy,
25
80275
817
az öröm,
01:21
sadness,
26
81092
756
01:21
and surprise are equally recognizable.
27
81848
3585
a szomorúság
és a meglepetés egyaránt felismerhető.
01:25
As it turns out, computers are rapidly getting better at image recognition
28
85433
4403
Úgy tűnik, a számítógépek egyre jobbá válnak a képfelismerésben
01:29
thanks to machine learning algorithms, such as neural networks.
29
89836
4179
az olyan gépi tanulási algoritmusoknak köszönhetően, mint az ideghálózatok.
01:34
These consist of artificial nodes that mimic our biological neurons
30
94015
4190
Ezek olyan mesterséges csomókból állnak, melyek utánozzák a biológiai neuronokat
01:38
by forming connections and exchanging information.
31
98205
3579
úgy, hogy kapcsolatot létesítenek és információt cserélnek.
01:41
To train the network, sample inputs pre-classified into different categories,
32
101784
4501
A hálózat fejlesztése érdekében előre kategorizált mintaanyagot,
01:46
such as photos marked happy or sad,
33
106285
2890
pl. boldognak vagy szomorúnak besorolt képeket
01:49
are fed into the system.
34
109175
2110
visznek be a rendszerbe.
01:51
The network then learns to classify those samples
35
111285
2460
A hálózat ezután megtanulja besorolni a mintákat úgy,
01:53
by adjusting the relative weights assigned to particular features.
36
113745
4660
hogy súlyozza a minták egyéni jellemzőit.
01:58
The more training data it's given,
37
118405
1620
Minél több gyakorlófeladatot kap,
02:00
the better the algorithm becomes at correctly identifying new images.
38
120025
4770
az algoritmus annál pontosabban sorolja majd be az új képeket.
02:04
This is similar to our own brains,
39
124795
1732
Ez a mi agyunkhoz hasonlít,
02:06
which learn from previous experiences to shape how new stimuli are processed.
40
126527
5198
amely a korábbi tapasztalatokból tanulva meghatározza, hogy reagálunk új ingerekre.
02:11
Recognition algorithms aren't just limited to facial expressions.
41
131725
3741
A felismerő algoritmusok nemcsak az arcfelismerésre korlátozódnak.
02:15
Our emotions manifest in many ways.
42
135466
2420
Az érzéseink sokféleképpen mutatkoznak meg.
02:17
There's body language and vocal tone,
43
137886
2230
Pl. a testbeszédben és a hanglejtésben,
02:20
changes in heart rate, complexion, and skin temperature,
44
140116
3121
a pulzusszám, az arcszín és a testhőmérséklet változásában,
02:23
or even word frequency and sentence structure in our writing.
45
143237
4809
vagy írásban a szavak számában és a mondatok felépítésében.
02:28
You might think that training neural networks to recognize these
46
148046
3159
Azt hihetnénk, hogy az ideghálózatok megtanítása ezek felismerésére
02:31
would be a long and complicated task
47
151205
2432
hosszú és összetett feladat,
02:33
until you realize just how much data is out there,
48
153637
3329
míg rá nem jövünk, mennyi adat hozzáférhető
02:36
and how quickly modern computers can process it.
49
156966
3409
és hogy milyen gyorsan dolgozzák ezt fel a modern számítógépek.
02:40
From social media posts,
50
160375
1542
A közösségi oldalaktól kezdve
02:41
uploaded photos and videos,
51
161917
1669
a feltöltött képeken és videókon,
02:43
and phone recordings,
52
163586
1401
rögzített beszélgetéseken át
02:44
to heat-sensitive security cameras
53
164987
1780
a hőérzékeny biztonsági kamerákig
02:46
and wearables that monitor physiological signs,
54
166767
3670
és a hordható eszközökig, amelyek figyelik a fiziológiai jeleket,
02:50
the big question is not how to collect enough data,
55
170437
2510
a nagy kérdés nem az, honnan gyűjtsünk elég adatot,
02:52
but what we're going to do with it.
56
172947
2308
hanem hogy mit kezdjünk vele.
02:55
There are plenty of beneficial uses for computerized emotion recognition.
57
175255
4451
A számítógépes érzelemfelismerés számos hasznos célra fordítható.
02:59
Robots using algorithms to identify facial expressions
58
179706
2921
Az arckifejezéseket felismerő algoritmusokat használó robotok
03:02
can help children learn
59
182627
1619
segíthetnek a gyerekeknek tanulni
03:04
or provide lonely people with a sense of companionship.
60
184246
3390
vagy társaságot nyújthatnak magányos embereknek.
03:07
Social media companies are considering using algorithms
61
187636
3001
Közösségi oldalak az öngyilkosságokat szeretnék megelőzni úgy,
03:10
to help prevent suicides by flagging posts that contain specific words or phrases.
62
190637
6410
hogy algoritmusok megjelölnék a posztokat, amelyek bizonyos szavakat tartalmaznak.
03:17
And emotion recognition software can help treat mental disorders
63
197047
4240
Az érzelemfelismerő szoftver mentális zavarok kezelésére is használható
03:21
or even provide people with low-cost automated psychotherapy.
64
201287
4291
vagy olcsó, automatizált pszichoterápiát is nyújthat.
03:25
Despite the potential benefits,
65
205578
1610
A lehetséges előnyök ellenére
03:27
the prospect of a massive network automatically scanning our photos,
66
207188
3681
eléggé nyugtalanító a lehetőség, hogy egy óriási hálózat figyeli a képeinket,
03:30
communications,
67
210869
1089
beszélgetéseinket
03:31
and physiological signs is also quite disturbing.
68
211958
4919
és az élettani jeleinket.
03:36
What are the implications for our privacy when such impersonal systems
69
216877
3919
Milyen hatása lehet a magánéletünkre, ha egy ilyen személytelen rendszert
03:40
are used by corporations to exploit our emotions through advertising?
70
220796
4412
használnak a cégek, hogy reklámokkal az érzéseinkre hassanak?
03:45
And what becomes of our rights
71
225208
1510
És mi lesz a jogainkkal,
03:46
if authorities think they can identify the people likely to commit crimes
72
226718
4019
ha a hatóságok azt hiszik, azonosíthatják a bűnt elkövetni készülő embereket,
03:50
before they even make a conscious decision to act?
73
230737
4190
mielőtt még tudatosan elszánnák magukat erre?
03:54
Robots currently have a long way to go
74
234927
2223
A robotok még távolról sem képesek arra,
03:57
in distinguishing emotional nuances, like irony,
75
237150
3108
hogy megkülönböztessenek érzelmi árnyalatokat, mint az irónia
04:00
and scales of emotions, just how happy or sad someone is.
76
240258
4500
vagy hogy eldöntsék, mennyire boldog vagy szomorú valaki.
04:04
Nonetheless, they may eventually be able to accurately read our emotions
77
244758
4530
Mindazonáltal egyszer majd képesek lesznek helyesen olvasni az érzéseinkben
04:09
and respond to them.
78
249288
1850
és reagálni rájuk.
04:11
Whether they can empathize with our fear of unwanted intrusion, however,
79
251138
4251
De hogy vajon átérzik-e majd a félelmünket a nem kívánt betolakodástól,
04:15
that's another story.
80
255389
1498
az már egy másik kérdés.
Erről a weboldalról

Ez az oldal olyan YouTube-videókat mutat be, amelyek hasznosak az angol nyelvtanuláshoz. A világ minden tájáról származó, kiváló tanárok által tartott angol leckéket láthatsz. Az egyes videók oldalán megjelenő angol feliratokra duplán kattintva onnan játszhatja le a videót. A feliratok a videó lejátszásával szinkronban gördülnek. Ha bármilyen észrevétele vagy kérése van, kérjük, lépjen kapcsolatba velünk ezen a kapcsolatfelvételi űrlapon.

https://forms.gle/WvT1wiN1qDtmnspy7