Can machines read your emotions? - Kostas Karpouzis

333,964 views ・ 2016-11-29

TED-Ed


Proszę kliknąć dwukrotnie na poniższe angielskie napisy, aby odtworzyć film.

Tłumaczenie: Joanna Tomczyńska Korekta: Rysia Wand
00:07
With every year, machines surpass humans in more and more activities
0
7052
4590
Z każdym rokiem maszyny stają się coraz lepsze
w wykonywaniu czynności,
00:11
we once thought only we were capable of.
1
11642
3206
które dotąd uchodziły za domenę ludzi.
00:14
Today's computers can beat us in complex board games,
2
14848
3575
Dzisiejsze komputery potrafią nas pokonać w złożonych grach planszowych,
00:18
transcribe speech in dozens of languages,
3
18423
2871
rejestrować mowę w wielu językach
00:21
and instantly identify almost any object.
4
21294
3452
oraz rozpoznać niemal każdą rzecz w mgnieniu oka.
00:24
But the robots of tomorrow may go futher
5
24746
2366
Lecz roboty przyszłości mogą pójść jeszcze dalej,
00:27
by learning to figure out what we're feeling.
6
27112
3131
ucząc się zrozumieć uczucia.
00:30
And why does that matter?
7
30243
2138
Dlaczego to ma znaczenie?
00:32
Because if machines and the people who run them
8
32381
2292
Bo jeśli maszyny i ich operatorzy
00:34
can accurately read our emotional states,
9
34673
2550
potrafiliby trafnie odczytać nasze stany emocjonalne,
00:37
they may be able to assist us or manipulate us
10
37223
2970
mogliby nas wspomagać lub nami manipulować
00:40
at unprecedented scales.
11
40193
2909
na ogromną skalę.
00:43
But before we get there,
12
43102
1512
Ale zanim do tego dojdziemy,
00:44
how can something so complex as emotion be converted into mere numbers,
13
44614
5039
jak coś tak złożonego jak emocja można przetworzyć na zwykłe liczby,
00:49
the only language machines understand?
14
49653
3600
jedyny język zrozumiały przez maszyny?
00:53
Essentially the same way our own brains interpret emotions,
15
53253
3590
Dokładnie tak samo, jak mózg odczytuje emocje,
00:56
by learning how to spot them.
16
56843
2151
ucząc się, jak je rozpoznawać.
00:58
American psychologist Paul Ekman identified certain universal emotions
17
58994
5126
Amerykański psycholog, Paul Ekman, wyznaczył pewne uniwersalne emocje,
01:04
whose visual cues are understood the same way across cultures.
18
64120
5054
których widoczne sygnały mają takie samo znaczenie w różnych kulturach.
01:09
For example, an image of a smile signals joy to modern urban dwellers
19
69174
5019
Na przykład, uśmiech oznacza radość dla mieszkańców dużych miast
01:14
and aboriginal tribesmen alike.
20
74193
2772
jak i dla członków pierwotnych plemion.
01:16
And according to Ekman,
21
76965
1129
Według Ekmana
01:18
anger,
22
78094
729
01:18
disgust,
23
78823
710
gniew,
wstręt,
01:19
fear,
24
79533
742
strach,
01:20
joy,
25
80275
817
radość,
01:21
sadness,
26
81092
756
01:21
and surprise are equally recognizable.
27
81848
3585
smutek
oraz zaskoczenie są jednakowo rozpoznawalne.
01:25
As it turns out, computers are rapidly getting better at image recognition
28
85433
4403
Jak się okazuje, komputery coraz lepiej rozpoznają obrazy
01:29
thanks to machine learning algorithms, such as neural networks.
29
89836
4179
dzięki algorytmom uczenia maszynowego, jak sieci neuronowe.
01:34
These consist of artificial nodes that mimic our biological neurons
30
94015
4190
składających się są ze sztucznych węzłów, które imitują nasze neurony,
01:38
by forming connections and exchanging information.
31
98205
3579
tworząc połączenia i wymieniając się informacjami.
01:41
To train the network, sample inputs pre-classified into different categories,
32
101784
4501
Aby wyćwiczyć sieć, przykładowe próbki przydzielone do różnych kategorii,
01:46
such as photos marked happy or sad,
33
106285
2890
takie jak zdjęcia oznaczone jako wesołe lub smutne,
01:49
are fed into the system.
34
109175
2110
są wprowadzane do systemu.
01:51
The network then learns to classify those samples
35
111285
2460
Następnie sieć uczy się klasyfikować te próbki,
01:53
by adjusting the relative weights assigned to particular features.
36
113745
4660
dodając odpowiednią wartość przypisaną konkretnym cechom.
01:58
The more training data it's given,
37
118405
1620
Im więcej danych,
02:00
the better the algorithm becomes at correctly identifying new images.
38
120025
4770
tym lepszy staje się algorytm w identyfikowaniu nowych obrazów.
02:04
This is similar to our own brains,
39
124795
1732
Podobnie działają nasze umysły,
02:06
which learn from previous experiences to shape how new stimuli are processed.
40
126527
5198
które poprzez doświadczenie uczą się jak przetwarzać nowe bodźce.
02:11
Recognition algorithms aren't just limited to facial expressions.
41
131725
3741
Algorytmy identyfikujące nie ograniczają się
tylko do wyrazu twarzy.
02:15
Our emotions manifest in many ways.
42
135466
2420
Emocje objawiają się na różne sposoby.
02:17
There's body language and vocal tone,
43
137886
2230
Istnieje również język ciała i ton głosu,
02:20
changes in heart rate, complexion, and skin temperature,
44
140116
3121
zmiany w rytmie serca, kolorze i temperaturze skóry,
02:23
or even word frequency and sentence structure in our writing.
45
143237
4809
czy nawet częstotliwość słów oraz struktura zdań w piśmie.
02:28
You might think that training neural networks to recognize these
46
148046
3159
Może się wydawać, że nauczenie sieci rozpoznawania tych rzeczy
02:31
would be a long and complicated task
47
151205
2432
to długie i skomplikowane zadanie,
02:33
until you realize just how much data is out there,
48
153637
3329
dopóki nie zdamy sobie sprawy, jak wiele danych istnieje
02:36
and how quickly modern computers can process it.
49
156966
3409
i jak szybko dzisiejsze komputery umieją je przetworzyć.
02:40
From social media posts,
50
160375
1542
Od mediów społecznościowych,
02:41
uploaded photos and videos,
51
161917
1669
opublikowanych zdjęć i filmików,
02:43
and phone recordings,
52
163586
1401
oraz nagrań na telefonie,
02:44
to heat-sensitive security cameras
53
164987
1780
po kamery czułe na ciepło,
02:46
and wearables that monitor physiological signs,
54
166767
3670
jak również gadżety rejestrujące sygnały fizjologiczne.
02:50
the big question is not how to collect enough data,
55
170437
2510
Pytaniem nie jest jak zgromadzić te dane,
02:52
but what we're going to do with it.
56
172947
2308
ale co z nimi zrobić.
02:55
There are plenty of beneficial uses for computerized emotion recognition.
57
175255
4451
Istnieje wiele korzyści komputerowego rozpoznawania emocji.
02:59
Robots using algorithms to identify facial expressions
58
179706
2921
Roboty używające algorytmów do określania wyrazów twarzy
03:02
can help children learn
59
182627
1619
mogłyby pomóc dzieciom w nauce
03:04
or provide lonely people with a sense of companionship.
60
184246
3390
albo zapewnić towarzystwo osobom samotnym.
03:07
Social media companies are considering using algorithms
61
187636
3001
Media społecznościowe rozważają użycie algorytmów,
03:10
to help prevent suicides by flagging posts that contain specific words or phrases.
62
190637
6410
aby zapobiegać samobójstwom,
oznaczając posty zawierające pewne słowa lub frazy.
03:17
And emotion recognition software can help treat mental disorders
63
197047
4240
Programy rozpoznające emocje mogłyby pomóc w leczeniu zaburzeń psychicznych,
03:21
or even provide people with low-cost automated psychotherapy.
64
201287
4291
a nawet zapewnić ludziom tanią, zautomatyzowaną psychoterapię.
03:25
Despite the potential benefits,
65
205578
1610
Pomimo potencjalnych korzyści,
03:27
the prospect of a massive network automatically scanning our photos,
66
207188
3681
wizja ogromnej sieci automatycznie skanującej zdjęcia,
03:30
communications,
67
210869
1089
konwersacje
03:31
and physiological signs is also quite disturbing.
68
211958
4919
oraz sygnały fizjologiczne, budzi również niepokój.
03:36
What are the implications for our privacy when such impersonal systems
69
216877
3919
Jakie skutki dla naszej prywatności miałyby takie bezosobowe systemy
03:40
are used by corporations to exploit our emotions through advertising?
70
220796
4412
na usługach korporacji, wykorzystując nasze emocje do reklam.
03:45
And what becomes of our rights
71
225208
1510
Co z naszymi prawami,
03:46
if authorities think they can identify the people likely to commit crimes
72
226718
4019
gdyby władze mogły identyfikować ludzi zdolnych do przestępstwa,
03:50
before they even make a conscious decision to act?
73
230737
4190
jeszcze zanim ci podjęliby świadomą decyzję działania?
03:54
Robots currently have a long way to go
74
234927
2223
Obecnie roboty mają przed sobą długą drogę,
03:57
in distinguishing emotional nuances, like irony,
75
237150
3108
aby odróżnić niuanse emocjonalne, takie jak ironia,
04:00
and scales of emotions, just how happy or sad someone is.
76
240258
4500
oraz skale emocji, czyli to, jak bardzo jest ktoś wesoły lub smutny.
04:04
Nonetheless, they may eventually be able to accurately read our emotions
77
244758
4530
Ale w końcu nauczą się precyzyjnie czytać emocje
04:09
and respond to them.
78
249288
1850
i odpowiadać na nie.
04:11
Whether they can empathize with our fear of unwanted intrusion, however,
79
251138
4251
Czy będą utożsamiać się z naszym strachem przed niechcianą inwazją,
04:15
that's another story.
80
255389
1498
to jednak zupełnie inna historia.
O tej stronie

Na tej stronie poznasz filmy z YouTube, które są przydatne do nauki języka angielskiego. Zobaczysz lekcje angielskiego prowadzone przez najlepszych nauczycieli z całego świata. Kliknij dwukrotnie na angielskie napisy wyświetlane na stronie każdego filmu, aby odtworzyć film od tego miejsca. Napisy przewijają się synchronicznie z odtwarzaniem filmu. Jeśli masz jakieś uwagi lub prośby, skontaktuj się z nami za pomocą formularza kontaktowego.

https://forms.gle/WvT1wiN1qDtmnspy7