Can machines read your emotions? - Kostas Karpouzis

334,937 views ・ 2016-11-29

TED-Ed


Por favor, faça duplo clique nas legendas em inglês abaixo para reproduzir o vídeo.

Tradutor: Juliana Rodrigues Revisora: Margarida Ferreira
00:07
With every year, machines surpass humans in more and more activities
0
7052
4590
Todos os anos as máquinas ultrapassam cada vez mais o desempenho dos humanos
00:11
we once thought only we were capable of.
1
11642
3206
em tarefas que dantes considerávamos exclusivas do Homem.
00:14
Today's computers can beat us in complex board games,
2
14848
3575
Os computadores atuais conseguem vencer-nos em jogos difíceis de tabuleiro,
00:18
transcribe speech in dozens of languages,
3
18423
2871
transcrever um discurso para dezenas de línguas
00:21
and instantly identify almost any object.
4
21294
3452
e identificar praticamente qualquer objeto de forma instantânea.
00:24
But the robots of tomorrow may go futher
5
24746
2366
Mas os robôs do futuro poderão ir mais longe,
00:27
by learning to figure out what we're feeling.
6
27112
3131
aprendendo a interpretar o que estamos a sentir.
00:30
And why does that matter?
7
30243
2138
Porque é isto importante?
00:32
Because if machines and the people who run them
8
32381
2292
Porque, se as máquinas e as pessoas que as controlam
00:34
can accurately read our emotional states,
9
34673
2550
conseguirem identificar com precisão as nossas emoções,
00:37
they may be able to assist us or manipulate us
10
37223
2970
poderão ser capazes de nos ajudar ou de nos manipular
00:40
at unprecedented scales.
11
40193
2909
a uma escala sem precedentes.
Mas, antes de mais,
00:43
But before we get there,
12
43102
1512
00:44
how can something so complex as emotion be converted into mere numbers,
13
44614
5039
como é que algo complexo como as emoções pode ser convertido em meros números,
00:49
the only language machines understand?
14
49653
3600
a única linguagem que as máquinas compreendem?
Basicamente, fazendo o mesmo que o nosso cérebro para interpretar emoções:
00:53
Essentially the same way our own brains interpret emotions,
15
53253
3590
00:56
by learning how to spot them.
16
56843
2151
Aprender a identificá-las.
00:58
American psychologist Paul Ekman identified certain universal emotions
17
58994
5126
O psicólogo americano Paul Ekman identificou algumas emoções universais,
01:04
whose visual cues are understood the same way across cultures.
18
64120
5054
cujas pistas visuais são interpretadas da mesma forma em várias culturas.
01:09
For example, an image of a smile signals joy to modern urban dwellers
19
69174
5019
Por exemplo, um sorriso sinaliza alegria tanto para a população urbana moderna
01:14
and aboriginal tribesmen alike.
20
74193
2772
como para a população indígena.
01:16
And according to Ekman,
21
76965
1129
E, de acordo com Ekman,
01:18
anger,
22
78094
729
01:18
disgust,
23
78823
710
a raiva, a repulsa,
01:19
fear,
24
79533
742
o medo, a alegria,
01:20
joy,
25
80275
817
01:21
sadness,
26
81092
756
01:21
and surprise are equally recognizable.
27
81848
3585
a tristeza e a surpresa
são igualmente identificáveis.
01:25
As it turns out, computers are rapidly getting better at image recognition
28
85433
4403
Os computadores estão mesmo a melhorar rapidamente no reconhecimento de imagem,
01:29
thanks to machine learning algorithms, such as neural networks.
29
89836
4179
graças a algoritmos de aprendizagem de máquina,
como as redes neuronais.
Estas redes consistem em nodos artificiais que imitam os nossos neurónios biológicos,
01:34
These consist of artificial nodes that mimic our biological neurons
30
94015
4190
01:38
by forming connections and exchanging information.
31
98205
3579
através da formação de ligações e troca de informações.
01:41
To train the network, sample inputs pre-classified into different categories,
32
101784
4501
Para treinar a rede são alimentadas ao sistema
amostras pré-classificadas em várias categorias,
01:46
such as photos marked happy or sad,
33
106285
2890
como, por exemplo, fotografias classificadas como "feliz" ou "triste".
01:49
are fed into the system.
34
109175
2110
01:51
The network then learns to classify those samples
35
111285
2460
De seguida, a rede aprende a classificar essas amostras,
01:53
by adjusting the relative weights assigned to particular features.
36
113745
4660
ajustando os pesos relativos atribuídos a características específicas.
01:58
The more training data it's given,
37
118405
1620
Quanto mais amostras forem dadas,
02:00
the better the algorithm becomes at correctly identifying new images.
38
120025
4770
melhor será o desempenho do algoritmo na identificação de novas imagens.
02:04
This is similar to our own brains,
39
124795
1732
É como nos nossos cérebros,
02:06
which learn from previous experiences to shape how new stimuli are processed.
40
126527
5198
em que as experiências são usadas para aprender a processar novos estímulos.
02:11
Recognition algorithms aren't just limited to facial expressions.
41
131725
3741
Os algoritmos de reconhecimento não se limitam às expressões faciais.
02:15
Our emotions manifest in many ways.
42
135466
2420
As nossas emoções manifestam-se de muitas formas.
02:17
There's body language and vocal tone,
43
137886
2230
Temos a linguagem corporal e o tom da voz,
02:20
changes in heart rate, complexion, and skin temperature,
44
140116
3121
alterações do ritmo cardíaco, cor e temperatura da pele,
02:23
or even word frequency and sentence structure in our writing.
45
143237
4809
ou mesmo a frequência de certas palavras e a estrutura das frases na nossa escrita.
Poderão pensar que treinar redes neuronais para reconhecer tais coisas
02:28
You might think that training neural networks to recognize these
46
148046
3159
02:31
would be a long and complicated task
47
151205
2432
é uma tarefa longa e complexa,
02:33
until you realize just how much data is out there,
48
153637
3329
mas a verdade é que temos uma quantidade enorme de dados
02:36
and how quickly modern computers can process it.
49
156966
3409
e os computadores modernos conseguem processá-los rapidamente.
02:40
From social media posts,
50
160375
1542
Temos mensagens nas redes sociais,
02:41
uploaded photos and videos,
51
161917
1669
fotografias e vídeos transferidos,
02:43
and phone recordings,
52
163586
1401
gravações de chamadas,
02:44
to heat-sensitive security cameras
53
164987
1780
câmaras de vigilância térmicas
02:46
and wearables that monitor physiological signs,
54
166767
3670
e aparelhos para medir sinais fisiológicos
02:50
the big question is not how to collect enough data,
55
170437
2510
— a questão não é arranjar dados suficientes,
02:52
but what we're going to do with it.
56
172947
2308
mas sim o que fazer com eles.
02:55
There are plenty of beneficial uses for computerized emotion recognition.
57
175255
4451
Há imensas utilizações benéficas para a deteção de emoções por computadores.
02:59
Robots using algorithms to identify facial expressions
58
179706
2921
Os robôs que usam algoritmos para identificar expressões faciais
03:02
can help children learn
59
182627
1619
podem ajudar crianças a aprender
03:04
or provide lonely people with a sense of companionship.
60
184246
3390
ou fazer companhia a pessoas que estejam sozinhas.
03:07
Social media companies are considering using algorithms
61
187636
3001
As empresas de redes sociais estão a ponderar usar algoritmos
03:10
to help prevent suicides by flagging posts that contain specific words or phrases.
62
190637
6410
para ajudar na prevenção de suicídios,
sinalizando mensagens com palavras ou frases específicas.
03:17
And emotion recognition software can help treat mental disorders
63
197047
4240
O "software" de reconhecimento de emoções pode ajudar a tratar doenças mentais
03:21
or even provide people with low-cost automated psychotherapy.
64
201287
4291
ou mesmo facilitar o acesso a psicoterapia automatizada e de baixo custo.
03:25
Despite the potential benefits,
65
205578
1610
Apesar das potenciais vantagens,
03:27
the prospect of a massive network automatically scanning our photos,
66
207188
3681
a ideia de uma rede gigante que digitaliza as nossas fotografias,
03:30
communications,
67
210869
1089
comunicações e sinais fisiológicos,
03:31
and physiological signs is also quite disturbing.
68
211958
4919
é também bastante perturbadora.
03:36
What are the implications for our privacy when such impersonal systems
69
216877
3919
O que acontecerá à nossa privacidade,
se as empresas usarem estes sistemas impessoais
03:40
are used by corporations to exploit our emotions through advertising?
70
220796
4412
para explorar as nossas emoções através da publicidade?
03:45
And what becomes of our rights
71
225208
1510
E o que será dos nossos direitos,
03:46
if authorities think they can identify the people likely to commit crimes
72
226718
4019
se as autoridades acharem que podem detetar pessoas com potencial criminoso
03:50
before they even make a conscious decision to act?
73
230737
4190
antes de estas sequer decidirem cometer de facto um crime?
03:54
Robots currently have a long way to go
74
234927
2223
Os robôs têm um longo caminho por percorrer
03:57
in distinguishing emotional nuances, like irony,
75
237150
3108
no que toca a emoções mais subtis, como a ironia,
04:00
and scales of emotions, just how happy or sad someone is.
76
240258
4500
ou a escalas de emoções, por exemplo quão feliz ou triste alguém está.
04:04
Nonetheless, they may eventually be able to accurately read our emotions
77
244758
4530
Seja como for, poderão tornar-se capazes de ler fielmente as nossas emoções
04:09
and respond to them.
78
249288
1850
e agir em resposta às mesmas.
Agora, se eles são capazes de empatizar com o nosso medo de intrusões indesejadas
04:11
Whether they can empathize with our fear of unwanted intrusion, however,
79
251138
4251
04:15
that's another story.
80
255389
1498
isso é outra história.
Sobre este site

Este sítio irá apresentar-lhe vídeos do YouTube que são úteis para a aprendizagem do inglês. Verá lições de inglês ensinadas por professores de primeira linha de todo o mundo. Faça duplo clique nas legendas em inglês apresentadas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas deslocam-se em sincronia com a reprodução do vídeo. Se tiver quaisquer comentários ou pedidos, por favor contacte-nos utilizando este formulário de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7