Can machines read your emotions? - Kostas Karpouzis

Podem as máquinas ler nossas emoções? - Kostas Karpouzis

334,937 views

2016-11-29 ・ TED-Ed


New videos

Can machines read your emotions? - Kostas Karpouzis

Podem as máquinas ler nossas emoções? - Kostas Karpouzis

334,937 views ・ 2016-11-29

TED-Ed


Por favor, clique duas vezes nas legendas em inglês abaixo para reproduzir o vídeo.

Tradutor: Jotta Reis Revisor: Custodio Marcelino
A cada ano, máquinas superam os seres humanos em número de atividades
00:07
With every year, machines surpass humans in more and more activities
0
7052
4590
00:11
we once thought only we were capable of.
1
11642
3206
que pensávamos ser os únicos capazes de realizar.
00:14
Today's computers can beat us in complex board games,
2
14848
3575
Computadores atuais nos derrotam em jogos de tabuleiro complexos,
00:18
transcribe speech in dozens of languages,
3
18423
2871
transcrevem a fala em vários idiomas,
00:21
and instantly identify almost any object.
4
21294
3452
e identificam instantaneamente quase qualquer objeto.
00:24
But the robots of tomorrow may go futher
5
24746
2366
Mas os robôs do futuro talvez cheguem mais longe,
00:27
by learning to figure out what we're feeling.
6
27112
3131
aprendendo a perceber o que sentimos.
00:30
And why does that matter?
7
30243
2138
E por que isso é importante?
00:32
Because if machines and the people who run them
8
32381
2292
Porque se as máquinas e as pessoas que as controlam
00:34
can accurately read our emotional states,
9
34673
2550
puderem ler nossos estados emocionais com precisão,
00:37
they may be able to assist us or manipulate us
10
37223
2970
elas poderão nos ajudar ou nos manipular
00:40
at unprecedented scales.
11
40193
2909
em níveis sem precedentes.
Mas antes de chegarmos lá,
00:43
But before we get there,
12
43102
1512
00:44
how can something so complex as emotion be converted into mere numbers,
13
44614
5039
como algo tão complexo como uma emoção pode ser convertido em simples números,
00:49
the only language machines understand?
14
49653
3600
o único idioma que as máquinas entendem?
Basicamente da mesma maneira que nosso cérebro interpreta emoções,
00:53
Essentially the same way our own brains interpret emotions,
15
53253
3590
00:56
by learning how to spot them.
16
56843
2151
aprendendo a identificá-las.
00:58
American psychologist Paul Ekman identified certain universal emotions
17
58994
5126
O psicólogo americano Paul Ekman identificou algumas emoções universais
onde os sinais visuais são os mesmos nas diversas culturas.
01:04
whose visual cues are understood the same way across cultures.
18
64120
5054
01:09
For example, an image of a smile signals joy to modern urban dwellers
19
69174
5019
Por exemplo, uma imagem de um sorriso
significa alegria para habitantes de áreas urbanas modernas
01:14
and aboriginal tribesmen alike.
20
74193
2772
tanto quanto para membros de uma tribo aborígene.
01:16
And according to Ekman,
21
76965
1129
E de acordo com Ekman,
raiva, nojo, medo,
01:18
anger,
22
78094
729
01:18
disgust,
23
78823
710
01:19
fear,
24
79533
742
01:20
joy,
25
80275
817
alegria, tristeza,
01:21
sadness,
26
81092
756
01:21
and surprise are equally recognizable.
27
81848
3585
e surpresa também são reconhecíveis.
01:25
As it turns out, computers are rapidly getting better at image recognition
28
85433
4403
E, computadores estão rapidamente ficando melhores em reconhecer imagens
01:29
thanks to machine learning algorithms, such as neural networks.
29
89836
4179
graças aos algoritmos de aprendizado da máquina, como as redes neurais.
Tais redes consistem em nós artificiais que imitam nossos neurônios biológicos
01:34
These consist of artificial nodes that mimic our biological neurons
30
94015
4190
através da formação de conexões e troca de informações.
01:38
by forming connections and exchanging information.
31
98205
3579
01:41
To train the network, sample inputs pre-classified into different categories,
32
101784
4501
Para treinar essa rede,
amostras pré-classificadas em diferentes categorias,
01:46
such as photos marked happy or sad,
33
106285
2890
como fotos de felicidade ou de tristeza,
01:49
are fed into the system.
34
109175
2110
são armazenadas no sistema.
A rede, então, aprende a classificar essas amostras
01:51
The network then learns to classify those samples
35
111285
2460
01:53
by adjusting the relative weights assigned to particular features.
36
113745
4660
ajustando os pesos designados para cada característica.
01:58
The more training data it's given,
37
118405
1620
Quanto mais treino é realizado,
melhor fica o algoritmo em reconhecer novas imagens.
02:00
the better the algorithm becomes at correctly identifying new images.
38
120025
4770
02:04
This is similar to our own brains,
39
124795
1732
Isso é parecido com nossos cérebros,
02:06
which learn from previous experiences to shape how new stimuli are processed.
40
126527
5198
que aprendem por meio de experiências passadas
para determinar como novos estímulos são processados.
02:11
Recognition algorithms aren't just limited to facial expressions.
41
131725
3741
Algoritmos de reconhecimento não são limitados só a expressões faciais.
02:15
Our emotions manifest in many ways.
42
135466
2420
Nossas emoções se manifestam de diversas maneiras.
02:17
There's body language and vocal tone,
43
137886
2230
Tem a linguagem corporal e o tom de voz,
mudanças na frequência cardíaca, aspecto, e temperatura da pele,
02:20
changes in heart rate, complexion, and skin temperature,
44
140116
3121
02:23
or even word frequency and sentence structure in our writing.
45
143237
4809
ou até a frequência de palavras e estruturas de sentença em nossa escrita.
Você talvez pense que treinar redes neurais para reconhecer esses aspectos
02:28
You might think that training neural networks to recognize these
46
148046
3159
02:31
would be a long and complicated task
47
151205
2432
seja um tarefa longa e complicada
02:33
until you realize just how much data is out there,
48
153637
3329
até você perceber quantos dados existem por aí,
02:36
and how quickly modern computers can process it.
49
156966
3409
e quão rápido computadores modernos podem processá-los.
02:40
From social media posts,
50
160375
1542
Desde postagens em redes sociais,
02:41
uploaded photos and videos,
51
161917
1669
fotos e vídeos enviados,
02:43
and phone recordings,
52
163586
1401
e gravações de telefone,
02:44
to heat-sensitive security cameras
53
164987
1780
até câmeras sensíveis ao calor
02:46
and wearables that monitor physiological signs,
54
166767
3670
e acessórios que monitoram sinais fisiológicos.
02:50
the big question is not how to collect enough data,
55
170437
2510
A grande questão não é como coletar todos esses dados,
02:52
but what we're going to do with it.
56
172947
2308
mas o que iremos fazer com tudo isso.
02:55
There are plenty of beneficial uses for computerized emotion recognition.
57
175255
4451
Existem vários usos benéficos para reconhecimento computadorizado de emoções.
02:59
Robots using algorithms to identify facial expressions
58
179706
2921
Robôs usando algoritmos para identificar expressões faciais
03:02
can help children learn
59
182627
1619
podem ajudar crianças a aprender
ou acompanhar uma pessoa solitária através de companheirismo.
03:04
or provide lonely people with a sense of companionship.
60
184246
3390
03:07
Social media companies are considering using algorithms
61
187636
3001
Redes sociais estão considerando usar algoritmos
03:10
to help prevent suicides by flagging posts that contain specific words or phrases.
62
190637
6410
para ajudar a prevenir suicídios
ao sinalizar postagens que contenham palavras ou frases específicas.
03:17
And emotion recognition software can help treat mental disorders
63
197047
4240
E o software de reconhecimento emocional pode ajudar a tratar transtornos mentais
ou até ser usado pelas pessoas como uma psicoterapia de baixo custo.
03:21
or even provide people with low-cost automated psychotherapy.
64
201287
4291
03:25
Despite the potential benefits,
65
205578
1610
Independentemente dos benefícios,
a chance de uma rede massiva escanear automaticamente nossas fotos,
03:27
the prospect of a massive network automatically scanning our photos,
66
207188
3681
03:30
communications,
67
210869
1089
comunicações,
03:31
and physiological signs is also quite disturbing.
68
211958
4919
e sinais fisiológicos também é perturbadora.
03:36
What are the implications for our privacy when such impersonal systems
69
216877
3919
Quais são as implicações para nossa privacidade quanto tais sistemas
03:40
are used by corporations to exploit our emotions through advertising?
70
220796
4412
são usados por empresas a fim de explorar nossas emoções por meio de propagandas?
03:45
And what becomes of our rights
71
225208
1510
E quais serão nossos direitos
03:46
if authorities think they can identify the people likely to commit crimes
72
226718
4019
se autoridades acham que podem identificar pessoas capazes de cometer crimes
03:50
before they even make a conscious decision to act?
73
230737
4190
antes mesmo de ser feita uma decisão consciente sobre o ato?
03:54
Robots currently have a long way to go
74
234927
2223
Robôs atualmente têm uma grande jornada pela frente
03:57
in distinguishing emotional nuances, like irony,
75
237150
3108
em distinguir emoções sutis, como ironia,
04:00
and scales of emotions, just how happy or sad someone is.
76
240258
4500
e escalas emocionais, como quão feliz ou triste a pessoa está.
04:04
Nonetheless, they may eventually be able to accurately read our emotions
77
244758
4530
No entanto, por fim eles podem ser capazes de ler nossas emoções com precisão
04:09
and respond to them.
78
249288
1850
e reagir a elas.
Se poderão se solidarizar com nosso medo de intromissão não autorizada,
04:11
Whether they can empathize with our fear of unwanted intrusion, however,
79
251138
4251
entretanto, isso é outra história.
04:15
that's another story.
80
255389
1498
Sobre este site

Este site apresentará a você vídeos do YouTube que são úteis para o aprendizado do inglês. Você verá aulas de inglês ministradas por professores de primeira linha de todo o mundo. Clique duas vezes nas legendas em inglês exibidas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas rolarão em sincronia com a reprodução do vídeo. Se você tiver algum comentário ou solicitação, por favor, entre em contato conosco usando este formulário de contato.

https://forms.gle/WvT1wiN1qDtmnspy7