Can machines read your emotions? - Kostas Karpouzis

333,964 views ・ 2016-11-29

TED-Ed


Haga doble clic en los subtítulos en inglés para reproducir el vídeo.

Traductor: Sebastian Betti Revisor: Lidia Cámara de la Fuente
00:07
With every year, machines surpass humans in more and more activities
0
7052
4590
Cada año, las máquinas nos superan en más y más actividades
00:11
we once thought only we were capable of.
1
11642
3206
que antes pensábamos que nos eran propias.
00:14
Today's computers can beat us in complex board games,
2
14848
3575
Las computadoras de hoy pueden vencernos en juegos de mesa complejos,
00:18
transcribe speech in dozens of languages,
3
18423
2871
transcribir el habla en decenas de idiomas,
00:21
and instantly identify almost any object.
4
21294
3452
e identificar instantáneamente casi cualquier objeto.
00:24
But the robots of tomorrow may go futher
5
24746
2366
Pero los robots del mañana pueden ir más allá
00:27
by learning to figure out what we're feeling.
6
27112
3131
y aprender a averiguar qué estamos sintiendo.
00:30
And why does that matter?
7
30243
2138
¿Y eso por qué importa?
00:32
Because if machines and the people who run them
8
32381
2292
Porque si las máquinas y las personas que las dirigen
00:34
can accurately read our emotional states,
9
34673
2550
pueden leer con precisión nuestros estados emocionales,
00:37
they may be able to assist us or manipulate us
10
37223
2970
pueden ayudarnos o manipularnos
00:40
at unprecedented scales.
11
40193
2909
a escalas sin precedentes.
00:43
But before we get there,
12
43102
1512
Pero antes de llegar ahí,
00:44
how can something so complex as emotion be converted into mere numbers,
13
44614
5039
¿cómo puede algo tan complejo como la emoción convertirse en meros números,
00:49
the only language machines understand?
14
49653
3600
que es el único lenguaje que entienden las maquinas?
00:53
Essentially the same way our own brains interpret emotions,
15
53253
3590
Esencialmente de la misma manera que el cerebro interpreta las emociones:
00:56
by learning how to spot them.
16
56843
2151
aprendiendo a identificarlas.
00:58
American psychologist Paul Ekman identified certain universal emotions
17
58994
5126
El psicólogo estadounidense Paul Ekman identificó ciertas emociones universales
01:04
whose visual cues are understood the same way across cultures.
18
64120
5054
cuyas señales visuales se entienden de la misma manera en cualquier cultura.
01:09
For example, an image of a smile signals joy to modern urban dwellers
19
69174
5019
Por ejemplo, la imagen de una sonrisa es alegría para habitantes urbanos modernos
01:14
and aboriginal tribesmen alike.
20
74193
2772
y para tribus aborígenes por igual.
01:16
And according to Ekman,
21
76965
1129
Y, según Ekman,
01:18
anger,
22
78094
729
01:18
disgust,
23
78823
710
el enojo,
el asco,
01:19
fear,
24
79533
742
el miedo,
01:20
joy,
25
80275
817
la alegría,
01:21
sadness,
26
81092
756
01:21
and surprise are equally recognizable.
27
81848
3585
la tristeza,
y la sorpresa son igualmente reconocibles.
01:25
As it turns out, computers are rapidly getting better at image recognition
28
85433
4403
Y resulta que las computadoras son cada vez mejores reconociendo imágenes
01:29
thanks to machine learning algorithms, such as neural networks.
29
89836
4179
gracias a algoritmos de aprendizaje automático, como las redes neuronales.
01:34
These consist of artificial nodes that mimic our biological neurons
30
94015
4190
Éstas tienen nodos que imitan a las neuronas biológicas
01:38
by forming connections and exchanging information.
31
98205
3579
estableciendo conexiones e intercambiando información.
01:41
To train the network, sample inputs pre-classified into different categories,
32
101784
4501
Para entrenar la red, se ingresan muestras preclasificadas en diferentes categorías,
01:46
such as photos marked happy or sad,
33
106285
2890
como fotos marcadas como feliz o triste;
01:49
are fed into the system.
34
109175
2110
eso se ingresa al sistema.
01:51
The network then learns to classify those samples
35
111285
2460
La red luego aprende a clasificar esas muestras
01:53
by adjusting the relative weights assigned to particular features.
36
113745
4660
ajustando los pesos relativos asignados a características particulares.
01:58
The more training data it's given,
37
118405
1620
Cuanto más datos de entrenamiento se dan,
02:00
the better the algorithm becomes at correctly identifying new images.
38
120025
4770
mejor se vuelve el algoritmo para identificar correctamente nuevas imágenes.
02:04
This is similar to our own brains,
39
124795
1732
Es similar a nuestro propio cerebro,
02:06
which learn from previous experiences to shape how new stimuli are processed.
40
126527
5198
que aprende de experiencias anteriores para procesar los nuevos estímulos.
02:11
Recognition algorithms aren't just limited to facial expressions.
41
131725
3741
Los algoritmos de reconocimiento no se limitan solo a las expresiones faciales.
02:15
Our emotions manifest in many ways.
42
135466
2420
Nuestras emociones se manifiestan de muchas maneras.
02:17
There's body language and vocal tone,
43
137886
2230
Hay lenguaje corporal y tono vocal,
02:20
changes in heart rate, complexion, and skin temperature,
44
140116
3121
cambios en la frecuencia cardíaca, en la tez y en la temperatura de la piel,
02:23
or even word frequency and sentence structure in our writing.
45
143237
4809
o, en la escritura, cambios de frecuencia de uso palabras y de estructura.
02:28
You might think that training neural networks to recognize these
46
148046
3159
Puede que pienses que formar redes neuronales para reconocer esto
02:31
would be a long and complicated task
47
151205
2432
es una tarea larga y complicada
02:33
until you realize just how much data is out there,
48
153637
3329
hasta que te das cuenta de la cantidad de datos que hay,
02:36
and how quickly modern computers can process it.
49
156966
3409
y de la velocidad con los que los procesan las computadoras de hoy.
02:40
From social media posts,
50
160375
1542
Desde los mensajes en redes sociales,
02:41
uploaded photos and videos,
51
161917
1669
las fotos y videos que subimos,
02:43
and phone recordings,
52
163586
1401
y los audios del teléfono,
02:44
to heat-sensitive security cameras
53
164987
1780
hasta las cámaras de seguridad sensibles al calor
02:46
and wearables that monitor physiological signs,
54
166767
3670
y los accesorios que supervisan los signos fisiológicos,
02:50
the big question is not how to collect enough data,
55
170437
2510
la gran pregunta no es cómo recolectar suficientes datos,
02:52
but what we're going to do with it.
56
172947
2308
sino qué vamos a hacer con eso.
02:55
There are plenty of beneficial uses for computerized emotion recognition.
57
175255
4451
Hay muchos usos beneficiosos para el reconocimiento de emociones.
02:59
Robots using algorithms to identify facial expressions
58
179706
2921
Los robots con algoritmos para identificar expresiones faciales
03:02
can help children learn
59
182627
1619
pueden ayudar a los niños a aprender
03:04
or provide lonely people with a sense of companionship.
60
184246
3390
o acompañar, en cierto modo, a personas solitarias.
03:07
Social media companies are considering using algorithms
61
187636
3001
Las empresas de medios sociales consideran usar algoritmos para
03:10
to help prevent suicides by flagging posts that contain specific words or phrases.
62
190637
6410
ayudar a prevenir suicidios identificando posts con palabras o frases específicas.
03:17
And emotion recognition software can help treat mental disorders
63
197047
4240
El software que reconoce emociones puede ayudar a tratar trastornos mentales
03:21
or even provide people with low-cost automated psychotherapy.
64
201287
4291
o incluso ofrecer a las personas psicoterapia automatizada.
03:25
Despite the potential benefits,
65
205578
1610
A pesar de los beneficios potenciales,
03:27
the prospect of a massive network automatically scanning our photos,
66
207188
3681
la perspectiva de una red masiva que escanee automáticamente nuestras fotos,
03:30
communications,
67
210869
1089
comunicaciones,
03:31
and physiological signs is also quite disturbing.
68
211958
4919
y signos fisiológicos es también bastante inquietante.
03:36
What are the implications for our privacy when such impersonal systems
69
216877
3919
¿Qué consecuencias para la privacidad tendrá si las grandes corporaciones usan
03:40
are used by corporations to exploit our emotions through advertising?
70
220796
4412
esos sistemas impersonales para usufructuar publicidad vía emociones?
03:45
And what becomes of our rights
71
225208
1510
¿Y qué pasa con nuestros derechos
03:46
if authorities think they can identify the people likely to commit crimes
72
226718
4019
si las autoridades piensan identificar personas susceptibles de cometer crímenes
03:50
before they even make a conscious decision to act?
73
230737
4190
antes incluso de que tomen una decisión consciente de actuar?
03:54
Robots currently have a long way to go
74
234927
2223
Los robots tienen un largo camino por recorrer
03:57
in distinguishing emotional nuances, like irony,
75
237150
3108
para distinguir matices emocionales, como la ironía,
04:00
and scales of emotions, just how happy or sad someone is.
76
240258
4500
y escalas de emociones, como cuán feliz o triste está alguien.
04:04
Nonetheless, they may eventually be able to accurately read our emotions
77
244758
4530
No obstante, eventualmente podrán leer con precisión las emociones
04:09
and respond to them.
78
249288
1850
y responder a ellas.
04:11
Whether they can empathize with our fear of unwanted intrusion, however,
79
251138
4251
Si puedan empatizar con nuestro miedo de intrusión no deseada, sin embargo,
04:15
that's another story.
80
255389
1498
esa es otra historia.
Acerca de este sitio web

Este sitio le presentará vídeos de YouTube útiles para aprender inglés. Verá lecciones de inglés impartidas por profesores de primera categoría de todo el mundo. Haz doble clic en los subtítulos en inglés que aparecen en cada página de vídeo para reproducir el vídeo desde allí. Los subtítulos se desplazan en sincronía con la reproducción del vídeo. Si tiene algún comentario o petición, póngase en contacto con nosotros mediante este formulario de contacto.

https://forms.gle/WvT1wiN1qDtmnspy7