Can machines read your emotions? - Kostas Karpouzis

334,937 views ・ 2016-11-29

TED-Ed


Fare doppio clic sui sottotitoli in inglese per riprodurre il video.

Traduttore: Revisore: Chiara Polesinanti
Anno dopo anno, le macchine surclassano gli umani
00:07
With every year, machines surpass humans in more and more activities
0
7052
4590
in attività ritenute di nostra esclusiva competenza.
00:11
we once thought only we were capable of.
1
11642
3206
00:14
Today's computers can beat us in complex board games,
2
14848
3575
I computer di oggi sanno batterci in complessi giochi da tavolo,
00:18
transcribe speech in dozens of languages,
3
18423
2871
trascrivere discorsi in dozzine di lingue
00:21
and instantly identify almost any object.
4
21294
3452
e identificare all’istante praticamente ogni oggetto.
00:24
But the robots of tomorrow may go futher
5
24746
2366
Ma i robot di domani potrebbero superarsi
00:27
by learning to figure out what we're feeling.
6
27112
3131
imparando a riconoscere i nostri stati d’animo.
00:30
And why does that matter?
7
30243
2138
E perché ci tocca da vicino?
00:32
Because if machines and the people who run them
8
32381
2292
Perché se le macchine e chi le utilizza
00:34
can accurately read our emotional states,
9
34673
2550
decifrassero accuratamente i nostri stati emotivi,
00:37
they may be able to assist us or manipulate us
10
37223
2970
allora sarebbero in grado di agevolarci o manipolarci
00:40
at unprecedented scales.
11
40193
2909
a un livello senza precedenti.
Ma prima di tutto,
00:43
But before we get there,
12
43102
1512
00:44
how can something so complex as emotion be converted into mere numbers,
13
44614
5039
come si riesce a tradurre la complessità di un’emozione in numeri,
00:49
the only language machines understand?
14
49653
3600
l’unico linguaggio accessibile alle macchine?
00:53
Essentially the same way our own brains interpret emotions,
15
53253
3590
Analogamente a come il cervello interpreta le emozioni,
00:56
by learning how to spot them.
16
56843
2151
imparando a individuarle.
00:58
American psychologist Paul Ekman identified certain universal emotions
17
58994
5126
Lo psicologo americano Paul Ekman ha identificato delle emozioni universali
01:04
whose visual cues are understood the same way across cultures.
18
64120
5054
le cui mimiche sono comuni e comprensibili presso ogni cultura.
01:09
For example, an image of a smile signals joy to modern urban dwellers
19
69174
5019
Per esempio, la foto di un sorriso
suggerisce gioia sia ai cittadini metropolitani
01:14
and aboriginal tribesmen alike.
20
74193
2772
che ai membri di una tribù aborigena.
01:16
And according to Ekman,
21
76965
1129
Inoltre, secondo Ekman,
01:18
anger,
22
78094
729
01:18
disgust,
23
78823
710
rabbia, disgusto, paura,
01:19
fear,
24
79533
742
01:20
joy,
25
80275
817
felicità, tristezza e sorpresa
01:21
sadness,
26
81092
756
01:21
and surprise are equally recognizable.
27
81848
3585
sono altrettanto riconoscibili.
01:25
As it turns out, computers are rapidly getting better at image recognition
28
85433
4403
Ormai i computer sono sempre più bravi a riconoscere le immagini
01:29
thanks to machine learning algorithms, such as neural networks.
29
89836
4179
grazie ad algoritmi di machine learning, come le reti neurali.
Queste sono composte di nodi artificiali che mimano i nostri neuroni
01:34
These consist of artificial nodes that mimic our biological neurons
30
94015
4190
01:38
by forming connections and exchanging information.
31
98205
3579
creando connessioni e scambiandosi informazioni.
01:41
To train the network, sample inputs pre-classified into different categories,
32
101784
4501
Per istruire la rete, campioni di input pre-classificati in categorie,
01:46
such as photos marked happy or sad,
33
106285
2890
ad esempio foto contrassegnate come tristi o allegre,
01:49
are fed into the system.
34
109175
2110
sono inseriti nel sistema.
01:51
The network then learns to classify those samples
35
111285
2460
Così la rete impara a classificare quei campioni
01:53
by adjusting the relative weights assigned to particular features.
36
113745
4660
in base al peso relativo assegnato a determinate caratteristiche.
01:58
The more training data it's given,
37
118405
1620
Più dati si danno al sistema,
02:00
the better the algorithm becomes at correctly identifying new images.
38
120025
4770
più preciso sarà l’algoritmo a identificare nuove immagini.
02:04
This is similar to our own brains,
39
124795
1732
Più o meno come il nostro cervello,
02:06
which learn from previous experiences to shape how new stimuli are processed.
40
126527
5198
che si affida a conoscenze pregresse per elaborare nuovi stimoli.
02:11
Recognition algorithms aren't just limited to facial expressions.
41
131725
3741
Gli algoritmi di riconoscimento non si limitano alle espressioni facciali.
02:15
Our emotions manifest in many ways.
42
135466
2420
Noi esprimiamo emozioni in molteplici forme,
02:17
There's body language and vocal tone,
43
137886
2230
col linguaggio del corpo e il tono di voce,
variazioni nel battito cardiaco, il colore e la temperatura della pelle
02:20
changes in heart rate, complexion, and skin temperature,
44
140116
3121
02:23
or even word frequency and sentence structure in our writing.
45
143237
4809
e persino nella frequenza delle parole o la sintassi nella scrittura.
Istruire le reti neurali a riconoscere queste caratteristiche
02:28
You might think that training neural networks to recognize these
46
148046
3159
02:31
would be a long and complicated task
47
151205
2432
può apparire un lavoro lungo e complesso
02:33
until you realize just how much data is out there,
48
153637
3329
finché non si realizza l’enormità dei dati disponibili
02:36
and how quickly modern computers can process it.
49
156966
3409
e la velocità di elaborazione dei moderni computer.
02:40
From social media posts,
50
160375
1542
Post sui social media, foto e video caricati online,
02:41
uploaded photos and videos,
51
161917
1669
02:43
and phone recordings,
52
163586
1401
registrazioni vocali,
02:44
to heat-sensitive security cameras
53
164987
1780
videocamere di sorveglianza a infrarossi,
02:46
and wearables that monitor physiological signs,
54
166767
3670
fino ai dispositivi indossabili che monitorano gli stati fisiologici,
02:50
the big question is not how to collect enough data,
55
170437
2510
la vera domanda non è come accumulare dati sufficienti,
02:52
but what we're going to do with it.
56
172947
2308
ma per quale scopo impiegarli.
02:55
There are plenty of beneficial uses for computerized emotion recognition.
57
175255
4451
Il riconoscimento computerizzato delle emozioni può avere molti usi utili.
02:59
Robots using algorithms to identify facial expressions
58
179706
2921
I robot con algoritmi dediti a riconoscere le espressioni
03:02
can help children learn
59
182627
1619
possono aiutare l’apprendimento infantile o fornire conforto alle persone sole.
03:04
or provide lonely people with a sense of companionship.
60
184246
3390
03:07
Social media companies are considering using algorithms
61
187636
3001
Le aziende di social media pianificano di usare gli algoritmi
03:10
to help prevent suicides by flagging posts that contain specific words or phrases.
62
190637
6410
per prevenire i suicidi, isolando i post contenenti parole o frasi chiave.
03:17
And emotion recognition software can help treat mental disorders
63
197047
4240
Certi software sarebbero d’aiuto nel trattare i disturbi mentali
03:21
or even provide people with low-cost automated psychotherapy.
64
201287
4291
o come sostegno psicoterapico economico e automatizzato.
03:25
Despite the potential benefits,
65
205578
1610
Nonostante i potenziali vantaggi,
03:27
the prospect of a massive network automatically scanning our photos,
66
207188
3681
l’idea che un’enorme rete setacci liberamente le nostre foto,
03:30
communications,
67
210869
1089
03:31
and physiological signs is also quite disturbing.
68
211958
4919
comunicazioni e parametri fisiologici,
risulta decisamente inquietante.
03:36
What are the implications for our privacy when such impersonal systems
69
216877
3919
Che ricaduta avrebbe sulla nostra privacy
se sistemi così impersonali venissero usati dalle aziende
03:40
are used by corporations to exploit our emotions through advertising?
70
220796
4412
per fare leva sulle nostre emozioni a fini commerciali?
03:45
And what becomes of our rights
71
225208
1510
E che ne sarebbe dei nostri diritti
03:46
if authorities think they can identify the people likely to commit crimes
72
226718
4019
se le autorità volessero individuare chi è incline a commettere un crimine
03:50
before they even make a conscious decision to act?
73
230737
4190
ancor prima che agisca consciamente?
03:54
Robots currently have a long way to go
74
234927
2223
Al momento i robot sono ancora lontani
03:57
in distinguishing emotional nuances, like irony,
75
237150
3108
dal distinguere le sfumature emozionali, come l’ironia,
04:00
and scales of emotions, just how happy or sad someone is.
76
240258
4500
o i vari gradi di emozioni, come i livelli di felicità o tristezza.
04:04
Nonetheless, they may eventually be able to accurately read our emotions
77
244758
4530
Ciò non esclude che a breve sapranno riconoscerle con precisione
04:09
and respond to them.
78
249288
1850
e interagire adeguatamente.
04:11
Whether they can empathize with our fear of unwanted intrusion, however,
79
251138
4251
Se sapranno anche comprendere il nostro terrore per l’invadenza indesiderata,
04:15
that's another story.
80
255389
1498
è ancora un mistero.
A proposito di questo sito web

Questo sito vi presenterà i video di YouTube utili per l'apprendimento dell'inglese. Vedrete lezioni di inglese tenute da insegnanti di alto livello provenienti da tutto il mondo. Fate doppio clic sui sottotitoli in inglese visualizzati su ogni pagina video per riprodurre il video da lì. I sottotitoli scorrono in sincronia con la riproduzione del video. Se avete commenti o richieste, contattateci tramite questo modulo di contatto.

https://forms.gle/WvT1wiN1qDtmnspy7