How we can teach computers to make sense of our emotions | Raphael Arar

64,579 views ・ 2018-04-24

TED


Por favor, clique duas vezes nas legendas em inglês abaixo para reproduzir o vídeo.

00:00
Translator: Ivana Korom Reviewer: Joanna Pietrulewicz
0
0
7000
Tradutor: Hugo Sena Revisor: Maricene Crus
00:13
I consider myself one part artist and one part designer.
1
13760
4680
Eu me considero meio artista e meio designer.
00:18
And I work at an artificial intelligence research lab.
2
18480
3160
E trabalho em um laboratório de inteligência artificial.
00:22
We're trying to create technology
3
22720
1696
Nós tentamos criar tecnologias
00:24
that you'll want to interact with in the far future.
4
24440
3296
com as quais vocês queiram interagir em um futuro distante.
00:27
Not just six months from now, but try years and decades from now.
5
27760
4640
Não daqui a seis meses, mas daqui a anos ou décadas.
00:33
And we're taking a moonshot
6
33120
1616
E estamos apostando
00:34
that we'll want to be interacting with computers
7
34760
2456
que iremos interagir com computadores de forma mais profunda emocionalmente.
00:37
in deeply emotional ways.
8
37240
2120
00:40
So in order to do that,
9
40280
1456
Então, para fazer isso,
00:41
the technology has to be just as much human as it is artificial.
10
41760
4480
a tecnologia precisa ser tão humana quanto é artificial.
00:46
It has to get you.
11
46920
2256
Tem que entender você.
00:49
You know, like that inside joke that'll have you and your best friend
12
49200
3336
É como aquela piada que faz você e seu amigo
00:52
on the floor, cracking up.
13
52560
1936
rolarem no chão de tanto rir.
00:54
Or that look of disappointment that you can just smell from miles away.
14
54520
4560
Ou aquele olhar de desapontamento que você percebe a quilômetros.
01:00
I view art as the gateway to help us bridge this gap between human and machine:
15
60560
6040
Eu vejo a arte como um meio de nos ajudar a aproximar humanos e máquinas.
01:07
to figure out what it means to get each other
16
67280
3136
De compreender o que significa entender um ao outro,
01:10
so that we can train AI to get us.
17
70440
2760
assim podemos treinar a IA a nos entender.
01:13
See, to me, art is a way to put tangible experiences
18
73920
3816
Para mim, arte é um meio de tornar experiências tangíveis
01:17
to intangible ideas, feelings and emotions.
19
77760
3240
em ideias intangíveis, sentimentos e emoções.
01:21
And I think it's one of the most human things about us.
20
81800
2600
E acho que é o que temos de mais humano.
01:25
See, we're a complicated and complex bunch.
21
85480
2936
Somos seres complicados e complexos.
01:28
We have what feels like an infinite range of emotions,
22
88440
3136
Nós temos o que parece ser uma infinita variedade de emoções,
01:31
and to top it off, we're all different.
23
91600
2496
além disso, nós somos diferentes.
01:34
We have different family backgrounds,
24
94120
2296
Temos diferentes históricos familiar,
01:36
different experiences and different psychologies.
25
96440
3080
diferentes experiências, e diferentes personalidades.
01:40
And this is what makes life really interesting.
26
100240
2720
E é isso que torna a vida realmente interessante.
01:43
But this is also what makes working on intelligent technology
27
103440
3496
Mas também é o que torna trabalhar em tecnologias inteligentes
01:46
extremely difficult.
28
106960
1600
extremamente difícil.
01:49
And right now, AI research, well,
29
109640
3456
Por enquanto, pesquisas em IA
01:53
it's a bit lopsided on the tech side.
30
113120
2016
tendem mais para o lado técnico.
01:55
And that makes a lot of sense.
31
115160
2136
Isso faz muito sentido,
01:57
See, for every qualitative thing about us --
32
117320
2456
pois, para cada coisa qualitativa nossa,
01:59
you know, those parts of us that are emotional, dynamic and subjective --
33
119800
4456
aquelas partes de nós que são emocional, dinâmica e subjetiva,
02:04
we have to convert it to a quantitative metric:
34
124280
3136
temos que converter isso em métrica quantitativa.
02:07
something that can be represented with facts, figures and computer code.
35
127440
4360
Algo que possa ser representado com dados, números e códigos.
02:13
The issue is, there are many qualitative things
36
133000
3376
O problema é que há muitas coisas qualitativas
02:16
that we just can't put our finger on.
37
136400
1960
que não conseguimos entender.
02:20
So, think about hearing your favorite song for the first time.
38
140400
3200
Então, imaginem ouvir sua música favorita pela primeira vez.
02:25
What were you doing?
39
145200
1200
O que você estava fazendo?
02:28
How did you feel?
40
148000
1200
Como você se sentiu?
02:30
Did you get goosebumps?
41
150720
1360
Você sentiu calafrios?
02:33
Or did you get fired up?
42
153240
1640
Ou ficou empolgado?
02:36
Hard to describe, right?
43
156400
1200
Difícil descrever, não é?
02:38
See, parts of us feel so simple,
44
158800
2096
Aparentamos ser muito simples,
02:40
but under the surface, there's really a ton of complexity.
45
160920
3656
mas, na realidade, existe uma grande complexidade.
02:44
And translating that complexity to machines
46
164600
2936
E transferir essas complexidades para as máquinas
02:47
is what makes them modern-day moonshots.
47
167560
2856
é o que o torna um desafio moderno.
02:50
And I'm not convinced that we can answer these deeper questions
48
170440
4176
E eu não estou convencido de que podemos responder a estas questões
02:54
with just ones and zeros alone.
49
174640
1480
somente com uns e zeros.
02:57
So, in the lab, I've been creating art
50
177120
1936
Então, no laboratório, eu crio arte
02:59
as a way to help me design better experiences
51
179080
2456
para me ajudar a desenvolver experiências melhores
03:01
for bleeding-edge technology.
52
181560
2096
para tecnologias de ponta.
03:03
And it's been serving as a catalyst
53
183680
1736
E tem servido como catalisador
03:05
to beef up the more human ways that computers can relate to us.
54
185440
3840
para criar formas mais humanas dos computadores interagirem conosco.
03:10
Through art, we're tacking some of the hardest questions,
55
190000
2696
Através da arte, nós abordamos as questões mais difíceis,
03:12
like what does it really mean to feel?
56
192720
2360
como o que realmente significa sentir?
03:16
Or how do we engage and know how to be present with each other?
57
196120
4080
Ou como nos envolvemos e sabemos como estar presentes um com o outro?
03:20
And how does intuition affect the way that we interact?
58
200800
4000
E como a intuição afeta a forma como interagimos?
03:26
So, take for example human emotion.
59
206440
2056
Veja, por exemplo, emoções humanas.
03:28
Right now, computers can make sense of our most basic ones,
60
208520
3256
Hoje, computadores conseguem entender as emoções mais básicas
03:31
like joy, sadness, anger, fear and disgust,
61
211800
3696
como alegria, tristeza, raiva, medo e nojo,
03:35
by converting those characteristics to math.
62
215520
3000
convertendo essas características em matemática.
03:39
But what about the more complex emotions?
63
219400
2536
Mas e as emoções mais complexas?
03:41
You know, those emotions
64
221960
1216
Aqueles tipos de emoções que temos dificuldade em descrever para os outros?
03:43
that we have a hard time describing to each other?
65
223200
2376
03:45
Like nostalgia.
66
225600
1440
Como nostalgia.
03:47
So, to explore this, I created a piece of art, an experience,
67
227640
3936
Então, para explorar isso, criei uma obra, uma experiência,
03:51
that asked people to share a memory,
68
231600
2096
pedindo para alguém dividir uma lembrança,
03:53
and I teamed up with some data scientists
69
233720
2136
e eu me uni a alguns cientistas de dados
03:55
to figure out how to take an emotion that's so highly subjective
70
235880
3576
para entender como pegar uma emoção tão subjetiva
03:59
and convert it into something mathematically precise.
71
239480
3200
e convertê-la em algo matematicamente preciso.
04:03
So, we created what we call a nostalgia score
72
243840
2136
Nós criamos algo chamado índice da nostalgia,
04:06
and it's the heart of this installation.
73
246000
2216
e é o coração dessa instalação.
04:08
To do that, the installation asks you to share a story,
74
248240
3056
Para isso, a instalação pede para você compartilhar uma história,
04:11
the computer then analyzes it for its simpler emotions,
75
251320
3256
o computador, então, a analisa para emoções mais simples,
04:14
it checks for your tendency to use past-tense wording
76
254600
2656
busca por suas tendências em usar palavras no passado,
04:17
and also looks for words that we tend to associate with nostalgia,
77
257280
3336
e também busca por palavras que tendemos a associar com nostalgia,
04:20
like "home," "childhood" and "the past."
78
260640
3040
como "casa", "infância" e "passado".
04:24
It then creates a nostalgia score
79
264760
2056
E então é criado o índice de nostalgia
04:26
to indicate how nostalgic your story is.
80
266840
2736
para indicar quão nostálgica é a história.
04:29
And that score is the driving force behind these light-based sculptures
81
269600
4136
E este índice é a força motriz por trás destas esculturas baseadas em luz
04:33
that serve as physical embodiments of your contribution.
82
273760
3896
que servem como materialização da sua contribuição.
04:37
And the higher the score, the rosier the hue.
83
277680
3216
Quanto maior a pontuação, mais rosa é a tonalidade.
04:40
You know, like looking at the world through rose-colored glasses.
84
280920
3936
É como enxergar o mundo através de óculos cor de rosa.
04:44
So, when you see your score
85
284880
2616
Então, quando você vê sua pontuação
04:47
and the physical representation of it,
86
287520
2656
e a representação física dela,
04:50
sometimes you'd agree and sometimes you wouldn't.
87
290200
2936
às vezes você concorda, às vezes não.
04:53
It's as if it really understood how that experience made you feel.
88
293160
3480
É como se realmente entendesse como você se sentiu.
04:57
But other times it gets tripped up
89
297400
2216
Mas às vezes falha
04:59
and has you thinking it doesn't understand you at all.
90
299640
2560
e você acha que não foi compreendido de forma alguma.
05:02
But the piece really serves to show
91
302680
1896
Mas essa obra serve para mostrar
05:04
that if we have a hard time explaining the emotions that we have to each other,
92
304600
4056
que se nós temos dificuldade em explicar as emoções que sentimos uns aos outros,
05:08
how can we teach a computer to make sense of them?
93
308680
2360
como podemos ensinar um computador a entendê-las?
05:12
So, even the more objective parts about being human are hard to describe.
94
312360
3576
Até mesmo as partes mais objetivas do ser humano são difíceis de descrever,
05:15
Like, conversation.
95
315960
1240
como conversação.
05:17
Have you ever really tried to break down the steps?
96
317880
2736
Vocês já tentaram entender o processo?
05:20
So think about sitting with your friend at a coffee shop
97
320640
2656
Então, imaginem sentar com um amigo em um café
05:23
and just having small talk.
98
323320
1320
para um bate-papo.
05:25
How do you know when to take a turn?
99
325160
1720
Como você sabe quando tem que falar?
05:27
How do you know when to shift topics?
100
327440
1840
Como você sabe quando mudar o assunto?
05:29
And how do you even know what topics to discuss?
101
329960
2720
E como sabe que assunto discutir?
05:33
See, most of us don't really think about it,
102
333560
2096
Muitos de nós nem sequer pensam nisso,
05:35
because it's almost second nature.
103
335680
1656
porque já é quase instintivo.
05:37
And when we get to know someone, we learn more about what makes them tick,
104
337360
3496
E quando conhecemos alguém, aprendemos sobre o que os motiva,
05:40
and then we learn what topics we can discuss.
105
340880
2376
e assim aprendemos sobre quais assuntos abordar.
05:43
But when it comes to teaching AI systems how to interact with people,
106
343280
3656
Mas quando temos que ensinar sistemas IA a interagir com pessoas,
05:46
we have to teach them step by step what to do.
107
346960
2856
nós temos que ensinar passo a passo o que fazer.
05:49
And right now, it feels clunky.
108
349840
3496
E, por enquanto, parece desajeitado.
05:53
If you've ever tried to talk with Alexa, Siri or Google Assistant,
109
353360
4136
Se você já tentou conversar com a Alexa, Siri ou o Google Assistant,
05:57
you can tell that it or they can still sound cold.
110
357520
4200
percebeu que eles ainda soam frios.
06:02
And have you ever gotten annoyed
111
362440
1656
E vocês já se irritaram
06:04
when they didn't understand what you were saying
112
364120
2256
quando eles não entenderam o que vocês falaram
06:06
and you had to rephrase what you wanted 20 times just to play a song?
113
366400
3840
e vocês tiveram que reformular 20 vezes o que queriam só para tocarem uma música?
06:11
Alright, to the credit of the designers, realistic communication is really hard.
114
371440
4896
Para crédito dos designers, comunicação realista é realmente difícil.
06:16
And there's a whole branch of sociology,
115
376360
2136
E existe um ramo da sociologia chamado de análise de conversação
06:18
called conversation analysis,
116
378520
1936
06:20
that tries to make blueprints for different types of conversation.
117
380480
3136
que tenta criar um modelo dos diferentes tipos de conversação.
06:23
Types like customer service or counseling, teaching and others.
118
383640
4080
Tipos como atendimento ao consumidor ou consultoria, ensino e outros.
06:28
I've been collaborating with a conversation analyst at the lab
119
388880
2936
Eu tenho colaborado com analistas de conversação
06:31
to try to help our AI systems hold more human-sounding conversations.
120
391840
4696
para ajudar o nosso sistema IA a ter uma conversação mais humana.
06:36
This way, when you have an interaction with a chatbot on your phone
121
396560
3176
Assim, quando você interagir com um chatbot no seu celular
06:39
or a voice-based system in the car,
122
399760
1856
ou usar o comando de voz no seu carro,
06:41
it sounds a little more human and less cold and disjointed.
123
401640
3320
vai soar um pouco mais humano e menos frio e desarticulado.
06:46
So I created a piece of art
124
406360
1336
Então, eu criei uma obra
06:47
that tries to highlight the robotic, clunky interaction
125
407720
2816
que tenta enfatizar essa interação robótica e desajeitada
06:50
to help us understand, as designers,
126
410560
1976
pra nos ajudar a entender, como designers,
06:52
why it doesn't sound human yet and, well, what we can do about it.
127
412560
4576
porque ainda não soa humano e o que podemos fazer a respeito.
06:57
The piece is called Bot to Bot
128
417160
1456
A obra se chama "Bot to Bot" e coloca um sistema de conversação
06:58
and it puts one conversational system against another
129
418640
2936
contra o outro e o expõe ao público em geral.
07:01
and then exposes it to the general public.
130
421600
2536
07:04
And what ends up happening is that you get something
131
424160
2496
Você acaba com algo que tenta imitar uma conversa humana,
07:06
that tries to mimic human conversation,
132
426680
1896
07:08
but falls short.
133
428600
1896
mas sem sucesso.
07:10
Sometimes it works and sometimes it gets into these, well,
134
430520
2736
Às vezes funciona,
mas às vezes ele entra num tipo de loop de desentendimento.
07:13
loops of misunderstanding.
135
433280
1536
07:14
So even though the machine-to-machine conversation can make sense,
136
434840
3096
Mesmo que a conversação entre máquinas faça sentido,
07:17
grammatically and colloquially,
137
437960
2016
gramaticalmente e coloquialmente,
07:20
it can still end up feeling cold and robotic.
138
440000
3216
ainda pode parecer fria e robótica.
07:23
And despite checking all the boxes, the dialogue lacks soul
139
443240
4016
E mesmo atendendo aos requisitos, o diálogo não tem a alma
07:27
and those one-off quirks that make each of us who we are.
140
447280
3136
e os detalhes que fazem de nós quem somos.
07:30
So while it might be grammatically correct
141
450440
2056
Apesar de estar gramaticalmente correto
07:32
and uses all the right hashtags and emojis,
142
452520
2656
e usar todos os hashtags e emojis certos,
07:35
it can end up sounding mechanical and, well, a little creepy.
143
455200
4136
pode acabar soando mecânico e esquisito.
07:39
And we call this the uncanny valley.
144
459360
2336
E nós chamamos isso de vale misterioso.
07:41
You know, that creepiness factor of tech
145
461720
1936
É aquele fator assustador da tecnologia,
07:43
where it's close to human but just slightly off.
146
463680
2856
parecido com um humano, mas ligeiramente diferente.
07:46
And the piece will start being
147
466560
1456
E esta obra será
07:48
one way that we test for the humanness of a conversation
148
468040
3216
um jeito de testarmos uma conversação mais humana
07:51
and the parts that get lost in translation.
149
471280
2160
e das partes que se perdem na transição.
07:54
So there are other things that get lost in translation, too,
150
474560
2856
Existem outras coisas que se perdem na transição também,
07:57
like human intuition.
151
477440
1616
como intuição humana.
07:59
Right now, computers are gaining more autonomy.
152
479080
2776
Hoje, os computadores estão ganhando mais autonomia.
08:01
They can take care of things for us,
153
481880
1736
Eles podem assumir tarefas para nós,
08:03
like change the temperature of our houses based on our preferences
154
483640
3176
como mudar a temperatura da nossa casa baseado em nosso gosto
08:06
and even help us drive on the freeway.
155
486840
2160
e até nos ajudar a dirigir na estrada.
08:09
But there are things that you and I do in person
156
489560
2496
Mas fazemos algumas coisas pessoalmente que são difíceis de converter para IA.
08:12
that are really difficult to translate to AI.
157
492080
2760
08:15
So think about the last time that you saw an old classmate or coworker.
158
495440
4360
Pensem na última vez que viram um antigo colega de classe ou do trabalho.
08:21
Did you give them a hug or go in for a handshake?
159
501080
2480
Vocês deram um abraço ou um aperto de mão?
08:24
You probably didn't think twice
160
504800
1496
Vocês não pensaram duas vezes
08:26
because you've had so many built up experiences
161
506320
2336
porque já tiveram tantas experiências
08:28
that had you do one or the other.
162
508680
2000
que tiveram que escolher um ou o outro.
08:31
And as an artist, I feel that access to one's intuition,
163
511440
3456
E como um artista, eu sinto que esse acesso à intuição de alguém,
08:34
your unconscious knowing,
164
514920
1416
seu conhecimento inconsciente,
08:36
is what helps us create amazing things.
165
516360
3056
é o que nos ajuda a criar coisas maravilhosas.
08:39
Big ideas, from that abstract, nonlinear place in our consciousness
166
519440
4056
Grandes ideias, desse lugar abstrato, não linear na nossa consciência
08:43
that is the culmination of all of our experiences.
167
523520
2960
que é o auge de todas as nossas experiências.
08:47
And if we want computers to relate to us and help amplify our creative abilities,
168
527840
4656
E se quisermos que os computadores se relacionem conosco
e nos ajudem a ampliar nossas habilidades criativas,
08:52
I feel that we'll need to start thinking about how to make computers be intuitive.
169
532520
3896
temos que começar a pensar em como torná-los intuitivos.
08:56
So I wanted to explore how something like human intuition
170
536440
3096
Então, eu queria explorar como a intuição humana
08:59
could be directly translated to artificial intelligence.
171
539560
3456
pode ser diretamente transferida para a inteligência artificial.
09:03
And I created a piece that explores computer-based intuition
172
543040
3216
Então criei uma obra que explora a intuição baseada em computador
09:06
in a physical space.
173
546280
1320
em um espaço físico.
09:08
The piece is called Wayfinding,
174
548480
1696
A obra se chama "Wayfinding",
09:10
and it's set up as a symbolic compass that has four kinetic sculptures.
175
550200
3936
e representa uma bússola que possui quatro esculturas cinéticas.
09:14
Each one represents a direction,
176
554160
2056
Cada uma representa uma direção,
09:16
north, east, south and west.
177
556240
2120
norte, leste, sul e oeste.
09:19
And there are sensors set up on the top of each sculpture
178
559080
2696
E há sensores instalados no topo de cada escultura
09:21
that capture how far away you are from them.
179
561800
2256
que capturam a sua distância delas.
09:24
And the data that gets collected
180
564080
1816
E os dados coletados alteram a forma como as esculturas se movem
09:25
ends up changing the way that sculptures move
181
565920
2136
09:28
and the direction of the compass.
182
568080
2040
e a direção da bússola.
09:31
The thing is, the piece doesn't work like the automatic door sensor
183
571360
3656
Porém, esta obra não funciona como um sensor de porta automática
09:35
that just opens when you walk in front of it.
184
575040
2656
que abre quando paramos na frente dela.
09:37
See, your contribution is only a part of its collection of lived experiences.
185
577720
5056
A sua contribuição é apenas uma parte da coleção de experiências vividas.
09:42
And all of those experiences affect the way that it moves.
186
582800
4056
E todas essas experiências afetam a forma como ela se move.
09:46
So when you walk in front of it,
187
586880
1736
Quando você anda na frente dela,
09:48
it starts to use all of the data
188
588640
1976
ela começa a usar todos os dados
09:50
that it's captured throughout its exhibition history --
189
590640
2616
que são capturados através do histórico da exibição,
09:53
or its intuition --
190
593280
1816
ou sua intuição,
09:55
to mechanically respond to you based on what it's learned from others.
191
595120
3560
para responder mecanicamente a você, baseada no que aprendeu com os outros.
09:59
And what ends up happening is that as participants
192
599480
2536
Então, como participantes,
10:02
we start to learn the level of detail that we need
193
602040
2816
nós começamos a entender o nível de detalhe que precisamos
10:04
in order to manage expectations
194
604880
2016
para gerenciar as expectativas
10:06
from both humans and machines.
195
606920
2776
tanto dos humanos quanto das máquinas.
10:09
We can almost see our intuition being played out on the computer,
196
609720
3616
Quase podemos ver nossa intuição sendo representada no computador,
10:13
picturing all of that data being processed in our mind's eye.
197
613360
3600
imaginando todos aqueles dados sendo processados na nossa mente.
10:17
My hope is that this type of art
198
617560
1656
Eu espero que esse tipo de arte
10:19
will help us think differently about intuition
199
619240
2416
nos ajude a pensar de outra forma sobre intuição
10:21
and how to apply that to AI in the future.
200
621680
2280
e como aplicá-la à IA no futuro.
10:24
So these are just a few examples of how I'm using art to feed into my work
201
624480
3936
Estes são alguns exemplos de como estou usando a arte para alimentar meu trabalho
10:28
as a designer and researcher of artificial intelligence.
202
628440
3096
como designer e pesquisador de inteligência artificial.
10:31
And I see it as a crucial way to move innovation forward.
203
631560
3496
E eu a vejo como uma forma crucial de levar a inovação adiante.
10:35
Because right now, there are a lot of extremes when it comes to AI.
204
635080
4376
Por enquanto, ainda há extremos no que diz respeito a IA.
10:39
Popular movies show it as this destructive force
205
639480
2816
Alguns filmes a mostram como uma força destrutiva
10:42
while commercials are showing it as a savior
206
642320
3056
enquanto comerciais a mostram como uma salvadora
10:45
to solve some of the world's most complex problems.
207
645400
2936
para solucionar alguns dos problemas mais complexos do mundo.
10:48
But regardless of where you stand,
208
648360
2536
Independentemente de que lado você esteja,
10:50
it's hard to deny that we're living in a world
209
650920
2176
é difícil negar que vivemos em um mundo
10:53
that's becoming more and more digital by the second.
210
653120
2576
que está se tornando cada vez mais digital.
10:55
Our lives revolve around our devices, smart appliances and more.
211
655720
4600
Nossas vidas giram em torno dos nossos dispositivos inteligentes.
11:01
And I don't think this will let up any time soon.
212
661400
2320
E eu não acredito que isso desaparecerá tão cedo.
11:04
So, I'm trying to embed more humanness from the start.
213
664400
3736
Por isso, estou tentando torná-los mais humanos desde o começo.
11:08
And I have a hunch that bringing art into an AI research process
214
668160
5136
E tenho a impressão que trazer a arte para o processo de pesquisa em IA
11:13
is a way to do just that.
215
673320
1896
é a forma de fazer isso.
11:15
Thank you.
216
675240
1216
Obrigado.
11:16
(Applause)
217
676480
2280
(Aplausos)
Sobre este site

Este site apresentará a você vídeos do YouTube que são úteis para o aprendizado do inglês. Você verá aulas de inglês ministradas por professores de primeira linha de todo o mundo. Clique duas vezes nas legendas em inglês exibidas em cada página de vídeo para reproduzir o vídeo a partir daí. As legendas rolarão em sincronia com a reprodução do vídeo. Se você tiver algum comentário ou solicitação, por favor, entre em contato conosco usando este formulário de contato.

https://forms.gle/WvT1wiN1qDtmnspy7