How we can teach computers to make sense of our emotions | Raphael Arar

64,579 views ・ 2018-04-24

TED


A videó lejátszásához kattintson duplán az alábbi angol feliratokra.

00:00
Translator: Ivana Korom Reviewer: Joanna Pietrulewicz
0
0
7000
Fordító: Ádám Kósa Lektor: Péter Pallós
00:13
I consider myself one part artist and one part designer.
1
13760
4680
Egyszerre művésznek és tervezőnek tartom magam.
00:18
And I work at an artificial intelligence research lab.
2
18480
3160
Mesterséges intelligenciát kutató laborban dolgozom.
00:22
We're trying to create technology
3
22720
1696
Olyan technológiát hoznánk létre,
00:24
that you'll want to interact with in the far future.
4
24440
3296
amellyel a jövőben szeretnének kölcsönhatásba kerülni.
00:27
Not just six months from now, but try years and decades from now.
5
27760
4640
Innen számítva nem hat hónapról, évekről, évtizedekről van szó.
00:33
And we're taking a moonshot
6
33120
1616
Ez pedig eget rengető lesz:
00:34
that we'll want to be interacting with computers
7
34760
2456
a számítógépekkel mély érzelmi szinteken
00:37
in deeply emotional ways.
8
37240
2120
akarunk kölcsönhatásba kerülni.
00:40
So in order to do that,
9
40280
1456
Ennek érdekében
00:41
the technology has to be just as much human as it is artificial.
10
41760
4480
a technológia nemcsak mesterséges, hanem emberi is kell, hogy legyen.
00:46
It has to get you.
11
46920
2256
Magával kell ragadnia.
00:49
You know, like that inside joke that'll have you and your best friend
12
49200
3336
Mint a két legjobb barát közti belső poénnak,
00:52
on the floor, cracking up.
13
52560
1936
ami padlóra küld, megőrjít.
00:54
Or that look of disappointment that you can just smell from miles away.
14
54520
4560
Vagy a mérföldekről érezhető csalódás látszatának.
01:00
I view art as the gateway to help us bridge this gap between human and machine:
15
60560
6040
Úgy látom, művészettel áthidalható az ember és gép közötti szakadék,
01:07
to figure out what it means to get each other
16
67280
3136
megtanuljuk megérteni egymást,
01:10
so that we can train AI to get us.
17
70440
2760
így kiképezhetjük az MI-t, hogy megértsen minket.
01:13
See, to me, art is a way to put tangible experiences
18
73920
3816
Számomra a művészet kézzelfogható élmények kifejezésének módja
01:17
to intangible ideas, feelings and emotions.
19
77760
3240
megfoghatatlan gondolatokba, érzésekbe, érzelmekbe.
01:21
And I think it's one of the most human things about us.
20
81800
2600
Azt hiszem, ez tesz minket leginkább emberré.
01:25
See, we're a complicated and complex bunch.
21
85480
2936
Bonyolult és összetett lények vagyunk.
01:28
We have what feels like an infinite range of emotions,
22
88440
3136
Érzelmeink tág határok közt váltakoznak,
01:31
and to top it off, we're all different.
23
91600
2496
ráadásul mind mások vagyunk.
01:34
We have different family backgrounds,
24
94120
2296
Különböző a családi hátterünk,
01:36
different experiences and different psychologies.
25
96440
3080
az élményeink, a lelkivilágunk.
01:40
And this is what makes life really interesting.
26
100240
2720
Ez teszi az életet igazán érdekessé.
01:43
But this is also what makes working on intelligent technology
27
103440
3496
De ugyanez teszi az okostechnológia fejlesztését
01:46
extremely difficult.
28
106960
1600
rendkívül nehézkessé.
01:49
And right now, AI research, well,
29
109640
3456
Jelenleg az MI-kutatás
01:53
it's a bit lopsided on the tech side.
30
113120
2016
kissé aránytalanul műszaki jellegű.
01:55
And that makes a lot of sense.
31
115160
2136
Aminek sok értelme van.
01:57
See, for every qualitative thing about us --
32
117320
2456
A magunk összes minőségi jellemzőjét –
01:59
you know, those parts of us that are emotional, dynamic and subjective --
33
119800
4456
érzelmi, dinamikus és egyéni részeinket –
02:04
we have to convert it to a quantitative metric:
34
124280
3136
számszerűsítenünk kell valamire,
02:07
something that can be represented with facts, figures and computer code.
35
127440
4360
ami tényekkel, ábrákkal, programozási kóddal fejezhető ki.
02:13
The issue is, there are many qualitative things
36
133000
3376
A gond az, hogy sok olyan minőségi jellemző van,
02:16
that we just can't put our finger on.
37
136400
1960
amikre nincs pontos definíció.
02:20
So, think about hearing your favorite song for the first time.
38
140400
3200
Gondoljunk arra, amikor először hallgatták kedvenc dalukat.
02:25
What were you doing?
39
145200
1200
Mit csináltak?
02:28
How did you feel?
40
148000
1200
Mit éreztek?
02:30
Did you get goosebumps?
41
150720
1360
Libabőrösök lettek?
02:33
Or did you get fired up?
42
153240
1640
Vagy felpörögtek?
02:36
Hard to describe, right?
43
156400
1200
Nehéz leírni, igaz?
02:38
See, parts of us feel so simple,
44
158800
2096
Egyik felünk annyira egyszerűen érez,
02:40
but under the surface, there's really a ton of complexity.
45
160920
3656
de elképesztő a felszín alatti sokrétűség.
02:44
And translating that complexity to machines
46
164600
2936
Ennek a sokrétűségnek átültetése gépekbe pedig:
02:47
is what makes them modern-day moonshots.
47
167560
2856
modern kori eget rengető vállalkozás.
02:50
And I'm not convinced that we can answer these deeper questions
48
170440
4176
Nem hiszem, hogy ezekre a mély kérdésekre választ ad
02:54
with just ones and zeros alone.
49
174640
1480
a szimpla egy és nulla.
02:57
So, in the lab, I've been creating art
50
177120
1936
Ezért a laborban a művészetet arra használom fel,
02:59
as a way to help me design better experiences
51
179080
2456
hogy jobb élményeket tervezzek
03:01
for bleeding-edge technology.
52
181560
2096
kiforratlan technológiáknak.
03:03
And it's been serving as a catalyst
53
183680
1736
Ez eddig katalizátorként szolgált,
03:05
to beef up the more human ways that computers can relate to us.
54
185440
3840
hogy ütőképesebbé tegyem a gépek emberi jellemzőit.
03:10
Through art, we're tacking some of the hardest questions,
55
190000
2696
A művészet segít megbirkózni a legnehezebb kérdésekkel:
03:12
like what does it really mean to feel?
56
192720
2360
pl. igazából mit jelent érezni?
03:16
Or how do we engage and know how to be present with each other?
57
196120
4080
Hogyan foglalkozunk egymással, és egymás jelenlétével?
03:20
And how does intuition affect the way that we interact?
58
200800
4000
Hogyan befolyásolja a megérzés, miként érintkezünk egymással?
03:26
So, take for example human emotion.
59
206440
2056
Vegyük példaként az emberi érzelmeket.
03:28
Right now, computers can make sense of our most basic ones,
60
208520
3256
Jelenleg a gépek képesek megérteni a legalapvetőbbeket:
03:31
like joy, sadness, anger, fear and disgust,
61
211800
3696
öröm, szomorúság, harag, félelem, utálat;
03:35
by converting those characteristics to math.
62
215520
3000
ezek jellemzőit számokká alakítják át.
03:39
But what about the more complex emotions?
63
219400
2536
De a sokkal összetettebb érzelmeket is?
03:41
You know, those emotions
64
221960
1216
Azon érzéseket,
03:43
that we have a hard time describing to each other?
65
223200
2376
amiket egymásnak nagyon nehezen tudunk leírni.
03:45
Like nostalgia.
66
225600
1440
Pl. a nosztalgia.
03:47
So, to explore this, I created a piece of art, an experience,
67
227640
3936
Hogy ezt megnézzem, műalkotást, élményt hoztam létre,
03:51
that asked people to share a memory,
68
231600
2096
ami emlékek elmesélését kéri.
03:53
and I teamed up with some data scientists
69
233720
2136
Majd pár adattudóssal együtt kitaláltuk,
03:55
to figure out how to take an emotion that's so highly subjective
70
235880
3576
hogyan alakítsunk át nagyon szubjektív érzelmeket
03:59
and convert it into something mathematically precise.
71
239480
3200
valami számszerűleg pontos dologgá.
04:03
So, we created what we call a nostalgia score
72
243840
2136
Erre létrehoztuk az ún. nosztalgiaszámot,
04:06
and it's the heart of this installation.
73
246000
2216
és ez az installációnk magja.
04:08
To do that, the installation asks you to share a story,
74
248240
3056
Az installáció sztorimesélésre kér,
04:11
the computer then analyzes it for its simpler emotions,
75
251320
3256
amit a gép elemez, egyszerűbb érzelmekre bont,
04:14
it checks for your tendency to use past-tense wording
76
254600
2656
megnézi, mennyire van jelen a múltidő-használat,
04:17
and also looks for words that we tend to associate with nostalgia,
77
257280
3336
illetve nosztalgiához kapcsolódó szavakat keres,
04:20
like "home," "childhood" and "the past."
78
260640
3040
mint pl. otthon, gyerekkor, a múlt.
04:24
It then creates a nostalgia score
79
264760
2056
Így jön létre a nosztalgiaszám,
04:26
to indicate how nostalgic your story is.
80
266840
2736
ami a sztori nosztalgikusságát jelzi.
04:29
And that score is the driving force behind these light-based sculptures
81
269600
4136
Az eredmény pedig a mozgatórugója e fényalapú alakzatoknak,
04:33
that serve as physical embodiments of your contribution.
82
273760
3896
mintegy fizikai megtestesülésük a mesélők hozzájárulásának.
04:37
And the higher the score, the rosier the hue.
83
277680
3216
Minél nagyobb a szám, annál rózsaszínűbb a háttér.
04:40
You know, like looking at the world through rose-colored glasses.
84
280920
3936
Mintha rózsaszín szemüvegen át látnánk a világot.
04:44
So, when you see your score
85
284880
2616
Ha megjelenik a szám
04:47
and the physical representation of it,
86
287520
2656
és a fizikai megtestesülése,
04:50
sometimes you'd agree and sometimes you wouldn't.
87
290200
2936
néha egyet szoktak érteni vele, néha nem.
04:53
It's as if it really understood how that experience made you feel.
88
293160
3480
Mintha a gép valóban megértette volna, milyen érzést váltott ki az élmény.
04:57
But other times it gets tripped up
89
297400
2216
Néha pedig belegabalyodik,
04:59
and has you thinking it doesn't understand you at all.
90
299640
2560
és azt sugallja, semmit sem ért belőlünk.
05:02
But the piece really serves to show
91
302680
1896
De az alkotás rámutat,
05:04
that if we have a hard time explaining the emotions that we have to each other,
92
304600
4056
hogy ha még egymás iránti érzelmeink elmondása is nehezünkre esik,
05:08
how can we teach a computer to make sense of them?
93
308680
2360
hogyan értessük meg azokat gépekkel?
05:12
So, even the more objective parts about being human are hard to describe.
94
312360
3576
Még a tárgyszerűbb emberi dolgokat is nehéz leírni.
05:15
Like, conversation.
95
315960
1240
Pl. a társalgást.
05:17
Have you ever really tried to break down the steps?
96
317880
2736
Próbálták már valaha is lépésekre bontani?
05:20
So think about sitting with your friend at a coffee shop
97
320640
2656
Tegyük fel, barátjukkal ülnek a kávézóban,
05:23
and just having small talk.
98
323320
1320
és cseverésznek.
05:25
How do you know when to take a turn?
99
325160
1720
Miből tudják, hogy önökön a sor?
05:27
How do you know when to shift topics?
100
327440
1840
Mikor váltsanak témát?
05:29
And how do you even know what topics to discuss?
101
329960
2720
Egyáltalán milyen témát válasszanak?
05:33
See, most of us don't really think about it,
102
333560
2096
Legtöbbünk nem igazán gondol bele,
05:35
because it's almost second nature.
103
335680
1656
mert szinte belénk van kódolva.
05:37
And when we get to know someone, we learn more about what makes them tick,
104
337360
3496
Amikor ismerkedünk valakivel, megtanuljuk, mitől nyílik meg,
05:40
and then we learn what topics we can discuss.
105
340880
2376
majd azt, hogy miről beszélgethetünk vele.
05:43
But when it comes to teaching AI systems how to interact with people,
106
343280
3656
Ha emberi kapcsolatokra kezdünk tanítani MI-rendszereket,
05:46
we have to teach them step by step what to do.
107
346960
2856
minden egyes lépést meg kell tanítanunk nekik.
05:49
And right now, it feels clunky.
108
349840
3496
Jelenleg pedig ez bénán hat.
05:53
If you've ever tried to talk with Alexa, Siri or Google Assistant,
109
353360
4136
Ha beszélgettek már Alexával, Sirivel, vagy a Google Assistanttel,
05:57
you can tell that it or they can still sound cold.
110
357520
4200
a rideg hangjuk még mindig feltűnő.
06:02
And have you ever gotten annoyed
111
362440
1656
Bosszankodtak már fel azért,
06:04
when they didn't understand what you were saying
112
364120
2256
mert azok nem értették, amit mondani akartak,
06:06
and you had to rephrase what you wanted 20 times just to play a song?
113
366400
3840
és 20-szor kellett átfogalmazni valamit, csak hogy egy dalt lejátsszanak?
06:11
Alright, to the credit of the designers, realistic communication is really hard.
114
371440
4896
Le a kalappal a tervezők előtt, mert a valószerű kommunikáció igen nehéz.
06:16
And there's a whole branch of sociology,
115
376360
2136
Aztán ott egy egész szociológiai ágazat:
06:18
called conversation analysis,
116
378520
1936
a társalgáselemzés,
06:20
that tries to make blueprints for different types of conversation.
117
380480
3136
mely az egyes társalgástípusok szerkezeti vázait készíti el,
06:23
Types like customer service or counseling, teaching and others.
118
383640
4080
mint pl. az ügyfélszolgálatit, tanácsadásit, tanári beszédét stb.
06:28
I've been collaborating with a conversation analyst at the lab
119
388880
2936
Egy társalgáselemzővel közösen a laborban
06:31
to try to help our AI systems hold more human-sounding conversations.
120
391840
4696
megpróbáltunk MI-rendszereket rábírni emberszerűbben hangzó társalgásokra.
06:36
This way, when you have an interaction with a chatbot on your phone
121
396560
3176
Ha kapcsolatba lépnének telefonjuk csevegőrobotjával,
06:39
or a voice-based system in the car,
122
399760
1856
vagy autójuk hangvezérlőjével,
06:41
it sounds a little more human and less cold and disjointed.
123
401640
3320
kissé emberibb, barátságosabb, összeszedettebb beszédet hallanának.
06:46
So I created a piece of art
124
406360
1336
Létrehoztam egy műalkotást
06:47
that tries to highlight the robotic, clunky interaction
125
407720
2816
amely szemlélteti a robotikus, béna kölcsönhatásokat,
06:50
to help us understand, as designers,
126
410560
1976
hogy tervezőként rájöhessünk,
06:52
why it doesn't sound human yet and, well, what we can do about it.
127
412560
4576
miért nem emberi hangzású még, és mit tehetünk, hogy az legyen.
06:57
The piece is called Bot to Bot
128
417160
1456
Az alkotás neve Bot to Bot,
06:58
and it puts one conversational system against another
129
418640
2936
és társalgási rendszereket beszéltet egymással,
07:01
and then exposes it to the general public.
130
421600
2536
és az eredményt közszemlére teszi.
07:04
And what ends up happening is that you get something
131
424160
2496
Legvégül pedig elénk kerül valami,
07:06
that tries to mimic human conversation,
132
426680
1896
ami az emberi beszédet majmolná,
07:08
but falls short.
133
428600
1896
de gyengének bizonyul.
07:10
Sometimes it works and sometimes it gets into these, well,
134
430520
2736
Néha működik, néha pedig elindulnak
07:13
loops of misunderstanding.
135
433280
1536
ezek a félreértés-ciklusok.
07:14
So even though the machine-to-machine conversation can make sense,
136
434840
3096
Még ha ezek a gép-gép társalgások
07:17
grammatically and colloquially,
137
437960
2016
nyelvtanilag s köznyelvileg értelmesek is,
07:20
it can still end up feeling cold and robotic.
138
440000
3216
még mindig ridegen, robotikusan hangzanak.
07:23
And despite checking all the boxes, the dialogue lacks soul
139
443240
4016
Annak ellenére, hogy minden kipipáltunk, a párbeszéd lélektelen,
07:27
and those one-off quirks that make each of us who we are.
140
447280
3136
hiányzik a sajátos sava-borsa, amitől azok vagyunk, amik.
07:30
So while it might be grammatically correct
141
450440
2056
Habár nyelvtanilag helyes,
07:32
and uses all the right hashtags and emojis,
142
452520
2656
a megfelelő hashtageket, emotikonokat használja,
07:35
it can end up sounding mechanical and, well, a little creepy.
143
455200
4136
mégis gépiesen hangzik, és igen, kissé irtóztató.
07:39
And we call this the uncanny valley.
144
459360
2336
Ezt hívjuk "borzongások völgyének".
07:41
You know, that creepiness factor of tech
145
461720
1936
A technikának az az irtóztató szintje,
07:43
where it's close to human but just slightly off.
146
463680
2856
ahol majdnem minden emberi, de csak majdnem.
07:46
And the piece will start being
147
466560
1456
Az alkotás pedig
07:48
one way that we test for the humanness of a conversation
148
468040
3216
módszer az emberi társalgás és azon részek tesztelésére,
07:51
and the parts that get lost in translation.
149
471280
2160
amelyek elvesztek a fordítás során.
07:54
So there are other things that get lost in translation, too,
150
474560
2856
Még más is elveszett a fordítás során.
07:57
like human intuition.
151
477440
1616
Pl. az emberi megérzés.
07:59
Right now, computers are gaining more autonomy.
152
479080
2776
Jelenleg a számítógépek több autonómiát szereznek.
08:01
They can take care of things for us,
153
481880
1736
Elintéznek helyettünk ezt-azt,
08:03
like change the temperature of our houses based on our preferences
154
483640
3176
pl. kedvünk szerint szabályozzák a ház hőmérsékletét,
08:06
and even help us drive on the freeway.
155
486840
2160
vagy segítenek az autópályán haladni.
08:09
But there are things that you and I do in person
156
489560
2496
De bizonyos személyesen végzett dolgokat
08:12
that are really difficult to translate to AI.
157
492080
2760
nagyon nehéz lefordítani az MI-nek.
08:15
So think about the last time that you saw an old classmate or coworker.
158
495440
4360
Mondjuk, ha meglátnák régi osztálytársuk vagy kollégájuk.
08:21
Did you give them a hug or go in for a handshake?
159
501080
2480
Megölelnék vagy kézfogással indítanának?
08:24
You probably didn't think twice
160
504800
1496
Nemigen haboznának,
08:26
because you've had so many built up experiences
161
506320
2336
mert a sok előzetes tapasztalat
08:28
that had you do one or the other.
162
508680
2000
egyiket vagy másikat előhozná.
08:31
And as an artist, I feel that access to one's intuition,
163
511440
3456
Művészként azt érzem, hogy a hozzáférés belsőnkhöz,
08:34
your unconscious knowing,
164
514920
1416
tudatalattink értelméhez
08:36
is what helps us create amazing things.
165
516360
3056
csodás dolgok létrehozásához segít hozzá.
08:39
Big ideas, from that abstract, nonlinear place in our consciousness
166
519440
4056
Nagy ötletek, abból az elvont, nemlineáris tudatalatti térből –
08:43
that is the culmination of all of our experiences.
167
523520
2960
ez élményeink összességének betetőződése.
08:47
And if we want computers to relate to us and help amplify our creative abilities,
168
527840
4656
Kreativitásunk kiterjesztését segítő, ránk hasonlító gépek létrehozásához
08:52
I feel that we'll need to start thinking about how to make computers be intuitive.
169
532520
3896
el kell kezdenünk gondolkodni azon, hogyan legyenek gépeink intuitívak.
08:56
So I wanted to explore how something like human intuition
170
536440
3096
Fel akartam tárni, hogyan ültethető át valami olyasmi,
08:59
could be directly translated to artificial intelligence.
171
539560
3456
mint az emberi intuíció, közvetlenül a mesterséges intelligenciába.
09:03
And I created a piece that explores computer-based intuition
172
543040
3216
Létrehoztam egy művet, mely feltárja a gépalapú intuíciót
09:06
in a physical space.
173
546280
1320
a fizikai térben.
09:08
The piece is called Wayfinding,
174
548480
1696
A mű neve Wayfinding, azaz Útkereső.
09:10
and it's set up as a symbolic compass that has four kinetic sculptures.
175
550200
3936
Mint egy szimbolikus iránytű, amin négy mozgó alakzat van,
09:14
Each one represents a direction,
176
554160
2056
és egy-egy égtájat testesítenek meg:
09:16
north, east, south and west.
177
556240
2120
észak, kelet, dél és nyugat.
09:19
And there are sensors set up on the top of each sculpture
178
559080
2696
Mindegyik test tetején érzékelő van,
09:21
that capture how far away you are from them.
179
561800
2256
ami érzékeli, milyen messze vannak tőle.
09:24
And the data that gets collected
180
564080
1816
Majd az összegyűlt adatok
09:25
ends up changing the way that sculptures move
181
565920
2136
megváltoztatják az alakzat mozgásirányát,
09:28
and the direction of the compass.
182
568080
2040
és hogy merre nézzen az iránytű.
09:31
The thing is, the piece doesn't work like the automatic door sensor
183
571360
3656
A lényeg, hogy nem úgy működik, mint az ajtóérzékelő,
09:35
that just opens when you walk in front of it.
184
575040
2656
ami automatikusan nyitja az ajtót, ha elé lépünk.
09:37
See, your contribution is only a part of its collection of lived experiences.
185
577720
5056
A hozzájárulásuk pedig csak része megélt élménygyűjteményének.
09:42
And all of those experiences affect the way that it moves.
186
582800
4056
Minden élménye hat mozgásirányára.
09:46
So when you walk in front of it,
187
586880
1736
Ha elmennek előtte,
09:48
it starts to use all of the data
188
588640
1976
felhasználja az összes adatot,
09:50
that it's captured throughout its exhibition history --
189
590640
2616
amit létezése alatt
vagy intuíciójából szerzett,
09:53
or its intuition --
190
593280
1816
09:55
to mechanically respond to you based on what it's learned from others.
191
595120
3560
hogy a másoktól tanultak alapján gépileg reagáljon.
09:59
And what ends up happening is that as participants
192
599480
2536
Majd résztvevőként eljutunk
10:02
we start to learn the level of detail that we need
193
602040
2816
a kellő részleteknek arra a szintjére,
10:04
in order to manage expectations
194
604880
2016
ami által sikerül mind a gépi,
10:06
from both humans and machines.
195
606920
2776
mind az emberi elvárásokkal megbirkózni.
10:09
We can almost see our intuition being played out on the computer,
196
609720
3616
Szinte látjuk intuíciónk kialakulását a számítógépen,
10:13
picturing all of that data being processed in our mind's eye.
197
613360
3600
ahogy a lelki szemeink feldolgozta összes adatot ábrázolja.
10:17
My hope is that this type of art
198
617560
1656
Remélem, hogy az efféle művészet
10:19
will help us think differently about intuition
199
619240
2416
segít másképp gondolkozni az intuícióról,
10:21
and how to apply that to AI in the future.
200
621680
2280
és ennek későbbi MI-beli alkalmazásáról.
10:24
So these are just a few examples of how I'm using art to feed into my work
201
624480
3936
Ez csak egy-két példa arra, hogyan szivárog bele a művészet
10:28
as a designer and researcher of artificial intelligence.
202
628440
3096
tervezői és MI-kutatói munkámba,
10:31
And I see it as a crucial way to move innovation forward.
203
631560
3496
ami szerintem létfontosságú az innovatív haladásban.
10:35
Because right now, there are a lot of extremes when it comes to AI.
204
635080
4376
Mert jelenleg az MI kapcsán sokféle túlzást lehet látni.
10:39
Popular movies show it as this destructive force
205
639480
2816
A népszerű filmek pusztító erőként mutatják be.
10:42
while commercials are showing it as a savior
206
642320
3056
A reklámok pedig
mint kiutat a világ legbonyolultabb problémáiból.
10:45
to solve some of the world's most complex problems.
207
645400
2936
10:48
But regardless of where you stand,
208
648360
2536
De bármelyik oldalon álljanak is,
10:50
it's hard to deny that we're living in a world
209
650920
2176
tagadhatatlan, hogy olyan világot élünk,
10:53
that's becoming more and more digital by the second.
210
653120
2576
ami percről percre jobban digitalizálódik.
10:55
Our lives revolve around our devices, smart appliances and more.
211
655720
4600
Életünk eszközeink, okos berendezéseink körül forog.
11:01
And I don't think this will let up any time soon.
212
661400
2320
Szerintem ez egyhamar nem fog megszűnni.
11:04
So, I'm trying to embed more humanness from the start.
213
664400
3736
Ezért próbálok több emberséget már az elején beléjük ágyazni.
11:08
And I have a hunch that bringing art into an AI research process
214
668160
5136
Az a gyanúm, hogy művészetet vinni az MI-kutatás folyamatába
11:13
is a way to do just that.
215
673320
1896
közelebb visz ehhez.
11:15
Thank you.
216
675240
1216
Köszönöm.
11:16
(Applause)
217
676480
2280
(Taps)
Erről a weboldalról

Ez az oldal olyan YouTube-videókat mutat be, amelyek hasznosak az angol nyelvtanuláshoz. A világ minden tájáról származó, kiváló tanárok által tartott angol leckéket láthatsz. Az egyes videók oldalán megjelenő angol feliratokra duplán kattintva onnan játszhatja le a videót. A feliratok a videó lejátszásával szinkronban gördülnek. Ha bármilyen észrevétele vagy kérése van, kérjük, lépjen kapcsolatba velünk ezen a kapcsolatfelvételi űrlapon.

https://forms.gle/WvT1wiN1qDtmnspy7