How we can teach computers to make sense of our emotions | Raphael Arar

64,579 views ・ 2018-04-24

TED


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video.

00:00
Translator: Ivana Korom Reviewer: Joanna Pietrulewicz
0
0
7000
Translator: trangia han Reviewer: Gia Bảo Nguyễn
Tôi luôn tin trong mình có
1 phần là nghệ sĩ và 1 phần là nhà thiết kế
Và tôi làm việc tại viện nghiên cứu trí tuệ nhân tạo.
00:13
I consider myself one part artist and one part designer.
1
13760
4680
Chúng tôi đang nỗ lực tạo ra thứ công nghệ
có thể tương tác với bạn trong tương lai xa.
00:18
And I work at an artificial intelligence research lab.
2
18480
3160
Không phải là 6 tháng, mà còn là vài năm và vài thập kỉ sau nữa.
00:22
We're trying to create technology
3
22720
1696
00:24
that you'll want to interact with in the far future.
4
24440
3296
Và chúng tôi đang có 1 dự án đầy tham vọng
đó là tương tác với những chiếc máy tính
00:27
Not just six months from now, but try years and decades from now.
5
27760
4640
bằng những cảm xúc có chiều sâu.
Và để làm thế,
00:33
And we're taking a moonshot
6
33120
1616
công nghệ đó phải đạt tới 1 mức nhân tính nhất định dẫu cho nó là nhân tạo
00:34
that we'll want to be interacting with computers
7
34760
2456
00:37
in deeply emotional ways.
8
37240
2120
Nó phải hiểu được bạn.
00:40
So in order to do that,
9
40280
1456
Bạn biết đó, nó như kiểu mấy trò đùa thâm sâu mà bạn hay giỡn với đứa bạn
00:41
the technology has to be just as much human as it is artificial.
10
41760
4480
nằm trên sàn và cười bò.
00:46
It has to get you.
11
46920
2256
Hoặc cái nhìn thất vọng mà bạn có thể cảm nhận rõ cách đó vài dặm.
00:49
You know, like that inside joke that'll have you and your best friend
12
49200
3336
00:52
on the floor, cracking up.
13
52560
1936
Tôi coi nghệ thuật là cầu nối giúp ta kết nối con người và máy móc
00:54
Or that look of disappointment that you can just smell from miles away.
14
54520
4560
nhằm tìm hiểu xem sự hòa hợp của cả 2 có ý nghĩa như thế nào
01:00
I view art as the gateway to help us bridge this gap between human and machine:
15
60560
6040
qua đó đào tạo cho AI hiểu được ta.
Với tôi mà nói, nghệ thuật là một cách để những trải nghiệm chân thật
01:07
to figure out what it means to get each other
16
67280
3136
biến thành những ý tưởng hữu hình, dạt dào tình ý và xúc cảm.
01:10
so that we can train AI to get us.
17
70440
2760
01:13
See, to me, art is a way to put tangible experiences
18
73920
3816
Và tôi nghĩ đó là điều mà con người chúng ta luôn trăn trở.
01:17
to intangible ideas, feelings and emotions.
19
77760
3240
Thấy không, con người chúng ta quả là phức tạp và khó hiểu.
Chúng ta có thể bộc lộ nhiều thứ cảm xúc tưởng chừng như vô hạn,
01:21
And I think it's one of the most human things about us.
20
81800
2600
và thêm nữa, chúng ta đều khác biệt.
01:25
See, we're a complicated and complex bunch.
21
85480
2936
Chúng ta có hoàn cảnh gia đình khác nhau,
những trải nghiệm khác nhau và tâm lí cũng khác nhau.
01:28
We have what feels like an infinite range of emotions,
22
88440
3136
01:31
and to top it off, we're all different.
23
91600
2496
Và chính điều này khiến cuộc sống trở nên thú vị.
01:34
We have different family backgrounds,
24
94120
2296
Nhưng điều này cũng khiến việc làm về công nghệ thông minh
01:36
different experiences and different psychologies.
25
96440
3080
rất là khó khăn.
01:40
And this is what makes life really interesting.
26
100240
2720
Và bây giờ, nghiên cứu AI, thì,
01:43
But this is also what makes working on intelligent technology
27
103440
3496
nó hơi lỏng lẻo về mặt công nghệ.
01:46
extremely difficult.
28
106960
1600
Và điều đó có lí chứ.
Thấy đó, với mọi tính chất của con người --
01:49
And right now, AI research, well,
29
109640
3456
bạn biết đó, những phần thuộc về cảm xúc, năng động và sự chủ quan --
01:53
it's a bit lopsided on the tech side.
30
113120
2016
01:55
And that makes a lot of sense.
31
115160
2136
chúng ta phải chuyển đổi nó thành một chỉ số định lượng:
01:57
See, for every qualitative thing about us --
32
117320
2456
thứ có thể tượng trưng cho dữ kiện, số liệu và mã máy tính.
01:59
you know, those parts of us that are emotional, dynamic and subjective --
33
119800
4456
02:04
we have to convert it to a quantitative metric:
34
124280
3136
Vấn đề là, có quá nhiều thứ định tính
02:07
something that can be represented with facts, figures and computer code.
35
127440
4360
mà chúng ta chưa hiểu hoàn toàn.
Thử nghĩ về việc bạn nghe bài hát yêu thích của mình lần đầu xem.
02:13
The issue is, there are many qualitative things
36
133000
3376
02:16
that we just can't put our finger on.
37
136400
1960
Bạn đã làm gì?
Bạn cảm giác thế nào?
02:20
So, think about hearing your favorite song for the first time.
38
140400
3200
Bạn có sởn da gà không?
Hay bạn có phấn khích không?
02:25
What were you doing?
39
145200
1200
Khó để miêu tả lắm, đúng không?
02:28
How did you feel?
40
148000
1200
02:30
Did you get goosebumps?
41
150720
1360
Thấy không, nhiều phần trong ta cảm thấy đơn giản,
nhưng ẩn trong đó, thực sự có rất nhiều mâu thuẫn.
02:33
Or did you get fired up?
42
153240
1640
02:36
Hard to describe, right?
43
156400
1200
Và việc dịch những thứ mâu thuẫn ấy cho máy móc
02:38
See, parts of us feel so simple,
44
158800
2096
chính là điều khiến đây trở thành 1 dự án đầy tham vọng đấy.
02:40
but under the surface, there's really a ton of complexity.
45
160920
3656
Và tôi không tin là ta có thể trả lời những câu hỏi sâu sắc ấy
02:44
And translating that complexity to machines
46
164600
2936
chỉ bằng mỗi số 1 và số 0
02:47
is what makes them modern-day moonshots.
47
167560
2856
Nên, ở phòng thí nghiệm, tôi đã vẽ những bức tranh
02:50
And I'm not convinced that we can answer these deeper questions
48
170440
4176
để giúp tôi minh họa những trải nghiệm
cho công nghệ tiên tiến.
02:54
with just ones and zeros alone.
49
174640
1480
Và nó đã đóng vai trò như một yếu tố thúc đẩy
để cải thiện tính nhân văn mà qua đó máy tính có thể dựa vào
02:57
So, in the lab, I've been creating art
50
177120
1936
02:59
as a way to help me design better experiences
51
179080
2456
03:01
for bleeding-edge technology.
52
181560
2096
Qua nghệ thuật, ta đang giải đáp 1 trong những câu hỏi khó nhất
03:03
And it's been serving as a catalyst
53
183680
1736
kiểu, cảm xúc thật sự là gì?
03:05
to beef up the more human ways that computers can relate to us.
54
185440
3840
Hay ta làm cách nào để gần gũi và nhận biết được sự hiện diện của nhau?
03:10
Through art, we're tacking some of the hardest questions,
55
190000
2696
03:12
like what does it really mean to feel?
56
192720
2360
Và trực giác ảnh hưởng tới cách chúng ta tương tác như thế nào?
03:16
Or how do we engage and know how to be present with each other?
57
196120
4080
Nên, hãy lấy cảm xúc con người làm ví dụ.
03:20
And how does intuition affect the way that we interact?
58
200800
4000
Giờ đây, máy tính có thể hiểu những cảm xúc cơ bản nhất của ta
như niềm vui, nỗi buồn, giận dữ, sợ hãi và ghê tởm,
03:26
So, take for example human emotion.
59
206440
2056
bằng cách chuyển đổi các tính cách này sang thuật toán.
03:28
Right now, computers can make sense of our most basic ones,
60
208520
3256
Thế còn những cảm xúc phức tạp hơn thì sao?
03:31
like joy, sadness, anger, fear and disgust,
61
211800
3696
Kiểu như, đó là những cảm xúc
mà chúng ta khó thể nào mà diễn tả được?
03:35
by converting those characteristics to math.
62
215520
3000
Như hoài niệm chẳng hạn.
03:39
But what about the more complex emotions?
63
219400
2536
Nên, để khám phá nó, tôi đã tạo ra một bức tranh, một trải nghiệm,
03:41
You know, those emotions
64
221960
1216
03:43
that we have a hard time describing to each other?
65
223200
2376
nhằm để mọi người chia sẻ kí ức,
03:45
Like nostalgia.
66
225600
1440
và tôi hợp tác với một số nhà dữ liệu học
03:47
So, to explore this, I created a piece of art, an experience,
67
227640
3936
để tìm hiểu xem làm thế nào để lấy những cảm xúc chủ quan
03:51
that asked people to share a memory,
68
231600
2096
và chuyển chúng thành cái gì đó chính xác về mặt toán học.
03:53
and I teamed up with some data scientists
69
233720
2136
03:55
to figure out how to take an emotion that's so highly subjective
70
235880
3576
Nên chúng tôi tạo ra 1 thứ gọi là điểm hoài niệm
và nó chính là trái tim của phần mềm này.
03:59
and convert it into something mathematically precise.
71
239480
3200
Để làm vậy, phần mềm sẽ đề nghị bạn chia sẻ một câu chuyện,
máy tính sau đó sẽ phân tích nó thành những xúc cảm giản đơn,
04:03
So, we created what we call a nostalgia score
72
243840
2136
04:06
and it's the heart of this installation.
73
246000
2216
nó kiểm tra tần suất sử dụng thì quá khứ của bạn
04:08
To do that, the installation asks you to share a story,
74
248240
3056
và tìm những từ mà ta thường nghĩ đến khi hoài niệm,
04:11
the computer then analyzes it for its simpler emotions,
75
251320
3256
như “nhà“, “tuổi thơ” và “quá khứ.”
04:14
it checks for your tendency to use past-tense wording
76
254600
2656
Rồi nó đánh giá điểm hoài niệm
04:17
and also looks for words that we tend to associate with nostalgia,
77
257280
3336
để xem câu chuyện của bạn hoài niệm đến mức nào.
04:20
like "home," "childhood" and "the past."
78
260640
3040
Và điểm số đó chính là nguồn sáng cho những bức phù điêu như bóng đèn này
04:24
It then creates a nostalgia score
79
264760
2056
chúng đại diện cho những đóng góp của bạn về mặt thể lí.
04:26
to indicate how nostalgic your story is.
80
266840
2736
04:29
And that score is the driving force behind these light-based sculptures
81
269600
4136
Và điểm càng cao, thì màu càng hồng.
Bạn biết đó, nó như thể nhìn ngắm thế giới qua những chiếc kính màu hồng vậy.
04:33
that serve as physical embodiments of your contribution.
82
273760
3896
Nên, khi bạn thấy điểm số của bạn
04:37
And the higher the score, the rosier the hue.
83
277680
3216
cũng như tượng trưng hữu hình của nó,
04:40
You know, like looking at the world through rose-colored glasses.
84
280920
3936
đôi lúc bạn sẽ đồng ý, đôi lúc thì không.
04:44
So, when you see your score
85
284880
2616
Kiểu nó rất thấu hiểu việc trải nghiệm đó đã mang đến cho bạn cảm xúc gì.
04:47
and the physical representation of it,
86
287520
2656
Nhưng có đôi lần nó lại bị trục trặc.
04:50
sometimes you'd agree and sometimes you wouldn't.
87
290200
2936
và điều đó khiến bạn tưởng nó không hề hiểu bạn.
04:53
It's as if it really understood how that experience made you feel.
88
293160
3480
Nhưng điều đó lại cho thấy
rằng đôi lúc chính ta còn khó diễn giải được cảm xúc của mình
04:57
But other times it gets tripped up
89
297400
2216
04:59
and has you thinking it doesn't understand you at all.
90
299640
2560
thì ta mong chờ gì việc một cái máy tính có thể thấu hiểu cơ chứ?
05:02
But the piece really serves to show
91
302680
1896
Nên, phần khách quan của con người là rất khó để miêu tả.
05:04
that if we have a hard time explaining the emotions that we have to each other,
92
304600
4056
Kiểu như cuộc trò chuyện.
05:08
how can we teach a computer to make sense of them?
93
308680
2360
Bạn đã bao giờ thử phân tích các bước chưa?
05:12
So, even the more objective parts about being human are hard to describe.
94
312360
3576
Vậy hãy nghĩ về việc ngồi với đứa bạn ở quán cafe
và tán gẫu qua lại.
05:15
Like, conversation.
95
315960
1240
Làm sao để bạn biết khi nào mình cần nói?
05:17
Have you ever really tried to break down the steps?
96
317880
2736
Làm sao để bạn biết lúc nào cần đổi chủ đề?
05:20
So think about sitting with your friend at a coffee shop
97
320640
2656
Và thậm chí là làm sao mà bạn biết mình nên bàn luận về chủ đề gì?
05:23
and just having small talk.
98
323320
1320
Thấy đó, hầu hết chúng ta đều không nghĩ về nó,
05:25
How do you know when to take a turn?
99
325160
1720
05:27
How do you know when to shift topics?
100
327440
1840
vì nó như kiểu là bản năng vậy.
Và khi ta biết ai đó, ta học nhiều hơn về cách cuốn hút họ
05:29
And how do you even know what topics to discuss?
101
329960
2720
và qua đó biết được mình cần bàn luận chủ đề gì.
05:33
See, most of us don't really think about it,
102
333560
2096
Nhưng khi nói đến việc dạy cho hệ thống AI tương tác với con người,
05:35
because it's almost second nature.
103
335680
1656
05:37
And when we get to know someone, we learn more about what makes them tick,
104
337360
3496
chúng ta phải dạy chúng từng bước.
05:40
and then we learn what topics we can discuss.
105
340880
2376
Và bây giờ, nó cảm thấy khó khăn.
05:43
But when it comes to teaching AI systems how to interact with people,
106
343280
3656
Nếu bạn từng cố nói chuyện với Alexa, Siri hoặc trợ lí Google,
05:46
we have to teach them step by step what to do.
107
346960
2856
05:49
And right now, it feels clunky.
108
349840
3496
bạn có thể thấy chúng trả lời rất cứng nhắc.
05:53
If you've ever tried to talk with Alexa, Siri or Google Assistant,
109
353360
4136
Và bạn đã bao giờ thấy khó chịu
khi chúng không hiểu điều bạn nói
05:57
you can tell that it or they can still sound cold.
110
357520
4200
và bạn phải nhắc lại 20 lần chỉ để chơi một bài hát?
06:02
And have you ever gotten annoyed
111
362440
1656
Được rồi, trước sự tín nhiệm của các nhà thiết kế, giao tiếp rất là khó.
06:04
when they didn't understand what you were saying
112
364120
2256
06:06
and you had to rephrase what you wanted 20 times just to play a song?
113
366400
3840
Và có cả một ngành trong xã hội học,
gọi là phân tích cuộc hội thoại,
06:11
Alright, to the credit of the designers, realistic communication is really hard.
114
371440
4896
nhằm viết lên bản thiết kế cho các loại hội thoại khác nhau.
Kiểu giống chăm sóc khách hàng hay tư vấn, giảng dạy và mấy thứ khác.
06:16
And there's a whole branch of sociology,
115
376360
2136
06:18
called conversation analysis,
116
378520
1936
06:20
that tries to make blueprints for different types of conversation.
117
380480
3136
Tôi đã cộng tác với một nhà phân tích hội thọai tại phòng thí nghiệm
06:23
Types like customer service or counseling, teaching and others.
118
383640
4080
để giúp hệ thống AI tạo những cuộc hội thoại tự nhiên hơn.
06:28
I've been collaborating with a conversation analyst at the lab
119
388880
2936
Bằng cách này, khi bạn giao tiếp với một chatbot trên điện thoại
06:31
to try to help our AI systems hold more human-sounding conversations.
120
391840
4696
hoặc hệ thống giọng nói trên xe,
nó nghe giống con người hơn và bớt cứng nhắc hơn và dễ hiểu hơn.
06:36
This way, when you have an interaction with a chatbot on your phone
121
396560
3176
Nên tôi đã tạo một bức tranh
06:39
or a voice-based system in the car,
122
399760
1856
để nhấn mạnh sự tương tác khó xử của máy móc
06:41
it sounds a little more human and less cold and disjointed.
123
401640
3320
nhằm giúp bọn tôi, những nhà thiết kế hiểu
vì sao nó không nghe giống con người và chúng ta có thể làm gì.
06:46
So I created a piece of art
124
406360
1336
06:47
that tries to highlight the robotic, clunky interaction
125
407720
2816
Tác phẩm này gọi là “Bot với Bot”
06:50
to help us understand, as designers,
126
410560
1976
và nó đặt 1 hệ thống hội thoại để tương tác lẫn nhau
06:52
why it doesn't sound human yet and, well, what we can do about it.
127
412560
4576
rồi công khai nó với công chúng.
Và kết quả là bạn có được 1 thứ
06:57
The piece is called Bot to Bot
128
417160
1456
06:58
and it puts one conversational system against another
129
418640
2936
đang bắt chước cuộc hội thoại của con người,
nhưng chưa tới.
07:01
and then exposes it to the general public.
130
421600
2536
Đôi lúc nó hiệu quả và đôi lúc nó lại vướng vào, kiểu
07:04
And what ends up happening is that you get something
131
424160
2496
vòng lặp của sự hiểu lầm.
07:06
that tries to mimic human conversation,
132
426680
1896
Nên dù cuộc hội thoại máy với máy có thể có lý,
07:08
but falls short.
133
428600
1896
về ngữ pháp và thông tục,
07:10
Sometimes it works and sometimes it gets into these, well,
134
430520
2736
nó vẫn có thể nghe lạnh lùng và máy móc.
07:13
loops of misunderstanding.
135
433280
1536
07:14
So even though the machine-to-machine conversation can make sense,
136
434840
3096
Và mặc dù đã kiểm tra mọi thứ, cuộc hội thoại vẫn thiếu phần hồn
07:17
grammatically and colloquially,
137
437960
2016
và những điều kỳ quặc đó là thứ tạo nên chúng ta.
07:20
it can still end up feeling cold and robotic.
138
440000
3216
Nên dù nó có thể đúng ngữ pháp
07:23
And despite checking all the boxes, the dialogue lacks soul
139
443240
4016
và dùng đúng emoji và dấu thăng,
nó có thể nghe máy móc và, kiểu, nghe hơi rùng mình.
07:27
and those one-off quirks that make each of us who we are.
140
447280
3136
07:30
So while it might be grammatically correct
141
450440
2056
Và chúng tôi gọi đây là điểm kì lạ.
07:32
and uses all the right hashtags and emojis,
142
452520
2656
Bạn biết đấy, yếu tố đáng sợ của công nghệ
07:35
it can end up sounding mechanical and, well, a little creepy.
143
455200
4136
là nó giống con người nhưng lại không phải con người.
Và bức tranh sẽ bắt đầu
07:39
And we call this the uncanny valley.
144
459360
2336
cách để chúng ta kiểm tra tính con người của một cuộc hội thoại
07:41
You know, that creepiness factor of tech
145
461720
1936
và phần mà bỏ qua trong lúc dịch,
07:43
where it's close to human but just slightly off.
146
463680
2856
07:46
And the piece will start being
147
466560
1456
Nên có một số thứ không được dịch đầy đủ,
07:48
one way that we test for the humanness of a conversation
148
468040
3216
như trực giác của con người.
Giờ đây, máy tính đang dần tự chủ hơn.
07:51
and the parts that get lost in translation.
149
471280
2160
Chúng có thể chăm sóc vài thứ cho ta,
07:54
So there are other things that get lost in translation, too,
150
474560
2856
giống như thay đổi nhiệt độ trong nhà dựa trên sự điều dẫn của ta
07:57
like human intuition.
151
477440
1616
và thậm chí giúp ta lái xe trên đường cao tốc.
07:59
Right now, computers are gaining more autonomy.
152
479080
2776
08:01
They can take care of things for us,
153
481880
1736
Những vẫn có những thứ trong hành vi của tôi và bạn
08:03
like change the temperature of our houses based on our preferences
154
483640
3176
khó có thể dịch ra cho AI.
08:06
and even help us drive on the freeway.
155
486840
2160
Hãy thử nghĩ về lần cuối cùng bạn thấy bạn cùng lớp hoặc đồng nghiệp.
08:09
But there are things that you and I do in person
156
489560
2496
08:12
that are really difficult to translate to AI.
157
492080
2760
Bạn đã cho họ một cái ôm hoặc bắt tay chưa?
08:15
So think about the last time that you saw an old classmate or coworker.
158
495440
4360
Bạn chắc sẽ không nghĩ nhiều về nó
vì bạn có rất nhiều kinh nghiệm tích lũy
để làm những việc tương tự.
08:21
Did you give them a hug or go in for a handshake?
159
501080
2480
Vơi tư cách là họa sĩ, tôi thấy việc tiếp cận với trực giác của 1 người
08:24
You probably didn't think twice
160
504800
1496
08:26
because you've had so many built up experiences
161
506320
2336
phần vô ý thức,
mới là thứ giúp ta làm những việc đáng kinh ngạc.
08:28
that had you do one or the other.
162
508680
2000
Những ý tưởng lớn, dù trừu tượng, luôn nằm trong tiềm thức của ta
08:31
And as an artist, I feel that access to one's intuition,
163
511440
3456
08:34
your unconscious knowing,
164
514920
1416
đó là sự tích lũy từ những trải nghiệm .
08:36
is what helps us create amazing things.
165
516360
3056
08:39
Big ideas, from that abstract, nonlinear place in our consciousness
166
519440
4056
Và nếu chúng ta muốn máy tính hiểu và giúp nâng cao sự sáng tạo cho ta,
08:43
that is the culmination of all of our experiences.
167
523520
2960
Tôi cảm thấy rằng ta sẽ cần phải nghĩ đến
về cách làm cho máy tính trở nên trực quan.
08:47
And if we want computers to relate to us and help amplify our creative abilities,
168
527840
4656
Nên tôi muốn tìm ra là làm thế nào mà trực giác của con người
có thể trực tiếp dịch ra cho trí thông minh nhân tạo.
08:52
I feel that we'll need to start thinking about how to make computers be intuitive.
169
532520
3896
Và tôi tạo ra một bức tranh nhằm tìm hiểu về trực giác của máy tính
08:56
So I wanted to explore how something like human intuition
170
536440
3096
trong không gian vật chất.
08:59
could be directly translated to artificial intelligence.
171
539560
3456
Bức tranh đó gọi là Wayfinding,
và nó như một cái la bàn tượng trưng cho 4 bức phù điêu động học,
09:03
And I created a piece that explores computer-based intuition
172
543040
3216
Mỗi cái tượng trưng cho một phương hướng,
09:06
in a physical space.
173
546280
1320
Bắc, Đông, Nam và Tây.
09:08
The piece is called Wayfinding,
174
548480
1696
09:10
and it's set up as a symbolic compass that has four kinetic sculptures.
175
550200
3936
Và có những cảm biến đặt ở trên mỗi bức phù điêu
để nắm bắt được sự khác nhau giữa bạn và chúng.
09:14
Each one represents a direction,
176
554160
2056
Và dữ liệu được thu thập
09:16
north, east, south and west.
177
556240
2120
làm thay đổi hướng của các bức phù điêu
09:19
And there are sensors set up on the top of each sculpture
178
559080
2696
lẫn hướng của la bàn.
09:21
that capture how far away you are from them.
179
561800
2256
Nhưng có điều là, bức tranh này không hoat động như cảm biến cửa tự động
09:24
And the data that gets collected
180
564080
1816
09:25
ends up changing the way that sculptures move
181
565920
2136
thứ vốn mở ra ngay khi bạn đi qua.
09:28
and the direction of the compass.
182
568080
2040
Thấy đó, sự đóng góp của bạn chỉ là một phần trong trải nghiệm sống động này
09:31
The thing is, the piece doesn't work like the automatic door sensor
183
571360
3656
Và tất cả những trải nghiệm đó ảnh hưởng tới cách nó hoạt động.
09:35
that just opens when you walk in front of it.
184
575040
2656
09:37
See, your contribution is only a part of its collection of lived experiences.
185
577720
5056
Nên khi bạn đi trước nó,
nó bắt đầu sử dụng tất cả dữ liệu
09:42
And all of those experiences affect the way that it moves.
186
582800
4056
mà nó đã thu thập được trong suốt lịch sử của nó -
hoặc dùng chính trực giác -
09:46
So when you walk in front of it,
187
586880
1736
để trả lời bạn một cách máy móc
09:48
it starts to use all of the data
188
588640
1976
dựa trên những gì nó học được từ những người khác.
09:50
that it's captured throughout its exhibition history --
189
590640
2616
Và kết quả là với tư cách những người tham gia
09:53
or its intuition --
190
593280
1816
ta bắt đầu nắm được các chi tiết ở mức độ nhất định
09:55
to mechanically respond to you based on what it's learned from others.
191
595120
3560
để quản lý những kỳ vọng
từ cả con người và máy móc.
09:59
And what ends up happening is that as participants
192
599480
2536
Ta có thể phần nào thấy trực giác của mình hiển thị trên máy tính,
10:02
we start to learn the level of detail that we need
193
602040
2816
10:04
in order to manage expectations
194
604880
2016
chụp tất cả dữ liệu đó, chuyển hóa nó vào đôi mắt tâm hồn của ta.
10:06
from both humans and machines.
195
606920
2776
Tôi hy vọng loại hình nghệ thuật này
10:09
We can almost see our intuition being played out on the computer,
196
609720
3616
sẽ giúp ta có cái nhìn khác hơn về trực giác
cũng như cách để ứng dụng nó vào AI trong tương lai.
10:13
picturing all of that data being processed in our mind's eye.
197
613360
3600
Đây chỉ là 1 số ví dụ về việc tôi ứng dụng nghệ thuật vào công việc
10:17
My hope is that this type of art
198
617560
1656
10:19
will help us think differently about intuition
199
619240
2416
với tư cách là 1 nhà nghiên cứu và thiết kế trí tuệ nhân tạo.
10:21
and how to apply that to AI in the future.
200
621680
2280
Và tôi thấy đó là cách chủ yếu để đổi mới và đi lên.
10:24
So these are just a few examples of how I'm using art to feed into my work
201
624480
3936
Bởi giờ đây, có nhiều thứ hơi cực đoan khi ai đó nói về AI.
10:28
as a designer and researcher of artificial intelligence.
202
628440
3096
Các bộ phim nổi tiếng hay coi chúng như những kẻ hủy diệt
10:31
And I see it as a crucial way to move innovation forward.
203
631560
3496
trong khi quảng cáo thì lại coi chúng như những kẻ cứu rỗi
10:35
Because right now, there are a lot of extremes when it comes to AI.
204
635080
4376
trong việc giải quyết những vấn đề phức tạp tầm cỡ thế giới
10:39
Popular movies show it as this destructive force
205
639480
2816
Nhưng dù bạn có đứng về bên nào,
10:42
while commercials are showing it as a savior
206
642320
3056
khó để phủ nhận rằng ta hiện đang sống trong 1 thế giới
đang càng ngày càng bị số hóa qua từng giây.
10:45
to solve some of the world's most complex problems.
207
645400
2936
Cuộc sống đang dần phát triển qua những thứ thiết bị, đồ dùng thông minh,vv...
10:48
But regardless of where you stand,
208
648360
2536
10:50
it's hard to deny that we're living in a world
209
650920
2176
Và tôi không nghĩ điều này sẽ sớm đến đâu.
10:53
that's becoming more and more digital by the second.
210
653120
2576
10:55
Our lives revolve around our devices, smart appliances and more.
211
655720
4600
Vậy nên, tôi đang cố đưa thêm phần người vào ngay từ bước sơ khai nhất.
Và tôi linh cảm rằng việc đưa nghệ thuật vào quá trình nghiên cứu AI
11:01
And I don't think this will let up any time soon.
212
661400
2320
11:04
So, I'm trying to embed more humanness from the start.
213
664400
3736
là cách để thực hiện điều đó.
Cảm ơn mọi người.
11:08
And I have a hunch that bringing art into an AI research process
214
668160
5136
(Vỗ tay)
11:13
is a way to do just that.
215
673320
1896
11:15
Thank you.
216
675240
1216
11:16
(Applause)
217
676480
2280
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7