How we can teach computers to make sense of our emotions | Raphael Arar

64,666 views ・ 2018-04-24

TED


โปรดดับเบิลคลิกที่คำบรรยายภาษาอังกฤษด้านล่างเพื่อเล่นวิดีโอ

00:00
Translator: Ivana Korom Reviewer: Joanna Pietrulewicz
0
0
7000
Translator: Orm Wiwitumpon Reviewer: Sritala Dhanasarnsombut
00:13
I consider myself one part artist and one part designer.
1
13760
4680
ผมเรียกตัวเอง เป็นทั้งศิลปินและดีไซน์เนอร์
00:18
And I work at an artificial intelligence research lab.
2
18480
3160
ผมทำงานที่ศูนย์วิจัยปัญญาประดิษฐ์
00:22
We're trying to create technology
3
22720
1696
เรากำลังสร้างเทคโนโลยี
00:24
that you'll want to interact with in the far future.
4
24440
3296
กับสิ่งที่พวกคุณต้องเกี่ยวข้องด้วยในอนาคต
00:27
Not just six months from now, but try years and decades from now.
5
27760
4640
ไม่ใช่แค่ในหกเดือนจากนี้แต่อีกในหลายสิบปี
00:33
And we're taking a moonshot
6
33120
1616
และกำลังมีโปรเจ็คพามันไปดวงจันทร์
00:34
that we'll want to be interacting with computers
7
34760
2456
เราต้องการจะมีปฏิสัมพันธ์กับคอมพิวเตอร์
00:37
in deeply emotional ways.
8
37240
2120
ทางด้านอารมณ์ที่ลึกซึ้ง
00:40
So in order to do that,
9
40280
1456
เพื่อที่จะทำสิ่งนี้
00:41
the technology has to be just as much human as it is artificial.
10
41760
4480
เทคโนโลยีจะต้องเหมือนมนุษย์ให้มากที่สุด
00:46
It has to get you.
11
46920
2256
มันต้องเข้าใจคุณ
00:49
You know, like that inside joke that'll have you and your best friend
12
49200
3336
เหมือนการเข้าใจมุขตลกที่ คุณคุยกับเพื่อนสนิท
00:52
on the floor, cracking up.
13
52560
1936
ขำจนดิ้นลงกับพื้น
00:54
Or that look of disappointment that you can just smell from miles away.
14
54520
4560
หรือเข้าใจความผิดหวังที่รู้สึกได้ จากระยะไกล
01:00
I view art as the gateway to help us bridge this gap between human and machine:
15
60560
6040
ผมมองว่าศิลปะเป็นหนทางที่จะช่วยเราเป็น สะพานระหว่างมนุษย์และเครื่องจักร
01:07
to figure out what it means to get each other
16
67280
3136
เพื่อที่จะหาความหมายของกันและกัน
01:10
so that we can train AI to get us.
17
70440
2760
และเราสามารถที่จะฝึกปัญญาประดิษฐ์ ให้เข้าใจเรา
01:13
See, to me, art is a way to put tangible experiences
18
73920
3816
สำหรับผมศิลปะคือหนทางที่จะ นำประสบการณ์ที่เป็นรูปธรรม
01:17
to intangible ideas, feelings and emotions.
19
77760
3240
มาสู่ความคิดที่เป็นรูปธรรม ความรู้สึกและอารมณ์
01:21
And I think it's one of the most human things about us.
20
81800
2600
นั่นเป็นสิ่งที่เหมือนมนุษย์มากที่สุด
01:25
See, we're a complicated and complex bunch.
21
85480
2936
เห็นไหม เราช่างซับซ้อน เป็นกลุ่มก้อนของความซับซ้อน
01:28
We have what feels like an infinite range of emotions,
22
88440
3136
เรามีความทรู้สึกที่ไม่จำกัด
01:31
and to top it off, we're all different.
23
91600
2496
และเหนือกว่านั้น เราทุกคนแตกต่าง
01:34
We have different family backgrounds,
24
94120
2296
เรามีพื้นฐานครอบครัวที่ต่างกัน
01:36
different experiences and different psychologies.
25
96440
3080
ประสบการณ์ต่างกัน มีจิตที่ไม่เหมือนกัน
01:40
And this is what makes life really interesting.
26
100240
2720
และนั่นทำให้ชีวิตช่างน่าสนใจ
01:43
But this is also what makes working on intelligent technology
27
103440
3496
แต่มันก็ทำให้ การทำงานด้าน ความสามารถของเทคโนโลยี
01:46
extremely difficult.
28
106960
1600
ยากสุด ๆ
01:49
And right now, AI research, well,
29
109640
3456
และตอนนี้ การวิจัยปัญญาประดิษฐ์
01:53
it's a bit lopsided on the tech side.
30
113120
2016
ก็มีความลำเอียงในตัว
01:55
And that makes a lot of sense.
31
115160
2136
และนั่นก็มีเหตุผล
01:57
See, for every qualitative thing about us --
32
117320
2456
ทุกอย่างเชิงคุณภาพในตัวเรา --
01:59
you know, those parts of us that are emotional, dynamic and subjective --
33
119800
4456
ส่วนที่เป็นเรื่องอารมณ์ เปลี่ยนแปลงได้ --
02:04
we have to convert it to a quantitative metric:
34
124280
3136
เราต้องเปลี่ยนมันทั้งหมดเป็นตัวแปร
02:07
something that can be represented with facts, figures and computer code.
35
127440
4360
อะไรบางอย่างที่แทนที่ด้วยความเป็นจริง รูปร่าง และโค้ดคอมพิวเตอร์
02:13
The issue is, there are many qualitative things
36
133000
3376
ประเด็นคือ มีสิ่งต่าง ๆ ที่เป็น เชิงคุณภาพมากมาย
02:16
that we just can't put our finger on.
37
136400
1960
ที่เราไม่สามารถเอานิ้วไปยุ่งเกี่ยวได้
02:20
So, think about hearing your favorite song for the first time.
38
140400
3200
ลองคิดถึงตอนที่คุณฟังเพลงโปรด เป็นครั้งแรกสิ
02:25
What were you doing?
39
145200
1200
คุณทำอะไรอยู่
02:28
How did you feel?
40
148000
1200
คุณรู้สึกอย่างไร
02:30
Did you get goosebumps?
41
150720
1360
คุณขนลุกเลยไหม
02:33
Or did you get fired up?
42
153240
1640
หรือคุณได้รับแรงบันดาลใจ
02:36
Hard to describe, right?
43
156400
1200
อธิบายยากนะ ใช่ไหมครับ
02:38
See, parts of us feel so simple,
44
158800
2096
ในร่างกายของเรา ความรู้สึกช่างง่ายดาย
02:40
but under the surface, there's really a ton of complexity.
45
160920
3656
แต่ลึกลงไปจากพื้นผิว มีความซับซ้อนเป็นต้น ๆ
02:44
And translating that complexity to machines
46
164600
2936
และการแปลความซับซ้อนนั้น เป็นภาษาที่เครื่องจักรเข้าใจ
02:47
is what makes them modern-day moonshots.
47
167560
2856
ก็คือการทำให้เทคโนโลยีมีความทันสมัยขึ้น
02:50
And I'm not convinced that we can answer these deeper questions
48
170440
4176
และผมจะไม่พูดว่าเราสามารถตอบคำถามนี้
02:54
with just ones and zeros alone.
49
174640
1480
ออกมาเป็นเพียงศูนย์กับหนึ่ง
02:57
So, in the lab, I've been creating art
50
177120
1936
เพราะฉะนั้น ในห้องแลป เราสร้างงานศิลปะ
02:59
as a way to help me design better experiences
51
179080
2456
สร้างประสบการณ์ที่ดีขึ้น
03:01
for bleeding-edge technology.
52
181560
2096
เพื่อเทคโนโลยี
03:03
And it's been serving as a catalyst
53
183680
1736
ที่ทำหน้าที่เป็นตัวเร่ง
03:05
to beef up the more human ways that computers can relate to us.
54
185440
3840
เพิ่มความสามารถให้คอมพิวเตอร์ ทำงานแบบมนุษย์
03:10
Through art, we're tacking some of the hardest questions,
55
190000
2696
ด้วยศิลปะ เราทำงานที่ยากที่สุด
03:12
like what does it really mean to feel?
56
192720
2360
เช่น ความรู้สึก แท้จริงแล้ว หมายความว่าอย่างไร
03:16
Or how do we engage and know how to be present with each other?
57
196120
4080
เราเกี่ยวข้องกันได้อย่างไร
03:20
And how does intuition affect the way that we interact?
58
200800
4000
และสิ่งต่าง ๆ มีผลกับการกระทำของเรา ได้อย่างไร
03:26
So, take for example human emotion.
59
206440
2056
มาดูตัวอย่างอารมณ์ของมนุษย์กัน
03:28
Right now, computers can make sense of our most basic ones,
60
208520
3256
ตอนนี้ คอมพิวเตอร์สามารถรู้สึก แบบพื้นฐานได้
03:31
like joy, sadness, anger, fear and disgust,
61
211800
3696
เช่น สุข เศร้า โกรธ กลัว และขยะแขยง
03:35
by converting those characteristics to math.
62
215520
3000
ด้วยการแปลงตัวแปรเหล่านั้นเป็นคณิตศาสตร์
03:39
But what about the more complex emotions?
63
219400
2536
แต่ถ้าเป็นอารมณ์ที่ซับซ้อนกว่านั้นล่ะ
03:41
You know, those emotions
64
221960
1216
อย่างที่รู้
03:43
that we have a hard time describing to each other?
65
223200
2376
อารมณ์เหล่านั้น ที่เราอธิบายออกมาเป็นคำพูดไม่ได้
03:45
Like nostalgia.
66
225600
1440
เช่น ความคิดถึง
03:47
So, to explore this, I created a piece of art, an experience,
67
227640
3936
การสำรวจเรื่องพวกนี้ ทำให้ผมสร้างศิลปะ เป็นประสบการณ์
03:51
that asked people to share a memory,
68
231600
2096
ที่ให้ผู้คนแบ่งปันความทรงจำ
03:53
and I teamed up with some data scientists
69
233720
2136
และผมก็เข้าร่วมทีมกับนักวิทยาศาสตร์ข้อมูล
03:55
to figure out how to take an emotion that's so highly subjective
70
235880
3576
เพื่อคิดว่า จะเอาอารมณ์ ที่มีความไม่ตรงไปตรงมาสุด ๆ
03:59
and convert it into something mathematically precise.
71
239480
3200
มาแปลงเป็นคณิตศาสตร์ได้อย่างไร
04:03
So, we created what we call a nostalgia score
72
243840
2136
เราเลยสร้างสิ่งที่เรียกว่า คะแนนนอสทรัลเกลีย (nostalgia score)
04:06
and it's the heart of this installation.
73
246000
2216
หรือคะแนนความคิดถึง และมันเป็นหัวใจของงาน
04:08
To do that, the installation asks you to share a story,
74
248240
3056
ในขั้นตอนการติดตั้ง คุณจะถูกขอให้เล่าเรื่อง
04:11
the computer then analyzes it for its simpler emotions,
75
251320
3256
คอมพิวเตอร์จะแปลงเป็นอารมณ์ที่ง่ายขึ้น
04:14
it checks for your tendency to use past-tense wording
76
254600
2656
ดูความเอนเอียงของคุณ และใช้ประโยคในรูปแบบอดีต
04:17
and also looks for words that we tend to associate with nostalgia,
77
257280
3336
หาคำศัพท์ที่เกี่ยวข้องกับความคิดถึง
04:20
like "home," "childhood" and "the past."
78
260640
3040
เช่น บ้าน วัยเด็ก หรืออดีต
04:24
It then creates a nostalgia score
79
264760
2056
สร้าง nostalgia score หรือคะแนนความคิดถึง
04:26
to indicate how nostalgic your story is.
80
266840
2736
วิเคราะห์ว่าคุณคิดถึงมากแค่ไหน
04:29
And that score is the driving force behind these light-based sculptures
81
269600
4136
และคะแนนนั้น ซุุกซ่อนอยู่ด้านหลัง
04:33
that serve as physical embodiments of your contribution.
82
273760
3896
ที่ทำงานเป็นรูปธรรมจากเรื่องที่คุณเล่า
04:37
And the higher the score, the rosier the hue.
83
277680
3216
คะแนนสูง สีจะยิ่งแดง
04:40
You know, like looking at the world through rose-colored glasses.
84
280920
3936
เหมือนมองโลกผ่านแก้วสีชมพู
04:44
So, when you see your score
85
284880
2616
เมื่อคุณเห็นคะแนนตัวเอง
04:47
and the physical representation of it,
86
287520
2656
และเห็นสิ่งที่แสดงคะแนนออกมาทางกายภาพ
04:50
sometimes you'd agree and sometimes you wouldn't.
87
290200
2936
บางที คุณก็เห็นด้วย บางทีคุณก็ไม่
04:53
It's as if it really understood how that experience made you feel.
88
293160
3480
เหมือนมันเข้าใจจริง ๆ ว่าประสบการณ์นั้น ทำให้คุณรู้สึกอย่างไร
04:57
But other times it gets tripped up
89
297400
2216
บางครั้ง มันก็สะดุด
04:59
and has you thinking it doesn't understand you at all.
90
299640
2560
และคุณเคยคิดไหมว่า มันไม่ได้เข้าใจคุณแม้แต่นิดเดียว
05:02
But the piece really serves to show
91
302680
1896
แต่สิ่งที่แสดงขึ้นมานั้น
05:04
that if we have a hard time explaining the emotions that we have to each other,
92
304600
4056
แสดงถึงสิ่งที่เราอธิบายให้คนอื่นฟังยาก
05:08
how can we teach a computer to make sense of them?
93
308680
2360
เราจะสอนคอมพิวเตอร์ให้เข้าใจ ความรู้สึกได้จริงหรือ
05:12
So, even the more objective parts about being human are hard to describe.
94
312360
3576
เพราะฉะนั้น มันเป็นส่วนที่ยากขึ้นไปอีก
05:15
Like, conversation.
95
315960
1240
ที่จะอธิบายมนุษย์ เช่น บทสนทนา
05:17
Have you ever really tried to break down the steps?
96
317880
2736
เคยเหนื่อยกับการพักไหม
05:20
So think about sitting with your friend at a coffee shop
97
320640
2656
เหมือนนั่งเฉย ๆ กับเพื่อนที่ร้านกาแฟ
05:23
and just having small talk.
98
323320
1320
แค่คุยกันสนุก ๆ
05:25
How do you know when to take a turn?
99
325160
1720
คุณรู้ได้อย่างไรว่าตาคุณ
05:27
How do you know when to shift topics?
100
327440
1840
คุณรู้ได้อย่างไรว่าต้องเปลี่ยนเรื่อง
05:29
And how do you even know what topics to discuss?
101
329960
2720
และเลือกหัวข้อมาสนทนาอย่างไร
05:33
See, most of us don't really think about it,
102
333560
2096
เราส่วนใหญ่ ไม่เคยคิดเรื่องนี้เลย
05:35
because it's almost second nature.
103
335680
1656
เพราะมันแทบจะเป็นธรรมชาติไปแล้ว
05:37
And when we get to know someone, we learn more about what makes them tick,
104
337360
3496
เมื่อเราทำความรู้จักผู้คน
05:40
and then we learn what topics we can discuss.
105
340880
2376
เราเรียนรู้ว่าอะไรทำให้เขาไม่พอใจ เราคุยหัวข้อไหนได้
05:43
But when it comes to teaching AI systems how to interact with people,
106
343280
3656
แต่พอเป็นเรื่องการสอนปัญญาประดิษฐ์ ให้สื่อสารกับมนุษย์
05:46
we have to teach them step by step what to do.
107
346960
2856
เราต้องสอนมันทีละขั้นตอน
05:49
And right now, it feels clunky.
108
349840
3496
และมันก็ให้ความรู้สึกอุ้ยอ้าย
05:53
If you've ever tried to talk with Alexa, Siri or Google Assistant,
109
353360
4136
หากคุณเคยคุยกับ Alexa, Siri หรือ Google Assistant
05:57
you can tell that it or they can still sound cold.
110
357520
4200
คุณพูดได้ว่า น้ำเสียงมันแข็งทื่อ
06:02
And have you ever gotten annoyed
111
362440
1656
คุณเคยรำคาญไหม
06:04
when they didn't understand what you were saying
112
364120
2256
เวลาพวกมันไม่เข้าใจในสิ่งที่คุณพูด
06:06
and you had to rephrase what you wanted 20 times just to play a song?
113
366400
3840
คุณต้องพูดซ้ำ 20 รอบเพียงเพื่อจะ เปิดเพลง
06:11
Alright, to the credit of the designers, realistic communication is really hard.
114
371440
4896
ยกเครดิตให้ดีไซน์เนอร์ การสื่อสารที่เหมือนจริง เป็นเรื่องยาก
06:16
And there's a whole branch of sociology,
115
376360
2136
และมันก็มีสังคมสาขาใหม่เกิดขึ้นตลอดมา
06:18
called conversation analysis,
116
378520
1936
เรียก สาขาวิเคราะห์การสนทนา
06:20
that tries to make blueprints for different types of conversation.
117
380480
3136
ที่พยายามจะสร้างพิมพ์เขียวของการสนทนา
06:23
Types like customer service or counseling, teaching and others.
118
383640
4080
หลากรูปแบบ เช่น บริการลูกค้า ให้คำปรึกษา การสอน ฯลฯ
06:28
I've been collaborating with a conversation analyst at the lab
119
388880
2936
ผมเคยร่วมมือวิเคราะห์การสนทนาในแลป
06:31
to try to help our AI systems hold more human-sounding conversations.
120
391840
4696
พยายามช่วยระบบปัญญาประดิษฐ์ มีเสียงเหมือนมนุษย์มากขึ้น
06:36
This way, when you have an interaction with a chatbot on your phone
121
396560
3176
วิธีนี้ เมื่อคุณคุยกับแชทบอทในมือถือ
06:39
or a voice-based system in the car,
122
399760
1856
หรือคุยกับระบบสั่งการเสียงภายในรถ
06:41
it sounds a little more human and less cold and disjointed.
123
401640
3320
เสียงมันก็จะเหมือนมนุษย์ เฉยชาน้อยลง
06:46
So I created a piece of art
124
406360
1336
ผมจึงสร้างงานศิลปะ
06:47
that tries to highlight the robotic, clunky interaction
125
407720
2816
ที่พยายามไฮไลท์การตอบสนอง
06:50
to help us understand, as designers,
126
410560
1976
เพื่อเพิ่มความเข้าใจ ในฐานะนักออกแบบ
06:52
why it doesn't sound human yet and, well, what we can do about it.
127
412560
4576
ทำไมเสียงมันยังไม่เหมือนมนุษย์
06:57
The piece is called Bot to Bot
128
417160
1456
เราทำอะไรได้บ้าง งานชิ้นนี้เรียกว่า Bot to Bot
06:58
and it puts one conversational system against another
129
418640
2936
ให้พวกมันวิเคราะห์การสนทนา
07:01
and then exposes it to the general public.
130
421600
2536
แล้วแพร่ออกสู่สาธารณะ
07:04
And what ends up happening is that you get something
131
424160
2496
ตอนจบคือ คุณจะได้อะไรบางอย่าง
07:06
that tries to mimic human conversation,
132
426680
1896
ที่พยายามทำตัวเป็นมนุษย์
07:08
but falls short.
133
428600
1896
แต่สั้นลง
07:10
Sometimes it works and sometimes it gets into these, well,
134
430520
2736
บางครั้งมันได้ผล บางทีก็ได้นี่
07:13
loops of misunderstanding.
135
433280
1536
ความเข้าใจผิดไม่รู้จบ
07:14
So even though the machine-to-machine conversation can make sense,
136
434840
3096
แม้การคุยแบบ
07:17
grammatically and colloquially,
137
437960
2016
เครื่องจักรต่อเครื ่องจักร จะถูกต้อง ตามหลักแกรมมาร์และการเรียกขาน
07:20
it can still end up feeling cold and robotic.
138
440000
3216
มันก็ยังรู้สึกเย็น ๆ และเป็นหุ่นยนต์
07:23
And despite checking all the boxes, the dialogue lacks soul
139
443240
4016
ต่อให้ตรวจสอบทั้งหมดแล้ว
07:27
and those one-off quirks that make each of us who we are.
140
447280
3136
และการเล่นสำนวนที่ทำให้เราเป็นเรา
07:30
So while it might be grammatically correct
141
450440
2056
อาจจะมีทั้งถูกไวยากรณ์
07:32
and uses all the right hashtags and emojis,
142
452520
2656
ใช่แฮชแทกและอีโมจิ
07:35
it can end up sounding mechanical and, well, a little creepy.
143
455200
4136
มันก็ยังดูเป็นเครื่องจักร และดูหลอนหน่อย ๆ
07:39
And we call this the uncanny valley.
144
459360
2336
มันดูประหลาด
07:41
You know, that creepiness factor of tech
145
461720
1936
เป็นความหลอนของเทคโนโลยี
07:43
where it's close to human but just slightly off.
146
463680
2856
ใกล้เคียงกับมนุษย์ แต่ไม่เหมือนซะทีเดียว
07:46
And the piece will start being
147
466560
1456
และชิ้นนี้ก็เป็นการเริ่มต้น
07:48
one way that we test for the humanness of a conversation
148
468040
3216
ของการทดสอบความเป็นมนุษย์
07:51
and the parts that get lost in translation.
149
471280
2160
ในการสนทนา บางส่วนก็หลุดหายไปกับการแปลความหมาย
07:54
So there are other things that get lost in translation, too,
150
474560
2856
แต่ก็มีบางอย่าง ที่หายไปกับการแปลเหมือนกัน
07:57
like human intuition.
151
477440
1616
เหมือนมนุษย์
07:59
Right now, computers are gaining more autonomy.
152
479080
2776
ตอนนี้ คอมพิวเตอร์
08:01
They can take care of things for us,
153
481880
1736
สามารถดูแลหลายอย่างได้แทนเรา
08:03
like change the temperature of our houses based on our preferences
154
483640
3176
เช่น เปลี่ยนอุณหภูมิบ้าน
08:06
and even help us drive on the freeway.
155
486840
2160
ให้เป็นไปตามต้องการ และช่วยเราขับรถ
08:09
But there are things that you and I do in person
156
489560
2496
แต่ก็มีบางอย่างที่เราต้องทำเอง
08:12
that are really difficult to translate to AI.
157
492080
2760
สิ่งที่แปลให้ปัญญาประดิษฐ์เข้าใจได้ยาก
08:15
So think about the last time that you saw an old classmate or coworker.
158
495440
4360
ลองคิดถึงครั้งสุดท้ายที่เราเจอเพื่อนเก่า
08:21
Did you give them a hug or go in for a handshake?
159
501080
2480
คุณกอด หรือจับมือพวกเขา
08:24
You probably didn't think twice
160
504800
1496
คุณอาจจะไม่ได้คิดซ้ำสองรอบ
08:26
because you've had so many built up experiences
161
506320
2336
เพราะคุณมีประสบการณ์มากมาย
08:28
that had you do one or the other.
162
508680
2000
ที่เคยได้ทำกับคนอื่น ๆ
08:31
And as an artist, I feel that access to one's intuition,
163
511440
3456
แต่ในฐานะศิลปิน นั่นเป็นการหยั่งรู้
08:34
your unconscious knowing,
164
514920
1416
คุณทำโดยไม่รู้ตัว
08:36
is what helps us create amazing things.
165
516360
3056
ช่วยเราสร้างสิ่งที่น่าทึ่ง
08:39
Big ideas, from that abstract, nonlinear place in our consciousness
166
519440
4056
ความคิดยิ่งใหญ่จากสิ่งที่จับต้องไม่ได้ ไม่เป็นเส้นตรงในจิตใจ
08:43
that is the culmination of all of our experiences.
167
523520
2960
เป็นสุดยอดแห่งประสบการณ์
08:47
And if we want computers to relate to us and help amplify our creative abilities,
168
527840
4656
และหากเราต้องการให้คอมพิวเตอร์ ช่วยเพิ่มความคิดสร้างสรรค์ให้เรา
08:52
I feel that we'll need to start thinking about how to make computers be intuitive.
169
532520
3896
เราต้องคิดว่าคอมพิวเตอร์หยั่งรู้อะไร
08:56
So I wanted to explore how something like human intuition
170
536440
3096
ผมจึงอยากสำรวจว่า มนุษย์หยั่งรู้อย่างไร
08:59
could be directly translated to artificial intelligence.
171
539560
3456
และแปลให้ปัญญาประดิษฐ์เข้าใจได้อย่างไร
09:03
And I created a piece that explores computer-based intuition
172
543040
3216
ผมได้สร้างระบบที่ดูการหยั่งรู้ ของคอมพิวเตอร์
09:06
in a physical space.
173
546280
1320
ในพื้นที่ทางกายภาพ
09:08
The piece is called Wayfinding,
174
548480
1696
เรียกว่า Wayfinding
09:10
and it's set up as a symbolic compass that has four kinetic sculptures.
175
550200
3936
มันมีเข็มทิศและ มีการเคลื่อนไหว 4 จุด
09:14
Each one represents a direction,
176
554160
2056
แต่ละอันกำหนดทิศทาง
09:16
north, east, south and west.
177
556240
2120
เหนือ ใต้ ออก ตก
09:19
And there are sensors set up on the top of each sculpture
178
559080
2696
มีเซ็นเซอร์บนแต่ละจุด
09:21
that capture how far away you are from them.
179
561800
2256
เพื่อตรวจว่าคุณอยู่ห่างจากมันแค่ไหน
09:24
And the data that gets collected
180
564080
1816
และเก็บข้อมูล
09:25
ends up changing the way that sculptures move
181
565920
2136
เปลี่ยนทิศทางการเคลื่อนไหวของแต่ละจุด
09:28
and the direction of the compass.
182
568080
2040
และของเข็มทิศ
09:31
The thing is, the piece doesn't work like the automatic door sensor
183
571360
3656
มันไม่ได้ทำงานอัติโนมัติแบบ เซ็นเซอร์ประตู
09:35
that just opens when you walk in front of it.
184
575040
2656
ที่เปิดทันทีที่คุณเข้าใกล้
09:37
See, your contribution is only a part of its collection of lived experiences.
185
577720
5056
การทำงานเป็นส่วนหนึ่งของการเก็บประสบการณ์
09:42
And all of those experiences affect the way that it moves.
186
582800
4056
ประสบการณ์ทั้งหมด ส่งผกับการเคลื่อนไหวของมัน
09:46
So when you walk in front of it,
187
586880
1736
เมื่อคุณเดินไปข้างหน้า
09:48
it starts to use all of the data
188
588640
1976
มันจะเอาข้อมูลทั้งหมด
09:50
that it's captured throughout its exhibition history --
189
590640
2616
ที่เก็บมาจากอดีต
09:53
or its intuition --
190
593280
1816
หรือการทำนาย
09:55
to mechanically respond to you based on what it's learned from others.
191
595120
3560
เพื่อตอบสนองคุณ ขึ้นอยู่กับว่ารู้อะไรมา
09:59
And what ends up happening is that as participants
192
599480
2536
สิ่งที่เกิดขึ้นในฐานะผู้ร่วมการทดสอบ
10:02
we start to learn the level of detail that we need
193
602040
2816
เรารู้ว่าเราต้องการข้อมูลระดับใด
10:04
in order to manage expectations
194
604880
2016
เพื่อจัดการความคาดหวัง
10:06
from both humans and machines.
195
606920
2776
จากมนุษย์และเครื่องจักร
10:09
We can almost see our intuition being played out on the computer,
196
609720
3616
เราแทบจะเห็นการคาดการของเรา แสดงออกทางคอมพิวเตอร์
10:13
picturing all of that data being processed in our mind's eye.
197
613360
3600
เก็บภาพเป็นข้อมูล และแสดงผล
10:17
My hope is that this type of art
198
617560
1656
ความหวังผมคือ ศิลปะแขนงนี้
10:19
will help us think differently about intuition
199
619240
2416
จะช่วยให้เราคิดอย่างแตกต่าง
10:21
and how to apply that to AI in the future.
200
621680
2280
และประยุกต์เข้ากับปัญญาประดิษฐ์ได้ในอนาคต
10:24
So these are just a few examples of how I'm using art to feed into my work
201
624480
3936
นี่เป็นตัวอย่างเล็กน้อยที่ผมใช้ศิลปะ ในงานของผม
10:28
as a designer and researcher of artificial intelligence.
202
628440
3096
ในฐานะนักออกแบบและนักวิจัย เรื่องปัญญาประดิษฐ์
10:31
And I see it as a crucial way to move innovation forward.
203
631560
3496
และเห็นวิธีที่จะขับเคลื่อนนวัตกรรม
10:35
Because right now, there are a lot of extremes when it comes to AI.
204
635080
4376
เพราะเรามีเรื่องที่สุดในทุกด้าน ของปัญญาประดิษฐ์
10:39
Popular movies show it as this destructive force
205
639480
2816
ในหนังก็แสดงแต่พลังทำลายล้าง ของปัญญาประดิษฐ์
10:42
while commercials are showing it as a savior
206
642320
3056
แต่ในโฆษณา แสดงมันเป็นผู้ช่วยชีวิต
10:45
to solve some of the world's most complex problems.
207
645400
2936
ที่จะแก้ปัญหาบนโลกใบนี้
10:48
But regardless of where you stand,
208
648360
2536
แต่ไม่ว่าคุณจะยืนตรงจุดไหน
10:50
it's hard to deny that we're living in a world
209
650920
2176
คุณก็ปฏิเสธไม่ได้ว่า เราอยู่บนโลก
10:53
that's becoming more and more digital by the second.
210
653120
2576
ที่มีความดิจิตอลมาขึ้นในทุกวินาที
10:55
Our lives revolve around our devices, smart appliances and more.
211
655720
4600
ชีวิตเราเกี่ยวข้องกับ อุปกรณ์อัจฉริยะทั้งหลาย
11:01
And I don't think this will let up any time soon.
212
661400
2320
และไม่มีทีท่าว่าจะหยุดลงง่าย ๆ
11:04
So, I'm trying to embed more humanness from the start.
213
664400
3736
ผมพยายามใส่ความเป็นมนุษย์เข้าไป ในเครื่องจักร
11:08
And I have a hunch that bringing art into an AI research process
214
668160
5136
และใส่มันไปในการวิจัยปัญญาประดิษฐ์
11:13
is a way to do just that.
215
673320
1896
นี่คือการกระทำของผม
11:15
Thank you.
216
675240
1216
ขอบคุณครับ
11:16
(Applause)
217
676480
2280
(เสียบปรบมือ)
เกี่ยวกับเว็บไซต์นี้

ไซต์นี้จะแนะนำคุณเกี่ยวกับวิดีโอ YouTube ที่เป็นประโยชน์สำหรับการเรียนรู้ภาษาอังกฤษ คุณจะได้เห็นบทเรียนภาษาอังกฤษที่สอนโดยอาจารย์ชั้นนำจากทั่วโลก ดับเบิลคลิกที่คำบรรยายภาษาอังกฤษที่แสดงในแต่ละหน้าของวิดีโอเพื่อเล่นวิดีโอจากที่นั่น คำบรรยายเลื่อนซิงค์กับการเล่นวิดีโอ หากคุณมีความคิดเห็นหรือคำขอใด ๆ โปรดติดต่อเราโดยใช้แบบฟอร์มการติดต่อนี้

https://forms.gle/WvT1wiN1qDtmnspy7