How we can teach computers to make sense of our emotions | Raphael Arar

64,579 views ・ 2018-04-24

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

00:00
Translator: Ivana Korom Reviewer: Joanna Pietrulewicz
0
0
7000
Translator: Leila Ataei Reviewer: Muhammad Tabibzadeh
00:13
I consider myself one part artist and one part designer.
1
13760
4680
من خودم را یک طراح و یک هنرمند می‌دانم.
00:18
And I work at an artificial intelligence research lab.
2
18480
3160
و در یک آزمایشگاه هوش مصنوعی کار می‌کنم.
00:22
We're trying to create technology
3
22720
1696
ما سعی براین داریم تا فناوری بسازیم
00:24
that you'll want to interact with in the far future.
4
24440
3296
که بخواهید با آن در آینده‌ دور تعامل کنید.
00:27
Not just six months from now, but try years and decades from now.
5
27760
4640
نه شش ماه بعد، بلکه سال‌ها و دهه‌ها بعد.
00:33
And we're taking a moonshot
6
33120
1616
و می‌خواهیم شق‌القمر کرده
00:34
that we'll want to be interacting with computers
7
34760
2456
و با کامپیوتر‌ها عامل به روشهای عمیق عاطفی
00:37
in deeply emotional ways.
8
37240
2120
در تعامل باشیم.
00:40
So in order to do that,
9
40280
1456
پس برای انجام دادن این کار
00:41
the technology has to be just as much human as it is artificial.
10
41760
4480
فناوری باید به جای مصنوعی بودن خیلی شبیه انسان‌ها باشد.
00:46
It has to get you.
11
46920
2256
باید آن جایگاه را بگیرد.
00:49
You know, like that inside joke that'll have you and your best friend
12
49200
3336
مثل آن لطیفه‌ای که فقط شما و بهترین دوستتان می‌دانید
00:52
on the floor, cracking up.
13
52560
1936
و از شدت خنده روی زمین می‌افتید.
00:54
Or that look of disappointment that you can just smell from miles away.
14
54520
4560
یا آن شکل نا امیدی که شما می‌توانید آن را فقط از کیلومترها دور بفهمید.
01:00
I view art as the gateway to help us bridge this gap between human and machine:
15
60560
6040
هنر را دروازه‌ای دیدم که کمک به بستن تا شکاف بین انسان و ماشین می‌کند.
01:07
to figure out what it means to get each other
16
67280
3136
برای فهمیدن اینکه این چیست، و برای فهمیدن یکدیگر
01:10
so that we can train AI to get us.
17
70440
2760
می‌توانیم هوش مصنوعی را تربیت دهیم تا ما را بفهمد.
01:13
See, to me, art is a way to put tangible experiences
18
73920
3816
توجه، برای من هنر تجربه‌ای قابل ملاحظه
01:17
to intangible ideas, feelings and emotions.
19
77760
3240
برای ایده‌های غیرمستقیم و احساسات است.
01:21
And I think it's one of the most human things about us.
20
81800
2600
و به نظرم یکی از مهم‌ترین شاخصه‌های انسانی ما می‌باشد.
01:25
See, we're a complicated and complex bunch.
21
85480
2936
پس ما یک گروه پیچیده و پیشرفته هستیم.
01:28
We have what feels like an infinite range of emotions,
22
88440
3136
ما چیزی را احساس می‌کنیم که بی‌نهایت احساس دارد،
01:31
and to top it off, we're all different.
23
91600
2496
و در آخر ما همه با هم فرق داریم.
01:34
We have different family backgrounds,
24
94120
2296
ما پس زمینه‌های مختلف خانوادگی داریم،
01:36
different experiences and different psychologies.
25
96440
3080
تجربه‌ها و روح و روان‌های مختلف.
01:40
And this is what makes life really interesting.
26
100240
2720
و این است که زندگی را جذاب می‌کند.
01:43
But this is also what makes working on intelligent technology
27
103440
3496
اما این چیزی است که فناوری هوشمند را
01:46
extremely difficult.
28
106960
1600
بسیار سخت می‌کند.
01:49
And right now, AI research, well,
29
109640
3456
و اکنون، تحقیق هوش مصنوعی، خب،
01:53
it's a bit lopsided on the tech side.
30
113120
2016
این کار کمی طرف فناوری هم هست.
01:55
And that makes a lot of sense.
31
115160
2136
و بسیار هم مفهومی است.
01:57
See, for every qualitative thing about us --
32
117320
2456
خب، برای هر چیز کیفی درباره ما--
01:59
you know, those parts of us that are emotional, dynamic and subjective --
33
119800
4456
آن قسمت‌هایی از ما که احساسی، پویا و ذهنی هستند--
02:04
we have to convert it to a quantitative metric:
34
124280
3136
باید آن‌ها را تبدیل به یکایی کیفی کنیم:
02:07
something that can be represented with facts, figures and computer code.
35
127440
4360
چیزی که می‌تواند نماینده‌ای برای حقایق، ارقام و کدهای کامپیوتری باشد.
02:13
The issue is, there are many qualitative things
36
133000
3376
اما بحث اینجاست که چیزهای کیفی زیادی هستند
02:16
that we just can't put our finger on.
37
136400
1960
که نمی‌توانیم از آن‌ها بگذریم.
02:20
So, think about hearing your favorite song for the first time.
38
140400
3200
خب، به اولین باری که آهنگ مورد علاقه‌تان را شنیده‌اید، فکر کنید.
02:25
What were you doing?
39
145200
1200
آن موقع چه کار می‌کردید؟
02:28
How did you feel?
40
148000
1200
چه احساسی داشتید؟
02:30
Did you get goosebumps?
41
150720
1360
آیا مو به تنتان سیخ شده؟
02:33
Or did you get fired up?
42
153240
1640
یا هیجان‌زده شدید؟
02:36
Hard to describe, right?
43
156400
1200
توضیحش سخت است، درسته؟
02:38
See, parts of us feel so simple,
44
158800
2096
خب، حس برای قسمت‌هایی از ما خیلی ساده است،
02:40
but under the surface, there's really a ton of complexity.
45
160920
3656
اما در اعماق، پیچیدگی‌های زیادی وجود دارد.
02:44
And translating that complexity to machines
46
164600
2936
و ترجمه این پیچیدگی به ماشین‌ها
02:47
is what makes them modern-day moonshots.
47
167560
2856
چیزی است که اکنون آن‌ها را تبدیل به فضاپیماهای به روز کرده.
02:50
And I'm not convinced that we can answer these deeper questions
48
170440
4176
و من شما را متقاعد نمی‌کنم که می‌خواهیم به این سوال‌های عمیق
02:54
with just ones and zeros alone.
49
174640
1480
فقط با کدهای صفر و یک جواب دهیم.
02:57
So, in the lab, I've been creating art
50
177120
1936
خب، در آزمایشگاه، من هنری را
02:59
as a way to help me design better experiences
51
179080
2456
برای کمک کردن به من، ساختم تا تجربه‌های بهتری برای
03:01
for bleeding-edge technology.
52
181560
2096
برای عصر جدید تکنولوژی طراحی کردم.
03:03
And it's been serving as a catalyst
53
183680
1736
و مثل کاتالیزور برای بهینه‌سازی
03:05
to beef up the more human ways that computers can relate to us.
54
185440
3840
راه‌های انسانی عمل می‌کند که کامپیوترها بتوانند به ما مربوط شوند.
03:10
Through art, we're tacking some of the hardest questions,
55
190000
2696
از طریق هنر، دنبال سخت‌ترین سوالات هستیم،
03:12
like what does it really mean to feel?
56
192720
2360
مثل اینکه واقعا چه معنای احساسی دارد؟
03:16
Or how do we engage and know how to be present with each other?
57
196120
4080
یا چگونه سرگرم شویم و بدانیم که چگونه با یکدیگر همکاری کنیم؟
03:20
And how does intuition affect the way that we interact?
58
200800
4000
و چگونه بینش ما بر روی تعامل ما اثر می‌گذارد؟
03:26
So, take for example human emotion.
59
206440
2056
خب احساسات انسان‌ها را در نظر بگیرید.
03:28
Right now, computers can make sense of our most basic ones,
60
208520
3256
در حال حاضر کامپیوترها توانایی درک احساسات ساده‌ی ما را دارند،
03:31
like joy, sadness, anger, fear and disgust,
61
211800
3696
مثل شادی، ناراحتی، عصبانیت، ترس و نفرت،
03:35
by converting those characteristics to math.
62
215520
3000
با تبدیل کردن آن‌ مشخصه‌ها به کدها.
03:39
But what about the more complex emotions?
63
219400
2536
اما درباره احساسات پیچیده‌تر چگونه عمل می‌کنند؟
03:41
You know, those emotions
64
221960
1216
می‌دانید آن احساساتی را
03:43
that we have a hard time describing to each other?
65
223200
2376
که ما وقتی داریم خیلی سخت است تا آن را بروز دهیم
03:45
Like nostalgia.
66
225600
1440
مثل نوستالژی.
03:47
So, to explore this, I created a piece of art, an experience,
67
227640
3936
خب، برای کشف کردن این کار، من هنر و تجربه‌ای را طراحی کردم،
03:51
that asked people to share a memory,
68
231600
2096
که از مردم می‌خواهد خاطره به اشتراک بگذارند.
03:53
and I teamed up with some data scientists
69
233720
2136
و من با یک سری متخصصان داده مشورت کردم
03:55
to figure out how to take an emotion that's so highly subjective
70
235880
3576
تا بفهمم که چگونه می‌توان یک احساس وابسته به طرز تفکر شخص را فهمید
03:59
and convert it into something mathematically precise.
71
239480
3200
و آن را تبدیل به کدهای دقیق کرد.
04:03
So, we created what we call a nostalgia score
72
243840
2136
خب، آن به اصطلاح امتیاز نوستالژی را ساختیم
04:06
and it's the heart of this installation.
73
246000
2216
و این کار، قلب این تاسیسات است.
04:08
To do that, the installation asks you to share a story,
74
248240
3056
برای انجامش، تاسیسات از شما می‌پرسد تا داستانی را بگویید،
04:11
the computer then analyzes it for its simpler emotions,
75
251320
3256
کامپیوتر‌ بعد از آن این احساس را برای احساسات ساده‌تر آنالیز می‌کند،
04:14
it checks for your tendency to use past-tense wording
76
254600
2656
گرایش‌تان در استفاده از عبارات‌ زمان گذشته را چک می‌کند
04:17
and also looks for words that we tend to associate with nostalgia,
77
257280
3336
و حتی کلماتی را جستجو می‌کند که با نوستالژی همراه هستند.
04:20
like "home," "childhood" and "the past."
78
260640
3040
برای مثال خانه، دوران بچگی و گذشته
04:24
It then creates a nostalgia score
79
264760
2056
بعد از آن یک نمره نوستالژی می‌سازد
04:26
to indicate how nostalgic your story is.
80
266840
2736
تا نشان دهد که داستان شما چقدر نوستالژیک است.
04:29
And that score is the driving force behind these light-based sculptures
81
269600
4136
و آن نمره نیروی پیشران پشت این مجسمه‌های نور محور است
04:33
that serve as physical embodiments of your contribution.
82
273760
3896
که مثل تجسم فیزیکی، مشارکت شما خدمت می‌کند.
04:37
And the higher the score, the rosier the hue.
83
277680
3216
و نمره بالاتر، رنگ شفاف‌تر.
04:40
You know, like looking at the world through rose-colored glasses.
84
280920
3936
مثل نگاه کردن دنیا با عینک قرمز رنگ.
04:44
So, when you see your score
85
284880
2616
خب، وقتی به نمره‌تان
04:47
and the physical representation of it,
86
287520
2656
و به نمایش فیزیکی آن نگاه می‌کنید،
04:50
sometimes you'd agree and sometimes you wouldn't.
87
290200
2936
گاهی اوقات شما موافق یا مخالف آن هستید
04:53
It's as if it really understood how that experience made you feel.
88
293160
3480
همانطور که فهمیدید که چگونه این تجربه برای شما احساسی می‌سازد.
04:57
But other times it gets tripped up
89
297400
2216
اما هر وقت این شکست خورد
04:59
and has you thinking it doesn't understand you at all.
90
299640
2560
و شما فکر کردید این هیچوقت شما را درک نمی‌کند.
05:02
But the piece really serves to show
91
302680
1896
اما قطعه واقعا سعی میکند تا نشان دهد
05:04
that if we have a hard time explaining the emotions that we have to each other,
92
304600
4056
که احساس کردن یکدیگر کار زمان‌بری است،
05:08
how can we teach a computer to make sense of them?
93
308680
2360
چگونه می‌خواهیم به کامپیوتر حس کردن را یاد بدهیم؟
05:12
So, even the more objective parts about being human are hard to describe.
94
312360
3576
حتی قسمتهای واقع گرایانه درباره انسان بودن توضیح‌شان سخت است.
05:15
Like, conversation.
95
315960
1240
مثل گفتگو.
05:17
Have you ever really tried to break down the steps?
96
317880
2736
آیا تا به حال شده که اینقدر خسته باشید تا از پا بیفتید؟
05:20
So think about sitting with your friend at a coffee shop
97
320640
2656
به کنار یک دوست بودن در کافی شاپ
05:23
and just having small talk.
98
323320
1320
و یک گپ کوتاه فکر کنید.
05:25
How do you know when to take a turn?
99
325160
1720
چطور می‌دانید چه زمانی نوبت شماست؟
05:27
How do you know when to shift topics?
100
327440
1840
و چه زمانی باید موضوع را عوض کنید؟
05:29
And how do you even know what topics to discuss?
101
329960
2720
و حتی در مورد چه موضوعاتی باید بحث کنید؟
05:33
See, most of us don't really think about it,
102
333560
2096
خب، بیشتر ما حتی به آن هم فکر نمی‌کنیم،
05:35
because it's almost second nature.
103
335680
1656
چون تقریبا به عادت تبدیل شده.
05:37
And when we get to know someone, we learn more about what makes them tick,
104
337360
3496
و وقتی سعی می‌کنیم کسی را بشناسیم میفهمیم چگونه باید با آن رفتار کنیم،
05:40
and then we learn what topics we can discuss.
105
340880
2376
و می‌فهمیم در مورد چه موضوع‌هایی باید بحث کنیم.
05:43
But when it comes to teaching AI systems how to interact with people,
106
343280
3656
وقتی یاد دادن به هوش
05:46
we have to teach them step by step what to do.
107
346960
2856
باید پله به پله یادشان دهیم که چه کار کنند
05:49
And right now, it feels clunky.
108
349840
3496
اکنون این احساس دلربایی دارد.
05:53
If you've ever tried to talk with Alexa, Siri or Google Assistant,
109
353360
4136
اگر تا به حال سعی کرده باشید با الکسا، سیری یا دستیار گوگل حرف زده باشید،
05:57
you can tell that it or they can still sound cold.
110
357520
4200
می‌توانید بگویید که هنوز خشک هستند.
06:02
And have you ever gotten annoyed
111
362440
1656
آیا تا بحال ناراحت شده‌اید
06:04
when they didn't understand what you were saying
112
364120
2256
وقتی که آن‌ها منظور شما را نمی‌فهمند
06:06
and you had to rephrase what you wanted 20 times just to play a song?
113
366400
3840
و شما باید از اول عبارتی را بگویید تا فقط یک ترانه را پخش کند؟
06:11
Alright, to the credit of the designers, realistic communication is really hard.
114
371440
4896
خب، برای اعتبار طراحان ارتباط واقع بینانه بسیار سخت است.
06:16
And there's a whole branch of sociology,
115
376360
2136
و یک رشته مستقل از جامعه شناسی وجود دارد،
06:18
called conversation analysis,
116
378520
1936
به آن تجزیه و تحلیل گفتگو می‌گویند،
06:20
that tries to make blueprints for different types of conversation.
117
380480
3136
که سعی می‌کند تا طرح‌هایی را برای گفتگوهای مختلف ارائه کند.
06:23
Types like customer service or counseling, teaching and others.
118
383640
4080
و این انواع شامل خدمات مشتری یا مشاوره یا درس دادن می‌شود.
06:28
I've been collaborating with a conversation analyst at the lab
119
388880
2936
من داشتم با یک تحلیل گر گفتگو در آزمایشگاه همکاری میکردم
06:31
to try to help our AI systems hold more human-sounding conversations.
120
391840
4696
تا به سیستم‌های هوش مصنوعیمان مکالمه‌های انسانی بیشتری را تشخیص دهد
06:36
This way, when you have an interaction with a chatbot on your phone
121
396560
3176
وقتی با دستیار صوتی موبایلتان یا سیستم
06:39
or a voice-based system in the car,
122
399760
1856
مبنی بر صدا در ماشین‌تان تعامل می‌کنید.
06:41
it sounds a little more human and less cold and disjointed.
123
401640
3320
کمی احساس می‌کنید انسان است یا کمی خشک و نچسب.
06:46
So I created a piece of art
124
406360
1336
خب من یک هنر را طراحی کردم
06:47
that tries to highlight the robotic, clunky interaction
125
407720
2816
که سعی می‌کند تعامل رباتیک و دلربای خود را نشان دهد
06:50
to help us understand, as designers,
126
410560
1976
به ما کمک کند تا بفهمیم، به عنوان طراحان،
06:52
why it doesn't sound human yet and, well, what we can do about it.
127
412560
4576
چرا مثل انسان هنوز حرف نمی‌زنند و چه کاری از دست ما ساخته است.
06:57
The piece is called Bot to Bot
128
417160
1456
این قطعه بات به بات نام دارد.
06:58
and it puts one conversational system against another
129
418640
2936
که با یک ربات دیگر گفتگو می‌کند
07:01
and then exposes it to the general public.
130
421600
2536
و در معرض عموم قرار می‌گیرد.
07:04
And what ends up happening is that you get something
131
424160
2496
و سرآخر آنچه اتفاق می‌افتد این است که چیزی را دارید
07:06
that tries to mimic human conversation,
132
426680
1896
که سعی دارد از گفتگوی انسان‌ تقلید کند،
07:08
but falls short.
133
428600
1896
اما ناموفق است.
07:10
Sometimes it works and sometimes it gets into these, well,
134
430520
2736
گاهی اوقات اتفاق می‌افتد و گاهی اوقات دردسر دارد،
07:13
loops of misunderstanding.
135
433280
1536
خب کلی سو تفاهم به وجود آمد.
07:14
So even though the machine-to-machine conversation can make sense,
136
434840
3096
با اینکه صحبت کردن ماشین به ماشین امکان دارد،
07:17
grammatically and colloquially,
137
437960
2016
چه دستور زبانی یا گفتاری.
07:20
it can still end up feeling cold and robotic.
138
440000
3216
حتی هنوز می‌تواند حس خشک و رباتیک بودن داشته باشد.
07:23
And despite checking all the boxes, the dialogue lacks soul
139
443240
4016
جدا از همه امکاناتی که بررسی شد این گفتگو روح ندارد
07:27
and those one-off quirks that make each of us who we are.
140
447280
3136
و این تغییرات ناگهانی هستند که ما را می‌سازند.
07:30
So while it might be grammatically correct
141
450440
2056
خب وقتی شاید از نظر دستور زبان درست باشد
07:32
and uses all the right hashtags and emojis,
142
452520
2656
و بتواند درست‌ترین هشتگ‌ها و ایموجی‌ها را استفاده کند،
07:35
it can end up sounding mechanical and, well, a little creepy.
143
455200
4136
می‌تواند در نهایت مکانیکی و کمی ترسناک به نظر برسد.
07:39
And we call this the uncanny valley.
144
459360
2336
و ما آن را دره غیر طبیعی می‌نامیم
07:41
You know, that creepiness factor of tech
145
461720
1936
می‌دانید که فاکتور خشونت فناوری
07:43
where it's close to human but just slightly off.
146
463680
2856
که به انسان نزدیک است اما خاموش است.
07:46
And the piece will start being
147
466560
1456
و دستگاه جوری کار خواهد کرد
07:48
one way that we test for the humanness of a conversation
148
468040
3216
که ما مثل انسان بودن را در یک گفتگو آزمایش می‌کنیم
07:51
and the parts that get lost in translation.
149
471280
2160
و بخش‌هایی که در ترجمه گم شده‌اند.
07:54
So there are other things that get lost in translation, too,
150
474560
2856
خب حتی چیزهایی هستند که در ترجمه گم شده‌اند،
07:57
like human intuition.
151
477440
1616
ماند بینش انسانی
07:59
Right now, computers are gaining more autonomy.
152
479080
2776
در حال حاضر کامپیوتر‌ها دارند خود مختار می‌شوند.
08:01
They can take care of things for us,
153
481880
1736
می‌توانند مواظب اشیا برای ما شوند،
08:03
like change the temperature of our houses based on our preferences
154
483640
3176
مثل عوض کردن دمای خانه‌هایمان بر اساس اولویت و حتی
08:06
and even help us drive on the freeway.
155
486840
2160
به ما در رانندگی در آزاد راهها کمک کنند.
08:09
But there are things that you and I do in person
156
489560
2496
اما چیزهای خیلی زیادی که من و شما انجام می‌دهیم
08:12
that are really difficult to translate to AI.
157
492080
2760
که واقعا ترجمه کردن آن‌ها برای ه وش مصنوعی سخت است.
08:15
So think about the last time that you saw an old classmate or coworker.
158
495440
4360
آخرین باری را که یک همکار یا همکلاسی قدیمی را دیده‌اید به یاد آورید.
08:21
Did you give them a hug or go in for a handshake?
159
501080
2480
آیا همدیگر را بغل کردید یا دست داده‌اید؟
08:24
You probably didn't think twice
160
504800
1496
شاید دو بار فکر به آن نکنید
08:26
because you've had so many built up experiences
161
506320
2336
به خاطر اینکه تجربه‌های ساخته شده‌ای را داشته‌اید
08:28
that had you do one or the other.
162
508680
2000
که شما یک کار یا کار دیگری را انجام دهید.
08:31
And as an artist, I feel that access to one's intuition,
163
511440
3456
و به عنوان یک هنرمند حس می‌کنم دست یافتن به بینش یک نفر،
08:34
your unconscious knowing,
164
514920
1416
دانسته‌های ناخودآگاه ما،
08:36
is what helps us create amazing things.
165
516360
3056
چیزهایی هستند که به ما کمک می‌کنند چیزهای خارق‌العاده‌ای بسازیم.
08:39
Big ideas, from that abstract, nonlinear place in our consciousness
166
519440
4056
ایده‌های بزرگ، از آن خلاصه، مکان‌های غیر خطی در خودآگاه ما
08:43
that is the culmination of all of our experiences.
167
523520
2960
که این نقطه اوج تجربه‌های ما است.
08:47
And if we want computers to relate to us and help amplify our creative abilities,
168
527840
4656
اگر بخواهیم کامپیوترها به ما ربط پیدا کرده و به تقویت خلاقیت ما کمک کنند،
08:52
I feel that we'll need to start thinking about how to make computers be intuitive.
169
532520
3896
احساس می‌کنم که نیاز داریم کامپیوترهایمان را درک کننده کنیم.
08:56
So I wanted to explore how something like human intuition
170
536440
3096
خب می‌خواستم کاوش کنم که چگونه هر چیزی مثل بینش انسان
08:59
could be directly translated to artificial intelligence.
171
539560
3456
می‌تواند مستقیما به هوش مصنوعی ترجمه شود.
09:03
And I created a piece that explores computer-based intuition
172
543040
3216
و من چیزی را ساختم که بینش کامپیوتر محور، در فضای فیزیکی
09:06
in a physical space.
173
546280
1320
09:08
The piece is called Wayfinding,
174
548480
1696
این دستگاه مسیریاب نام دارد،
09:10
and it's set up as a symbolic compass that has four kinetic sculptures.
175
550200
3936
و این مانند یک قطب نمای نمادین است که ۴ شئ متحرک دارد
09:14
Each one represents a direction,
176
554160
2056
که هر کدام نشان دهنده یک جهت است،
09:16
north, east, south and west.
177
556240
2120
شمال، جنوب، شرق و غرب
09:19
And there are sensors set up on the top of each sculpture
178
559080
2696
و بالای هر شئ سنسورهایی نصب شده
09:21
that capture how far away you are from them.
179
561800
2256
که نشان می‌دهد چقدر شما از آن‌ها دور هستید.
09:24
And the data that gets collected
180
564080
1816
و داده‌ای که گرفته می‌شود
09:25
ends up changing the way that sculptures move
181
565920
2136
و وقتی راه به پایان می‌رسد آن شئ
09:28
and the direction of the compass.
182
568080
2040
و جهت قطب نما عوض می‌شود.
09:31
The thing is, the piece doesn't work like the automatic door sensor
183
571360
3656
و این سنسور مثل سنسور درب اتوماتیک نیست
09:35
that just opens when you walk in front of it.
184
575040
2656
که فقط هنگامی جلوی آن هستید در را باز می‌کند.
09:37
See, your contribution is only a part of its collection of lived experiences.
185
577720
5056
همکاری شما فقط یک بخش از این مجموعه تجربه‌های زنده است
09:42
And all of those experiences affect the way that it moves.
186
582800
4056
و همه آن تجربه‌هایی که روی حرکت آن تاثیر می‌گذارند.
09:46
So when you walk in front of it,
187
586880
1736
پس وقتی که شما جلوی آن قدم می‌زنید،
09:48
it starts to use all of the data
188
588640
1976
شروع به استفاده از تمام داده‌هایی می‌کند
09:50
that it's captured throughout its exhibition history --
189
590640
2616
که این در سراسر تاریخ نمایشگاهی‌اش گرفته شده است--
09:53
or its intuition --
190
593280
1816
یا بینش آن--
09:55
to mechanically respond to you based on what it's learned from others.
191
595120
3560
تا به شما پاسخی مبنی بر چیزهایی که از دیگران یاد گرفته است بدهد.
09:59
And what ends up happening is that as participants
192
599480
2536
از چشم شرکت کنندگان چیزی اتفاق افتاده است که
10:02
we start to learn the level of detail that we need
193
602040
2816
شروع کردیم تا یاد بگیریم رتبه جزییات آن چه که نیاز داریم
10:04
in order to manage expectations
194
604880
2016
به منظور مدیریت انتظارها
10:06
from both humans and machines.
195
606920
2776
هم از انسان‌ها و هم ماشین‌ها.
10:09
We can almost see our intuition being played out on the computer,
196
609720
3616
ما تقریبا می‌توانیم بینش خودمان را که اکنون روی کامپیوتر است ببینیم،
10:13
picturing all of that data being processed in our mind's eye.
197
613360
3600
به تصویر کشیده شدن تمام آن داده که در چشم ذهن ما فراوری شده است.
10:17
My hope is that this type of art
198
617560
1656
آرزوی من این نوع شکل از هنر است
10:19
will help us think differently about intuition
199
619240
2416
که در داشتن تفکری متفاوت درباره بینش‌ و
10:21
and how to apply that to AI in the future.
200
621680
2280
و چگونگی کاربرد آن را درهوش مصنوعی کمک میکند.
10:24
So these are just a few examples of how I'm using art to feed into my work
201
624480
3936
این‌ها مثال‌هایی بودند که چگونه از هنرم در مورد کارم استفاده می‌کنم،
10:28
as a designer and researcher of artificial intelligence.
202
628440
3096
به عنوان یک طراح و محقق هوش مصنوعی.
10:31
And I see it as a crucial way to move innovation forward.
203
631560
3496
و من آن را برای پیشبرد نوآوری به عنوان یک راه، بسیار مهم می‌بینم.
10:35
Because right now, there are a lot of extremes when it comes to AI.
204
635080
4376
بخاطر اینکه در حال حاضر افراط‌های زیادی در زمینه هوش مصنوعی وجود دارد.
10:39
Popular movies show it as this destructive force
205
639480
2816
فیلم‌های معروف آن را به عنوان یک نیروی مخرب نشان می‌دهند
10:42
while commercials are showing it as a savior
206
642320
3056
وقتی که تبلیغات هوش مصنوعی را یک نجات دهنده
10:45
to solve some of the world's most complex problems.
207
645400
2936
برای حل کردن مشکل‌ترین مشکل‌های دنیا می‌دانند
10:48
But regardless of where you stand,
208
648360
2536
اما بدون در نظر گرفتن جایی که ایستادید
10:50
it's hard to deny that we're living in a world
209
650920
2176
سخت است که انکار کنید در جهانی زندگی می‌کنید
10:53
that's becoming more and more digital by the second.
210
653120
2576
که دارد هر ثانیه بیشتر دیجیتالی می‌شود.
10:55
Our lives revolve around our devices, smart appliances and more.
211
655720
4600
زندگی‌های ما حول ابزارها و لوازم خانگی و دیگر چیزها می‌چرخد.
11:01
And I don't think this will let up any time soon.
212
661400
2320
و فکر نمی‌کنم که بزودی از آن کاسته شود.
11:04
So, I'm trying to embed more humanness from the start.
213
664400
3736
من سعی بر این دارم که از ابتدا انسان بودن را بگنجانم.
11:08
And I have a hunch that bringing art into an AI research process
214
668160
5136
و این احساس را دارم که آوردن هنر به پروسه هوش مصنوعی
11:13
is a way to do just that.
215
673320
1896
راهی برای انجام آن است.
11:15
Thank you.
216
675240
1216
متشکرم.
11:16
(Applause)
217
676480
2280
(تشویق)
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7