This computer is learning to read your mind | DIY Neuroscience, a TED series

126,401 views ・ 2018-09-15

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

00:00
Translator: Joseph Geni Reviewer: Krystian Aparta
0
0
7000
Translator: Sina Shafiezadeh Reviewer: Mahshid Moballegh Nasery
گِرِگ گیج: ذهن‌خوانی. در فیلم‌ های علمی-تخیلی دیدید:
ماشین‌‌هایی که می‌‌توانند افکار ما را بخوانند.
هرچند، امروزه دستگاه‌‌هایی وجود دارند که فعالیت الکتریکی مغزهایمان را می‌خوانند.
ما این را ای‌ای‌جی می‌نامیم.
آیا اطلاعاتی در این امواج مغزی وجود دارند؟
00:12
Greg Gage: Mind-reading. You've seen this in sci-fi movies:
1
12203
2859
اگر بله، آیا قادریم رایانه‌ای برای خواندن افکارمان آموزش دهیم؟
00:15
machines that can read our thoughts.
2
15086
1857
00:16
However, there are devices today
3
16967
1798
رفقیم ناتان در حال هک یک ای‌‌ای‌‌جی
00:18
that can read the electrical activity from our brains.
4
18789
2524
برای ساخت یک ماشین ذهن‌‌خوان است.
00:21
We call this the EEG.
5
21337
1272
[خودتان انجام دهید: علوم اعصاب]
00:23
Is there information contained in these brainwaves?
6
23695
2829
پس ای‌ای‌جی این گونه عمل می‌کند.
00:26
And if so, could we train a computer to read our thoughts?
7
26548
2813
درون سر شما یک مغز وجود دارد،
که از میلیاردها سلول‌ عصبی ساخته شده است.
00:29
My buddy Nathan has been working to hack the EEG
8
29385
2904
هر کدام از آن سلول‌های عصبی پیامی الکتریکی به یکدیگر می‌فرستند.
00:32
to build a mind-reading machine.
9
32313
1676
پیام‌ها می‌توانند با هم ترکیب شوند و یک موج الکتریکی ایجاد کنند
00:34
[DIY Neuroscience]
10
34013
2457
00:36
So this is how the EEG works.
11
36939
1561
که می‌توانیم روی نمایش‌گر ببینیم.
00:38
Inside your head is a brain,
12
38524
1844
حالا به طور سنتی، ای‌ای‌جی چیزهای در مقیاس بزرگ به ما بگوید،
00:40
and that brain is made out of billions of neurons.
13
40392
2558
برای مثال این که شما خواب هستید یا هشیار.
00:42
Each of those neurons sends an electrical message to each other.
14
42974
3007
ولی آیا چیز دیگری هم به ما می‌گوید؟
آیا واقعا افکار ما را می‌خواند؟
00:46
These small messages can combine to make an electrical wave
15
46005
2814
ما قصد آزمایش این را داریم،
و نمی‌خواهیم با افکار پیچیده شروع کنیم.
00:48
that we can detect on a monitor.
16
48843
1570
می‌خواهیم کاری بسیار ساده انجام دهیم.
00:50
Now traditionally, the EEG can tell us large-scale things,
17
50437
2724
آیا می‌توانیم آن‌چه را که شخصی می‌بیند تنها با استفاده از امواج مغزی تفسیر کنیم؟
00:53
for example if you're asleep or if you're alert.
18
53185
2350
00:55
But can it tell us anything else?
19
55559
1594
ناتان قرار است با قرار دادن الکترود روی سر کریستی شروع کند.
00:57
Can it actually read our thoughts?
20
57177
1702
00:58
We're going to test this,
21
58903
1219
ناتان: زندگی من گره خورده است.
01:00
and we're not going to start with some complex thoughts.
22
60146
2623
(صدای خنده)
01:02
We're going to do something very simple.
23
62793
1977
گِرِگ: و سپس یک دسته از چهار دسته مختلف عکس را به او نشان می‌دهد.
01:04
Can we interpret what someone is seeing using only their brainwaves?
24
64794
3253
ناتان: چهره، خانه، منظره و تصاویر عجیب‌وغریب.
01:08
Nathan's going to begin by placing electrodes on Christy's head.
25
68071
3000
گِرِگ: در حالی که تصاویر را به کریستی نشان می‌دهیم،
01:11
Nathan: My life is tangled.
26
71095
1523
همچنین امواج الکتریکی را روی رایانه ناتان ثبت می‌کنیم.
01:12
(Laughter)
27
72642
1150
01:14
GG: And then he's going to show her a bunch of pictures
28
74152
2584
می‌خواهیم ببینیم می‌توانیم اطلاعات بصری عکس‌ها را که در امواج مغزی است تشخیص دهیم،
01:16
from four different categories.
29
76760
1521
01:18
Nathan: Face, house, scenery and weird pictures.
30
78305
2654
پس وقتی کارمان تمام شد، خواهیم دید که آیا ای‌ای‌جی
01:20
GG: As we show Christy hundreds of these images,
31
80983
2498
می‌تواند به ما بگوید که کریستی به چه نوع تصویری نگاه می‌کند،
01:23
we are also capturing the electrical waves onto Nathan's computer.
32
83505
3543
و اگر این کار را کرد، هر دسته باید سیگنال مغزی متفاوتی را تحریک کند.
01:27
We want to see if we can detect any visual information about the photos
33
87072
3386
خوب، بنابراین ما تمام داده‌های خام ای‌ای‌جی را جمع‌آوری کردیم،
01:30
contained in the brainwaves,
34
90482
1352
01:31
so when we're done, we're going to see if the EEG
35
91858
2331
و این چیزی است که حاصل شد.
همه چیز آشفته به نظر می‌رسد، بیایید آنها را بر اساس تصویر مرتب کنیم.
01:34
can tell us what kind of picture Christy is looking at,
36
94213
2598
01:36
and if it does, each category should trigger a different brain signal.
37
96835
3584
هنوز برای دیدن هر گونه تفاوت، زیاد اغتشاش دارد،
اما اگر ما میانگین ای‌ای‌جی را با تراز کردن آن‌ها با زمانی که
01:40
OK, so we collected all the raw EEG data,
38
100443
2628
تصویر اول ظاهر شد، در تمام تصاویر حساب کنیم،
01:43
and this is what we got.
39
103095
1150
ما می‌توانیم این اغتشاشات را حذف کنیم،
01:45
It all looks pretty messy, so let's arrange them by picture.
40
105389
2938
و سریع می‌توانیم برخی از الگوهای غالب را که برای هر دسته ظاهر می‌شوند ببینیم.
01:48
Now, still a bit too noisy to see any differences,
41
108826
2656
اما هنوز همه‌ی سیگنال‌ها شبیه هم هستند.
01:51
but if we average the EEG across all image types
42
111506
3040
بیایید دقیق‌تر نگاه کنیم.
01:54
by aligning them to when the image first appeared,
43
114570
2436
حدود صد میلی‌ثانیه پس از نمایش تصویر،
در هر چهار مورد یک برآمدگی مثبت می‌بینیم،
01:57
we can remove this noise,
44
117030
1617
01:58
and pretty soon, we can see some dominant patterns
45
118671
2334
و آن را پی۱۰۰ می‌نامیم، و آن‌چه ما فکر می‌کنیم این است
02:01
emerge for each category.
46
121029
1564
که زمانی که شئ‌ای را تشخیص می‌دهید چنین چیزی در مغز شما اتفاق می‌افتد.
02:02
Now the signals all still look pretty similar.
47
122617
2156
02:04
Let's take a closer look.
48
124797
1215
اما لعنتی، به سیگنال چهره نگاه کنید.
02:06
About a hundred milliseconds after the image comes on,
49
126036
2525
به نظر با بقیه تفاوت دارد.
02:08
we see a positive bump in all four cases,
50
128585
2628
یک شیب منفی حدوداً ۱۷۰ میلی‌ثانیه‌ای بعد از این‌که تصویر ظاهر می‌شود وجود دارد.
02:11
and we call this the P100, and what we think that is
51
131237
2789
اینجا چه اتفاقی می‌تواند در جریان باشد؟
02:14
is what happens in your brain when you recognize an object.
52
134050
3075
تحقیقات نشان می‌دهد که مغز ما سلول‌های زیادی دارد که مختص
02:17
But damn, look at that signal for the face.
53
137149
2086
تشخیص چهره انسان هستند،
02:19
It looks different than the others.
54
139259
1711
02:20
There's a negative dip about 170 milliseconds
55
140994
2890
پس این جهش «ان۱۷۰» می‌تواند تمام آن سلول‌های عصبی باشد
که هم زمان به یک مکان شلیک می‌کنند،
02:23
after the image comes on.
56
143908
1540
و می‌توانیم آن را در ای‌ای‌جی تشخیص دهیم.
02:25
What could be going on here?
57
145472
1750
بنابراین دو نکته در اینجا وجود دارد.
02:27
Research shows that our brain has a lot of neurons that are dedicated
58
147246
3240
یک، چشمان ما واقعاً نمی‌توانند تفاوت‌های الگوها را
02:30
to recognizing human faces,
59
150510
1459
02:31
so this N170 spike could be all those neurons
60
151993
2844
بدون میانگین گرفتن اغتشاشات تشخیص دهند،
و دو، حتی پس از حذف اغتشاشات،
02:34
firing at once in the same location,
61
154861
1985
چشمان ما فقط می‌توانند سیگنال‌های مربوط به چهره‌ها را برگزینند.
02:36
and we can detect that in the EEG.
62
156870
1634
بنابراین اینجاست که ما به یادگیری ماشین روی می‌آوریم.
02:39
So there are two takeaways here.
63
159083
1820
02:40
One, our eyes can't really detect the differences in patterns
64
160927
3085
حالا، چشمان ما در انتخاب الگوها در داده‌های پر اغتشاش چندان خوب نیستند،
02:44
without averaging out the noise,
65
164036
1571
02:45
and two, even after removing the noise,
66
165631
2237
اما الگوریتم‌های یادگیری ماشین برای انجام این کار طراحی شده‌اند،
02:47
our eyes can only pick up the signals associated with faces.
67
167892
3001
بنابراین آیا می‌توانیم تعداد زیادی عکس و داده بگیریم
02:50
So this is where we turn to machine learning.
68
170917
2268
و وارد رایانه کرده و آن‌ها را آموزش دهیم
02:53
Now, our eyes are not very good at picking up patterns in noisy data,
69
173209
3976
تا بتواند آنچه را که کریستی در زمان حاضر به آن نگاه می‌کند تفسیر کند؟
ما سعی می‌کنیم اطلاعات ای‌ای‌جی او را به صورت لحظه‌ای رمزگذاری کنیم
02:57
but machine learning algorithms are designed to do just that,
70
177209
2946
03:00
so could we take a lot of pictures and a lot of data
71
180179
3201
و پیش‌بینی کنیم که چشمان او به چه چیزی نگاه می‌کنند.
03:03
and feed it in and train a computer
72
183404
1790
و اگر کار کند، چه چیزی باید ببینیم
03:05
to be able to interpret what Christy is looking at in real time?
73
185218
3381
هر بار که او عکسی از منظره می‌گیرد،
باید بگوید منظره، منظره، منظره، منظره.
03:09
We're trying to code the information that's coming out of her EEG
74
189088
4117
یک صورت -- صورت، صورت، صورت، صورت،
03:13
in real time
75
193229
1175
اما کاملاً به این شکل کار نمی‌کند، چیزی است که ما در حال کشف کردن هستیم.
03:14
and predict what it is that her eyes are looking at.
76
194428
2461
03:16
And if it works, what we should see
77
196913
1727
03:18
is every time that she gets a picture of scenery,
78
198664
2381
(صدای خنده)
03:21
it should say scenery, scenery, scenery, scenery.
79
201069
2286
03:23
A face -- face, face, face, face,
80
203379
1957
خوب.
03:25
but it's not quite working that way, is what we're discovering.
81
205360
3531
کارگردان: خب اینجا چه خبر است؟ گِرِگ: فکر کنم ما یک حرفه جدید نیاز داریم.
(صدای خنده)
خوب، پس این یک شکست عظیم بود.
اما ما هنوز کنجکاو هستیم: تا کجا می‌توانیم این فناوری را پیش ببریم؟
03:33
(Laughter)
82
213385
3548
03:36
OK.
83
216957
1151
و ما به آن‌چه انجام دادیم نگاه کردیم.
ما متوجه شدیم که داده‌ها خیلی سریع وارد رایانه ما می‌شوند،
03:38
Director: So what's going on here? GG: We need a new career, I think.
84
218132
3382
بدون هیچ زمان‌بندی برای وقتی که تصاویر ظاهر شدند،
03:41
(Laughter)
85
221538
1070
03:42
OK, so that was a massive failure.
86
222632
2444
و این معادل خواندن یک جمله بسیار طولانی بدون فاصله بین کلمات است.
03:45
But we're still curious: How far could we push this technology?
87
225100
3212
خواندن آن سخت خواهد بود،
03:48
And we looked back at what we did.
88
228336
1640
اما هنگامی که فاصله ها را اضافه می‌کنیم، کلمات جداگانه ظاهر می شوند
03:50
We noticed that the data was coming into our computer very quickly,
89
230000
3143
03:53
without any timing of when the images came on,
90
233167
2241
و بسیار قابل درک‌تر می‌شوند.
03:55
and that's the equivalent of reading a very long sentence
91
235432
2876
اما اگر کمی تقلب کنیم چه؟
با یک حسگر، می‌توانیم به رایانه بگوییم که تصویر برای اولین‌بار چه زمانی ظاهر می‌شود
03:58
without spaces between the words.
92
238332
1605
03:59
It would be hard to read,
93
239961
1438
به این ترتیب، موج مغزی دیگر یک جریان مداوم اطلاعات نیست،
04:01
but once we add the spaces, individual words appear
94
241423
3713
و در عوض تبدیل به بسته‌های مجزای معنی‌دار می شوند.
04:05
and it becomes a lot more understandable.
95
245160
2044
همچنین، ما قصد داریم با محدود کردن دسته‌ها به دو دسته کمی بیشتر تقلب کنیم.
04:07
But what if we cheat a little bit?
96
247228
1847
04:09
By using a sensor, we can tell the computer when the image first appears.
97
249099
3537
ببینیم آیا می‌توانیم ذهن‌خوانی را در لحظه‌ای انجام دهیم.
04:12
That way, the brainwave stops being a continuous stream of information,
98
252660
3602
در این آزمایش جدید،
ما آن را کمی بیشتر محدود می‌کنیم
04:16
and instead becomes individual packets of meaning.
99
256286
2711
به طوری که ما شروع تصویر را بدانیم
04:19
Also, we're going to cheat a little bit more,
100
259021
2368
و دسته بندی‌ها را به «چهره» یا «منظره» محدود می‌کنیم.
04:21
by limiting the categories to two.
101
261413
1812
04:23
Let's see if we can do some real-time mind-reading.
102
263249
2383
ناتان: صورت. درست.
04:25
In this new experiment,
103
265656
1235
منظره. درست.
04:26
we're going to constrict it a little bit more
104
266915
2097
گِرِگ: بنابراین در حال حاضر، هر بار که تصویر می‌آید،
04:29
so that we know the onset of the image
105
269036
2252
ما از شروع تصویر عکس می‌گیریم
04:31
and we're going to limit the categories to "face" or "scenery."
106
271312
3382
و نوار مغزی را رمزگشایی می‌کنیم.
در حال درست شدن است.
04:35
Nathan: Face. Correct.
107
275097
1511
ناتان: بله. صورت. درست.
04:37
Scenery. Correct.
108
277780
1351
گِرِگ: بنابراین اطلاعاتی در ای‌ای‌جی وجود دارد که جالب است.
04:40
GG: So right now, every time the image comes on,
109
280251
2373
ما فقط باید آن را با ابتدای تصویر تراز می‌کردیم.
04:42
we're taking a picture of the onset of the image
110
282648
2266
ناتان: منظره. درست.
04:44
and decoding the EEG.
111
284938
1695
04:46
It's getting correct.
112
286657
1256
04:47
Nathan: Yes. Face. Correct.
113
287937
1579
صورت. آره.
گِرِگ: به این معنی که آن‌جا مقداری اطلاعات وجود دارد،
04:49
GG: So there is information in the EEG signal, which is cool.
114
289540
2859
بنابراین اگر ما بدانیم در چه زمانی عکس ظاهر شد،
04:52
We just had to align it to the onset of the image.
115
292423
2537
احتمالاً می‌توانیم حداقل به طور متوسط، با نگاه کردن به این پتانسیل‌های برانگیخته
04:55
Nathan: Scenery. Correct.
116
295307
1311
بگوییم چه نوع تصویری بود.
04:59
Face. Yeah.
117
299344
1150
05:00
GG: This means there is some information there,
118
300518
2288
ناتان: دقیقا.
گِرِگ: اگر در شروع این پروژه به من گفته بودید که این امکان‌پذیر است،
05:02
so if we know at what time the picture came on,
119
302830
2913
05:05
we can tell what type of picture it was,
120
305767
1999
من می‌گفتم به هیچ وجه.
واقعا فکر نمی‌کردم بتوانیم انجامش دهیم.
05:07
possibly, at least on average, by looking at these evoked potentials.
121
307790
5096
آیا آزمایش ذهن‌خوانی ما واقعاً کار کرد؟
بله، اما مجبور شدیم زیاد تقلب کنیم.
05:12
Nathan: Exactly.
122
312910
1325
معلوم شد می‌توانید چیزهای جالبی را در ای‌ای‌جی پیدا کنید،
05:14
GG: If you had told me at the beginning of this project this was possible,
123
314259
3521
برای مثال اگر به صورت کسی نگاه می‌کنید،
05:17
I would have said no way.
124
317804
1251
اما محدودیت‌های زیادی دارند.
05:19
I literally did not think we could do this.
125
319079
2000
شاید پیشرفت در یادگیری ماشین گام‌های بزرگی برخواهد داشت،
05:21
Did our mind-reading experiment really work?
126
321103
2066
05:23
Yes, but we had to do a lot of cheating.
127
323193
1975
و روزی قادر خواهیم بود آنچه را که در افکارمان می‌گذرد رمزگشایی کنیم.
05:25
It turns out you can find some interesting things in the EEG,
128
325192
2905
اما برای حالا، دفعه بعد که یک شرکت می‌گوید که آنها قادر به مهار امواج مغزی شما هستند
05:28
for example if you're looking at someone's face,
129
328121
2290
05:30
but it does have a lot of limitations.
130
330435
2157
قادر به کنترل دستگاه‌ها،
05:32
Perhaps advances in machine learning will make huge strides,
131
332616
2946
این حق شماست، این وظیفه شماست که شک داشته باشید.
05:35
and one day we will be able to decode what's going on in our thoughts.
132
335586
3390
05:39
But for now, the next time a company says that they can harness your brainwaves
133
339000
4077
05:43
to be able to control devices,
134
343101
1750
05:44
it is your right, it is your duty to be skeptical.
135
344875
3310
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7