This computer is learning to read your mind | DIY Neuroscience, a TED series

126,401 views ・ 2018-09-15

TED


Vă rugăm să faceți dublu clic pe subtitrările în limba engleză de mai jos pentru a reda videoclipul.

00:00
Translator: Joseph Geni Reviewer: Krystian Aparta
0
0
7000
Traducător: Mirel-Gabriel Alexa Corector: Iosif Szenasi
00:12
Greg Gage: Mind-reading. You've seen this in sci-fi movies:
1
12203
2859
Greg Gage: Citirea gândurilor. Ați văzut asta în filmele sci-fi:
00:15
machines that can read our thoughts.
2
15086
1857
mașinării care îți pot citi gândurile.
00:16
However, there are devices today
3
16967
1798
Însă există și astăzi aparate
00:18
that can read the electrical activity from our brains.
4
18789
2524
care pot să citească activitatea electrică a creierului.
00:21
We call this the EEG.
5
21337
1272
Se numesc EEG.
00:23
Is there information contained in these brainwaves?
6
23695
2829
Există informații în aceste unde cerebrale?
00:26
And if so, could we train a computer to read our thoughts?
7
26548
2813
Dacă există, putem programa un computer să ne citească gândurile?
00:29
My buddy Nathan has been working to hack the EEG
8
29385
2904
Prietenul meu Nathan lucrează la descifrarea EEG-ul
00:32
to build a mind-reading machine.
9
32313
1676
cu scopul de a citi gândurile.
00:34
[DIY Neuroscience]
10
34013
2457
[Neuroștiințe]
00:36
So this is how the EEG works.
11
36939
1561
Uite cum funcționează EEG-ul.
00:38
Inside your head is a brain,
12
38524
1844
În craniu există un creier,
00:40
and that brain is made out of billions of neurons.
13
40392
2558
și creierul este alcătuit din miliarde de neuroni.
00:42
Each of those neurons sends an electrical message to each other.
14
42974
3007
Fiecare neuron transmite un impuls electric celorlalți neuroni.
00:46
These small messages can combine to make an electrical wave
15
46005
2814
Aceste mici impulsuri formează o undă electrică
00:48
that we can detect on a monitor.
16
48843
1570
pe care o detectăm pe un monitor.
00:50
Now traditionally, the EEG can tell us large-scale things,
17
50437
2724
În mod obișnuit EEG-ul ne poate arăta comportamente mari,
00:53
for example if you're asleep or if you're alert.
18
53185
2350
de exemplu dacă dormi sau ești treaz.
00:55
But can it tell us anything else?
19
55559
1594
Dar ne mai poate spune altceva?
00:57
Can it actually read our thoughts?
20
57177
1702
Ne poate citi gândurile?
00:58
We're going to test this,
21
58903
1219
Vom testa acest lucru,
01:00
and we're not going to start with some complex thoughts.
22
60146
2623
și nu vom începe cu gânduri complexe.
01:02
We're going to do something very simple.
23
62793
1977
Vom face ceva foarte simplu.
01:04
Can we interpret what someone is seeing using only their brainwaves?
24
64794
3253
Poți afla ce vede cineva folosind doar undele cerebrale?
01:08
Nathan's going to begin by placing electrodes on Christy's head.
25
68071
3000
Nathan va începe prin plasarea de electrozi pe capul lui Christy.
01:11
Nathan: My life is tangled.
26
71095
1523
Nathan: Viața mea e încâlcită.
01:12
(Laughter)
27
72642
1150
(Râde)
01:14
GG: And then he's going to show her a bunch of pictures
28
74152
2584
GG: Apoi îi va arăta mai multe fotografii
01:16
from four different categories.
29
76760
1521
din patru categorii.
01:18
Nathan: Face, house, scenery and weird pictures.
30
78305
2654
Nathan: Fețe, case, peisaje și poze ciudate.
01:20
GG: As we show Christy hundreds of these images,
31
80983
2498
GG: În timp ce îi arătăm lui Christy aceste sute de imagini,
01:23
we are also capturing the electrical waves onto Nathan's computer.
32
83505
3543
înregistrăm și undele electrice pe calculatorul lui Nathan.
01:27
We want to see if we can detect any visual information about the photos
33
87072
3386
Vrem să vedem dacă putem detecta vreo informație vizuală din fotografii
01:30
contained in the brainwaves,
34
90482
1352
în undele cerebrale,
01:31
so when we're done, we're going to see if the EEG
35
91858
2331
și când vom termia, vom putea vedea dacă EEG-ul
01:34
can tell us what kind of picture Christy is looking at,
36
94213
2598
ne poate spune la ce tip de fotografie se uita Christy,
01:36
and if it does, each category should trigger a different brain signal.
37
96835
3584
și dacă poate, fiecare tip ar trebui să cauzeze un semnal cerebral diferit.
01:40
OK, so we collected all the raw EEG data,
38
100443
2628
Bine, am înregistrat toate informațiile brute EEG
01:43
and this is what we got.
39
103095
1150
și am obținut asta.
01:45
It all looks pretty messy, so let's arrange them by picture.
40
105389
2938
Arată foarte dezordonate. Să le aranjăm după tipul fotografiei.
01:48
Now, still a bit too noisy to see any differences,
41
108826
2656
Arată prea haotic pentru a vedea vreo diferență,
01:51
but if we average the EEG across all image types
42
111506
3040
dar dacă facem o medie a tuturor undelor EEG
01:54
by aligning them to when the image first appeared,
43
114570
2436
și le sincronizăm cu apariția imaginii,
01:57
we can remove this noise,
44
117030
1617
putem elimina zgomotul
01:58
and pretty soon, we can see some dominant patterns
45
118671
2334
și imediat putem observa câteva modele dominante
02:01
emerge for each category.
46
121029
1564
pentru fiecare categorie.
02:02
Now the signals all still look pretty similar.
47
122617
2156
Semnalele par similare.
02:04
Let's take a closer look.
48
124797
1215
Să ne uităm mai de aproape.
02:06
About a hundred milliseconds after the image comes on,
49
126036
2525
La o sută de milisecunde după apariția imaginii,
02:08
we see a positive bump in all four cases,
50
128585
2628
vedem o undă pozitivă în toate cele patru cazuri.
02:11
and we call this the P100, and what we think that is
51
131237
2789
O denumim P100 și credem că reprezintă
02:14
is what happens in your brain when you recognize an object.
52
134050
3075
recunoașterea obiectului de către creier.
02:17
But damn, look at that signal for the face.
53
137149
2086
Dar priviți acel semnal în cazul fețelor!
02:19
It looks different than the others.
54
139259
1711
Pare diferit de celelalte.
02:20
There's a negative dip about 170 milliseconds
55
140994
2890
Există o undă negativă la 170 de milisecunde
02:23
after the image comes on.
56
143908
1540
după apariția imaginii.
02:25
What could be going on here?
57
145472
1750
Ce se întâmplă aici?
02:27
Research shows that our brain has a lot of neurons that are dedicated
58
147246
3240
Cercetările arată că creierul are mulți neuroni dedicați
02:30
to recognizing human faces,
59
150510
1459
recunoașterii fețelor umane,
02:31
so this N170 spike could be all those neurons
60
151993
2844
deci unda N170 poate fi activarea simultană
02:34
firing at once in the same location,
61
154861
1985
a acelor neuroni dintr-o singură locație,
02:36
and we can detect that in the EEG.
62
156870
1634
care e apoi detectată de EEG.
02:39
So there are two takeaways here.
63
159083
1820
Sunt două concluzii aici.
02:40
One, our eyes can't really detect the differences in patterns
64
160927
3085
Unu: nu putem detecta vizual diferențele
02:44
without averaging out the noise,
65
164036
1571
fără se eliminăm zgomotul de fundal.
02:45
and two, even after removing the noise,
66
165631
2237
Și doi: chiar și după eliminarea zgomotului,
02:47
our eyes can only pick up the signals associated with faces.
67
167892
3001
putem diferenția vizual doar semnalele asociate cu fețele.
02:50
So this is where we turn to machine learning.
68
170917
2268
Astfel ajungem la învățarea automată.
02:53
Now, our eyes are not very good at picking up patterns in noisy data,
69
173209
3976
Ochii noștri nu sunt foarte buni în detectarea tiparele din grafice,
02:57
but machine learning algorithms are designed to do just that,
70
177209
2946
dar algoritmii de învățare automată sunt construiți să facă asta,
03:00
so could we take a lot of pictures and a lot of data
71
180179
3201
deci putem folosi multe imagini și date
03:03
and feed it in and train a computer
72
183404
1790
cu care să antrenăm un computer
03:05
to be able to interpret what Christy is looking at in real time?
73
185218
3381
care să recunoască la ce privește Christy în timp real?
03:09
We're trying to code the information that's coming out of her EEG
74
189088
4117
Încercăm să codăm informațiile care vin din EEG
03:13
in real time
75
193229
1175
în timp real
03:14
and predict what it is that her eyes are looking at.
76
194428
2461
și să prezicem la ce privește.
03:16
And if it works, what we should see
77
196913
1727
Și dacă funcționează, vom observa
03:18
is every time that she gets a picture of scenery,
78
198664
2381
că de fiecare dacă când privește un peisaj,
03:21
it should say scenery, scenery, scenery, scenery.
79
201069
2286
ar trebui să arate rezultatul: peisaj, peisaj, peisaj.
03:23
A face -- face, face, face, face,
80
203379
1957
O față: față, față, față,
03:25
but it's not quite working that way, is what we're discovering.
81
205360
3531
dar am descoperit că nu funcționează chiar așa.
03:33
(Laughter)
82
213385
3548
(Râsete)
03:36
OK.
83
216957
1151
Bine.
03:38
Director: So what's going on here? GG: We need a new career, I think.
84
218132
3382
Regizor: Ce se întâmplă? GG: Avem nevoie de o nouă carieră, cred.
03:41
(Laughter)
85
221538
1070
(Râsete)
03:42
OK, so that was a massive failure.
86
222632
2444
Bine, a fost un eșec total.
03:45
But we're still curious: How far could we push this technology?
87
225100
3212
Dar suntem curioși: cât de departe putem împinge această tehnologie?
03:48
And we looked back at what we did.
88
228336
1640
Așa că am analizat ce am făcut.
03:50
We noticed that the data was coming into our computer very quickly,
89
230000
3143
Am observat că informațiile ajungeau în computer foarte repede,
03:53
without any timing of when the images came on,
90
233167
2241
fără să menționeze când apăreau imaginile,
03:55
and that's the equivalent of reading a very long sentence
91
235432
2876
și asta e ca și cum ai citi un fragment lung
03:58
without spaces between the words.
92
238332
1605
fără spații între cuvinte.
03:59
It would be hard to read,
93
239961
1438
Așa ceva e greu de citit,
04:01
but once we add the spaces, individual words appear
94
241423
3713
dar odată ce adăugăm spațiile, apar și cuvintele
04:05
and it becomes a lot more understandable.
95
245160
2044
și devine ușor de înțeles.
04:07
But what if we cheat a little bit?
96
247228
1847
Dar dacă am trișa puțin?
04:09
By using a sensor, we can tell the computer when the image first appears.
97
249099
3537
Am folosit un senzor care transmite computerului când apare imaginea.
04:12
That way, the brainwave stops being a continuous stream of information,
98
252660
3602
Astfel, undele cerebrale nu mai sunt un flux continuu de informații,
04:16
and instead becomes individual packets of meaning.
99
256286
2711
ci pachete de informații.
04:19
Also, we're going to cheat a little bit more,
100
259021
2368
Vom trișa și mai mult,
04:21
by limiting the categories to two.
101
261413
1812
limitând categoriile la două.
04:23
Let's see if we can do some real-time mind-reading.
102
263249
2383
Să vedem dacă putem citi gândurile.
04:25
In this new experiment,
103
265656
1235
În acest nou experiment,
04:26
we're going to constrict it a little bit more
104
266915
2097
îl vom restrânge și mai mult
04:29
so that we know the onset of the image
105
269036
2252
astfel încât să știm răspunsul la imagine
04:31
and we're going to limit the categories to "face" or "scenery."
106
271312
3382
și vom limita categoriile la fețe și peisaje.
04:35
Nathan: Face. Correct.
107
275097
1511
Nathan: Față. Corect.
04:37
Scenery. Correct.
108
277780
1351
Peisaj. Corect.
04:40
GG: So right now, every time the image comes on,
109
280251
2373
GG: Acum, de fiecare dată când apare o imagine,
04:42
we're taking a picture of the onset of the image
110
282648
2266
înregistrăm momentul în care a apărut imaginea
04:44
and decoding the EEG.
111
284938
1695
și decodăm EEG-ul.
04:46
It's getting correct.
112
286657
1256
Acum e corect.
04:47
Nathan: Yes. Face. Correct.
113
287937
1579
Nathan: Da. Față. Corect.
04:49
GG: So there is information in the EEG signal, which is cool.
114
289540
2859
GG: Deci există informații în semnalul EEG, ceea ce e grozav.
04:52
We just had to align it to the onset of the image.
115
292423
2537
Trebuia doar să o sincronizăm cu apariția imaginii.
04:55
Nathan: Scenery. Correct.
116
295307
1311
Nathan: Peisaj. Corect.
04:59
Face. Yeah.
117
299344
1150
Față. Da.
05:00
GG: This means there is some information there,
118
300518
2288
GG: Asta înseamnă că există informații aici,
05:02
so if we know at what time the picture came on,
119
302830
2913
și dacă știm când e afișată imaginea,
05:05
we can tell what type of picture it was,
120
305767
1999
putem spune ce fel de imagine e,
05:07
possibly, at least on average, by looking at these evoked potentials.
121
307790
5096
cel puțin în majoritatea cazurilor, prin analizarea acestor potențiale.
05:12
Nathan: Exactly.
122
312910
1325
Nathan: Exact.
05:14
GG: If you had told me at the beginning of this project this was possible,
123
314259
3521
GG: Dacă mi-ai fi spus la începutul proiectului că așa ceva e posibil,
05:17
I would have said no way.
124
317804
1251
aș fi spus: imposibil.
05:19
I literally did not think we could do this.
125
319079
2000
Nu am crezut că putem realiza asta.
05:21
Did our mind-reading experiment really work?
126
321103
2066
A funcționat cu adevărat experimentul nostru?
05:23
Yes, but we had to do a lot of cheating.
127
323193
1975
Da, dar a trebuit să trișăm mult.
05:25
It turns out you can find some interesting things in the EEG,
128
325192
2905
Dar se pare că poți găsi câteva lucruri interesante într-un EEG,
05:28
for example if you're looking at someone's face,
129
328121
2290
de exemplu, dacă privești fața cuiva,
05:30
but it does have a lot of limitations.
130
330435
2157
dar are multe limitări.
05:32
Perhaps advances in machine learning will make huge strides,
131
332616
2946
Poate că progresele în învățarea automată vor reuși
05:35
and one day we will be able to decode what's going on in our thoughts.
132
335586
3390
într-o zi să decodifice ce se întâmplă în mintea noastră.
05:39
But for now, the next time a company says that they can harness your brainwaves
133
339000
4077
Dar momentan,
data viitoare când o companie declară că poate folosi undele cerebrale
05:43
to be able to control devices,
134
343101
1750
pentru a controla anumite dispozitive,
05:44
it is your right, it is your duty to be skeptical.
135
344875
3310
e dreptul și datoria ta să fii sceptic.
Despre acest site

Acest site vă va prezenta videoclipuri de pe YouTube care sunt utile pentru a învăța limba engleză. Veți vedea lecții de engleză predate de profesori de top din întreaga lume. Faceți dublu clic pe subtitrările în limba engleză afișate pe fiecare pagină video pentru a reda videoclipul de acolo. Subtitrările se derulează în sincron cu redarea videoclipului. Dacă aveți comentarii sau solicitări, vă rugăm să ne contactați folosind acest formular de contact.

https://forms.gle/WvT1wiN1qDtmnspy7