Gero Miesenboeck reengineers a brain

52,048 views ・ 2010-11-05

TED


Vă rugăm să faceți dublu clic pe subtitrările în limba engleză de mai jos pentru a reda videoclipul.

Traducător: Laszlo Kereszturi Corector: Ariana Bleau Lugo
00:15
I have a doppelganger.
0
15260
3000
Am un alter-ego cu intenții rele.
00:18
(Laughter)
1
18260
3000
(Râsete)
00:21
Dr. Gero is a brilliant
2
21260
3000
Dr. Gero este un om de știință
00:24
but slightly mad scientist
3
24260
2000
strălucitor, dar puțin nebun
00:26
in the "Dragonball Z: Android Saga."
4
26260
3000
din "Povestea androidului" din Dragonball Z. [serial japonez]
00:29
If you look very carefully,
5
29260
2000
Dacă vă uitați cu atenție,
00:31
you see that his skull has been replaced
6
31260
3000
veți vedea că osatura craniului a fost înlocuită
00:34
with a transparent Plexiglas dome
7
34260
2000
cu o calotă transparentă din plexiglas
00:36
so that the workings of his brain can be observed
8
36260
3000
astfel încât funcționarea creierului se poate observa
00:39
and also controlled with light.
9
39260
3000
și se poate controla cu lumină.
00:42
That's exactly what I do --
10
42260
2000
Exact asta fac eu --
00:44
optical mind control.
11
44260
2000
control optic al minții.
00:46
(Laughter)
12
46260
2000
(Râsete)
00:48
But in contrast to my evil twin
13
48260
2000
Dar în contrast cu geamănul meu rău,
00:50
who lusts after world domination,
14
50260
3000
care râvnește la dominarea lumii,
00:53
my motives are not sinister.
15
53260
3000
motivele mele nu sunt sinistre.
00:56
I control the brain
16
56260
2000
Eu controlez creierul
00:58
in order to understand how it works.
17
58260
2000
pentru a înțelege cum funcționează.
01:00
Now wait a minute, you may say,
18
60260
2000
Ați putea spune: stai un pic,
01:02
how can you go straight to controlling the brain
19
62260
3000
cum poți trece direct la controlul creierului
01:05
without understanding it first?
20
65260
2000
fără a-l înțelege mai întâi?
01:07
Isn't that putting the cart before the horse?
21
67260
3000
Nu înseamnă asta a pune carul înaintea boilor?
01:11
Many neuroscientists agree with this view
22
71260
3000
Mulți neurologi sunt de acord cu această părere
01:14
and think that understanding will come
23
74260
3000
și cred că înțelegerea va veni
01:17
from more detailed observation and analysis.
24
77260
3000
din observarea și analiza mai detaliată.
01:20
They say, "If we could record the activity of our neurons,
25
80260
4000
Ei spun, "Dacă am putea înregistra activitatea neuronilor,
01:24
we would understand the brain."
26
84260
3000
am înțelege creierul."
01:27
But think for a moment what that means.
27
87260
3000
Dar gândiți-vă un pic ce înseamnă asta.
01:30
Even if we could measure
28
90260
2000
Chiar dacă am putea măsura
01:32
what every cell is doing at all times,
29
92260
2000
ce face fiecare celulă în fiecare moment,
01:34
we would still have to make sense
30
94260
2000
tot ar trebui să interpretăm
01:36
of the recorded activity patterns,
31
96260
2000
modelele de activitate înregistrate,
01:38
and that's so difficult,
32
98260
2000
iar asta este foarte dificil,
01:40
chances are we'll understand these patterns
33
100260
2000
șansele de a înțelege aceste modele
01:42
just as little as the brains that produce them.
34
102260
3000
sunt invers proporționale cu mărimea creierului care le produce.
01:45
Take a look at what brain activity might look like.
35
105260
3000
Priviți cum poate arăta activitatea creierului.
01:48
In this simulation, each black dot
36
108260
2000
În această simulare, fiecare punct negru
01:50
is one nerve cell.
37
110260
2000
este o celulă nervoasă.
01:52
The dot is visible
38
112260
2000
Punctul este vizibil
01:54
whenever a cell fires an electrical impulse.
39
114260
2000
ori de câte ori celula transmite un impuls electric.
01:56
There's 10,000 neurons here.
40
116260
2000
Aici sunt 10.000 de neuroni.
01:58
So you're looking at roughly one percent
41
118260
2000
Vă uitați la aprox. 1%
02:00
of the brain of a cockroach.
42
120260
3000
din creierul unui gândac de bucătărie.
02:04
Your brains are about 100 million times
43
124260
3000
Creierul vostru e cam de 100 milioane ori
02:07
more complicated.
44
127260
2000
mai complicat.
02:09
Somewhere, in a pattern like this,
45
129260
2000
Undeva, într-un model ca acesta,
02:11
is you,
46
131260
2000
sunteți voi,
02:13
your perceptions,
47
133260
2000
senzațiile voastre,
02:15
your emotions, your memories,
48
135260
3000
emoțiile voastre, amintirile voastre,
02:18
your plans for the future.
49
138260
2000
planurile voastre de viitor.
02:20
But we don't know where,
50
140260
2000
Dar nu știm unde sunt,
02:22
since we don't know how to read the pattern.
51
142260
3000
deoarece nu știm să descifrăm tiparul.
02:25
We don't understand the code used by the brain.
52
145260
3000
Nu înțelegem codul utilizat de creier.
02:28
To make progress,
53
148260
2000
Pentru a progresa,
02:30
we need to break the code.
54
150260
2000
trebuie să spargem codul.
02:32
But how?
55
152260
2000
Dar cum?
02:35
An experienced code-breaker will tell you
56
155260
2000
Un spărgător de coduri experimentat vă va spune
02:37
that in order to figure out what the symbols in a code mean,
57
157260
3000
că pentru a desluși simbolurile dintr-un cod,
02:40
it's essential to be able to play with them,
58
160260
3000
e esențial să fi în stare să te joci cu ele,
02:43
to rearrange them at will.
59
163260
2000
să le rearanjezi după cum vrei.
02:45
So in this situation too,
60
165260
2000
Așa că și în această situație,
02:47
to decode the information
61
167260
2000
pentru a decodifica informația
02:49
contained in patterns like this,
62
169260
2000
conținută în modele ca acesta,
02:51
watching alone won't do.
63
171260
2000
doar urmărirea lor nu este de ajuns;
02:53
We need to rearrange the pattern.
64
173260
2000
trebuie să rearanjăm modelul.
02:55
In other words,
65
175260
2000
Cu alte cuvinte,
02:57
instead of recording the activity of neurons,
66
177260
2000
în loc să înregistrăm activitatea neuronilor,
02:59
we need to control it.
67
179260
2000
trebuie să o controlăm.
03:01
It's not essential that we can control
68
181260
2000
E neesențial să controlăm
03:03
the activity of all neurons in the brain, just some.
69
183260
3000
activitatea tuturor neuronilor din creier, doar a unora.
03:06
The more targeted our interventions, the better.
70
186260
2000
Cu cât sunt intervențiile mai precise, cu atât mai bine.
03:08
And I'll show you in a moment
71
188260
2000
Și vă voi arăta într-o clipă
03:10
how we can achieve the necessary precision.
72
190260
3000
cum putem obține precizia necesară.
03:13
And since I'm realistic, rather than grandiose,
73
193260
3000
Și deoarece eu sunt realist și nu pretențios,
03:16
I don't claim that the ability to control the function of the nervous system
74
196260
3000
nu pretind că abilitatea de a controla funcțiile sistemului nervos
03:19
will at once unravel all its mysteries.
75
199260
3000
va dezvălui dintr-odată toate misterele acestuia.
03:22
But we'll certainly learn a lot.
76
202260
3000
Dar sigur vom învăța o mulțime.
03:27
Now, I'm by no means
77
207260
2000
Acum, eu nu sunt în niciun caz
03:29
the first person to realize
78
209260
2000
prima persoană care realizează
03:31
how powerful a tool intervention is.
79
211260
3000
cât de puternică este unealta intervenției.
03:34
The history of attempts
80
214260
2000
Istoria tentativelor
03:36
to tinker with the function of the nervous system
81
216260
2000
de a interveni în funcționarea sistemului nervos
03:38
is long and illustrious.
82
218260
2000
este lungă și renumită.
03:40
It dates back at least 200 years,
83
220260
3000
Ea datează cu cel puțin 200 de ani în urmă,
03:43
to Galvani's famous experiments
84
223260
2000
de la celebrele experiențe ale lui Galvani
03:45
in the late 18th century and beyond.
85
225260
3000
de la sfârșitul secolului 18 și mai târziu.
03:49
Galvani showed that a frog's legs twitched
86
229260
3000
Galvani a arătat că piciorul unei broaște s-a contractat
03:52
when he connected the lumbar nerve
87
232260
2000
când el a conectat nervul lombar
03:54
to a source of electrical current.
88
234260
3000
la o sursă de curent electric.
03:57
This experiment revealed the first, and perhaps most fundamental,
89
237260
3000
Acest experiment a dezvăluit prima, și poate cea mai fundamentală,
04:00
nugget of the neural code:
90
240260
2000
revelație despre codul neural:
04:02
that information is written in the form
91
242260
2000
că informația este scrisă în forma
04:04
of electrical impulses.
92
244260
3000
unor impulsuri electrice.
04:08
Galvani's approach
93
248260
2000
Modul de abordare al lui Galvani
04:10
of probing the nervous system with electrodes
94
250260
2000
de a sonda sistemul nervos cu electrozi
04:12
has remained state-of-the-art until today,
95
252260
3000
a rămas necontestat până în ziua de azi,
04:15
despite a number of drawbacks.
96
255260
3000
în ciuda unui număr de dezavantaje.
04:18
Sticking wires into the brain is obviously rather crude.
97
258260
3000
A înfige sârme în creier este evident o metodă cam grosolană.
04:21
It's hard to do in animals that run around,
98
261260
2000
E greu de făcut cu animale care aleargă peste tot,
04:23
and there is a physical limit
99
263260
2000
și există o limită fizică
04:25
to the number of wires
100
265260
2000
pentru numărul de fire
04:27
that can be inserted simultaneously.
101
267260
3000
care pot fi inserate simultan.
04:30
So around the turn of the last century,
102
270260
2000
Așa că pe la sfârșitul secolului trecut
04:32
I started to think,
103
272260
2000
am început să mă gândesc,
04:34
"Wouldn't it be wonderful if one could take this logic
104
274260
3000
că ar fi minunat să putem întoarce
04:37
and turn it upside down?"
105
277260
2000
acastă logică pe dos.
04:39
So instead of inserting a wire
106
279260
2000
Deci în loc să inserăm o sârmă
04:41
into one spot of the brain,
107
281260
3000
într-un punct al creierului,
04:44
re-engineer the brain itself
108
284260
2000
să reconfigurăm creierul însuși
04:46
so that some of its neural elements
109
286260
3000
astfel încât unele elemente neurale
04:49
become responsive to diffusely broadcast signals
110
289260
3000
să devină sensibile la semnale transmise difuz,
04:52
such as a flash of light.
111
292260
3000
ca de exemplu un flash de lumină.
04:55
Such an approach would literally, in a flash of light,
112
295260
3000
O asemenea abordare ar depăși, literalmente,
04:58
overcome many of the obstacles to discovery.
113
298260
3000
într-o sclipire, multe obstacole din fața descoperirii.
05:01
First, it's clearly a non-invasive,
114
301260
3000
În primul rând, este evident o formă
05:04
wireless form of communication.
115
304260
3000
de comunicare non-invazivă, fără fir.
05:07
And second, just as in a radio broadcast,
116
307260
2000
În al doilea rând, ca într-o transmisie radio,
05:09
you can communicate with many receivers at once.
117
309260
3000
poți comunica cu mai multe receptoare simultan.
05:12
You don't need to know where these receivers are,
118
312260
3000
Nu este nevoie să știi unde sunt receptoarele.
05:15
and it doesn't matter if these receivers move --
119
315260
2000
Și nu contează dacă subiecții se mișcă --
05:17
just think of the stereo in your car.
120
317260
3000
gândiți-vă la radioul din mașină.
05:20
It gets even better,
121
320260
3000
E chiar mai bine,
05:23
for it turns out that we can fabricate the receivers
122
323260
3000
pentru că s-a dovedit că putem fabrica aceste receptoare
05:26
out of materials that are encoded in DNA.
123
326260
3000
din materiale care sunt codificate în ADN.
05:29
So each nerve cell
124
329260
2000
Deci fiecare celulă nervoasă
05:31
with the right genetic makeup
125
331260
2000
cu materialul genetic potrivit
05:33
will spontaneously produce a receiver
126
333260
3000
va produce în mod spontan un receptor
05:36
that allows us to control its function.
127
336260
3000
care ne permite să-i controlăm funcționarea.
05:39
I hope you'll appreciate
128
339260
2000
Sper să apreciați
05:41
the beautiful simplicity
129
341260
2000
frumoasa simplitate
05:43
of this concept.
130
343260
2000
a acestui concept.
05:45
There's no high-tech gizmos here,
131
345260
2000
Nu e nevoie de dispozitive de ultimă oră,
05:47
just biology revealed through biology.
132
347260
3000
doar biologie dezvăluită prin biologie.
05:51
Now let's take a look at these miraculous receivers up close.
133
351260
3000
Acum să privim de aproape la aceste receptoare miraculoase.
05:54
As we zoom in on one of these purple neurons,
134
354260
3000
Pe măsură ce mărim unul din acești neuroni violeți,
05:57
we see that its outer membrane
135
357260
2000
vedem că membrana lui exterioară
05:59
is studded with microscopic pores.
136
359260
2000
e împânzită cu pori microscopici.
06:01
Pores like these conduct electrical current
137
361260
2000
Pori ca aceștia transmit curentul electric
06:03
and are responsible
138
363260
2000
și sunt responsabili
06:05
for all the communication in the nervous system.
139
365260
2000
pentru toată comunicația din sistemul nervos.
06:07
But these pores here are special.
140
367260
2000
Dar acești pori sunt speciali.
06:09
They are coupled to light receptors
141
369260
2000
Ei sunt cuplați la receptoare de lumină
06:11
similar to the ones in your eyes.
142
371260
3000
similare cu cele din ochii noștri.
06:14
Whenever a flash of light hits the receptor,
143
374260
2000
Când un flash de lumină activează receptorul,
06:16
the pore opens, an electrical current is switched on,
144
376260
3000
porul se deschide, curentul electric e transmis,
06:19
and the neuron fires electrical impulses.
145
379260
3000
iar neuronul emite impulsuri electrice.
06:22
Because the light-activated pore is encoded in DNA,
146
382260
3000
Deoarece porul activat de lumină este codificat în ADN,
06:25
we can achieve incredible precision.
147
385260
3000
putem atinge o precizie incredibilă.
06:28
This is because,
148
388260
2000
Asta deoarece,
06:30
although each cell in our bodies
149
390260
2000
deși fiecare celulă din corpurile noastre
06:32
contains the same set of genes,
150
392260
2000
conține același set de gene,
06:34
different mixes of genes get turned on and off
151
394260
2000
combinații diferite de gene sunt activate sau dezactivate
06:36
in different cells.
152
396260
2000
în celule diferite.
06:38
You can exploit this to make sure
153
398260
2000
Putem exploata asta pentru a fi siguri
06:40
that only some neurons
154
400260
2000
că numai anumiți neuroni
06:42
contain our light-activated pore and others don't.
155
402260
3000
conțin pori activați de lumină, iar alții nu.
06:45
So in this cartoon, the bluish white cell
156
405260
2000
Deci în acest desen animat, celula alb-albăstruie
06:47
in the upper-left corner
157
407260
2000
din colțul stânga sus
06:49
does not respond to light
158
409260
2000
nu răspunde la lumină
06:51
because it lacks the light-activated pore.
159
411260
3000
fiindcă îi lipsește porul activat de lumină.
06:54
The approach works so well
160
414260
2000
Abordarea funcționează așa de bine
06:56
that we can write purely artificial messages
161
416260
2000
că putem scrie mesaje pur artificiale
06:58
directly to the brain.
162
418260
2000
direct în creier.
07:00
In this example, each electrical impulse,
163
420260
2000
În acest exemplu, fiecare impuls electric,
07:02
each deflection on the trace,
164
422260
3000
fiecare abatere de la traseu,
07:05
is caused by a brief pulse of light.
165
425260
3000
e produs de un scurt puls de lumină.
07:08
And the approach, of course, also works
166
428260
2000
Și abordarea funcționează și
07:10
in moving, behaving animals.
167
430260
3000
în animale active, cu comportare naturală.
07:13
This is the first ever such experiment,
168
433260
2000
Acesta este primul experiment de acest tip,
07:15
sort of the optical equivalent of Galvani's.
169
435260
3000
un fel de echivalent optic al experimentului Galvani.
07:18
It was done six or seven years ago
170
438260
2000
A fost realizat acum șase sau șapte ani
07:20
by my then graduate student, Susana Lima.
171
440260
3000
de studenta mea, Susana Lima.
07:23
Susana had engineered the fruit fly on the left
172
443260
3000
Susana a creat musculița drosofila din stânga
07:26
so that just two out of the 200,000 cells in its brain
173
446260
4000
astfel încât doar două din cele 200.000 de celule din creier
07:30
expressed the light-activated pore.
174
450260
3000
prezentau porul activat de lumină.
07:33
You're familiar with these cells
175
453260
2000
Sunteți obișnuiți cu aceste celule
07:35
because they are the ones that frustrate you
176
455260
2000
fiindcă ele sunt cele care vă zădărnicesc planurile
07:37
when you try to swat the fly.
177
457260
2000
când încercați să pocniți musculița.
07:39
They trained the escape reflex that makes the fly jump into the air
178
459260
3000
Și-au perfectat reflexul de evadare care face musculița să sară în aer
07:42
and fly away whenever you move your hand in position.
179
462260
3000
și să zboare de fiecare dată când apropiați mâna.
07:46
And you can see here that the flash of light has exactly the same effect.
180
466260
3000
Și vedeți aici că licărirea de lumină are exact același efect.
07:49
The animal jumps, it spreads its wings, it vibrates them,
181
469260
3000
Insecta sare, își întinde aripile, le vibrează,
07:52
but it can't actually take off
182
472260
2000
dar de fapt nu poate decola,
07:54
because the fly is sandwiched between two glass plates.
183
474260
3000
fiindcă e prinsă între două lamele de sticlă.
07:58
Now to make sure that this was no reaction of the fly
184
478260
2000
Acum, pentru a fi siguri că asta nu a fost o reacție
08:00
to a flash it could see,
185
480260
3000
a musculiței la o licărire de lumină pe care a văzut-o,
08:03
Susana did a simple
186
483260
2000
Susana a făcut un experiment eficient
08:05
but brutally effective experiment.
187
485260
2000
simplu dar brutal.
08:07
She cut the heads off of her flies.
188
487260
3000
Ea a tăiat capul musculițelor.
08:11
These headless bodies can live for about a day,
189
491260
3000
Aceste corpuri fără cap pot trăi cam o zi,
08:14
but they don't do much.
190
494260
2000
dar nu fac multe.
08:16
They just stand around
191
496260
3000
Ele doar stau
08:19
and groom excessively.
192
499260
3000
și se îngrijesc în mod excesiv.
08:22
So it seems that the only trait that survives decapitation is vanity.
193
502260
3000
Pare-se, singura trăsătură ce supraviețuiește decapitării e vanitatea.
08:25
(Laughter)
194
505260
3000
(Râsete)
08:30
Anyway, as you'll see in a moment,
195
510260
2000
Oricum, așa cum veți vedea într-o clipă,
08:32
Susana was able to turn on the flight motor
196
512260
3000
Susana a fost în stare să pornească motorul de zbor
08:35
of what's the equivalent of the spinal cord of these flies
197
515260
3000
din echivalentul măduvei spinării al acestor musculițe
08:38
and get some of the headless bodies
198
518260
2000
și să facă unele corpuri fără cap
08:40
to actually take off and fly away.
199
520260
3000
să decoleze efectiv și să zboare.
08:47
They didn't get very far, obviously.
200
527260
2000
Evident, nu au ajuns foarte departe.
08:50
Since we took these first steps,
201
530260
2000
De când am făcut acești primi pași
08:52
the field of optogenetics has exploded.
202
532260
3000
ramura optogeneticii a explodat.
08:55
And there are now hundreds of labs
203
535260
2000
Acum sunt sute de laboratoare
08:57
using these approaches.
204
537260
2000
folosind aceste abordări.
08:59
And we've come a long way
205
539260
2000
Și am făcut cale lungă
09:01
since Galvani's and Susana's first successes
206
541260
3000
de la primele succese ale lui Galvani și ale Susanei
09:04
in making animals twitch or jump.
207
544260
2000
făcând animalele să zvâcnească sau să sară.
09:06
We can now actually interfere with their psychology
208
546260
3000
Putem acum să interferăm cu psihologia lor
09:09
in rather profound ways,
209
549260
2000
în moduri destul de profunde
09:11
as I'll show you in my last example,
210
551260
2000
așa cum vă voi arăta în ultimul meu exemplu,
09:13
which is directed at a familiar question.
211
553260
3000
care este orientat spre o întrebare familiară.
09:16
Life is a string of choices
212
556260
3000
Viața e un șir de alegeri care crează
09:19
creating a constant pressure to decide what to do next.
213
559260
3000
o presiune constantă pentru a decide următoarea acțiune.
09:23
We cope with this pressure by having brains,
214
563260
3000
Facem față acestei presiuni prin a avea creier,
09:26
and within our brains, decision-making centers
215
566260
3000
și în creier avem centre de luare de decizii,
09:29
that I've called here the "Actor."
216
569260
3000
pe care le-am numit aici "Actor".
09:33
The Actor implements a policy that takes into account
217
573260
3000
Actorul implementează o regulă care ia în considerare
09:36
the state of the environment
218
576260
2000
starea mediului
09:38
and the context in which we operate.
219
578260
3000
și contextul în care funcționăm.
09:41
Our actions change the environment, or context,
220
581260
3000
Acțiunile noastre schimbă mediul, contextul,
09:44
and these changes are then fed back into the decision loop.
221
584260
3000
și aceste schimbări sunt reintroduse în bucla de decizie.
09:48
Now to put some neurobiological meat
222
588260
3000
Acum, ca să realizăm un context neurobiologic
09:51
on this abstract model,
223
591260
2000
pe acest model abstract,
09:53
we constructed a simple one-dimensional world
224
593260
2000
am construit o lume simplă, monodimensională
09:55
for our favorite subject, fruit flies.
225
595260
3000
pentru subiectul nostru favorit, musculița drosofila.
09:58
Each chamber in these two vertical stacks
226
598260
2000
Fiecare galerie din aceste două stive verticale
10:00
contains one fly.
227
600260
2000
conține câte o musculiță.
10:02
The left and the right halves of the chamber
228
602260
3000
Cele două jumătăți ale culoarului
10:05
are filled with two different odors,
229
605260
2000
sunt umplute cu două mirosuri diferite,
10:07
and a security camera watches
230
607260
2000
și o cameră de supraveghere urmărește
10:09
as the flies pace up and down between them.
231
609260
3000
cum umblă musculițele dus-întors între cele 2 jumătăți.
10:12
Here's some such CCTV footage.
232
612260
2000
Iată aici niște înregistrări ale camerei de supraveghere.
10:14
Whenever a fly reaches the midpoint of the chamber
233
614260
3000
De fiecare dată când o musculiță ajunge la mijlocul culoarului
10:17
where the two odor streams meet,
234
617260
2000
unde se întâlnesc cele două mirosuri,
10:19
it has to make a decision.
235
619260
2000
ea trebuie să ia o decizie.
10:21
It has to decide whether to turn around
236
621260
2000
Trebuie să decidă dacă să se întoarcă
10:23
and stay in the same odor,
237
623260
2000
și să stea în același miros,
10:25
or whether to cross the midline
238
625260
2000
sau să treacă de linia de mijloc
10:27
and try something new.
239
627260
2000
și să încerce ceva nou.
10:29
These decisions are clearly a reflection
240
629260
3000
Aceste decizii sunt o reflectare
10:32
of the Actor's policy.
241
632260
3000
a tacticii Actorului.
10:36
Now for an intelligent being like our fly,
242
636260
3000
Acum, pentru o creatură inteligentă ca musculița noastră,
10:39
this policy is not written in stone
243
639260
3000
regula aceasta nu-i definitivă,
10:42
but rather changes as the animal learns from experience.
244
642260
3000
ci se schimbă pe măsură ce creierul învață din experiență.
10:45
We can incorporate such an element
245
645260
2000
Putem încorpora un asemenea element
10:47
of adaptive intelligence into our model
246
647260
3000
al inteligenței adaptive în modelul nostru
10:50
by assuming that the fly's brain
247
650260
2000
presupunând că creierul musculiței
10:52
contains not only an Actor,
248
652260
2000
conține nu doar un Actor,
10:54
but a different group of cells,
249
654260
2000
ci un grup diferit de celule,
10:56
a "Critic," that provides a running commentary
250
656260
3000
un Critic, care furnizează un comentariu continuu
10:59
on the Actor's choices.
251
659260
2000
al alegerilor Actorului.
11:01
You can think of this nagging inner voice
252
661260
3000
Puteți să vă gândiți la această voce internă sâcâitoare
11:04
as sort of the brain's equivalent
253
664260
2000
ca la un fel de echivalent în creier
11:06
of the Catholic Church,
254
666260
2000
pentru Biserica Catolică,
11:08
if you're an Austrian like me,
255
668260
3000
dacă sunteți austriac ca mine,
11:11
or the super-ego, if you're Freudian,
256
671260
3000
sau ca un superego, dacă sunteți adeptul lui Freud,
11:14
or your mother, if you're Jewish.
257
674260
2000
sau ca mama voastră, dacă sunteți evreu.
11:16
(Laughter)
258
676260
4000
(Râsete)
11:20
Now obviously,
259
680260
2000
În mod evident
11:22
the Critic is a key ingredient
260
682260
3000
criticul este componenta cheie
11:25
in what makes us intelligent.
261
685260
2000
în ceea ce ne face inteligenți.
11:27
So we set out to identify
262
687260
2000
Deci vrem să identificăm
11:29
the cells in the fly's brain
263
689260
2000
celule din creierul musculiței
11:31
that played the role of the Critic.
264
691260
2000
care joacă rolul de Critic.
11:33
And the logic of our experiment was simple.
265
693260
3000
Și logica experimentului nostru a fost simplă.
11:36
We thought if we could use our optical remote control
266
696260
3000
Ne-am gândit că dacă am putea folosi telecomanda optică
11:39
to activate the cells of the Critic,
267
699260
3000
pentru a activa celulele Criticului,
11:42
we should be able, artificially, to nag the Actor
268
702260
3000
Am fi în stare să sâcâim artificial Actorul
11:45
into changing its policy.
269
705260
2000
pentru a-și schimba decizia.
11:47
In other words,
270
707260
2000
Cu alte cuvinte,
11:49
the fly should learn from mistakes
271
709260
2000
musculița ar trebui să învețe din greșelile
11:51
that it thought it had made
272
711260
2000
pe care crede că le-a făcut,
11:53
but, in reality, it had not made.
273
713260
3000
dar în realitate nu le-a făcut.
11:56
So we bred flies
274
716260
2000
Așa că am crescut musculițe
11:58
whose brains were more or less randomly peppered
275
718260
3000
al căror creier a fost mai mult sau mai puțin presărat
12:01
with cells that were light addressable.
276
721260
2000
cu celule sensibile la lumină.
12:03
And then we took these flies
277
723260
2000
Apoi am luat aceste musculițe
12:05
and allowed them to make choices.
278
725260
2000
și le-am permis să facă alegeri.
12:07
And whenever they made one of the two choices,
279
727260
2000
Și de fiecare dată când au făcut o alegere din cele două,
12:09
chose one odor,
280
729260
2000
au ales un miros,
12:11
in this case the blue one over the orange one,
281
731260
2000
în acest caz cel albastru în favoarea celui portocaliu,
12:13
we switched on the lights.
282
733260
2000
am pornit luminile.
12:15
If the Critic was among the optically activated cells,
283
735260
3000
Dacă criticul e printre celulele activate optic,
12:18
the result of this intervention
284
738260
2000
rezultatul acestei intervenții
12:20
should be a change in policy.
285
740260
3000
ar trebui să fie o schimbare a deciziei.
12:23
The fly should learn to avoid
286
743260
2000
Musculițele ar trebui să evite
12:25
the optically reinforced odor.
287
745260
2000
mirosul întărit de semnalul optic.
12:27
Here's what happened in two instances:
288
747260
3000
Iată ce s-a întâmplat în cele două cazuri.
12:30
We're comparing two strains of flies,
289
750260
3000
Comparăm două soiuri de musculițe
12:33
each of them having
290
753260
2000
fiecare din ele având
12:35
about 100 light-addressable cells in their brains,
291
755260
2000
cam 100 de celule adresabile optic în creierele lor,
12:37
shown here in green on the left and on the right.
292
757260
3000
arătate aici cu verde la stânga și la dreapta.
12:40
What's common among these groups of cells
293
760260
3000
Ceea ce e comun pentru aceste grupuri de celule
12:43
is that they all produce the neurotransmitter dopamine.
294
763260
3000
e că toate produc neurotransmițătorul numit dopamină.
12:46
But the identities of the individual
295
766260
2000
Dar identitatea neuronilor
12:48
dopamine-producing neurons
296
768260
2000
individuali producători de dopamină
12:50
are clearly largely different on the left and on the right.
297
770260
3000
sunt în mod clar diferite în stânga și în dreapta.
12:53
Optically activating
298
773260
2000
Activarea optică
12:55
these hundred or so cells
299
775260
2000
a acestor aprox. o sută de celule
12:57
into two strains of flies
300
777260
2000
în cele două soiuri de musculițe,
12:59
has dramatically different consequences.
301
779260
2000
are consecințe dramatic diferite.
13:01
If you look first at the behavior
302
781260
2000
Dacă vă uitați întâi la comportamentul
13:03
of the fly on the right,
303
783260
2000
musculiței din dreapta,
13:05
you can see that whenever it reaches the midpoint of the chamber
304
785260
3000
vedeți că de fiecare dată când atinge punctul de mijloc al camerei
13:08
where the two odors meet,
305
788260
2000
unde se întâlnesc cele două mirosuri,
13:10
it marches straight through, as it did before.
306
790260
3000
ea merge drept înainte cum a făcut și înainte.
13:13
Its behavior is completely unchanged.
307
793260
2000
Comportarea ei este complet neschimbată.
13:15
But the behavior of the fly on the left is very different.
308
795260
3000
Dar comportarea musculiței din stânga este foarte diferită.
13:18
Whenever it comes up to the midpoint,
309
798260
3000
De fiecare dată când atinge punctul din mijloc,
13:21
it pauses,
310
801260
2000
se oprește,
13:23
it carefully scans the odor interface
311
803260
2000
cercetează atent mirosurile,
13:25
as if it was sniffing out its environment,
312
805260
2000
ca și cum ar mirosi mediul,
13:27
and then it turns around.
313
807260
2000
și apoi se întoarce.
13:29
This means that the policy that the Actor implements
314
809260
3000
Asta înseamnă că regula implementată de Actor
13:32
now includes an instruction to avoid the odor
315
812260
2000
include acum o instrucțiune de evitare a mirosului
13:34
that's in the right half of the chamber.
316
814260
3000
care umple jumătatea din dreapta a camerei.
13:37
This means that the Critic
317
817260
2000
Asta înseamnă că, Criticul
13:39
must have spoken in that animal,
318
819260
2000
trebuie că a vorbit în acel animal,
13:41
and that the Critic must be contained
319
821260
2000
și că, Criticul este conținut
13:43
among the dopamine-producing neurons on the left,
320
823260
3000
între neuronii producători de dopamină din stânga,
13:46
but not among the dopamine producing neurons on the right.
321
826260
3000
dar nu între neuronii producători de dopamină din dreapta.
13:49
Through many such experiments,
322
829260
3000
Prin multe asemenea experimente,
13:52
we were able to narrow down
323
832260
2000
am fost în stare să reducem
13:54
the identity of the Critic
324
834260
2000
identitatea criticului
13:56
to just 12 cells.
325
836260
2000
la numai 12 celule.
13:58
These 12 cells, as shown here in green,
326
838260
3000
Aceste 12 celule, arătate aici în verde,
14:01
send the output to a brain structure
327
841260
2000
trimit semnalul la o structură a creierului
14:03
called the "mushroom body,"
328
843260
2000
numită "corpul ciupercă" [mushroom body],
14:05
which is shown here in gray.
329
845260
2000
care-i aici în gri.
14:07
We know from our formal model
330
847260
2000
Știm din modelul nostru formal
14:09
that the brain structure
331
849260
2000
că structura creierului de la capătul receptor
14:11
at the receiving end of the Critic's commentary is the Actor.
332
851260
3000
al comentariilor Criticului e Actorul.
14:14
So this anatomy suggests
333
854260
2000
Deci această anatomie sugerează că
14:16
that the mushroom bodies have something to do
334
856260
3000
structura ciupercă ar avea legătură
14:19
with action choice.
335
859260
2000
cu alegerea acțiunii.
14:21
Based on everything we know about the mushroom bodies,
336
861260
2000
Bazat pe tot ce știm despre corpurile ciupercă,
14:23
this makes perfect sense.
337
863260
2000
asta-i perfect plauzibil.
14:25
In fact, it makes so much sense
338
865260
2000
De fapt, e atât de plauzibil,
14:27
that we can construct an electronic toy circuit
339
867260
3000
că putem construi un circuit electronic
14:30
that simulates the behavior of the fly.
340
870260
3000
care simulează comportamentul musculiței.
14:33
In this electronic toy circuit,
341
873260
3000
În acest circuit electronic,
14:36
the mushroom body neurons are symbolized
342
876260
2000
neuronii din corpurile ciupercă sunt simbolizate
14:38
by the vertical bank of blue LEDs
343
878260
3000
prin blocul vertical de LED-uri albastre,
14:41
in the center of the board.
344
881260
3000
din centrul plăcii.
14:44
These LED's are wired to sensors
345
884260
2000
Aceste LED-uri sunt cablate la senzori
14:46
that detect the presence of odorous molecules in the air.
346
886260
3000
care detectează prezența moleculelor parfumate din aer.
14:50
Each odor activates a different combination of sensors,
347
890260
3000
Fiecare miros activează o combinație diferită de senzori,
14:53
which in turn activates
348
893260
2000
care la rândul lui activează
14:55
a different odor detector in the mushroom body.
349
895260
3000
un detector diferit de mirosuri în corpul ciupercă.
14:58
So the pilot in the cockpit of the fly,
350
898260
2000
Deci pilotul din cabina de comandă
15:00
the Actor,
351
900260
2000
a zborului este Actorul,
15:02
can tell which odor is present
352
902260
2000
poate spune care miros e prezent
15:04
simply by looking at which of the blue LEDs lights up.
353
904260
4000
doar uitându-se care din LED-urile albastre luminează.
15:09
What the Actor does with this information
354
909260
2000
Ce face Actorul cu această informație
15:11
depends on its policy,
355
911260
2000
depinde de tactica lui,
15:13
which is stored in the strengths of the connection,
356
913260
2000
care e stocată în tăria conexiunilor,
15:15
between the odor detectors
357
915260
2000
dintre detectoarele de miros
15:17
and the motors
358
917260
2000
și motoarele
15:19
that power the fly's evasive actions.
359
919260
2000
care activează acțiunile evazive ale musculiței.
15:22
If the connection is weak, the motors will stay off
360
922260
2000
Dacă o conexiune e slabă, motoarele nu vor fi pornite
15:24
and the fly will continue straight on its course.
361
924260
3000
și musculița va continua cursa în linie dreaptă.
15:27
If the connection is strong, the motors will turn on
362
927260
3000
Dacă o conexiune e puternică, motoarele vor porni
15:30
and the fly will initiate a turn.
363
930260
3000
și musculița va iniția o întoarcere.
15:33
Now consider a situation
364
933260
2000
Acum să considerăm o situație
15:35
in which the motors stay off,
365
935260
2000
în care motoarele rămân oprite,
15:37
the fly continues on its path
366
937260
3000
musculița își continuă traseul
15:40
and it suffers some painful consequence
367
940260
2000
și suferă niște consecințe dureroase,
15:42
such as getting zapped.
368
942260
2000
de exemplu un șoc electric.
15:44
In a situation like this,
369
944260
2000
Într-o asemenea situație,
15:46
we would expect the Critic to speak up
370
946260
2000
ne-am aștepta ca Criticul să intervină
15:48
and to tell the Actor
371
948260
2000
și să-i spună Actorului
15:50
to change its policy.
372
950260
2000
să-și schimbe regula.
15:52
We have created such a situation, artificially,
373
952260
3000
Am creat o asemenea situație în mod artificial
15:55
by turning on the critic with a flash of light.
374
955260
3000
activând Criticul printr-un puls de lumină.
15:58
That caused a strengthening of the connections
375
958260
3000
Asta a dus la întărirea conexiunilor
16:01
between the currently active odor detector
376
961260
3000
dintre detectorul de miros tocmai activ
16:04
and the motors.
377
964260
2000
și motoare.
16:06
So the next time
378
966260
2000
Așa că data viitoare când
16:08
the fly finds itself facing the same odor again,
379
968260
3000
musculița se va găsi în fața aceluiași miros,
16:11
the connection is strong enough to turn on the motors
380
971260
3000
conexiunea e suficient de puternică pentru a porni motoarele
16:14
and to trigger an evasive maneuver.
381
974260
3000
și a declanșa o manevră evazivă.
16:19
I don't know about you,
382
979260
3000
Nu știu despre voi,
16:22
but I find it exhilarating to see
383
982260
3000
dar eu găsesc fascinant să văd
16:25
how vague psychological notions
384
985260
3000
cum noțiuni psihologice vagi
16:28
evaporate and give rise
385
988260
2000
dispar și dau naștere
16:30
to a physical, mechanistic understanding of the mind,
386
990260
3000
unei înțelegeri fizice, mecanice a minții,
16:33
even if it's the mind of the fly.
387
993260
3000
chiar dacă e mintea unei musculițe.
16:36
This is one piece of good news.
388
996260
3000
Asta-i una din veștile bune.
16:39
The other piece of good news,
389
999260
2000
Cealaltă veste bună,
16:41
for a scientist at least,
390
1001260
2000
cel puțin pentru un om de știință,
16:43
is that much remains to be discovered.
391
1003260
3000
e că multe rămân de descoperit.
16:46
In the experiments I told you about,
392
1006260
2000
În experimentele de care v-am spus,
16:48
we have lifted the identity of the Critic,
393
1008260
3000
am aflat identitatea Criticului,
16:51
but we still have no idea
394
1011260
2000
dar tot nu avem idee
16:53
how the Critic does its job.
395
1013260
2000
cum lucrează Criticul.
16:55
Come to think of it, knowing when you're wrong
396
1015260
2000
Gândiți-vă, a ști când greșești,
16:57
without a teacher, or your mother, telling you,
397
1017260
3000
fără ca un profesor sau o mamă să vă spună,
17:00
is a very hard problem.
398
1020260
2000
e o problemă foarte dificilă.
17:02
There are some ideas in computer science
399
1022260
2000
Sunt niște idei în informatică
17:04
and in artificial intelligence
400
1024260
2000
și în inteligența artificială
17:06
as to how this might be done,
401
1026260
2000
despre cum s-ar putea face asta,
17:08
but we still haven't solved
402
1028260
2000
dar noi încă nu am rezolvat
17:10
a single example
403
1030260
2000
nici un singur exemplu
17:12
of how intelligent behavior
404
1032260
3000
de comportare inteligentă,
17:15
springs from the physical interactions
405
1035260
2000
sărind de la interacțiunile fizice
17:17
in living matter.
406
1037260
2000
la materia vie.
17:19
I think we'll get there in the not too distant future.
407
1039260
3000
Cred că vom ajunge acolo în viitorul nu prea îndepărtat.
17:22
Thank you.
408
1042260
2000
Vă mulțumesc.
17:24
(Applause)
409
1044260
4000
(Aplauze)
Despre acest site

Acest site vă va prezenta videoclipuri de pe YouTube care sunt utile pentru a învăța limba engleză. Veți vedea lecții de engleză predate de profesori de top din întreaga lume. Faceți dublu clic pe subtitrările în limba engleză afișate pe fiecare pagină video pentru a reda videoclipul de acolo. Subtitrările se derulează în sincron cu redarea videoclipului. Dacă aveți comentarii sau solicitări, vă rugăm să ne contactați folosind acest formular de contact.

https://forms.gle/WvT1wiN1qDtmnspy7