What we'll learn about the brain in the next century | Sam Rodriques

173,708 views ・ 2018-07-03

TED


Vă rugăm să faceți dublu clic pe subtitrările în limba engleză de mai jos pentru a reda videoclipul.

Traducător: Simona Pop Corector: Bianca-Ioanidia Mirea
00:13
I want to tell you guys something about neuroscience.
0
13040
2507
Vreau să vă spun ceva despre neuroștiințe.
00:16
I'm a physicist by training.
1
16040
1800
Sunt fizician de profesie.
00:18
About three years ago, I left physics
2
18230
2206
Acum aproximativ trei ani am renunțat la fizică
00:20
to come and try to understand how the brain works.
3
20460
2349
pentru a înțelege cum funcționează creierul.
00:22
And this is what I found.
4
22833
1474
Și uitați ce am aflat.
00:24
Lots of people are working on depression.
5
24331
2064
Mulți oameni lucrează pe tematici legate de depresie.
00:26
And that's really good,
6
26419
1159
Și asta e foarte bine,
00:27
depression is something that we really want to understand.
7
27602
2721
depresia este ceva ce vrem cu toții să înțelegem.
00:30
Here's how you do it:
8
30347
1167
Uitați cum se face:
00:31
you take a jar and you fill it up, about halfway, with water.
9
31538
4161
luați un borcan și apoi umpleți-l până la jumătate cu apă.
00:35
And then you take a mouse, and you put the mouse in the jar, OK?
10
35723
4182
Apoi luați un șoricel și aruncați șoricelul în borcan, da?
00:39
And the mouse swims around for a little while
11
39929
2350
Șoricelul va înota pentru puțină vreme
00:42
and then at some point, the mouse gets tired
12
42303
2388
și, la un moment dat, acesta obosește
00:44
and decides to stop swimming.
13
44715
1934
și decide să se oprească din înot.
00:46
And when it stops swimming, that's depression.
14
46673
3133
Și când se oprește din înotat, aia se numește depresie.
00:50
OK?
15
50696
1150
OK?
00:52
And I'm from theoretical physics,
16
52291
3380
Am studiat fizica teoretică,
00:55
so I'm used to people making very sophisticated mathematical models
17
55695
3668
deci sunt obișnuit să le prezint oamenilor modele matematice sofisticate
00:59
to precisely describe physical phenomena,
18
59387
2881
pentru a descrie cu precizie fenomenele fizice,
01:02
so when I saw that this is the model for depression,
19
62292
2452
iar când am văzut că acesta este modelul pentru depresie,
01:04
I though to myself, "Oh my God, we have a lot of work to do."
20
64768
2937
m-am gândit în sinea mea: „Doamne, mai avem multă treabă de făcut.”
01:07
(Laughter)
21
67729
1370
(Râsete)
01:09
But this is a kind of general problem in neuroscience.
22
69123
2951
Dar asta e o problemă generală în neuroștiințe.
01:12
So for example, take emotion.
23
72377
2111
Să luăm ca exemplu emoția.
01:14
Lots of people want to understand emotion.
24
74512
2459
Mulți oameni vor să înțeleagă emoția.
01:17
But you can't study emotion in mice or monkeys
25
77352
3313
Nu putem studia emoțiile la șoareci sau la maimuțe
01:20
because you can't ask them
26
80689
1254
deoarece nu-i poți întreba
01:21
how they're feeling or what they're experiencing.
27
81967
2317
cum se simt sau prin ce stări trec.
01:24
So instead, people who want to understand emotion,
28
84308
2357
În schimb, oamenii care vor să înțeleagă emoția,
01:26
typically end up studying what's called motivated behavior,
29
86689
2777
de obicei studiază ceea ce numim comportamentul motivat,
01:29
which is code for "what the mouse does when it really, really wants cheese."
30
89490
3658
sau pe înțelesul tuturor: „ce face șoricelul când vrea cașcavalul”.
01:33
OK, I could go on and on.
31
93839
1675
OK, aș putea continua până la nesfârșit.
01:35
I mean, the point is, the NIH spends about 5.5 billion dollars a year
32
95538
6316
Ideea este că INS cheltuie în jur de 5.5 miliarde dolari pe an
01:41
on neuroscience research.
33
101878
1532
în domeniul neuroștiinței.
01:43
And yet there have been almost no significant improvements in outcomes
34
103434
3603
Și aproape că încă nu avem rezultate semnificative sau îmbunătățiri
01:47
for patients with brain diseases in the past 40 years.
35
107061
3491
la pacienții cu boli cerebrale în ultimii 40 de ani.
01:51
And I think a lot of that is basically due to the fact
36
111015
2540
Cred că această problemă se datorează faptului
01:53
that mice might be OK as a model for cancer or diabetes,
37
113579
4151
că șoarecii ar putea fi un model potrivit pentru cancer sau diabet,
01:57
but the mouse brain is just not sophisticated enough
38
117754
2687
însă creierul șoarecilor nu e îndeajuns de sofisticat
02:00
to reproduce human psychology or human brain disease.
39
120465
3175
încât să reproducă psihologia umană sau bolile cerebrale umane.
02:04
OK?
40
124379
1225
OK?
02:05
So if the mouse models are so bad, why are we still using them?
41
125628
3634
Dacă modelul cu șoarecii este unul greșit, de ce-l mai folosim?
02:10
Well, it basically boils down to this:
42
130143
2103
Treaba se reduce, efectiv, la două chestii:
02:12
the brain is made up of neurons
43
132270
2556
creierul e format din neuroni
02:14
which are these little cells that send electrical signals to each other.
44
134850
3447
care sunt acele celule mici care trimit semnale electrice unul altuia.
02:18
If you want to understand how the brain works,
45
138680
2144
Dacă vreți să știți cum funcționează creierul,
02:20
you have to be able to measure the electrical activity of these neurons.
46
140848
3808
trebuie să știți cum să măsurați activitatea electrică a acestor neuroni.
02:25
But to do that, you have to get really close to the neurons
47
145339
2992
Pentru asta, trebuie să vă apropiați foarte tare de neuroni
02:28
with some kind of electrical recording device or a microscope.
48
148355
2928
cu un dispozitiv de înregistrare electrică sau microscop.
02:31
And so you can do that in mice and you can do it in monkeys,
49
151563
2810
Și chestia asta o puteți face la șoareci sau la maimuțe,
02:34
because you can physically put things into their brain
50
154397
2548
deoarece puteți să băgați chestii în creierul lor,
02:36
but for some reason we still can't do that in humans, OK?
51
156969
3046
dar din anumite motive nu putem face asta și la oameni.
02:40
So instead, we've invented all these proxies.
52
160533
3370
În schimb, noi am inventat toate aceste aparate.
02:43
So the most popular one is probably this,
53
163927
2515
Cel mai popular este probabil acesta,
02:46
functional MRI, fMRI,
54
166466
2397
RMN-ul funcțional, sau RMNf,
02:48
which allows you to make these pretty pictures like this,
55
168887
2692
care vă permite să faceți acele fotografii drăguțe,
02:51
that show which parts of your brain light up
56
171603
2056
vă arată ce parte a creierului se activează
02:53
when you're engaged in different activities.
57
173683
2126
când sunteți implicat în diverse activități.
02:55
But this is a proxy.
58
175833
1920
Dar acesta este un aparat.
02:57
You're not actually measuring neural activity here.
59
177777
3292
Cu asta nu măsurați, efectiv, activitatea neuronală,
03:01
What you're doing is you're measuring, essentially,
60
181093
2842
ci veți măsura, efectiv, chestii
03:03
like, blood flow in the brain.
61
183959
1832
precum circulația sangvină în creier.
03:05
Where there's more blood.
62
185815
1238
Unde este mai mult sânge.
03:07
It's actually where there's more oxygen, but you get the idea, OK?
63
187077
3103
Acolo unde este și mai mult oxigen, dar ați prins ideea, OK?
03:10
The other thing that you can do is you can do this --
64
190204
2519
Celălalt lucru pe care-l putem face,
03:12
electroencephalography -- you can put these electrodes on your head, OK?
65
192747
3591
electro-encefalografia, putem să vă punem acești electrozi pe cap, OK?
03:16
And then you can measure your brain waves.
66
196362
2143
Și, astfel, măsurăm undele cerebrale.
03:19
And here, you're actually measuring electrical activity.
67
199125
3079
Efectiv, măsurăm activitatea electrică.
03:22
But you're not measuring the activity of neurons.
68
202228
2365
Însă nu măsurăm activitatea neuronilor.
03:24
You're measuring these electrical currents,
69
204911
2444
Măsurăm curentul electric
03:27
sloshing back and forth in your brain.
70
207379
2299
care se revarsă înainte și înapoi în creier.
03:30
So the point is just that these technologies that we have
71
210157
2674
Ideea este că toate aceste tehnologii de care dispunem
03:32
are really measuring the wrong thing.
72
212855
2436
măsoară lucrurile care nu ne interesează.
03:35
Because, for most of the diseases that we want to understand --
73
215315
2953
Deoarece în majoritatea bolilor, ce trebuie să înțelegem...
03:38
like, Parkinson's is the classic example.
74
218292
2198
la boli precum Parkinson, să luăm exemplul clasic,
03:40
In Parkinson's, there's one particular kind of neuron deep in your brain
75
220514
3554
La Parkinson, există un anumit tip de neuron, adânc în creier
03:44
that is responsible for the disease,
76
224092
1731
care este responsabil pentru boală,
03:45
and these technologies just don't have the resolution that you need
77
225847
3182
iar aceste tehnologii nu au, efectiv, rezoluția de care avem nevoie
03:49
to get at that.
78
229053
1373
să ajungem la el.
03:50
And so that's why we're still stuck with the animals.
79
230450
3974
Deci tot la studiul animalelor am rămas.
03:54
Not that anyone wants to be studying depression
80
234448
2533
Nu toată lumea vrea să studieze depresia
03:57
by putting mice into jars, right?
81
237005
2262
prin a arunca șoricei în borcane, nu-i așa?
03:59
It's just that there's this pervasive sense that it's not possible
82
239291
3753
Asta din cauza faptului că nu este posibil
04:03
to look at the activity of neurons in healthy humans.
83
243068
3847
să analizăm activitatea neuronilor la oameni sănătoși.
04:08
So here's what I want to do.
84
248180
1492
Uitați ce vreau să fac.
04:09
I want to take you into the future.
85
249974
2521
Vreau să vă transport în viitor.
04:12
To have a look at one way in which I think it could potentially be possible.
86
252519
4482
Să aruncăm o privire la un mod care cred că ar putea fi posibil.
04:17
And I want to preface this by saying, I don't have all the details.
87
257526
3298
Vă spun dinainte că deocamdată nu dispun de toate detaliile.
04:21
So I'm just going to provide you with a kind of outline.
88
261272
2967
Deci, acum, doar vă furnizez un fel de schiță.
04:24
But we're going to go the year 2100.
89
264263
2400
Dar urmează să pășim în anul 2100.
04:27
Now what does the year 2100 look like?
90
267732
2299
Cum va arăta anul 2100?
04:30
Well, to start with, the climate is a bit warmer that what you're used to.
91
270055
3518
Pentru început, climatul va fi un pic mai cald decât suntem obișnuiți.
04:33
(Laughter)
92
273597
3583
(Râsete)
04:37
And that robotic vacuum cleaner that you know and love
93
277204
4952
Iar aspiratoarele robot pe care le cunoașteți deja și le iubiți,
04:42
went through a few generations,
94
282180
1514
trecute prin multe generații
04:43
and the improvements were not always so good.
95
283718
2843
cu îmbunătățiri aduse, nu vor fi chiar atât de bune.
04:46
(Laughter)
96
286585
1595
(Râsete)
04:48
It was not always for the better.
97
288530
2310
Nu a fost întotdeauna mai bine.
04:52
But actually, in the year 2100 most things are surprisingly recognizable.
98
292221
4538
În anul 2100, majoritatea lucrurilor vor fi surprinzător de identice.
04:57
It's just the brain is totally different.
99
297458
2734
Doar percepția asupra creierului va fi total diferită.
05:00
For example, in the year 2100,
100
300740
2547
De exemplu, în anul 2100,
05:03
we understand the root causes of Alzheimer's.
101
303311
2857
vom înțelege cauzele bolii Alzheimer.
05:06
So we can deliver targeted genetic therapies or drugs
102
306192
3714
Asta pentru a putea oferi terapii genetice specifice sau medicamente
05:09
to stop the degenerative process before it begins.
103
309930
2876
pentru a stopa procesul degenerativ încă înainte de a debuta.
05:13
So how did we do it?
104
313629
1333
Cum vom face asta?
05:15
Well, there were essentially three steps.
105
315898
2238
Sunt, esențialmente, trei pași.
05:18
The first step was that we had to figure out
106
318589
2814
Primul pas va fi că ne vom da seama
05:21
some way to get electrical connections through the skull
107
321427
3293
de noi metode pentru a obține conexiuni electrice care trec prin craniu
05:24
so we could measure the electrical activity of neurons.
108
324744
3015
pentru a putea măsura activitatea electrică a neuronilor.
05:28
And not only that, it had to be easy and risk-free.
109
328339
4349
În plus, va fi și ușor, și chiar lipsit de riscuri.
05:32
Something that basically anyone would be OK with,
110
332712
2378
Ceva cu care toți vor fi de acord,
05:35
like getting a piercing.
111
335114
1600
cum ar fi efectuarea unui piercing.
05:37
Because back in 2017,
112
337156
2747
Deoarece dacă ne întoarcem în 2017,
05:39
the only way that we knew of to get through the skull
113
339927
2913
singura modalitate cunoscută de a penetra prin craniu,
05:42
was to drill these holes the size of quarters.
114
342864
2817
era de a face acele găuri de mărimea unor monede.
05:46
You would never let someone do that to you.
115
346015
2039
Nu ați mai permite nimănui să vă facă asta.
05:48
So in the 2020s,
116
348967
2253
Deci, în anii 2020,
05:51
people began to experiment -- rather than drilling these gigantic holes,
117
351244
3381
oamenii vor începe să experimenteze, în loc să foreze acele găuri mari,
05:54
drilling microscopic holes, no thicker than a piece of hair.
118
354649
3115
vor face niște găuri microscopice, mai mici decât grosimea unui fir de păr.
05:58
And the idea here was really for diagnosis --
119
358735
2096
Ideea e că ceea ce contează este diagnosticul,
06:00
there are lots of times in the diagnosis of brain disorders
120
360855
2786
au fost multe cazuri în diagnosticarea bolilor cerebrale
06:03
when you would like to be able to look at the neural activity beneath the skull
121
363665
4872
când am fi vrut să ne putem uita la activitatea neuronală de sub craniu
06:08
and being able to drill these microscopic holes
122
368561
3191
și să putem fora acele găuri microscopice,
06:11
would make that much easier for the patient.
123
371776
2142
asta ar fi fost mult mai ușor pentru pacient.
06:13
In the end, it would be like getting a shot.
124
373942
2349
În final, ar fi ca și cum ai primi o împușcătură.
06:16
You just go in and you sit down
125
376315
1580
Doar intri în cabinet și te așezi
06:17
and there's a thing that comes down on your head,
126
377919
2301
și o chestie îți e pusă pe cap,
06:20
and a momentary sting and then it's done,
127
380244
1953
doar o înțepătură de moment și ai terminat,
06:22
and you can go back about your day.
128
382221
1864
poți să mergi acasă să-ți vezi de treaba ta.
06:24
So we're eventually able to do it
129
384736
4793
Vom putea face asta
06:29
using lasers to drill the holes.
130
389553
2667
folosind lasere pentru a fora acele găuri.
06:32
And with the lasers, it was fast and extremely reliable,
131
392244
2620
Și cu laserele e extrem de rapid și de sigur,
06:34
you couldn't even tell the holes were there,
132
394888
2213
nici nu ai putea spune că găurile sunt acolo,
06:37
any more than you could tell that one of your hairs was missing.
133
397125
3000
nici măcar faptul că îți lipsește un fir de păr.
06:40
And I know it might sound crazy, using lasers to drill holes in your skull,
134
400753
4738
Știu că sună aiurea folosirea laserelor pentru a fora găuri în craniu,
06:45
but back in 2017,
135
405515
1366
dar în 2017,
06:46
people were OK with surgeons shooting lasers into their eyes
136
406905
4109
oamenii erau de acord când chirurgii foloseau laserul în ochi
06:51
for corrective surgery
137
411038
1214
pentru operații corective.
06:52
So when you're already here, it's not that big of a step.
138
412276
3887
Când faci deja asta, nu mai e cale lungă.
06:57
OK?
139
417561
1151
OK?
06:58
So the next step, that happened in the 2030s,
140
418736
3571
Următorul pas, în 2030,
07:02
was that it's not just about getting through the skull.
141
422331
3086
va fi că nu doar vom putea penetra craniul.
07:05
To measure the activity of neurons,
142
425441
1700
Pentru a măsura activitatea neuronală,
07:07
you have to actually make it into the brain tissue itself.
143
427165
3825
trebuie, efectiv, să treci chiar prin țesutul cerebral.
07:11
And the risk, whenever you put something into the brain tissue,
144
431344
2968
Riscul care apare de fiecare dată când atingi țesutul cerebral
07:14
is essentially that of stroke.
145
434336
1439
este acela de atac cerebral.
07:15
That you would hit a blood vessel and burst it,
146
435799
2196
Poți să lovești un vas de sânge și să-l spargi,
07:18
and that causes a stroke.
147
438019
1519
iar asta duce imediat la atac cerebral.
07:19
So, by the mid 2030s, we had invented these flexible probes
148
439916
3725
Până pe la mijlocul lui 2030, se vor inventa sondele flexibile
07:23
that were capable of going around blood vessels,
149
443665
2278
care se vor putea învârti în jurul vaselor sangvine,
07:25
rather than through them.
150
445967
1476
și nu direct prin acestea.
07:27
And thus, we could put huge batteries of these probes
151
447467
5697
Astfel, vom putea pune bateriile uriașe ale acestor sonde
07:33
into the brains of patients
152
453188
1357
în creierul pacienților
07:34
and record from thousands of their neurons without any risk to them.
153
454569
3270
și să documentăm sute de neuroni fără niciun risc.
07:39
And what we discovered, sort of to our surprise,
154
459458
4061
Și ceea ce am descoperit, spre surpriza noastră,
07:43
is that the neurons that we could identify
155
463543
2190
este că neuronii pe care i-am identificat
07:45
were not responding to things like ideas or emotion,
156
465757
3524
nu răspund la lucruri precum idei sau emoții,
07:49
which was what we had expected.
157
469305
1627
așa cum ne așteptam.
07:50
They were mostly responding to things like Jennifer Aniston
158
470956
3796
Acestea răspund, în mare parte, la chestii precum Jennifer Aniston
07:54
or Halle Berry
159
474776
2404
sau Halle Berry
07:57
or Justin Trudeau.
160
477204
1310
sau Justin Trudeau.
07:58
I mean --
161
478538
1253
Adică...
07:59
(Laughter)
162
479815
2326
(Râsete)
08:02
In hindsight, we shouldn't have been that surprised.
163
482165
2437
În retrospectivă, nu ar trebui să fim așa surprinși.
08:04
I mean, what do your neurons spend most of their time thinking about?
164
484626
3262
La ce se gândesc majoritatea timpului neuronii noștri?
08:07
(Laughter)
165
487912
1150
(Râsete)
08:09
But really, the point is that
166
489380
2040
Ideea este că
08:11
this technology enabled us to begin studying neuroscience in individuals.
167
491444
4430
această tehnologie ne permite să studiem neuroștiințele la nivel individual.
08:15
So much like the transition to genetics, at the single cell level,
168
495898
4230
Precum tranziția la genetică, la nivel unicelular,
08:20
we started to study neuroscience, at the single human level.
169
500152
3206
am început să studiem neuroștiințele la nivel uman unic.
08:23
But we weren't quite there yet.
170
503890
1618
Dar nu am ajuns încă la final.
08:25
Because these technologies
171
505895
1642
Pentru că aceste tehnologii
08:27
were still restricted to medical applications,
172
507561
3056
erau încă limitate la aplicații medicale,
08:30
which meant that we were studying sick brains, not healthy brains.
173
510641
3391
adică noi studiam creierele bolnave în loc de cele sănătoase.
08:35
Because no matter how safe your technology is,
174
515235
3754
Pentru că nu contează cât de sigură este o tehnologie,
08:39
you can't stick something into someone's brain
175
519013
2730
nu poți, efectiv, să introduci ceva în creierul cuiva
08:41
for research purposes.
176
521767
1420
doar în scopuri de cercetare.
08:43
They have to want it.
177
523211
1549
Trebuie să vrea și ei asta.
08:44
And why would they want it?
178
524784
1460
Și de ce și-ar dori asta?
08:46
Because as soon as you have an electrical connection to the brain,
179
526268
3571
De îndată ce ai o conexiune electrică la creier,
08:49
you can use it to hook the brain up to a computer.
180
529863
2444
poți s-o folosești să o atașezi la un calculator.
08:53
Oh, well, you know, the general public was very skeptical at first.
181
533061
3429
O, da, știu... publicul este foarte sceptic la început.
08:56
I mean, who wants to hook their brain up to their computers?
182
536514
2869
Adică, cine ar vrea să-și atașeze creierul la un computer?
08:59
Well just imagine being able to send an email with a thought.
183
539926
4236
Imaginați-vă doar, cum ar fi să putem trimite un e-mail cu gândul doar.
09:04
(Laughter)
184
544186
2253
(Râsete)
09:06
Imagine being able to take a picture with your eyes, OK?
185
546463
4500
Imaginați-vă că faceți o poză cu ochii, OK?
09:10
(Laughter)
186
550987
1230
(Râsete)
09:12
Imagine never forgetting anything anymore,
187
552241
2963
Imaginați-vă că nu veți mai uita niciodată nimic,
09:15
because anything that you choose to remember
188
555228
2159
pentru că orice doriți să vă amintiți
09:17
will be stored permanently on a hard drive somewhere,
189
557411
2477
va fi stocat undeva pe un drive
09:19
able to be recalled at will.
190
559912
2029
și va putea fi accesat la nevoie.
09:21
(Laughter)
191
561965
3366
(Râsete)
09:25
The line here between crazy and visionary
192
565355
3381
Linia dintre nebunesc și vizionar
09:28
was never quite clear.
193
568760
1467
nu a fost niciodată destul de clară.
09:30
But the systems were safe.
194
570720
1857
Dar sistemele erau sigure.
09:32
So when the FDA decided to deregulate these laser-drilling systems, in 2043,
195
572879
5016
Când ADF a decis să dereglementeze aceste sisteme de forare cu laser, în 2043
09:37
commercial demand just exploded.
196
577919
2357
cererile comerciale au explodat.
09:40
People started signing their emails,
197
580300
1888
Oamenii au început să semneze mesajele cu:
09:42
"Please excuse any typos.
198
582212
1341
„Scuzați greșelile de ortografie.
09:43
Sent from my brain."
199
583577
1333
E-mail trimis din creier.”
09:44
(Laughter)
200
584934
1001
09:45
Commercial systems popped up left and right,
201
585959
2072
(Râsete)
Sistemele comerciale au apărut peste tot,
09:48
offering the latest and greatest in neural interfacing technology.
202
588055
3238
cu cele mai noi și bune oferte în interfața creier-calculator.
09:51
There were 100 electrodes.
203
591792
1753
Au fost 100 de electrozi.
09:53
A thousand electrodes.
204
593569
1911
1000 de electrozi.
09:55
High bandwidth for only 99.99 a month.
205
595504
2476
Lățime mare de bandă pentru doar 99,99$ pe lună.
09:58
(Laughter)
206
598004
1539
(Râsete)
09:59
Soon, everyone had them.
207
599567
1534
În curând, cu toții le aveau.
10:01
And that was the key.
208
601694
1571
Și asta a fost cheia.
10:03
Because, in the 2050s, if you were a neuroscientist,
209
603289
2923
Deoarece în 2050, dacă ești cercetător în neuroștiințe,
10:06
you could have someone come into your lab essentially from off the street.
210
606236
3939
s-ar putea ca cineva să intre, din stradă, în laboratorul tău.
10:10
And you could have them engaged in some emotional task
211
610792
2864
Și l-ai putea implica într-o sarcină emoțională
10:13
or social behavior or abstract reasoning,
212
613680
2437
sau comportament social sau raționament abstract,
10:16
things you could never study in mice.
213
616141
2531
chestii pe care niciodată nu le poți studia la șoareci.
10:18
And you could record the activity of their neurons
214
618696
3111
Și ai putea să înregistrezi activitatea neuronilor
10:21
using the interfaces that they already had.
215
621831
3191
folosindu-te de interfețele pe care acesta deja le are.
10:25
And then you could also ask them about what they were experiencing.
216
625046
3189
Și l-ai întreba, după aceea, ce anume a simțit.
10:28
So this link between psychology and neuroscience
217
628259
3349
Deci... această legătură dintre psihologie și neuroștiințe,
10:31
that you could never make in the animals, was suddenly there.
218
631632
3381
pe care nu o poți experimenta la animale, e dintr-o dată aici.
10:35
So perhaps the classic example of this
219
635695
2184
Deci, poate că exemplul clasic
10:37
was the discovery of the neural basis for insight.
220
637903
3523
a fost descoperirea bazei neuronale.
10:41
That "Aha!" moment, the moment it all comes together, it clicks.
221
641450
3600
Acel moment „Aha!”, momentul în care toate se îmbină, revelația.
10:45
And this was discovered by two scientists in 2055,
222
645593
4056
A fost descoperit de doi oameni de știință, în 2055,
10:49
Barry and Late,
223
649673
1372
Barry și Late,
10:51
who observed, in the dorsal prefrontal cortex,
224
651069
3663
care au observat, în cortexul prefrontal dorsolateral,
10:54
how in the brain of someone trying to understand an idea,
225
654756
5222
cum în creierul cuiva care încearcă să înțeleagă o idee,
11:00
how different populations of neurons would reorganize themselves --
226
660002
3369
diferite populații de neuroni se reorganizează:
11:03
you're looking at neural activity here in orange --
227
663395
2436
acum vedeți activitatea neuronală marcată cu portocaliu,
11:05
until finally their activity aligns in a way that leads to positive feedback.
228
665855
3738
iar în final, activitatea lor se aliniază într-un mod ce duce la un feedback pozitiv
11:10
Right there.
229
670339
1150
Chiar acolo.
11:12
That is understanding.
230
672723
1467
Aceea e înțelegerea.
11:15
So finally, we were able to get at the things that make us human.
231
675413
4437
În final, putem ajunge la lucrurile care ne fac umani.
11:21
And that's what really opened the way to major insights from medicine.
232
681871
4578
Și asta a deschis calea spre informațiile importante din medicină.
11:27
Because, starting in the 2060s,
233
687465
2755
Deoarece, începând cu anul 2060,
11:30
with the ability to record the neural activity
234
690244
2484
cu abilitatea de a înregistra activitatea neuronală
11:32
in the brains of patients with these different mental diseases,
235
692752
3587
în creierele pacienților cu aceste boli mintale diferite,
11:36
rather than defining the diseases on the basis of their symptoms,
236
696363
4690
decât să diagnosticăm aceste boli pe baza simptomelor lor,
11:41
as we had at the beginning of the century,
237
701077
2040
cum se întâmpla la începutul secolului,
11:43
we started to define them
238
703141
1222
începem să le definim
11:44
on the basis of the actual pathology that we observed at the neural level.
239
704387
3539
pe baza patologiei actuale pe care le observăm la nivel neuronal.
11:48
So for example, in the case of ADHD,
240
708768
3825
Deci, ca exemplu, în cazul ADHD,
11:52
we discovered that there are dozens of different diseases,
241
712617
3174
am descoperit că există o mulțime de boli diferite,
11:55
all of which had been called ADHD at the start of the century,
242
715815
3009
care, toate, au fost numite ADHD la începutul secolului,
11:58
that actually had nothing to do with each other,
243
718848
2301
care nu aveau nimic de-a face una cu cealaltă.
12:01
except that they had similar symptoms.
244
721173
2118
doar că prezentau simptome similare.
12:03
And they needed to be treated in different ways.
245
723625
2372
Și era nevoie să fie tratate în mod diferit.
12:06
So it was kind of incredible, in retrospect,
246
726307
2247
Era destul de incredibil, privind retrospectiv,
12:08
that at the beginning of the century,
247
728578
1777
faptul că la începutul secolului,
12:10
we had been treating all those different diseases
248
730379
2317
noi am tratat toate acele boli diferite
12:12
with the same drug,
249
732720
1183
cu același medicament,
12:13
just by giving people amphetamine, basically is what we were doing.
250
733927
3214
dându-le oamenilor amfetamină, asta am făcut, efectiv...
12:17
And schizophrenia and depression are the same way.
251
737165
2488
La fel se întâmplă și cu schizofrenia și depresia.
12:19
So rather than prescribing drugs to people essentially at random,
252
739677
4032
Decât să prescriem medicamentele oamenilor, la întâmplare,
12:23
as we had,
253
743733
1150
cum am făcut până atunci
12:24
we learned how to predict which drugs would be most effective
254
744907
3511
am învățat care medicamente sunt mai eficiente
12:28
in which patients,
255
748442
1183
la care tip de pacient,
12:29
and that just led to this huge improvement in outcomes.
256
749649
2756
și asta a dus la o îmbunătățire uriașă.
12:33
OK, I want to bring you back now to the year 2017.
257
753498
3476
OK, vreau să vă readuc în 2017.
12:38
Some of this may sound satirical or even far fetched.
258
758117
3373
Unele ar putea suna satiric sau exagerat.
12:41
And some of it is.
259
761514
1293
Și unele chiar așa sunt.
12:43
I mean, I can't actually see into the future.
260
763291
2651
Adică, nu pot vedea, efectiv, în viitor.
12:45
I don't actually know
261
765966
1366
Nu știu
12:47
if we're going to be drilling hundreds or thousands of microscopic holes
262
767356
3667
dacă vom fora sute de găuri microscopice
12:51
in our heads in 30 years.
263
771047
1667
în craniile noastre în următorii 30 de ani.
12:53
But what I can tell you
264
773762
1706
Dar ceea ce pot să vă spun
12:55
is that we're not going to make any progress
265
775492
2175
este că nu vom înregistra niciun progres
12:57
towards understanding the human brain or human diseases
266
777691
3727
în a înțelege creierul sau bolile umane
13:01
until we figure out how to get at the electrical activity of neurons
267
781442
4516
până nu ne vom da seama cum să urmărim activitatea electrică neuronală
13:05
in healthy humans.
268
785982
1200
la oamenii sănătoși.
13:07
And almost no one is working on figuring out how to do that today.
269
787918
3239
Și aproape nimeni nu încearcă să facă asta în zilele noastre.
13:12
That is the future of neuroscience.
270
792077
2334
Acesta este viitorul neuroștiinței.
13:14
And I think it's time for neuroscientists to put down the mouse brain
271
794752
4393
Cred că a sosit timpul ca neurologii să renunțe la creierul șoarecelui
13:19
and to dedicate the thought and investment necessary
272
799169
2754
și să-și dedice gândirea și investițiile necesare
13:21
to understand the human brain and human disease.
273
801947
3267
pentru a înțelege creierul și bolile umane.
13:27
Thank you.
274
807629
1151
Mulțumesc!
13:28
(Applause)
275
808804
1172
(Aplauze)
Despre acest site

Acest site vă va prezenta videoclipuri de pe YouTube care sunt utile pentru a învăța limba engleză. Veți vedea lecții de engleză predate de profesori de top din întreaga lume. Faceți dublu clic pe subtitrările în limba engleză afișate pe fiecare pagină video pentru a reda videoclipul de acolo. Subtitrările se derulează în sincron cu redarea videoclipului. Dacă aveți comentarii sau solicitări, vă rugăm să ne contactați folosind acest formular de contact.

https://forms.gle/WvT1wiN1qDtmnspy7