Read Montague: What we're learning from 5,000 brains

46,909 views ・ 2012-09-24

TED


Моля, кликнете два пъти върху английските субтитри по-долу, за да пуснете видеото.

00:00
Translator: Joseph Geni Reviewer: Morton Bast
0
0
7000
Translator: Ina Stoycheva Reviewer: Yavor Ivanov
00:15
Other people. Everyone is interested in other people.
1
15734
2809
Другите хора. Всеки се интересува от другите хора.
00:18
Everyone has relationships with other people,
2
18543
2123
Всеки има връзки с другите хора
00:20
and they're interested in these relationships
3
20666
1592
и те се интересуват от тези връзки
00:22
for a variety of reasons.
4
22258
1855
поради различни причини.
00:24
Good relationships, bad relationships,
5
24113
2012
Добри връзки, лоши връзки,
00:26
annoying relationships, agnostic relationships,
6
26125
3146
раздразнителни връзки, агностични връзки
00:29
and what I'm going to do is focus on the central piece
7
29271
3424
и ще се фокусирам върху същността
00:32
of an interaction that goes on in a relationship.
8
32695
3303
на взаимодействието, което протича в една връзка.
00:35
So I'm going to take as inspiration the fact that we're all
9
35998
2336
Вдъхновявам се от факта, че всички
00:38
interested in interacting with other people,
10
38334
2425
се интересуваме да взаимодействаме с другите хора,
00:40
I'm going to completely strip it of all its complicating features,
11
40759
3832
ще отхвърля всички затрудняващи свойства
00:44
and I'm going to turn that object, that simplified object,
12
44591
3894
и ще превърна този обект, този опростен обект
00:48
into a scientific probe, and provide the early stages,
13
48485
4150
в научен тест и ще кажа ранните етапи,
00:52
embryonic stages of new insights into what happens
14
52635
2449
ембрионните етапи на новите виждания за това, какво се случва
00:55
in two brains while they simultaneously interact.
15
55084
3650
в два мозъка, когато те си взаимодействат едновременно.
00:58
But before I do that, let me tell you a couple of things
16
58734
2293
Преди да направя това, нека ви кажа няколко неща,
01:01
that made this possible.
17
61027
1699
които направиха възможно това.
01:02
The first is we can now eavesdrop safely
18
62726
2781
Първото е, че сега можем безопасно да наблюдаваме
01:05
on healthy brain activity.
19
65507
2711
дейността на здравия мозък.
01:08
Without needles and radioactivity,
20
68218
2577
Без игли и радиоактивност,
01:10
without any kind of clinical reason, we can go down the street
21
70795
2863
без каквато и да е клинична причина, можем да се разходим по улицата
01:13
and record from your friends' and neighbors' brains
22
73658
3127
и да запишем мозъците на приятелите и съседите ви,
01:16
while they do a variety of cognitive tasks, and we use
23
76785
2538
докато те правят множество когнитивни задачи и използваме
01:19
a method called functional magnetic resonance imaging.
24
79323
3734
метод, който се нарича изображение чрез функционален магнитен резонанс.
01:23
You've probably all read about it or heard about in some
25
83057
2325
Вероятно всички сте чели или чували за това, в някаква
01:25
incarnation. Let me give you a two-sentence version of it.
26
85382
4378
инкарнация. Нека да ви го представя в две изречения.
01:29
So we've all heard of MRIs. MRIs use magnetic fields
27
89760
3484
Всички сме чували за ЯМР. ЯМР използва магнитни полета
01:33
and radio waves and they take snapshots of your brain
28
93244
2029
и радио вълни, и те снимат мозъка ви
01:35
or your knee or your stomach,
29
95273
2361
или коляното, или стомаха ви,
01:37
grayscale images that are frozen in time.
30
97634
2045
оценява образи, които са постоянни във времето.
01:39
In the 1990s, it was discovered you could use
31
99679
2321
През 1990-те години, беше открито, че можете да използвате
01:42
the same machines in a different mode,
32
102000
2659
същите машини в различен режим
01:44
and in that mode, you could make microscopic blood flow
33
104659
2346
и в този режим можете да направите видеа на микроскопични кръвни потоци
01:47
movies from hundreds of thousands of sites independently in the brain.
34
107005
3300
на стотици или хиляди места в мозъка, независими едно от друго.
01:50
Okay, so what? In fact, the so what is, in the brain,
35
110305
3200
Какво се случва? Всъщност, в мозъка,
01:53
changes in neural activity, the things that make your brain work,
36
113505
3832
промените в нервната активност, нещата, които карат мозъка ви да работи,
01:57
the things that make your software work in your brain,
37
117337
2010
нещата, които карат софтуера да работи в мозъка ви
01:59
are tightly correlated with changes in blood flow.
38
119347
2489
са здраво свързани с промените на кръвния поток.
02:01
You make a blood flow movie, you have an independent
39
121836
1973
Правите филм на кръвния поток, имате независимо
02:03
proxy of brain activity.
40
123809
2339
изображение на дейността на мозъка.
02:06
This has literally revolutionized cognitive science.
41
126148
3034
Това революционализира когнитивната наука.
02:09
Take any cognitive domain you want, memory,
42
129182
1991
Вземете която и да е когнитивна област, паметта,
02:11
motor planning, thinking about your mother-in-law,
43
131173
2141
моторното планиране, да мислите за свекърва си,
02:13
getting angry at people, emotional response, it goes on and on,
44
133314
3715
да се ядосвате на хората, емоционалната реакция, и така нататък,
02:17
put people into functional MRI devices, and
45
137029
3089
сложете хората във функционален ЯМР и
02:20
image how these kinds of variables map onto brain activity.
46
140118
3383
изобразете как тези видове променливи се нанасят върху активността на мозъка.
02:23
It's in its early stages, and it's crude by some measures,
47
143501
2849
Това е в ранните стадии и според някои измервания е жестоко,
02:26
but in fact, 20 years ago, we were at nothing.
48
146350
2568
но всъщност, преди 20 години не знаехме нищо.
02:28
You couldn't do people like this. You couldn't do healthy people.
49
148918
2359
Не можете да третирате хората така. Не можете да третирате здрави хора.
02:31
That's caused a literal revolution, and it's opened us up
50
151277
2488
Това предизвика революция и ни отвори очите за
02:33
to a new experimental preparation. Neurobiologists,
51
153765
2818
нови видове експерименти. Невробиолозите,
02:36
as you well know, have lots of experimental preps,
52
156583
3760
както добре знаете, имат много опитни обекти за експерименти,
02:40
worms and rodents and fruit flies and things like this.
53
160343
3141
червеи и плодове, и такива неща.
02:43
And now, we have a new experimental prep: human beings.
54
163484
3397
Сега имаме нов обект за експерименти: хората.
02:46
We can now use human beings to study and model
55
166881
3761
Можем да използваме хората, за да изучаваме и моделираме
02:50
the software in human beings, and we have a few
56
170642
2950
софтуера в хората и имаме няколко
02:53
burgeoning biological measures.
57
173592
2835
натоварващи биологични измервания.
02:56
Okay, let me give you one example of the kinds of experiments that people do,
58
176427
3887
Добре, нека ви дам пример за видовете експерименти, които правим
03:00
and it's in the area of what you'd call valuation.
59
180314
2677
и това е в областта, която се нарича "оценяване".
03:02
Valuation is just what you think it is, you know?
60
182991
2135
"Оценяването" е това, което си мислите, че е.
03:05
If you went and you were valuing two companies against
61
185126
2804
Ако оцените две компании една
03:07
one another, you'd want to know which was more valuable.
62
187930
2736
спрямо друга, ще искате да знаете коя от тях е по-ценна.
03:10
Cultures discovered the key feature of valuation thousands of years ago.
63
190666
3879
Културите откриха най-важното свойство на оценяването преди хиляди години.
03:14
If you want to compare oranges to windshields, what do you do?
64
194545
2690
Ако искате да сравните органи с дъждобрани, какво правите?
03:17
Well, you can't compare oranges to windshields.
65
197235
2356
Не можете да сравните органи с дъждобрани.
03:19
They're immiscible. They don't mix with one another.
66
199591
2255
Те са несравними. Не се смесват един с друг.
03:21
So instead, you convert them to a common currency scale,
67
201846
2351
Вместо това, ги конвертирате в скала на обща валута,
03:24
put them on that scale, and value them accordingly.
68
204197
2706
слагате ги на тази скала и ги оценявате.
03:26
Well, your brain has to do something just like that as well,
69
206903
3436
Мозъкът ви трябва да направи нещо, точно като това
03:30
and we're now beginning to understand and identify
70
210339
2488
и започваме да разбираме и да идентифицираме
03:32
brain systems involved in valuation,
71
212827
2137
мозъчните системи, които се оценяват
03:34
and one of them includes a neurotransmitter system
72
214964
2632
и едната от тях включва невропредавателна система,
03:37
whose cells are located in your brainstem
73
217596
2632
чиито клетки се намират в стъблото на мозъка ви
03:40
and deliver the chemical dopamine to the rest of your brain.
74
220228
3175
и доставят допамин към останалата част от мозъка ви.
03:43
I won't go through the details of it, but that's an important
75
223403
2442
Няма да навлизам в детайли, но това е важно
03:45
discovery, and we know a good bit about that now,
76
225845
2157
откритие и знаем малко за него,
03:48
and it's just a small piece of it, but it's important because
77
228002
2230
и това е малка част от него, но е важно, защото
03:50
those are the neurons that you would lose if you had Parkinson's disease,
78
230232
3275
това са невроните, които бихте загубили, ако имате болест на Паркинсон
03:53
and they're also the neurons that are hijacked by literally
79
233507
2016
и те са и невроните, които се прикрепят към
03:55
every drug of abuse, and that makes sense.
80
235523
2232
всяко неправилно лекарство, и това има смисъл.
03:57
Drugs of abuse would come in, and they would change
81
237755
2336
Неправилните лекарства влизат в организма и променят
04:00
the way you value the world. They change the way
82
240091
1789
начина, по който оценявате света. Те променят начина,
04:01
you value the symbols associated with your drug of choice,
83
241880
3199
по който оценявате символите, които са свързани с лекарството, което сте избрали
04:05
and they make you value that over everything else.
84
245079
2514
и ви карат да оцените това над всичко друго.
04:07
Here's the key feature though. These neurons are also
85
247593
3021
Това е най-важното свойство. Тези неврони са и
04:10
involved in the way you can assign value to literally abstract ideas,
86
250614
3501
свързани в начина, по който можете да присвоите стойност на абстрактни идеи
04:14
and I put some symbols up here that we assign value to
87
254115
2041
и слагам няколко символа тук, на които присвояваме стойност
04:16
for various reasons.
88
256156
2720
поради различни причини.
04:18
We have a behavioral superpower in our brain,
89
258876
2689
Имаме супер сила на поведение в мозъка си
04:21
and it at least in part involves dopamine.
90
261565
1753
и това поне отчасти включва допамина.
04:23
We can deny every instinct we have for survival for an idea,
91
263318
4189
Можем да отречем всеки инстинкт, който имаме за оцеляване заради една идея,
04:27
for a mere idea. No other species can do that.
92
267507
4005
поради самата идея. Никой друг вид не може да направи това.
04:31
In 1997, the cult Heaven's Gate committed mass suicide
93
271512
3606
През 1997 г., култът към "Хевънс гейт" стана причина за масови самоубийства,
04:35
predicated on the idea that there was a spaceship
94
275118
2215
предсказани от идеята, че космически кораб
04:37
hiding in the tail of the then-visible comet Hale-Bopp
95
277333
3785
се крие в опашката на тогава видимата планета Хейл боп,
04:41
waiting to take them to the next level. It was an incredibly tragic event.
96
281118
4272
който ги чака, за да ги отведе на следващото ниво. Това беше много трагично събитие.
04:45
More than two thirds of them had college degrees.
97
285390
3485
Повече от две трети от тях бяха завършили колеж.
04:48
But the point here is they were able to deny their instincts for survival
98
288875
3723
Но важното тук е, че те можаха да отрекат инстинкта си за оживяване,
04:52
using exactly the same systems that were put there
99
292598
2866
като използваха същите системи, които съществуват,
04:55
to make them survive. That's a lot of control, okay?
100
295464
4042
за да ги карат да живеят. Това е голям контрол, нали?
04:59
One thing that I've left out of this narrative
101
299506
2089
Едно нещо, което не казах,
05:01
is the obvious thing, which is the focus of the rest of my
102
301595
2234
е очевидното нещо, което е фокусът на остатъка от
05:03
little talk, and that is other people.
103
303829
2159
разговора ми, а това са другите хора.
05:05
These same valuation systems are redeployed
104
305988
2996
Същите системи на оценяване се използват,
05:08
when we're valuing interactions with other people.
105
308984
2492
когато оценяваме взаимодействията с другите хора.
05:11
So this same dopamine system that gets addicted to drugs,
106
311476
3271
Същата система от допамин, която се пристрастява към лекарства,
05:14
that makes you freeze when you get Parkinson's disease,
107
314747
2524
която ви кара да измръзвате, когато страдате от Паркинсонова болест,
05:17
that contributes to various forms of psychosis,
108
317271
3077
която допринася за различни видове психоза,
05:20
is also redeployed to value interactions with other people
109
320348
3920
се използва и при оценяването на взаимодействията с другите хора
05:24
and to assign value to gestures that you do
110
324268
2896
и да присвоява стойност на жестовете, които правите,
05:27
when you're interacting with somebody else.
111
327164
2574
когато взаимодействате с някой друг.
05:29
Let me give you an example of this.
112
329738
2577
Нека ви дам пример.
05:32
You bring to the table such enormous processing power
113
332315
2967
Слагаме на масата такава огромна обработваща сила
05:35
in this domain that you hardly even notice it.
114
335282
2624
в тази област, че дори не я забелязваме.
05:37
Let me just give you a few examples. So here's a baby.
115
337906
1467
Нека ви дам няколко примера. Това е бебе.
05:39
She's three months old. She still poops in her diapers and she can't do calculus.
116
339373
3730
Тя е на три месеца. Тя се напикава и не може да смята.
05:43
She's related to me. Somebody will be very glad that she's up here on the screen.
117
343103
3353
Тя е свързана с мен. Някой ще бъде много щастлив, че тя е тук, на екрана.
05:46
You can cover up one of her eyes, and you can still read
118
346456
2376
Можете да закриете едно от очите ѝ и да гледате
05:48
something in the other eye, and I see sort of curiosity
119
348832
2755
нещо в другото ѝ око и ще видите любопитство
05:51
in one eye, I see maybe a little bit of surprise in the other.
120
351587
3597
в това око, виждам може би малко изненада в другото.
05:55
Here's a couple. They're sharing a moment together,
121
355184
3179
Това е двойка. Те споделят момент заедно
05:58
and we've even done an experiment where you can cut out
122
358363
1318
и дори сме направили експеримент, където можете да отрежете
05:59
different pieces of this frame and you can still see
123
359681
3007
различни части от тази рамка и да виждате,
06:02
that they're sharing it. They're sharing it sort of in parallel.
124
362688
2504
че те го споделят. Те го споделят заедно.
06:05
Now, the elements of the scene also communicate this
125
365192
2463
Елементите на сцената също ни съобщават
06:07
to us, but you can read it straight off their faces,
126
367655
2235
това, но можете да го прочетете на лицата им
06:09
and if you compare their faces to normal faces, it would be a very subtle cue.
127
369890
3503
и ако сравните лицата им с обикновени лица, това ще бъде ключ.
06:13
Here's another couple. He's projecting out at us,
128
373393
3347
Ето друга двойка. Той е изобразен далеч от нас,
06:16
and she's clearly projecting, you know,
129
376740
2888
а тя ясно изразява
06:19
love and admiration at him.
130
379628
2263
любов и обожание към него.
06:21
Here's another couple. (Laughter)
131
381891
3635
Ето друга двойка. (Смях)
06:25
And I'm thinking I'm not seeing love and admiration on the left. (Laughter)
132
385526
5150
Мисля, че не виждам любов и обожание в ляво. (Смях)
06:30
In fact, I know this is his sister, and you can just see
133
390676
2560
Всъщност, знам, че това е сестра му и можете да видите,
06:33
him saying, "Okay, we're doing this for the camera,
134
393236
2513
че той казва: "Добре, правим това за камерата
06:35
and then afterwards you steal my candy and you punch me in the face." (Laughter)
135
395749
5702
и след това ще откраднеш сладката ми и ще ме удариш в лицето." (Смях)
06:41
He'll kill me for showing that.
136
401451
2106
Той ще ме убие, че показах това.
06:43
All right, so what does this mean?
137
403557
2797
Какво означава това?
06:46
It means we bring an enormous amount of processing power to the problem.
138
406354
3350
Означава, че внасяме голяма част обработваща сила в проблема.
06:49
It engages deep systems in our brain, in dopaminergic
139
409704
3648
Това ангажира дълбоки системи в мозъка ни, в допаминергичните
06:53
systems that are there to make you chase sex, food and salt.
140
413352
2818
системи, които ви карат да преследвате секса, храната и солта.
06:56
They keep you alive. It gives them the pie, it gives
141
416170
2894
Те ви поддържат живи. Това им дава пая, дава им
06:59
that kind of a behavioral punch which we've called a superpower.
142
419064
2904
вид поведение на удряне, което нарекохме супер сила.
07:01
So how can we take that and arrange a kind of staged
143
421968
3654
Как можем да вземем това и да го превърнем във
07:05
social interaction and turn that into a scientific probe?
144
425622
2698
социално взаимодействие, което да става за научен опит?
07:08
And the short answer is games.
145
428320
2691
Краткият отговор е игри.
07:11
Economic games. So what we do is we go into two areas.
146
431011
4404
Икономически игри. Отиваме в две области.
07:15
One area is called experimental economics. The other area is called behavioral economics.
147
435415
3336
Едната област се нарича експериментална икономика. Другата област се нарича поведенческа икономика.
07:18
And we steal their games. And we contrive them to our own purposes.
148
438751
4078
Крадем игрите им. Използваме ги за собствени цели.
07:22
So this shows you one particular game called an ultimatum game.
149
442829
2967
Това ви показва игра, наречена игра на ултиматум.
07:25
Red person is given a hundred dollars and can offer
150
445796
1845
На червения човек са му дадени сто долара и той може да предложи да ги раздели
07:27
a split to blue. Let's say red wants to keep 70,
151
447641
3723
със ситния човек. Нека да кажем, че червеният човек запазва 70
07:31
and offers blue 30. So he offers a 70-30 split with blue.
152
451364
4086
и предлага на синия човек 30. Той предлага разделение 70 - 30 със синия човек.
07:35
Control passes to blue, and blue says, "I accept it,"
153
455450
2851
Управлението преминава към синия човек и той казва: "Приемам",
07:38
in which case he'd get the money, or blue says,
154
458301
1956
в който случай той получава парите или синия човек казва:
07:40
"I reject it," in which case no one gets anything. Okay?
155
460257
4307
"Отказвам", в който случай никой не получава нищо. Добре?
07:44
So a rational choice economist would say, well,
156
464564
3392
Икономист с рационален избор би казал: "Добре,
07:47
you should take all non-zero offers.
157
467956
2056
трябва да вземете всички не нулеви оферти.
07:50
What do people do? People are indifferent at an 80-20 split.
158
470012
3762
Какво правят хората? Хората са безразлични при разделяне 80 - 20.
07:53
At 80-20, it's a coin flip whether you accept that or not.
159
473774
3524
Разделяне 80 - 20 е подхвърляне на монета, на това дали приемате или не.
07:57
Why is that? You know, because you're pissed off.
160
477298
2891
Защо? Защото ви е кипнало.
08:00
You're mad. That's an unfair offer, and you know what an unfair offer is.
161
480189
3609
Бесни сте. Нова е нечестна оферта, а вие знаете, какво е нечестна оферта.
08:03
This is the kind of game done by my lab and many around the world.
162
483798
2704
Това е вид игра, разработена в лабораторията ми и от много други по света.
08:06
That just gives you an example of the kind of thing that
163
486502
2544
Тя ви дава пример на това, което представлява
08:09
these games probe. The interesting thing is, these games
164
489046
3738
играта-тест. Интересно е, че тези игри
08:12
require that you have a lot of cognitive apparatus on line.
165
492784
3707
изискват да имате много когнитивен апарат.
08:16
You have to be able to come to the table with a proper model of another person.
166
496491
2928
Трябва да можете да дойдете до масата с правилния модел към другия човек.
08:19
You have to be able to remember what you've done.
167
499419
3213
Трябва да можете да запомните, какво сте направили.
08:22
You have to stand up in the moment to do that.
168
502632
1420
Трябва в момента да направите това.
08:24
Then you have to update your model based on the signals coming back,
169
504052
3350
След това трябва да осъвремените модела ви, въз основа на идващите обратно сигнали
08:27
and you have to do something that is interesting,
170
507402
2972
и трябва да направите нещо интересно,
08:30
which is you have to do a kind of depth of thought assay.
171
510374
2597
което е, че трябва да мислите много.
08:32
That is, you have to decide what that other person expects of you.
172
512971
3333
Трябва да решите, какво другият човек очаква от вас.
08:36
You have to send signals to manage your image in their mind.
173
516304
2954
Трябва да изпратите сигнали, за да управлявате образа в съзнанието си.
08:39
Like a job interview. You sit across the desk from somebody,
174
519258
2853
Като интервю за работа. Сядате зад бюрото срещу някого,
08:42
they have some prior image of you,
175
522111
1369
той има някаква предварителна идея за вас,
08:43
you send signals across the desk to move their image
176
523480
2751
изпращате сигнали зад бюрото, за да преобразувате неговия образ
08:46
of you from one place to a place where you want it to be.
177
526231
3920
за вас от едно място на място, където искате той да бъде.
08:50
We're so good at this we don't really even notice it.
178
530151
3385
Много сме добри в това, дори не го забелязваме.
08:53
These kinds of probes exploit it. Okay?
179
533536
3767
Тези експерименти изучават това.
08:57
In doing this, what we've discovered is that humans
180
537303
1807
Правейки това, открихме, че хората
08:59
are literal canaries in social exchanges.
181
539110
2331
са като канарчетата в социалната обмяна.
09:01
Canaries used to be used as kind of biosensors in mines.
182
541441
3397
Канарчетата се използваха като вид биосензори в мините.
09:04
When methane built up, or carbon dioxide built up,
183
544838
3560
Когато се образува метан или въглероден двуокис,
09:08
or oxygen was diminished, the birds would swoon
184
548398
4186
или се намалява кислорода, птиците започват да се задушават
09:12
before people would -- so it acted as an early warning system:
185
552584
2326
преди хората - това действа като ранно предупреждаваща система:
09:14
Hey, get out of the mine. Things aren't going so well.
186
554910
2980
Хей, излизайте от мините. Нещата не вървят добре.
09:17
People come to the table, and even these very blunt,
187
557890
2954
Хората идват до масата и дори тези невъзприемчиви,
09:20
staged social interactions, and they, and there's just
188
560844
2990
поставени социални взаимодействия и много
09:23
numbers going back and forth between the people,
189
563834
3016
от тях отиват назад и напред между хората,
09:26
and they bring enormous sensitivities to it.
190
566850
2199
и те придават на това голяма значимост.
09:29
So we realized we could exploit this, and in fact,
191
569049
2689
Разбрахме как можем да използваме това и всъщност,
09:31
as we've done that, and we've done this now in
192
571738
2556
като направихме това върху
09:34
many thousands of people, I think on the order of
193
574294
2694
хиляди хора, мисля че те са около
09:36
five or six thousand. We actually, to make this
194
576988
2165
пет или шест хиляди. За да направим това,
09:39
a biological probe, need bigger numbers than that,
195
579153
2224
биологичен тест, са ни нужни повече хора,
09:41
remarkably so. But anyway,
196
581377
3674
много повече. Но
09:45
patterns have emerged, and we've been able to take
197
585051
2004
се появиха модели и можем да вземем
09:47
those patterns, convert them into mathematical models,
198
587055
3836
тези модели, да ги преобразуваме в математически модели
09:50
and use those mathematical models to gain new insights
199
590891
2689
и да използваме тези математически модели, за да научим повече
09:53
into these exchanges. Okay, so what?
200
593580
2131
за тези замени. Какво следва?
09:55
Well, the so what is, that's a really nice behavioral measure,
201
595711
3313
Това е хубаво измерване на поведението,
09:59
the economic games bring to us notions of optimal play.
202
599024
3319
икономическите игри ни навеждат на мисълта за оптимална игра.
10:02
We can compute that during the game.
203
602343
2484
Можем да изчислим това по време на играта.
10:04
And we can use that to sort of carve up the behavior.
204
604827
2953
Можем да използваме това, за да очертаем поведение.
10:07
Here's the cool thing. Six or seven years ago,
205
607780
4330
Ето страхотното нещо. Преди шест или седем години,
10:12
we developed a team. It was at the time in Houston, Texas.
206
612110
2550
създадохме екип. Беше по времето, когато бях в Хюстън, Тексас.
10:14
It's now in Virginia and London. And we built software
207
614660
3394
Сега създаваме екипи във Вирджиния и Лондон. Създадохме софтуер,
10:18
that'll link functional magnetic resonance imaging devices
208
618054
3207
който ще свърже изображенията чрез функционалния магнитен резонанс
10:21
up over the Internet. I guess we've done up to six machines
209
621261
4035
по интернет. Предполагам, че направихме до шест машини
10:25
at a time, but let's just focus on two.
210
625296
1981
наведнъж, но нека разгледаме две.
10:27
So it synchronizes machines anywhere in the world.
211
627277
3058
Това синхронизира машините навсякъде по света.
10:30
We synchronize the machines, set them into these
212
630335
3169
Синхронизираме машините, установяваме ги в тези
10:33
staged social interactions, and we eavesdrop on both
213
633504
1983
поставени социални взаимодействия и подслушваме и на двата
10:35
of the interacting brains. So for the first time,
214
635487
1666
взаимодействащи мозъка. За пръв път
10:37
we don't have to look at just averages over single individuals,
215
637153
3607
не трябва да разглеждаме средните резултати измежду всички индивиди
10:40
or have individuals playing computers, or try to make
216
640760
2897
или отделни хора да играят на компютри, или да се опитваме да направим
10:43
inferences that way. We can study individual dyads.
217
643657
2763
интерференции по този начин. Можем да изучаваме отделните двойки.
10:46
We can study the way that one person interacts with another person,
218
646420
2785
Можем да изучим начина, по който един човек взаимодейства с друг,
10:49
turn the numbers up, and start to gain new insights
219
649205
2564
да получим числата и да започнем да получаваме нови идеи
10:51
into the boundaries of normal cognition,
220
651769
2515
за границите на обикновената когниция,
10:54
but more importantly, we can put people with
221
654284
2732
но което е по-важно, можем да класифицираме хората
10:57
classically defined mental illnesses, or brain damage,
222
657016
3337
по умствени болести или увреждане на мозъка
11:00
into these social interactions, and use these as probes of that.
223
660353
3551
в тези социални взаимодействия.
11:03
So we've started this effort. We've made a few hits,
224
663904
2350
Започнахме това. Направихме няколко открития,
11:06
a few, I think, embryonic discoveries.
225
666254
2449
ембрионистични открития.
11:08
We think there's a future to this. But it's our way
226
668703
2812
Мисля, че има бъдеще в това. Но това е начинът ни
11:11
of going in and redefining, with a new lexicon,
227
671515
2560
да навлизаме и да дефинираме отново, с нови думи,
11:14
a mathematical one actually, as opposed to the standard
228
674075
4022
математически думи, за разлика от стандартните
11:18
ways that we think about mental illness,
229
678097
2578
начини, по които мислим за умствена болест,
11:20
characterizing these diseases, by using the people
230
680675
2067
характеризирайки тези болести, като използваме хората
11:22
as birds in the exchanges. That is, we exploit the fact
231
682742
3007
като птици в размяната. Изучаваме факта,
11:25
that the healthy partner, playing somebody with major depression,
232
685749
4244
че по-здравият партньор, който играе с някой, който има силна депресия
11:29
or playing somebody with autism spectrum disorder,
233
689993
2910
или като играе с някого, който страда от аутизъм,
11:32
or playing somebody with attention deficit hyperactivity disorder,
234
692903
3850
или като играе с някого, който страда от дефицит на вниманието,
11:36
we use that as a kind of biosensor, and then we use
235
696753
3219
използваме това, като вид биосензор и използваме
11:39
computer programs to model that person, and it gives us
236
699972
2644
компютърни програми, за да моделираме този човек и това ни дава
11:42
a kind of assay of this.
237
702616
2470
познание.
11:45
Early days, and we're just beginning, we're setting up sites
238
705086
2131
Когато започнахме, установихме места
11:47
around the world. Here are a few of our collaborating sites.
239
707217
3410
по света. Ето няколко от местата, които ни сътрудничат.
11:50
The hub, ironically enough,
240
710627
2309
Центърът, по ирония,
11:52
is centered in little Roanoke, Virginia.
241
712936
2889
се намира в малкото селище Роанок, Вирджиния.
11:55
There's another hub in London, now, and the rest
242
715825
2269
Сега има друг център в Лондон, а останалите
11:58
are getting set up. We hope to give the data away
243
718094
4009
се изграждат. Надяваме се, да оповестим данните
12:02
at some stage. That's a complicated issue
244
722103
3673
по някое време. Това е сложен проблем
12:05
about making it available to the rest of the world.
245
725776
2994
за това, как да ги направим достъпни за света.
12:08
But we're also studying just a small part
246
728770
1847
Изучаваме и малка част
12:10
of what makes us interesting as human beings, and so
247
730617
2267
за това, което ни прави интересни като хора и по такъв начин
12:12
I would invite other people who are interested in this
248
732884
2041
каня хора, които се интересуват от това,
12:14
to ask us for the software, or even for guidance
249
734925
2569
и ни молят да дадем софтуера или насоки
12:17
on how to move forward with that.
250
737494
2219
как да напреднат в това.
12:19
Let me leave you with one thought in closing.
251
739713
2341
Нека накрая ви кажа още нещо.
12:22
The interesting thing about studying cognition
252
742054
1942
Интересното в това, да се изучава когниция
12:23
has been that we've been limited, in a way.
253
743996
3732
е, че сме ограничени.
12:27
We just haven't had the tools to look at interacting brains
254
747728
2943
Нямахме инструментите да разглеждаме взаимодействащи мозъци
12:30
simultaneously.
255
750671
1200
едновременно.
12:31
The fact is, though, that even when we're alone,
256
751871
2470
Дори когато сме сами,
12:34
we're a profoundly social creature. We're not a solitary mind
257
754341
4111
сме изцяло социални създания. Не сме самотни мозъци,
12:38
built out of properties that kept it alive in the world
258
758452
4373
които са изградени от свойства, които ни карат да живеем в света,
12:42
independent of other people. In fact, our minds
259
762825
3948
независимо от другите хора. Мозъците ни
12:46
depend on other people. They depend on other people,
260
766773
2870
зависят от другите хора. Зависят от другите хора
12:49
and they're expressed in other people,
261
769643
1541
и се изразяват в другите хора,
12:51
so the notion of who you are, you often don't know
262
771184
3652
и по този начин, идеята за това, кой сте, често пъти не знаете
12:54
who you are until you see yourself in interaction with people
263
774836
2688
кой сте, докато не взаимодействате с хора,
12:57
that are close to you, people that are enemies of you,
264
777524
2406
които са ви близки, хора, които са ви врагове,
12:59
people that are agnostic to you.
265
779930
2545
хора, които са агностици към вас.
13:02
So this is the first sort of step into using that insight
266
782475
3776
Това е първата крачка в използването на това виждане,
13:06
into what makes us human beings, turning it into a tool,
267
786251
3295
за това, което ни прави хора, като го превръща в инструмент
13:09
and trying to gain new insights into mental illness.
268
789546
1978
и се опитва да даде нови виждания за умствените болести.
13:11
Thanks for having me. (Applause)
269
791524
3121
Благодаря, че ме слушахте. (Аплодисменти)
13:14
(Applause)
270
794645
3089
(Аплодисменти)
Относно този уебсайт

Този сайт ще ви запознае с видеоклипове в YouTube, които са полезни за изучаване на английски език. Ще видите уроци по английски език, преподавани от първокласни учители от цял свят. Кликнете два пъти върху английските субтитри, показани на всяка страница с видеоклипове, за да възпроизведете видеото оттам. Субтитрите се превъртат в синхрон с възпроизвеждането на видеото. Ако имате някакви коментари или искания, моля, свържете се с нас, като използвате тази форма за контакт.

https://forms.gle/WvT1wiN1qDtmnspy7