Marvin Minsky: Health, population and the human mind

63,449 views ・ 2008-09-29

TED


Моля, кликнете два пъти върху английските субтитри по-долу, за да пуснете видеото.

Translator: Ivelina Petkova Reviewer: Mihail Stoychev
00:18
If you ask people about what part of psychology do they think is hard,
0
18330
6000
Ако попитате хората коя част от психологията намират за трудна
00:24
and you say, "Well, what about thinking and emotions?"
1
24330
3000
и им дадете за пример мисленето или емоциите,
00:27
Most people will say, "Emotions are terribly hard.
2
27330
3000
повечето хора ще кажат: "Емоциите са ужасно трудни за разбиране.
00:30
They're incredibly complex. They can't -- I have no idea of how they work.
3
30330
6000
Те са невероятно сложни, нямам понятие как точно се случват.
00:36
But thinking is really very straightforward:
4
36330
2000
Но при мисленето всичко е ясно:
00:38
it's just sort of some kind of logical reasoning, or something.
5
38330
4000
Това е някакъв вид логично разсъждение.
00:42
But that's not the hard part."
6
42330
3000
Но това не е толкова трудно."
00:45
So here's a list of problems that come up.
7
45330
2000
Но възникват следните проблеми.
00:47
One nice problem is, what do we do about health?
8
47330
3000
Един от тях е: какво правим за нашето здраве?
00:50
The other day, I was reading something, and the person said
9
50330
4000
Онзи ден четох една статия, според която
00:54
probably the largest single cause of disease is handshaking in the West.
10
54330
6000
ръкостискането вероятно е най-разпространеният единичен причинител на заболявания на Запад.
01:00
And there was a little study about people who don't handshake,
11
60330
4000
Имаше малко проучване на хората, които не се ръкостискат,
01:04
and comparing them with ones who do handshake.
12
64330
3000
което ги сравняваше с тези, които се ръкостискат
01:07
And I haven't the foggiest idea of where you find the ones that don't handshake,
13
67330
5000
и всъщност нямам представа къде са намерили тези хора, които не се ръкостискат,
01:12
because they must be hiding.
14
72330
3000
защото те несъмнено са се покрили някъде.
01:15
And the people who avoid that
15
75330
4000
И хората, които избягват да правят това,
01:19
have 30 percent less infectious disease or something.
16
79330
4000
боледуват с 30% по-малко от инфекциозни болести.
01:23
Or maybe it was 31 and a quarter percent.
17
83330
3000
Или може би беше 31 и една четвърт процента.
01:26
So if you really want to solve the problem of epidemics and so forth,
18
86330
4000
Така че, ако наистина искате да решите проблема с епидемиите,
01:30
let's start with that. And since I got that idea,
19
90330
4000
трябва да започнете с това. И откакто ми хрумна тази идея,
01:34
I've had to shake hundreds of hands.
20
94330
4000
стиснах стотици ръце.
01:38
And I think the only way to avoid it
21
98330
5000
И си мисля, че единственият начин да избегна това,
01:43
is to have some horrible visible disease,
22
103330
2000
е да имам някаква ужасна и видима болест,
01:45
and then you don't have to explain.
23
105330
3000
и тогава няма да ми се налага да давам обяснения.
01:48
Education: how do we improve education?
24
108330
4000
Образованието: как да подобрим образованието?
01:52
Well, the single best way is to get them to understand
25
112330
4000
Най-добрият начин е да ги накарате да разберат,
01:56
that what they're being told is a whole lot of nonsense.
26
116330
3000
че това, което им се преподава са пълни глупости.
01:59
And then, of course, you have to do something
27
119330
2000
И след това, разбира се, трябва да направите нещо,
02:01
about how to moderate that, so that anybody can -- so they'll listen to you.
28
121330
5000
за да промените това, ако искате да продължат да ви слушат.
02:06
Pollution, energy shortage, environmental diversity, poverty.
29
126330
4000
Замърсяването, недостигът на енегрия, екологията, бедността -
02:10
How do we make stable societies? Longevity.
30
130330
4000
как да създадем стабилни общества? Дълголетието.
02:14
Okay, there're lots of problems to worry about.
31
134330
3000
Има много проблеми, за които да се тревожим.
02:17
Anyway, the question I think people should talk about --
32
137330
2000
Според мен въпростът, който хората трябва да си зададат
02:19
and it's absolutely taboo -- is, how many people should there be?
33
139330
5000
и който е пълно табу, е: колко хора трябва да живеят на Земята?
02:24
And I think it should be about 100 million or maybe 500 million.
34
144330
7000
Мисля, че трябва да бъдат около 100 милиона или може би 500 милиона.
02:31
And then notice that a great many of these problems disappear.
35
151330
5000
Забележете, че тогава много от тези проблеми ще изчезнат.
02:36
If you had 100 million people
36
156330
2000
Ако имате 100 милиона души
02:38
properly spread out, then if there's some garbage,
37
158330
6000
разпръснати равномерно, то тогава ако направите боклук,
02:44
you throw it away, preferably where you can't see it, and it will rot.
38
164330
7000
ше го изхвърлите някъде, където няма да го виждате и той ще изгние.
02:51
Or you throw it into the ocean and some fish will benefit from it.
39
171330
5000
Ако пък го изхвърлите в океана, някоя риба ще се възползва от него.
02:56
The problem is, how many people should there be?
40
176330
2000
Въпросът е: колко хора трябва да има на планетата?
02:58
And it's a sort of choice we have to make.
41
178330
3000
Това е избор, който трябва да направим.
03:01
Most people are about 60 inches high or more,
42
181330
3000
Повечето хора са високи около 60 инча или повече
03:04
and there's these cube laws. So if you make them this big,
43
184330
4000
и оттук получаваме загуба на обем. Но, ако ги направите ей толкова големи,
03:08
by using nanotechnology, I suppose --
44
188330
3000
използвайки нанотехнологии, предполагам,
03:11
(Laughter)
45
191330
1000
(Смях)
03:12
-- then you could have a thousand times as many.
46
192330
2000
че можете да имате и хиляда пъти повече на брой.
03:14
That would solve the problem, but I don't see anybody
47
194330
2000
Това би решило проблема, но не виждам някой
03:16
doing any research on making people smaller.
48
196330
3000
да се опитва да направи хората по-малки.
03:19
Now, it's nice to reduce the population, but a lot of people want to have children.
49
199330
5000
Хубаво е да се намали населението, но много хора искат да имат деца.
03:24
And there's one solution that's probably only a few years off.
50
204330
3000
Има едно решение, от което ни делят може би няколко години.
03:27
You know you have 46 chromosomes. If you're lucky, you've got 23
51
207330
5000
Знаете, че имате 46 хромозоми. Ако сте с късмет, имате 23 от
03:32
from each parent. Sometimes you get an extra one or drop one out,
52
212330
6000
всеки родител, понякога имате още една или с една по-малко,
03:38
but -- so you can skip the grandparent and great-grandparent stage
53
218330
4000
но нека да пропуснем дедите и прадедите
03:42
and go right to the great-great-grandparent. And you have 46 people
54
222330
5000
и да отидем направо при пра-прадедите. Имате 46 души
03:47
and you give them a scanner, or whatever you need,
55
227330
3000
и ако им дадете скенер или друго подобно устройство
03:50
and they look at their chromosomes and each of them says
56
230330
4000
и те разгледат своите хромозоми и всеки избира
03:54
which one he likes best, or she -- no reason to have just two sexes
57
234330
5000
тази, която той или тя, няма причина да не са и от двата пола,
03:59
any more, even. So each child has 46 parents,
58
239330
5000
харесва най-много. И така всяко дете ще има 46 родители
04:04
and I suppose you could let each group of 46 parents have 15 children.
59
244330
6000
и мисля, че можете да разрешите на всяка група от 46 родители да има 15 деца,
04:10
Wouldn't that be enough? And then the children
60
250330
2000
те няма ли да им бъдат достатъчни? След това децата
04:12
would get plenty of support, and nurturing, and mentoring,
61
252330
4000
ще получават много подкрепа и грижа и съвети,
04:16
and the world population would decline very rapidly
62
256330
2000
световното население ще намалее много бързо
04:18
and everybody would be totally happy.
63
258330
3000
и всички ще бъдат щастливи.
04:21
Timesharing is a little further off in the future.
64
261330
3000
Животът в режим на разпределяне на времето е все още далеч в бъдещето.
04:24
And there's this great novel that Arthur Clarke wrote twice,
65
264330
3000
Има един велик роман, който Артър Кларк е написал два пъти
04:27
called "Against the Fall of Night" and "The City and the Stars."
66
267330
4000
озаглавен "Падането на нощта" и "Градът и Звездите".
04:31
They're both wonderful and largely the same,
67
271330
3000
И двата са чудесни и почти едни и същи,
04:34
except that computers happened in between.
68
274330
2000
с тази разлика, че в периода между двете книги се появяват компютрите.
04:36
And Arthur was looking at this old book, and he said, "Well, that was wrong.
69
276330
5000
И Артър гледал тази своя стара книга и си казал: "Не, не може така.
04:41
The future must have some computers."
70
281330
2000
В бъдещето трябва да има компютри."
04:43
So in the second version of it, there are 100 billion
71
283330
5000
Така че във втората й версия има 100 милиарда
04:48
or 1,000 billion people on Earth, but they're all stored on hard disks or floppies,
72
288330
8000
или 1 000 милиарда души на Земята, но те са архивирани на твърди дискове или флопита
04:56
or whatever they have in the future.
73
296330
2000
или какъвто носител използват в бъдещето.
04:58
And you let a few million of them out at a time.
74
298330
4000
И вие освобождавате по милион от тях наведнъж.
05:02
A person comes out, they live for a thousand years
75
302330
4000
Излиза един човек, живее хиляда години,
05:06
doing whatever they do, and then, when it's time to go back
76
306330
6000
прави каквото прави и после идва време да се върне
05:12
for a billion years -- or a million, I forget, the numbers don't matter --
77
312330
4000
за милиард години, или милион, забравил съм, но точната цифра няма значение,
05:16
but there really aren't very many people on Earth at a time.
78
316330
4000
но по едно и също време на Земята няма много хора.
05:20
And you get to think about yourself and your memories,
79
320330
2000
Имате и възможност да помислите върху себе си и спомените си
05:22
and before you go back into suspension, you edit your memories
80
322330
5000
и преди да се върнете в архива променяте спомените си,
05:27
and you change your personality and so forth.
81
327330
3000
и променяте черти от характера си и така нататък.
05:30
The plot of the book is that there's not enough diversity,
82
330330
6000
Сюжетът на книгата се състои в това, че няма достатъчно разнообразие,
05:36
so that the people who designed the city
83
336330
3000
и затова хората, които са създали града,
05:39
make sure that every now and then an entirely new person is created.
84
339330
4000
правят така, че понякога да се роди изцяло нов човек.
05:43
And in the novel, a particular one named Alvin is created. And he says,
85
343330
6000
И в романа се появява един такъв човек наречен Алвин и той казва:
05:49
maybe this isn't the best way, and wrecks the whole system.
86
349330
4000
"Може би това не е правилният начин" и разрушава цялата система.
05:53
I don't think the solutions that I proposed
87
353330
2000
Не мисля, че решенията, които предложих
05:55
are good enough or smart enough.
88
355330
3000
са достатъчно добри или умни.
05:58
I think the big problem is that we're not smart enough
89
358330
4000
Мисля, че големият проблем е, че не сме достатъчно умни,
06:02
to understand which of the problems we're facing are good enough.
90
362330
4000
за да разберем кои от проблемите пред нас са достатъчно сериозни.
06:06
Therefore, we have to build super intelligent machines like HAL.
91
366330
4000
И затова трябва да създадем супер интелигентни машини като HAL.
06:10
As you remember, at some point in the book for "2001,"
92
370330
5000
Както си спомняте, по някое време в книгата за 2001-ва,
06:15
HAL realizes that the universe is too big, and grand, and profound
93
375330
5000
HAL осъзнава, че вселената е прекалено голяма и грандиозна и сложна
06:20
for those really stupid astronauts. If you contrast HAL's behavior
94
380330
4000
за тези наистина тъпи астронавти. Ако сравните поведението на HAL
06:24
with the triviality of the people on the spaceship,
95
384330
4000
с тривиалността на хората на космическия кораб,
06:28
you can see what's written between the lines.
96
388330
3000
ще схванете посланието между редовете.
06:31
Well, what are we going to do about that? We could get smarter.
97
391330
3000
Какво да направим по този въпрос? Можем да се опитаме да поумнеем.
06:34
I think that we're pretty smart, as compared to chimpanzees,
98
394330
5000
Мисля, че сме доста умни сравнени с шимпанзетата,
06:39
but we're not smart enough to deal with the colossal problems that we face,
99
399330
6000
но не сме достатъчно умни, за да се справим с огромните проблеми пред нас,
06:45
either in abstract mathematics
100
405330
2000
нито пък сме добри в абстрактната математика
06:47
or in figuring out economies, or balancing the world around.
101
407330
5000
или в изграждането на успешни икономики, или в балансирането на света около нас.
06:52
So one thing we can do is live longer.
102
412330
3000
Едно нещо, което можем да направим е да живеем по-дълго.
06:55
And nobody knows how hard that is,
103
415330
2000
И никой не знае колко сложно ще е това,
06:57
but we'll probably find out in a few years.
104
417330
3000
но може би ще разберем след няколко години.
07:00
You see, there's two forks in the road. We know that people live
105
420330
3000
Има две разклонения по нашия път. Знаем, че хората живеят
07:03
twice as long as chimpanzees almost,
106
423330
4000
почти два пъти по-дълго от шимпанзетата и
07:07
and nobody lives more than 120 years,
107
427330
4000
че никой не живее повече от 120 години
07:11
for reasons that aren't very well understood.
108
431330
3000
поради причини, които не разбираме добре.
07:14
But lots of people now live to 90 or 100,
109
434330
3000
Но много хора днес доживяват до 90 или до 100 години,
07:17
unless they shake hands too much or something like that.
110
437330
4000
освен ако не се ръкостискат прекалено често, или нещо такова.
07:21
And so maybe if we lived 200 years, we could accumulate enough skills
111
441330
5000
Може би ако живеехме по 200 години, щяхме да натрупаме достатъчно умения
07:26
and knowledge to solve some problems.
112
446330
5000
и знания, за да решим някои проблеми.
07:31
So that's one way of going about it.
113
451330
2000
Това е един от начините, по който можем да подходим.
07:33
And as I said, we don't know how hard that is. It might be --
114
453330
3000
Както казах, не знаем колко трудно ще бъде това.
07:36
after all, most other mammals live half as long as the chimpanzee,
115
456330
6000
Възможно е, след като другите бозайници живеят два пъти по-малко от шимпанзетата,
07:42
so we're sort of three and a half or four times, have four times
116
462330
3000
ние да можем да живеем три и половина или четири пъти
07:45
the longevity of most mammals. And in the case of the primates,
117
465330
6000
повече от повечето бозайници. И що се касае до приматите,
07:51
we have almost the same genes. We only differ from chimpanzees,
118
471330
4000
ние имаме почти еднакви гени. Различаваме се от шимпанзетата
07:55
in the present state of knowledge, which is absolute hogwash,
119
475330
6000
според това което знаем в момента, което е доста малко -
08:01
maybe by just a few hundred genes.
120
481330
2000
по около стотина гена.
08:03
What I think is that the gene counters don't know what they're doing yet.
121
483330
3000
Спорен мен преброителите на гените все още не знаят какво вършат.
08:06
And whatever you do, don't read anything about genetics
122
486330
3000
Правете, струвайте, но не четете нищо за генетиката,
08:09
that's published within your lifetime, or something.
123
489330
3000
публикувано, докато сте живи.
08:12
(Laughter)
124
492330
3000
(Смях)
08:15
The stuff has a very short half-life, same with brain science.
125
495330
4000
Тези трудове много бързо губят валидност, същото се отнася и за науките за мозъка.
08:19
And so it might be that if we just fix four or five genes,
126
499330
6000
И може би ако променим само 4 или 5 гена,
08:25
we can live 200 years.
127
505330
2000
ще можем да живеем 200 години.
08:27
Or it might be that it's just 30 or 40,
128
507330
3000
Или може да са само още 30-40,
08:30
and I doubt that it's several hundred.
129
510330
2000
но едва ли ще са няколко стотици.
08:32
So this is something that people will be discussing
130
512330
4000
Това е въпрос, който ще бъде дискутиран от обществото
08:36
and lots of ethicists -- you know, an ethicist is somebody
131
516330
3000
и от много етици - етикът е човек,
08:39
who sees something wrong with whatever you have in mind.
132
519330
3000
който ще намери нещо лошо във всичко, което сте замислили.
08:42
(Laughter)
133
522330
3000
(Смях)
08:45
And it's very hard to find an ethicist who considers any change
134
525330
4000
Много е трудно да намерите етик, който ще ви каже, че дадена промяна
08:49
worth making, because he says, what about the consequences?
135
529330
4000
е добре да се извърши, защото, ще каже той: "Ами последствията?"
08:53
And, of course, we're not responsible for the consequences
136
533330
3000
А, естествено, ние не сме отговорни за последствията
08:56
of what we're doing now, are we? Like all this complaint about clones.
137
536330
6000
от това, което вършим сега, нали? Като, например, всички тези критики срещу клонирането.
09:02
And yet two random people will mate and have this child,
138
542330
3000
Двама случайни хора могат да се съвокуплят и да имат дете
09:05
and both of them have some pretty rotten genes,
139
545330
4000
и ако не са имали късмет с гените си,
09:09
and the child is likely to come out to be average.
140
549330
4000
детето им вероятно няма да се различава от средностатистическото.
09:13
Which, by chimpanzee standards, is very good indeed.
141
553330
6000
Което според стандартите на шимпанзетата, си е много добре.
09:19
If we do have longevity, then we'll have to face the population growth
142
559330
3000
Ако получим дълголетие, тогава ще се изправим пред проблема с
09:22
problem anyway. Because if people live 200 or 1,000 years,
143
562330
4000
нарастването на населението. Защото ако хората живеят по 200 или 1 000 години,
09:26
then we can't let them have a child more than about once every 200 or 1,000 years.
144
566330
6000
не можем да им позволим да имат дете повече от веднъж на 200 или 1000 години.
09:32
And so there won't be any workforce.
145
572330
3000
В резултат на това, няма да имаме работна сила.
09:35
And one of the things Laurie Garrett pointed out, and others have,
146
575330
4000
Лори Гарет, а и много други, подчертават,
09:39
is that a society that doesn't have people
147
579330
5000
че ако едно общество няма хора в трудоспособна възраст,
09:44
of working age is in real trouble. And things are going to get worse,
148
584330
3000
то много е загазило. И нещата ще стават по-зле,
09:47
because there's nobody to educate the children or to feed the old.
149
587330
6000
защото няма да има кой да обучава децата или да се грижи за старите хора.
09:53
And when I'm talking about a long lifetime, of course,
150
593330
2000
Когато говоря за дълъг живот, разбира се, не искам
09:55
I don't want somebody who's 200 years old to be like our image
151
595330
6000
на 200 години да изглеждаме така, както си представяме,
10:01
of what a 200-year-old is -- which is dead, actually.
152
601330
4000
че бихме изглеждали - като мъртъвци.
10:05
You know, there's about 400 different parts of the brain
153
605330
2000
Има около 400 различни части в нашия мозък,
10:07
which seem to have different functions.
154
607330
2000
които имат различни функции.
10:09
Nobody knows how most of them work in detail,
155
609330
3000
Никой не знае как точно работят повечето от тях,
10:12
but we do know that there're lots of different things in there.
156
612330
4000
но знаем, че там има много различни неща.
10:16
And they don't always work together. I like Freud's theory
157
616330
2000
И те не винаги работят в синхрон. Харесва ми теорията на Фройд,
10:18
that most of them are cancelling each other out.
158
618330
4000
че повечето се взаимно се изключват.
10:22
And so if you think of yourself as a sort of city
159
622330
4000
И ако си се представите като един град
10:26
with a hundred resources, then, when you're afraid, for example,
160
626330
6000
със стотици ресурси, тогава, ако, например, се изплашите,
10:32
you may discard your long-range goals, but you may think deeply
161
632330
4000
вие ще пренебрегнете вашите дългосрочни цели, но ще се фокусирате
10:36
and focus on exactly how to achieve that particular goal.
162
636330
4000
върху това как да постигнете една определена цел.
10:40
You throw everything else away. You become a monomaniac --
163
640330
3000
Ще изхвърлите всичко останало. Ще се превърнете в мономаниак -
10:43
all you care about is not stepping out on that platform.
164
643330
4000
единственото, което ще ви интересува е как да не паднете от тази платформа.
10:47
And when you're hungry, food becomes more attractive, and so forth.
165
647330
4000
А когато сте гладен, храната започва да ви привлича и т.н.
10:51
So I see emotions as highly evolved subsets of your capability.
166
651330
6000
Според мен емоциите са силно еволюирали под-групи на вашите възможности.
10:57
Emotion is not something added to thought. An emotional state
167
657330
4000
Емоцията не е нещо прибавено към мисълта. Емоционалното състояние
11:01
is what you get when you remove 100 or 200
168
661330
4000
е това, с което оставате, ако изключите 100 или 200
11:05
of your normally available resources.
169
665330
3000
от нормално наличните ви ресурси.
11:08
So thinking of emotions as the opposite of -- as something
170
668330
3000
И затова разглеждането на емоциите като противоположност,
11:11
less than thinking is immensely productive. And I hope,
171
671330
4000
като нещо по-нисшо от мисленето е много продуктивно. И се надявам
11:15
in the next few years, to show that this will lead to smart machines.
172
675330
4000
през следващите няколко години да демонстрирам, че това ще доведе до умни машини.
11:19
And I guess I better skip all the rest of this, which are some details
173
679330
3000
По-добре да пропусна следващата част, описваща в детайли
11:22
on how we might make those smart machines and --
174
682330
5000
как можем да направим тези умни машини.
11:27
(Laughter)
175
687330
5000
(Смях)
11:32
-- and the main idea is in fact that the core of a really smart machine
176
692330
5000
Основната идея е, че една наистина умна машина
11:37
is one that recognizes that a certain kind of problem is facing you.
177
697330
5000
ще разбере, когато пред вас стои определен проблем.
11:42
This is a problem of such and such a type,
178
702330
3000
Че това е проблем от този-и-този вид
11:45
and therefore there's a certain way or ways of thinking
179
705330
5000
и следователно съществува определен начин на мислене,
11:50
that are good for that problem.
180
710330
2000
който ще реши този проблем.
11:52
So I think the future, main problem of psychology is to classify
181
712330
4000
Мисля, че бъдещият основен проблем на психологията ще бъде да класифицира
11:56
types of predicaments, types of situations, types of obstacles
182
716330
4000
видовете проблеми, ситуации и препятствия
12:00
and also to classify available and possible ways to think and pair them up.
183
720330
6000
и да класифицира наличните и възможните начини, по които да се мисли за тях и по които да ги свързваме.
12:06
So you see, it's almost like a Pavlovian --
184
726330
3000
Ситуацията е като с кучето на Павлов -
12:09
we lost the first hundred years of psychology
185
729330
2000
изгубихме първите сто години от науката психология
12:11
by really trivial theories, where you say,
186
731330
3000
с наистина тривиални теории, в които се питаме
12:14
how do people learn how to react to a situation? What I'm saying is,
187
734330
6000
как хората се научават как да реагират на определена ситуация. Мисля, че
12:20
after we go through a lot of levels, including designing
188
740330
5000
след като преминем през всички нива, включително и проектирането на
12:25
a huge, messy system with thousands of ports,
189
745330
3000
една сложна и объркана система с хиляди части,
12:28
we'll end up again with the central problem of psychology.
190
748330
4000
ние пак ще се върнем до централния проблем на психологията.
12:32
Saying, not what are the situations,
191
752330
3000
Не трябва да се питаме какви са видовете ситуации,
12:35
but what are the kinds of problems
192
755330
2000
а какви са видовете проблеми
12:37
and what are the kinds of strategies, how do you learn them,
193
757330
3000
и какви са видовете стратегии, как ги научаваме,
12:40
how do you connect them up, how does a really creative person
194
760330
3000
как ги свързваме, как един изобретателен човек
12:43
invent a new way of thinking out of the available resources and so forth.
195
763330
5000
може да измисли нов начин на мислене, използвайки наличните ресурси и т.н.
12:48
So, I think in the next 20 years,
196
768330
2000
Мисля, че през следващите 20 години,
12:50
if we can get rid of all of the traditional approaches to artificial intelligence,
197
770330
5000
ако успеем да загърбим традиционните подходи към изкуствения интелект
12:55
like neural nets and genetic algorithms
198
775330
2000
като невронните мрежи или генетичните алгоритми
12:57
and rule-based systems, and just turn our sights a little bit higher to say,
199
777330
6000
и базирани на правила системи и погледнем малко по-високо
13:03
can we make a system that can use all those things
200
783330
2000
и се запитаме, можем ли да направим система, която да ги използва всичките тези неща
13:05
for the right kind of problem? Some problems are good for neural nets;
201
785330
4000
за точния вид проблем? Някои проблеми се решават добре с невронни мрежи,
13:09
we know that others, neural nets are hopeless on them.
202
789330
3000
при други тези мрежи са безнадеждни.
13:12
Genetic algorithms are great for certain things;
203
792330
3000
Генетичните алгоритми вършат страхотна работа за някои проблеми;
13:15
I suspect I know what they're bad at, and I won't tell you.
204
795330
4000
и мисля, че знам с кои се справят много зле, но няма да ви кажа.
13:19
(Laughter)
205
799330
1000
(Смях)
13:20
Thank you.
206
800330
2000
Благодаря ви.
13:22
(Applause)
207
802330
6000
(Аплодисменти)
Относно този уебсайт

Този сайт ще ви запознае с видеоклипове в YouTube, които са полезни за изучаване на английски език. Ще видите уроци по английски език, преподавани от първокласни учители от цял свят. Кликнете два пъти върху английските субтитри, показани на всяка страница с видеоклипове, за да възпроизведете видеото оттам. Субтитрите се превъртат в синхрон с възпроизвеждането на видеото. Ако имате някакви коментари или искания, моля, свържете се с нас, като използвате тази форма за контакт.

https://forms.gle/WvT1wiN1qDtmnspy7