Marvin Minsky: Health, population and the human mind

62,517 views ・ 2008-09-29

TED


Vă rugăm să faceți dublu clic pe subtitrările în limba engleză de mai jos pentru a reda videoclipul.

Traducător: Magda Marcu Corector: Ariana Bleau Lugo
00:18
If you ask people about what part of psychology do they think is hard,
0
18330
6000
Dacă întrebaţi oamenii ce parte a psihologiei o consideră dificilă
00:24
and you say, "Well, what about thinking and emotions?"
1
24330
3000
și le daţi de ales, spre exemplu, între gândire şi emoţie,
00:27
Most people will say, "Emotions are terribly hard.
2
27330
3000
majoritatea vor spune "Emoţiile sunt extrem de dificile.
00:30
They're incredibly complex. They can't -- I have no idea of how they work.
3
30330
6000
Sunt incredibil de complexe, nu pot...habar n-am cum funcţionează.
00:36
But thinking is really very straightforward:
4
36330
2000
Dar a gândi e o chestiune de-a dreptul clară:
00:38
it's just sort of some kind of logical reasoning, or something.
5
38330
4000
e vorba de raționamnet logic sau așa ceva.
00:42
But that's not the hard part."
6
42330
3000
Dar asta nu e partea dificilă."
00:45
So here's a list of problems that come up.
7
45330
2000
Aşa că iată o listă de probleme care apar.
00:47
One nice problem is, what do we do about health?
8
47330
3000
O problemă drăguţă este: ce facem în privinţa sănătăţii?
00:50
The other day, I was reading something, and the person said
9
50330
4000
Zilele trecute citeam ceva, iar autorul spunea
00:54
probably the largest single cause of disease is handshaking in the West.
10
54330
6000
că probabil singura cea mai răspândită cauză pentru boală în Vest este strângerea de mână.
01:00
And there was a little study about people who don't handshake,
11
60330
4000
Şi era un mic studiu despre oamenii care nu dau mâna,
01:04
and comparing them with ones who do handshake.
12
64330
3000
comparaţi cu cei care dau mâna,
01:07
And I haven't the foggiest idea of where you find the ones that don't handshake,
13
67330
5000
şi n-am nici cea mai vagă idee unde îi găseşti pe cei ce nu dau mâna,
01:12
because they must be hiding.
14
72330
3000
pentru că probabil se ascund.
01:15
And the people who avoid that
15
75330
4000
Iar persoanele care evită asta
01:19
have 30 percent less infectious disease or something.
16
79330
4000
au cu 30 la sută mai puţine boli infecţioase sau ceva de genul ăsta.
01:23
Or maybe it was 31 and a quarter percent.
17
83330
3000
Sau poate că era 31.25%.
01:26
So if you really want to solve the problem of epidemics and so forth,
18
86330
4000
Aşa că dacă vrem cu adevărat să rezolvăm problema epidemiilor şi aşa mai departe,
01:30
let's start with that. And since I got that idea,
19
90330
4000
hai să începem cu asta. Şi de când mi-a venit această idee,
01:34
I've had to shake hundreds of hands.
20
94330
4000
a trebuit să strâng sute de mâini.
01:38
And I think the only way to avoid it
21
98330
5000
Şi cred că singura cale de a evita asta
01:43
is to have some horrible visible disease,
22
103330
2000
e să ai o boală vizibilă îngrozitoare,
01:45
and then you don't have to explain.
23
105330
3000
şi atunci nu trebuie să mai dai explicaţii.
01:48
Education: how do we improve education?
24
108330
4000
Educaţia: cum putem îmbunătăţi educaţia?
01:52
Well, the single best way is to get them to understand
25
112330
4000
Ei bine, cea mai bună cale este de a-i face să înţeleagă
01:56
that what they're being told is a whole lot of nonsense.
26
116330
3000
că ceea ce li se spune e de fapt o grămadă de prostii.
01:59
And then, of course, you have to do something
27
119330
2000
şi apoi, bineînţeles, trebuie să faci ceva
02:01
about how to moderate that, so that anybody can -- so they'll listen to you.
28
121330
5000
despre cum se accesează asta pentru ca oricine să poată asculta.
02:06
Pollution, energy shortage, environmental diversity, poverty.
29
126330
4000
Poluarea, criza de energie, diversitatea mediului, sărăcia --
02:10
How do we make stable societies? Longevity.
30
130330
4000
cum putem creea societăţi stabile? Longevitate.
02:14
Okay, there're lots of problems to worry about.
31
134330
3000
Ok, sunt multe probleme de care să ne îngrijorăm.
02:17
Anyway, the question I think people should talk about --
32
137330
2000
Oricum, întrebarea despre care cred că ar trebui să discute oamenii --
02:19
and it's absolutely taboo -- is, how many people should there be?
33
139330
5000
şi e un tabu absolut - este: câţi oameni ar trebui să fie?
02:24
And I think it should be about 100 million or maybe 500 million.
34
144330
7000
Iar eu cred că ar trebui să fie 100 de milioane sau poate 500 de milioane.
02:31
And then notice that a great many of these problems disappear.
35
151330
5000
Şi apoi observaţi cum multe din aceste probleme dispar.
02:36
If you had 100 million people
36
156330
2000
Dacă ar fi 100 de milioane de oameni
02:38
properly spread out, then if there's some garbage,
37
158330
6000
răspândiți adecvat, atunci, dacă e ceva gunoi,
02:44
you throw it away, preferably where you can't see it, and it will rot.
38
164330
7000
îl arunci, preferabil undeva unde nu îl poţi vedea, şi se va descompune.
02:51
Or you throw it into the ocean and some fish will benefit from it.
39
171330
5000
Sau îl arunci în ocean şi niște peşti vor beneficia de el.
02:56
The problem is, how many people should there be?
40
176330
2000
Problema este, câţi oameni ar trebui să fie?
02:58
And it's a sort of choice we have to make.
41
178330
3000
Şi e un fel de alegere pe care trebuie să o facem.
03:01
Most people are about 60 inches high or more,
42
181330
3000
Majoritatea oamenilor au cam 60 de inchi (1.5m) sau mai mult,
03:04
and there's these cube laws. So if you make them this big,
43
184330
4000
și e această pierdere la cub. Deci dacă îi faci atât de mici --
03:08
by using nanotechnology, I suppose --
44
188330
3000
cu ajutorul nanotehnologiei, presupun --
03:11
(Laughter)
45
191330
1000
(Râsete)
03:12
-- then you could have a thousand times as many.
46
192330
2000
- atunci ai putea avea de mii de ori mai mulţi.
03:14
That would solve the problem, but I don't see anybody
47
194330
2000
Asta ar putea rezolva problema, dar nu văd pe nimeni
03:16
doing any research on making people smaller.
48
196330
3000
care să facă cercetare despre cum poţi face oamenii mai mici.
03:19
Now, it's nice to reduce the population, but a lot of people want to have children.
49
199330
5000
Acum, ar fi frumos să reduci populaţia, dar mulţi oameni îşi doresc copii.
03:24
And there's one solution that's probably only a few years off.
50
204330
3000
Şi e o soluţie care e probabil cam la câțiva ani distanță.
03:27
You know you have 46 chromosomes. If you're lucky, you've got 23
51
207330
5000
Ştii că ai 46 de cromozomi. Dacă eşti norocos, ai 23
03:32
from each parent. Sometimes you get an extra one or drop one out,
52
212330
6000
de la fiecare părinte; uneori ai unul în plus sau în minus,
03:38
but -- so you can skip the grandparent and great-grandparent stage
53
218330
4000
-- deci poţi sări stadiile de bunic sau străbunic
03:42
and go right to the great-great-grandparent. And you have 46 people
54
222330
5000
şi trece direct la stră-stră-străbunic. Şi ai 46 de oameni
03:47
and you give them a scanner, or whatever you need,
55
227330
3000
şi le dai un scaner sau orice e nevoie,
03:50
and they look at their chromosomes and each of them says
56
230330
4000
şi se uită la cromozomii lor şi fiecare spune
03:54
which one he likes best, or she -- no reason to have just two sexes
57
234330
5000
care îi place cel mai mult lui sau ei -- nici măcar nu trebuie
03:59
any more, even. So each child has 46 parents,
58
239330
5000
să avem doar două sexe. Deci fiecare copil are 46 de părinți,
04:04
and I suppose you could let each group of 46 parents have 15 children.
59
244330
6000
și presupun că ai putea să lași fiecare grup de 46 de părinți să aibă 15 copii --
04:10
Wouldn't that be enough? And then the children
60
250330
2000
n-ar fi suficient așa? Și apoi copiii
04:12
would get plenty of support, and nurturing, and mentoring,
61
252330
4000
ar primi foarte mult ajutor și educație și îndrumare
04:16
and the world population would decline very rapidly
62
256330
2000
și populația globului ar scădea foarte rapid
04:18
and everybody would be totally happy.
63
258330
3000
și toată lumea ar fi foarte fericită.
04:21
Timesharing is a little further off in the future.
64
261330
3000
Time-sharing e un pic mai departe în viitor.
04:24
And there's this great novel that Arthur Clarke wrote twice,
65
264330
3000
Și e povestirea asta grozavă pe care Arthur Clarke a scris-o de două ori,
04:27
called "Against the Fall of Night" and "The City and the Stars."
66
267330
4000
se cheamă "Înainte de căderea nopții" și "Orașul și stelele".
04:31
They're both wonderful and largely the same,
67
271330
3000
Amândouă sunt minunate și foarte asemănătoare,
04:34
except that computers happened in between.
68
274330
2000
cu excepția faptului ca între ele apar computerele.
04:36
And Arthur was looking at this old book, and he said, "Well, that was wrong.
69
276330
5000
Și Arthur s-a uitat la cartea asta veche și a zis, ei bine, asta e greșit.
04:41
The future must have some computers."
70
281330
2000
Viitorul trebuie să aibă niște computere.
04:43
So in the second version of it, there are 100 billion
71
283330
5000
Așa că în versiunea a doua, sunt 100 de miliarde,
04:48
or 1,000 billion people on Earth, but they're all stored on hard disks or floppies,
72
288330
8000
sau 1000 de miliarde de oameni pe Pământ, dar sunt toți depozitați pe hard discuri sau dischete,
04:56
or whatever they have in the future.
73
296330
2000
sau ce au ei acolo în viitor.
04:58
And you let a few million of them out at a time.
74
298330
4000
Și lași afară câteva milioane din ei o dată.
05:02
A person comes out, they live for a thousand years
75
302330
4000
O persoană iese afară, trăiește 1000 de ani
05:06
doing whatever they do, and then, when it's time to go back
76
306330
6000
făcând orice fac ei, și apoi, când e timpul să meargă înapoi
05:12
for a billion years -- or a million, I forget, the numbers don't matter --
77
312330
4000
pentru un miliard de ani -- sau un milion, am uitat, numerele nu contează --
05:16
but there really aren't very many people on Earth at a time.
78
316330
4000
dar nu sunt mulți oameni pe pământ în același timp.
05:20
And you get to think about yourself and your memories,
79
320330
2000
Și apuci să te gândești la tine și la amintirile tale,
05:22
and before you go back into suspension, you edit your memories
80
322330
5000
și înainte să te duci înapoi în suspensie îți editezi amintirile
05:27
and you change your personality and so forth.
81
327330
3000
și îți schimbi personalitatea și așa mai departe.
05:30
The plot of the book is that there's not enough diversity,
82
330330
6000
Complotul constă în faptul că nu e destulă diversitate,
05:36
so that the people who designed the city
83
336330
3000
așa că oamenii care au făcut designul orașului
05:39
make sure that every now and then an entirely new person is created.
84
339330
4000
se asigură că din când în când e creată o persoană nouă.
05:43
And in the novel, a particular one named Alvin is created. And he says,
85
343330
6000
Și în povestire, unul specific e creat, numit Alvin. Și el zice,
05:49
maybe this isn't the best way, and wrecks the whole system.
86
349330
4000
poate că nu e ăsta cel mai bun mod, și strică tot sistemul.
05:53
I don't think the solutions that I proposed
87
353330
2000
Nu cred că soluțiile pe care le propun
05:55
are good enough or smart enough.
88
355330
3000
sunt suficient de bune sau suficient de inteligente.
05:58
I think the big problem is that we're not smart enough
89
358330
4000
Cred că marea problemă e că nu suntem suficient de inteligenți
06:02
to understand which of the problems we're facing are good enough.
90
362330
4000
ca să înțelegem care dintre problemele de care ne lovim sunt destul de bune.
06:06
Therefore, we have to build super intelligent machines like HAL.
91
366330
4000
De aceea, trebuie să construim mașini super inteligente ca HAL.
06:10
As you remember, at some point in the book for "2001,"
92
370330
5000
Dacă vă amintiți, la un moment dat în cartea pentru 2001,
06:15
HAL realizes that the universe is too big, and grand, and profound
93
375330
5000
HAL realizează că universul e prea mare și măreț și profund
06:20
for those really stupid astronauts. If you contrast HAL's behavior
94
380330
4000
pentru astronauții ăia proști. Dacă compari comportamentul lui HAL
06:24
with the triviality of the people on the spaceship,
95
384330
4000
cu josnicia oamenilor de pe navă,
06:28
you can see what's written between the lines.
96
388330
3000
poți vedea ce e scris printre rânduri.
06:31
Well, what are we going to do about that? We could get smarter.
97
391330
3000
Ei bine, ce putem face în legătură cu asta? Putem să devenim mai deștepți.
06:34
I think that we're pretty smart, as compared to chimpanzees,
98
394330
5000
Cred că suntem destul de deștepți, comparat cu cimpanzeii,
06:39
but we're not smart enough to deal with the colossal problems that we face,
99
399330
6000
dar nu suntem suficient de deștepți ca să rezolvăm problemele colosale de care ne lovim,
06:45
either in abstract mathematics
100
405330
2000
fie în matematica teoretică
06:47
or in figuring out economies, or balancing the world around.
101
407330
5000
fie în înțelegerea economiilor sau echilibrarea lumii din jur,
06:52
So one thing we can do is live longer.
102
412330
3000
Deci un lucru pe care îl putem face e să trăim mai mult.
06:55
And nobody knows how hard that is,
103
415330
2000
Și nimeni nu știe cât e de greu,
06:57
but we'll probably find out in a few years.
104
417330
3000
dar probabil că vom afla în câțiva ani.
07:00
You see, there's two forks in the road. We know that people live
105
420330
3000
Vedeți, sunt două răscruci pe drum. Știm că oamenii trăiesc
07:03
twice as long as chimpanzees almost,
106
423330
4000
de două ori mai mult decât companzeii, aproape,
07:07
and nobody lives more than 120 years,
107
427330
4000
și nimeni nu trăiește mai mult de 120 de ani,
07:11
for reasons that aren't very well understood.
108
431330
3000
din motive care nu sunt foarte bine înțelese.
07:14
But lots of people now live to 90 or 100,
109
434330
3000
Dar mulți oameni trăiesc acum până la 90 sau 100,
07:17
unless they shake hands too much or something like that.
110
437330
4000
dacă nu strâng prea multe mâini sau ceva de genul ăsta.
07:21
And so maybe if we lived 200 years, we could accumulate enough skills
111
441330
5000
Și poate dacă am trăi 200 de ani, am putea să acumulăm destule abilități
07:26
and knowledge to solve some problems.
112
446330
5000
și cunoștințe ca să rezolvăm niște probleme.
07:31
So that's one way of going about it.
113
451330
2000
Deci ăsta e un mod de a face asta.
07:33
And as I said, we don't know how hard that is. It might be --
114
453330
3000
Și după cum am spus, nu știm cât e de greu. S-ar putea --
07:36
after all, most other mammals live half as long as the chimpanzee,
115
456330
6000
la urma urmei, cele mai multe mamifere trăiesc jumătate cât cimpanzeii,
07:42
so we're sort of three and a half or four times, have four times
116
462330
3000
deci noi avem de 3½ sau de 4 ori -- avem de 4 ori
07:45
the longevity of most mammals. And in the case of the primates,
117
465330
6000
longevitatea majorității mamiferelor. Și în cazul primatelor,
07:51
we have almost the same genes. We only differ from chimpanzees,
118
471330
4000
avem aproape aceleași gene. Ne deosebim de cimpanzei
07:55
in the present state of knowledge, which is absolute hogwash,
119
475330
6000
după cunoștințele pe care le avem acum -- care sunt de aruncat la gunoi --
08:01
maybe by just a few hundred genes.
120
481330
2000
poate doar prin câteva sute de gene.
08:03
What I think is that the gene counters don't know what they're doing yet.
121
483330
3000
Ce cred e că numărătorii de gene încă nu știu ce fac.
08:06
And whatever you do, don't read anything about genetics
122
486330
3000
Și orice faceți, nu citiți despre genetică nimic
08:09
that's published within your lifetime, or something.
123
489330
3000
din ce a fost publicat în timpul vieții voastre, sau pe-acolo.
08:12
(Laughter)
124
492330
3000
(Râsete)
08:15
The stuff has a very short half-life, same with brain science.
125
495330
4000
Chestiile astea au o perioadă foarte scurtă, la fel ca știința creierului.
08:19
And so it might be that if we just fix four or five genes,
126
499330
6000
Și s-ar putea că dacă reparăm doar 4 sau 5 gene,
08:25
we can live 200 years.
127
505330
2000
să putem trăi 200 de ani.
08:27
Or it might be that it's just 30 or 40,
128
507330
3000
Sau s-ar putea să fie doar 30 sau 40,
08:30
and I doubt that it's several hundred.
129
510330
2000
și mă îndoiesc că sunt câteva sute.
08:32
So this is something that people will be discussing
130
512330
4000
Deci asta e ceva ce oamenii vor discuta
08:36
and lots of ethicists -- you know, an ethicist is somebody
131
516330
3000
și mulți specialiști în etică -- știți, un pecialist în etică e cineva
08:39
who sees something wrong with whatever you have in mind.
132
519330
3000
care vede ceva greșit cu orice ai tu în minte.
08:42
(Laughter)
133
522330
3000
(Râsete)
08:45
And it's very hard to find an ethicist who considers any change
134
525330
4000
Și e greu să găsești un specialist în etică care să considere că merită
08:49
worth making, because he says, what about the consequences?
135
529330
4000
făcută orice schimbare, pentru că, spune el, care sunt consecințele?
08:53
And, of course, we're not responsible for the consequences
136
533330
3000
Și bineînțeles, nu suntem responsabili pentru consecințele
08:56
of what we're doing now, are we? Like all this complaint about clones.
137
536330
6000
la ceea ce facem acum, nu-i așa? Ca toate obiecțiile despre clone.
09:02
And yet two random people will mate and have this child,
138
542330
3000
Și totuși doi oameni la întâmplare se vor împerechea și vor avea un copil,
09:05
and both of them have some pretty rotten genes,
139
545330
4000
și amândoi au căteva gene de proastă calitate,
09:09
and the child is likely to come out to be average.
140
549330
4000
și copilul probabil va ieși mediu.
09:13
Which, by chimpanzee standards, is very good indeed.
141
553330
6000
Ceea ce după starndardele cimpanzeilor este de fapt foarte bine.
09:19
If we do have longevity, then we'll have to face the population growth
142
559330
3000
Dacă avem longevitate, va trebui să rezolvăm creșterea populației
09:22
problem anyway. Because if people live 200 or 1,000 years,
143
562330
4000
oricum. Pentru că dacă oamenii trăiesc 200 sau 1000 de ani,
09:26
then we can't let them have a child more than about once every 200 or 1,000 years.
144
566330
6000
atunci nu putem să-i lăsăm să aibă mai mult de un copil la fiecare 200 sau 1000 de ani
09:32
And so there won't be any workforce.
145
572330
3000
Și atunci nu va avea cine să muncească.
09:35
And one of the things Laurie Garrett pointed out, and others have,
146
575330
4000
Și unul din lucrurile subliniate de Laurie Garrett, și de alții,
09:39
is that a society that doesn't have people
147
579330
5000
e că o societate care nu are oameni
09:44
of working age is in real trouble. And things are going to get worse,
148
584330
3000
la vârstă aptă de muncă e în mare pericol. Și lucrurile vor deveni și mai rele,
09:47
because there's nobody to educate the children or to feed the old.
149
587330
6000
pentru că nu e nimeni să educe copiii sau să-i hrănească pe bătrâni.
09:53
And when I'm talking about a long lifetime, of course,
150
593330
2000
Și când vorbesc despre o viață lungă, bineînțeles,
09:55
I don't want somebody who's 200 years old to be like our image
151
595330
6000
nu vreau ca cineva de 200 de ani să fie după imaginea noastră
10:01
of what a 200-year-old is -- which is dead, actually.
152
601330
4000
a cuiva de 200 de ani -- care este mort, de fapt.
10:05
You know, there's about 400 different parts of the brain
153
605330
2000
Știți, sunt cam 400 de părți diferite în creier
10:07
which seem to have different functions.
154
607330
2000
care par să aibă funcții diferite.
10:09
Nobody knows how most of them work in detail,
155
609330
3000
Nimeni nu știe în amănunt cum funcționează ele,
10:12
but we do know that there're lots of different things in there.
156
612330
4000
dar știm că sunt o mulțime de lucruri diferite acolo.
10:16
And they don't always work together. I like Freud's theory
157
616330
2000
Și nu întotdeauna lucrează împreună. Îmi place teoria lui Freud
10:18
that most of them are cancelling each other out.
158
618330
4000
că majoritatea se anulează reciproc.
10:22
And so if you think of yourself as a sort of city
159
622330
4000
Și dacă te gândești la tine însuți ca un fel de oraș
10:26
with a hundred resources, then, when you're afraid, for example,
160
626330
6000
cu o sută de resurse, atunci, când ți-e frică, de exemplu,
10:32
you may discard your long-range goals, but you may think deeply
161
632330
4000
ai putea să renunți la scopurile tale de lungă durată, dar s-ar putea să gândești adânc
10:36
and focus on exactly how to achieve that particular goal.
162
636330
4000
și să te concentrezi cum să atingi exact acel obiectiv preferat.
10:40
You throw everything else away. You become a monomaniac --
163
640330
3000
Dai orice altceva la o parte. Devii maniac --
10:43
all you care about is not stepping out on that platform.
164
643330
4000
îți pasă numai să nu calci în afara acelei platforme.
10:47
And when you're hungry, food becomes more attractive, and so forth.
165
647330
4000
Și când ți-e foame, mâncarea devine mai atrăgătoare, și așa mai departe.
10:51
So I see emotions as highly evolved subsets of your capability.
166
651330
6000
Deci văd emoțiile ca sub-seturi foarte dezvoltate ale capabilității tale.
10:57
Emotion is not something added to thought. An emotional state
167
657330
4000
Emoția nu e ceva adăugat gândului. O stare emoțională
11:01
is what you get when you remove 100 or 200
168
661330
4000
este ce obții când elimini 100 sau 200
11:05
of your normally available resources.
169
665330
3000
din resursele tale obișnuite.
11:08
So thinking of emotions as the opposite of -- as something
170
668330
3000
Deci gândindu-ne la emoții ca la opusul ... ca la ceva
11:11
less than thinking is immensely productive. And I hope,
171
671330
4000
mai puțin decât gândirea este foarte productiv. Și sper,
11:15
in the next few years, to show that this will lead to smart machines.
172
675330
4000
ca în următorii câțiva ani, să arăt că asta va duce la mașini inteligente.
11:19
And I guess I better skip all the rest of this, which are some details
173
679330
3000
Și cred că mai bine sar peste restul, care sunt câteva detalii
11:22
on how we might make those smart machines and --
174
682330
5000
despre cum am putea să facem acele mașini inteligente și --
11:27
(Laughter)
175
687330
5000
(Râsete)
11:32
-- and the main idea is in fact that the core of a really smart machine
176
692330
5000
și ideea principală e de fapt că în esență o mașină cu adevărat deșteaptă
11:37
is one that recognizes that a certain kind of problem is facing you.
177
697330
5000
e una care recunoaște genul de problemă cu care te confrunți.
11:42
This is a problem of such and such a type,
178
702330
3000
Asta e o problemă de tipul ăsta,
11:45
and therefore there's a certain way or ways of thinking
179
705330
5000
și de aceea este un anume mod sau moduri de gândire
11:50
that are good for that problem.
180
710330
2000
care sunt bune pentru acea problemă.
11:52
So I think the future, main problem of psychology is to classify
181
712330
4000
Deci cred că principala viitoare problemă a psihologiei este să clasifice
11:56
types of predicaments, types of situations, types of obstacles
182
716330
4000
tipuri de necazuri, tipuri de situații, tipuri de obstacole,
12:00
and also to classify available and possible ways to think and pair them up.
183
720330
6000
și de asemenea să clasifice posibile moduri de a le gândi și pune împreună.
12:06
So you see, it's almost like a Pavlovian --
184
726330
3000
Deci vedeți, e aproape pavlovian --
12:09
we lost the first hundred years of psychology
185
729330
2000
am pierdut prima sută de ani în psihologie
12:11
by really trivial theories, where you say,
186
731330
3000
cu teorii triviale unde spui,
12:14
how do people learn how to react to a situation? What I'm saying is,
187
734330
6000
cum învață oamenii să reacționeze la o situație? Ce spun eu e,
12:20
after we go through a lot of levels, including designing
188
740330
5000
după ce trecem prin multe etape, incluzând designul
12:25
a huge, messy system with thousands of ports,
189
745330
3000
unui sistem imens și confuz cu mii de părți,
12:28
we'll end up again with the central problem of psychology.
190
748330
4000
vom sfârși din nou cu problema centrală a psihologiei.
12:32
Saying, not what are the situations,
191
752330
3000
Spunând, nu care sunt situațiile,
12:35
but what are the kinds of problems
192
755330
2000
dar care sunt tipurile de probleme
12:37
and what are the kinds of strategies, how do you learn them,
193
757330
3000
și care sunt tipurile de strategii, cum le învățăm,
12:40
how do you connect them up, how does a really creative person
194
760330
3000
cum le conectăm, cum inventează o persoană cu adevărat creativă
12:43
invent a new way of thinking out of the available resources and so forth.
195
763330
5000
un nou mod de gândire despre resursele existente și așa mai departe.
12:48
So, I think in the next 20 years,
196
768330
2000
Deci cred că în următorii 20 de ani,
12:50
if we can get rid of all of the traditional approaches to artificial intelligence,
197
770330
5000
dacă renunțăm la toate abordările tradiționale față de inteligența artificială,
12:55
like neural nets and genetic algorithms
198
775330
2000
ca rețele neurale și algoritmi genetici
12:57
and rule-based systems, and just turn our sights a little bit higher to say,
199
777330
6000
și sisteme pe grupe de reguli și privim puțin mai sus să spunem,
13:03
can we make a system that can use all those things
200
783330
2000
putem să facem un sistem care să folosescă toate lucrurile alea
13:05
for the right kind of problem? Some problems are good for neural nets;
201
785330
4000
pentru tipul corect de problemă? Unele probleme sunt bune pentru rețele neurale;
13:09
we know that others, neural nets are hopeless on them.
202
789330
3000
știm că pentru altele, rețelele neurale nu folosesc la nimic.
13:12
Genetic algorithms are great for certain things;
203
792330
3000
Algoritmii genetici sunt grozavi pentru anumite lucruri;
13:15
I suspect I know what they're bad at, and I won't tell you.
204
795330
4000
Bănuiesc că știu la ce nu sunt buni și n-o să vă spun.
13:19
(Laughter)
205
799330
1000
(Râsete)
13:20
Thank you.
206
800330
2000
Muțumesc.
13:22
(Applause)
207
802330
6000
(Aplauze)
Despre acest site

Acest site vă va prezenta videoclipuri de pe YouTube care sunt utile pentru a învăța limba engleză. Veți vedea lecții de engleză predate de profesori de top din întreaga lume. Faceți dublu clic pe subtitrările în limba engleză afișate pe fiecare pagină video pentru a reda videoclipul de acolo. Subtitrările se derulează în sincron cu redarea videoclipului. Dacă aveți comentarii sau solicitări, vă rugăm să ne contactați folosind acest formular de contact.

https://forms.gle/WvT1wiN1qDtmnspy7