Marvin Minsky: Health, population and the human mind

Marvin Minsky on health and the human mind

63,449 views ・ 2008-09-29

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Suleyman Cengiz Gözden geçirme: Yunus ASIK
İnsanlara psikolojinin hangi parçasının zor olduğunu sorsanız
00:18
If you ask people about what part of psychology do they think is hard,
0
18330
6000
ve "Düşünmek mi, duygular mı?" deseniz.
Birçok insan der ki: "Duygular çok zor.
00:24
and you say, "Well, what about thinking and emotions?"
1
24330
3000
Çok fazla karmaşıklar. Nasıl çalıştıklarına dair hiçbir fikrim yok."
00:27
Most people will say, "Emotions are terribly hard.
2
27330
3000
Fakat düşünmek gerçekten çok basittir:
00:30
They're incredibly complex. They can't -- I have no idea of how they work.
3
30330
6000
Sadece mantıklı düşünme veya ona benzer bir şey.
Fakat bu zor olan kısmı değil.
00:36
But thinking is really very straightforward:
4
36330
2000
00:38
it's just sort of some kind of logical reasoning, or something.
5
38330
4000
İşte karşımıza çıkan problemlerin bir listesi.
"Sağlık hakkında ne yapıyoruz?" güzel bir soru.
00:42
But that's not the hard part."
6
42330
3000
Geçen gün bir şey okuyordum ve diyordu ki,
00:45
So here's a list of problems that come up.
7
45330
2000
00:47
One nice problem is, what do we do about health?
8
47330
3000
Batıda hastalığın muhtemelen en büyük nedeni tokalaşmaktır.
00:50
The other day, I was reading something, and the person said
9
50330
4000
00:54
probably the largest single cause of disease is handshaking in the West.
10
54330
6000
Tokalaşmayan insanlar hakkında ve onları
tokalaşanlarla karşılaştıran çok az araştırma vardı.
01:00
And there was a little study about people who don't handshake,
11
60330
4000
Tokalaşmayanları nerede bulacağım konusunda en küçük bir fikrim yok
01:04
and comparing them with ones who do handshake.
12
64330
3000
çünkü saklanıyor olmalılar.
01:07
And I haven't the foggiest idea of where you find the ones that don't handshake,
13
67330
5000
Bundan kaçınan insanlar
01:12
because they must be hiding.
14
72330
3000
yüzde 30 daha az bulaşıcı hastalık veya benzer bir şeye yakalanıyorlar.
01:15
And the people who avoid that
15
75330
4000
Belki de yüzde 31 çeyrektir bu oran.
01:19
have 30 percent less infectious disease or something.
16
79330
4000
Yani eğer epidemi vb problemleri gerçekten çözmek istiyorsanız, bununla başlayalım.
01:23
Or maybe it was 31 and a quarter percent.
17
83330
3000
Bu fikri edindiğimden bu yana,
01:26
So if you really want to solve the problem of epidemics and so forth,
18
86330
4000
yüzlerce el sıkmak zorunda kaldım.
01:30
let's start with that. And since I got that idea,
19
90330
4000
01:34
I've had to shake hundreds of hands.
20
94330
4000
Sanırım bundan kaçınmanın tek yolu,
korkunç görünen bir hastalığa sahip olmak
01:38
And I think the only way to avoid it
21
98330
5000
ve böylece açıklama yapmak zorunda kalmazsınız.
Eğitim: Eğitimi nasıl geliştiririz?
01:43
is to have some horrible visible disease,
22
103330
2000
01:45
and then you don't have to explain.
23
105330
3000
Tek iyi yol onlara anlatılanların
01:48
Education: how do we improve education?
24
108330
4000
bir sürü saçmalık olduğunu anlamalarını sağlamaktır.
01:52
Well, the single best way is to get them to understand
25
112330
4000
Sonra, elbette, bunu yumuşatmak için
bir şey yapmalısınız ki sizi dinlesinler.
01:56
that what they're being told is a whole lot of nonsense.
26
116330
3000
01:59
And then, of course, you have to do something
27
119330
2000
Kirlilik, enerji kısıntısı, çevresel farklılık, fakirlik.
02:01
about how to moderate that, so that anybody can -- so they'll listen to you.
28
121330
5000
Dengeli topluluklar nasıl oluştururuz? Uzun ömürlülük.
02:06
Pollution, energy shortage, environmental diversity, poverty.
29
126330
4000
Peki, endişe edilecek çok problem var.
02:10
How do we make stable societies? Longevity.
30
130330
4000
Neyse, sanırım insanların konuşmaları gereken soru
-- bu kesinlikle yasaktır -- ne kadar insanın olması gerektiğidir?
02:14
Okay, there're lots of problems to worry about.
31
134330
3000
02:17
Anyway, the question I think people should talk about --
32
137330
2000
02:19
and it's absolutely taboo -- is, how many people should there be?
33
139330
5000
Sanırım 100 milyon veya 500 milyon civarında olmalı.
02:24
And I think it should be about 100 million or maybe 500 million.
34
144330
7000
Sonra bu problemlerin büyük kısmının kaybolacağına dikkat edin.
Eğer düzgünce yayılmış 100 milyon insan olsaydı,
02:31
And then notice that a great many of these problems disappear.
35
151330
5000
02:36
If you had 100 million people
36
156330
2000
sonra etrafa biraz çöp atmış olsaydınız,
02:38
properly spread out, then if there's some garbage,
37
158330
6000
tercihen görmediğiniz bir yere, bu çürüyecektir.
02:44
you throw it away, preferably where you can't see it, and it will rot.
38
164330
7000
Veya okyanusa atarsınız ve balıklar faydalanır.
Problem, kaç insanın bulunması gerektiğidir?
02:51
Or you throw it into the ocean and some fish will benefit from it.
39
171330
5000
Yapmamız gereken bir çeşit tercihdir.
Çoğu kimse yaklaşık 1,5 metre veya fazladır
02:56
The problem is, how many people should there be?
40
176330
2000
02:58
And it's a sort of choice we have to make.
41
178330
3000
ve bir de şu küp yasaları var.
Yani onları, nanoteknoloji kullanarak bu kadar küçük yaparsanız, sanırım --
03:01
Most people are about 60 inches high or more,
42
181330
3000
03:04
and there's these cube laws. So if you make them this big,
43
184330
4000
(Gülüşmeler)
bu durumda bin katı kadar fazlasına sahip olurdunuz.
03:08
by using nanotechnology, I suppose --
44
188330
3000
Bu, problemi çözerdi ama insanları daha küçültecek
çalışmalar yapan kimseyi görmüyorum.
03:11
(Laughter)
45
191330
1000
03:12
-- then you could have a thousand times as many.
46
192330
2000
Şimdi, nüfusu azaltmak hoştur ama çoğu kimse çocuk istiyor.
03:14
That would solve the problem, but I don't see anybody
47
194330
2000
03:16
doing any research on making people smaller.
48
196330
3000
Muhtemelen birkaç yıl uzakta tek çözüm var.
03:19
Now, it's nice to reduce the population, but a lot of people want to have children.
49
199330
5000
46 kromozomun olduğunu biliyorsunuz.
03:24
And there's one solution that's probably only a few years off.
50
204330
3000
Eğer şanslıysan her bir ebeveynden 23 adet gelir.
03:27
You know you have 46 chromosomes. If you're lucky, you've got 23
51
207330
5000
Bazen bir fazla veya bir eksik olur,
03:32
from each parent. Sometimes you get an extra one or drop one out,
52
212330
6000
böylece büyük ebeveyn ve büyük büyük ebeveyn aşamasını atlarsın
ve doğrudan büyük-büyük-büyük ebeveyne gidersin.
03:38
but -- so you can skip the grandparent and great-grandparent stage
53
218330
4000
46 insan olur
03:42
and go right to the great-great-grandparent. And you have 46 people
54
222330
5000
ve onlara bir tarayıcı verirsin veya her ne gerekirse
ve onlar kromozomlarına bakıp her biri,
03:47
and you give them a scanner, or whatever you need,
55
227330
3000
hangisini en çok sevdiğini söyler --
03:50
and they look at their chromosomes and each of them says
56
230330
4000
sadece iki cinsiyet olması için artık sebep yok zaten.
03:54
which one he likes best, or she -- no reason to have just two sexes
57
234330
5000
Böylece her çocuğun 46 ebeveyni olur
ve her 46 ebeveynlik grubun 15 çocuğunun olmasına izin verebildiğini varsayayım.
03:59
any more, even. So each child has 46 parents,
58
239330
5000
Bu yeterli olmaz mıydı?
04:04
and I suppose you could let each group of 46 parents have 15 children.
59
244330
6000
Sonra çocuklar hayli destek, terbiye ve eğitim alacaklardı.
Dünya nüfusu çok çabuk düşecekti
04:10
Wouldn't that be enough? And then the children
60
250330
2000
04:12
would get plenty of support, and nurturing, and mentoring,
61
252330
4000
ve herkes çok mutlu olacaktı.
Zaman paylaşımı biraz daha ötede, gelecekte.
04:16
and the world population would decline very rapidly
62
256330
2000
Bir de Arthur Clarke'ın iki kez yazdığı, "Against the Fall of Night"
04:18
and everybody would be totally happy.
63
258330
3000
04:21
Timesharing is a little further off in the future.
64
261330
3000
ve "Şehir ve Yıldızlar" adlı şu harika roman var.
04:24
And there's this great novel that Arthur Clarke wrote twice,
65
264330
3000
Her ikisi de muhteşem ve arada ortaya çıkan
04:27
called "Against the Fall of Night" and "The City and the Stars."
66
267330
4000
bilgisayarlar hariç, neredeyse aynı.
Arthur bu eski kitaba bakıyordu ve "Şey, bu yanlış olmuş.
04:31
They're both wonderful and largely the same,
67
271330
3000
04:34
except that computers happened in between.
68
274330
2000
Gelecekte bilgisayarlar bulunmalıydı." dedi.
04:36
And Arthur was looking at this old book, and he said, "Well, that was wrong.
69
276330
5000
Böylece ikinci sürümünde Dünya'da 100 milyon
04:41
The future must have some computers."
70
281330
2000
veya 1 milyar insan bulunuyor
04:43
So in the second version of it, there are 100 billion
71
283330
5000
ama hepsi sabit disklerde, disketlerde veya gelecekteki
04:48
or 1,000 billion people on Earth, but they're all stored on hard disks or floppies,
72
288330
8000
benzer bir şeyde depolanmışlardır.
Bunların birkaç milyonu bir anda dışardadır.
04:56
or whatever they have in the future.
73
296330
2000
Bir insan çıkar, bir şeylerle uğraşarak bin yıl kadar yaşar
04:58
And you let a few million of them out at a time.
74
298330
4000
05:02
A person comes out, they live for a thousand years
75
302330
4000
ve sonra, bir milyar veya bir milyon yıl için
geri gitme zamanı geldiğinde, unutuyorum, sayılar önemli değil
05:06
doing whatever they do, and then, when it's time to go back
76
306330
6000
ama Dünya üstünde aynı anda gerçekten çok insan yok.
05:12
for a billion years -- or a million, I forget, the numbers don't matter --
77
312330
4000
Kendin ve anıların hakkında düşünürsün
05:16
but there really aren't very many people on Earth at a time.
78
316330
4000
ve askıya geri dönmeden önce anılarını düzeltirsin
05:20
And you get to think about yourself and your memories,
79
320330
2000
ve kişiliğini değiştirirsin falan.
05:22
and before you go back into suspension, you edit your memories
80
322330
5000
Kitabın anafikri yeterince çeşitlilik olmadığıdır,
05:27
and you change your personality and so forth.
81
327330
3000
bu yüzden şehri tasarlayan insanlar
05:30
The plot of the book is that there's not enough diversity,
82
330330
6000
ara sıra tamamen yeni bir insan yaratıldığını garantiye almaktadırlar.
05:36
so that the people who designed the city
83
336330
3000
Romanda, Alvin isimli belirli biri yaratılır.
05:39
make sure that every now and then an entirely new person is created.
84
339330
4000
Der ki, belki en iyi yol bu olmayabilir ve tüm sistemi mahveder.
05:43
And in the novel, a particular one named Alvin is created. And he says,
85
343330
6000
Önerdiğim çözümlerin yeterince iyi
05:49
maybe this isn't the best way, and wrecks the whole system.
86
349330
4000
veya yeterince zekice olduğunu düşünmüyorum.
Sanırım asıl büyük problem, karşılaştığımız problemlerin
05:53
I don't think the solutions that I proposed
87
353330
2000
05:55
are good enough or smart enough.
88
355330
3000
hangisinin yeterince iyi olduğunu anlayacak kadar zeki olmayışımız.
05:58
I think the big problem is that we're not smart enough
89
358330
4000
Bu nedenle HAL gibi süper zeki makineler yapmalıyız.
06:02
to understand which of the problems we're facing are good enough.
90
362330
4000
Hatırlarsın, "2001" kitabının bir yerinde
06:06
Therefore, we have to build super intelligent machines like HAL.
91
366330
4000
HAL, şu gerçekten aptal astronotlar için evrenin çok büyük, muhteşem
06:10
As you remember, at some point in the book for "2001,"
92
370330
5000
ve derin olduğunu farkeder.
06:15
HAL realizes that the universe is too big, and grand, and profound
93
375330
5000
Eğer HAL'in davranışını,
uzay gemisindeki insanların basitlikleriyle karşılaştırırsan
06:20
for those really stupid astronauts. If you contrast HAL's behavior
94
380330
4000
satır aralarında ne yazdığını görebilirsin.
06:24
with the triviality of the people on the spaceship,
95
384330
4000
Peki bu konuda ne yapacağız? Daha zeki olabilirdik.
Şempanzelere göre oldukça zekiyiz sanırım,
06:28
you can see what's written between the lines.
96
388330
3000
06:31
Well, what are we going to do about that? We could get smarter.
97
391330
3000
ama karşılaştığımız dev problemlerle uğraşacak kadar zeki sayılmayız,
06:34
I think that we're pretty smart, as compared to chimpanzees,
98
394330
5000
ne soyut matematikte,
06:39
but we're not smart enough to deal with the colossal problems that we face,
99
399330
6000
ne ekonomileri anlamada, ne de dünyamızı dengelemede.
06:45
either in abstract mathematics
100
405330
2000
Öyleyse yapabileceğimiz tek şey uzun yaşamak
06:47
or in figuring out economies, or balancing the world around.
101
407330
5000
ve kimse ne kadar zor olduğunu bilmez
ama muhtemelen birkaç yıla bulacağız.
06:52
So one thing we can do is live longer.
102
412330
3000
Bakın, yol ikiye ayrılıyor.
06:55
And nobody knows how hard that is,
103
415330
2000
İnsanların neredeyse şempanzelerin iki katı uzun yaşadığını biliyoruz
06:57
but we'll probably find out in a few years.
104
417330
3000
07:00
You see, there's two forks in the road. We know that people live
105
420330
3000
ve kimse 120 yıldan fazla yaşamaz,
07:03
twice as long as chimpanzees almost,
106
423330
4000
çok iyi anlaşılmayan sebeplerden ötürü.
07:07
and nobody lives more than 120 years,
107
427330
4000
Ama çoğu kimse şu an 90 veya 100 yıl yaşıyor,
tabii fazla tokalaşma vb yapmadıkça.
07:11
for reasons that aren't very well understood.
108
431330
3000
07:14
But lots of people now live to 90 or 100,
109
434330
3000
Yani belki 200 yıl yaşarsak bazı problemleri çözmek için
07:17
unless they shake hands too much or something like that.
110
437330
4000
yeterince beceri ve bilgi edinebiliriz.
07:21
And so maybe if we lived 200 years, we could accumulate enough skills
111
441330
5000
İşte problemi halletme yollarından biri.
07:26
and knowledge to solve some problems.
112
446330
5000
Dediğim gibi, ne kadar zor olduğunu bilmiyoruz.
Kısaca diğer tüm memeliler şempanzenin yarısı kadar fazla yaşarlar,
07:31
So that's one way of going about it.
113
451330
2000
07:33
And as I said, we don't know how hard that is. It might be --
114
453330
3000
böylece biz, çoğu memelinin ömrünün üç buçuk veya dört katı yaşarız.
07:36
after all, most other mammals live half as long as the chimpanzee,
115
456330
6000
07:42
so we're sort of three and a half or four times, have four times
116
462330
3000
Primatlar düşünüldüğünde, neredeyse aynı genlere sahibiz.
07:45
the longevity of most mammals. And in the case of the primates,
117
465330
6000
Sadece şempanzelerden farklıyız,
tamamen değersiz şimdiki bilgi düzeyinde,
07:51
we have almost the same genes. We only differ from chimpanzees,
118
471330
4000
yalnızca birkaç yüz genle belki.
07:55
in the present state of knowledge, which is absolute hogwash,
119
475330
6000
Sanırım gen sayıcıları hala ne yaptıklarını bilmiyorlar.
Ne yaparsanız yapın, sakın hayat sürecinizde yayınlanan
08:01
maybe by just a few hundred genes.
120
481330
2000
genetik hakkındaki şeyleri okumayın.
08:03
What I think is that the gene counters don't know what they're doing yet.
121
483330
3000
(Gülüşmeler)
08:06
And whatever you do, don't read anything about genetics
122
486330
3000
Maddenin çok kısa bir yarılanma süresi var, beyin boyutuyla aynı.
08:09
that's published within your lifetime, or something.
123
489330
3000
08:12
(Laughter)
124
492330
3000
Sadece dört veya beş geni düzeltirsek,
08:15
The stuff has a very short half-life, same with brain science.
125
495330
4000
200 yıl yaşayabilmemiz mümkün.
08:19
And so it might be that if we just fix four or five genes,
126
499330
6000
Veya tahmini 30 ila 40 olsa,
belki birkaç yüz olabilir.
08:25
we can live 200 years.
127
505330
2000
Yani insanların tartışacağı bir mesele bu
08:27
Or it might be that it's just 30 or 40,
128
507330
3000
ve çoğu etikçinin, bilirsiniz, bir etikçi aklınızda olan
08:30
and I doubt that it's several hundred.
129
510330
2000
08:32
So this is something that people will be discussing
130
512330
4000
her şeyde yanlış bir şeyler gören kişidir.
08:36
and lots of ethicists -- you know, an ethicist is somebody
131
516330
3000
(Gülüşmeler)
Yapmaya değer bir değişiklik olduğuna inanan bir etikçi bulmak çok zordur
08:39
who sees something wrong with whatever you have in mind.
132
519330
3000
08:42
(Laughter)
133
522330
3000
çünkü ya sonuçlar diye sorar.
08:45
And it's very hard to find an ethicist who considers any change
134
525330
4000
Tabii ki, şu an yaptıklarımızın sonuçlarından sorumlu değiliz,
08:49
worth making, because he says, what about the consequences?
135
529330
4000
öyle değil mi?
08:53
And, of course, we're not responsible for the consequences
136
533330
3000
Tüm bu klonlar hakkındaki şikayet gibi.
Yine de iki rastgele insan evlenecek ve çocukları olacak,
08:56
of what we're doing now, are we? Like all this complaint about clones.
137
536330
6000
her ikisinin de hayli bozuk bazı genleri olur
09:02
And yet two random people will mate and have this child,
138
542330
3000
ve çocuk muhtemelen normal doğacak.
09:05
and both of them have some pretty rotten genes,
139
545330
4000
Şempanze standartlarında cidden çok iyi.
09:09
and the child is likely to come out to be average.
140
549330
4000
Eğer hayatımız uzun olursa, nüfus artış problemiyle yüzleşmek zorunda kalacağız.
09:13
Which, by chimpanzee standards, is very good indeed.
141
553330
6000
Çünkü 200 veya 1000 yıl yaşarsak,
09:19
If we do have longevity, then we'll have to face the population growth
142
559330
3000
her 200 veya 1000 yılda bir defadan fazla çocuk sahibi olmalarına izin veremeyiz.
09:22
problem anyway. Because if people live 200 or 1,000 years,
143
562330
4000
09:26
then we can't let them have a child more than about once every 200 or 1,000 years.
144
566330
6000
Bu durumda işgücü olmayacak.
Laurie Garrett'ın belirttiği şeylerden biri,
09:32
And so there won't be any workforce.
145
572330
3000
çalışma yaşında nüfusu olmayan toplumların başı dertte.
09:35
And one of the things Laurie Garrett pointed out, and others have,
146
575330
4000
09:39
is that a society that doesn't have people
147
579330
5000
Daha da kötüleşecek
çünkü çocukları eğitecek veya yaşlıları besleyecek kimse yok.
09:44
of working age is in real trouble. And things are going to get worse,
148
584330
3000
Uzun yaşam süresi hakkında konuştuğumda, tabii ki,
09:47
because there's nobody to educate the children or to feed the old.
149
587330
6000
200 yaşında olan birinin, 200 yaşındaki -ki aslında ölü olan-
09:53
And when I'm talking about a long lifetime, of course,
150
593330
2000
bizim görüntümüze benzemesini istemem.
09:55
I don't want somebody who's 200 years old to be like our image
151
595330
6000
Bilirsiniz, beynin farklı işlevlere sahip gibi görünen
10:01
of what a 200-year-old is -- which is dead, actually.
152
601330
4000
yaklaşık 400 farklı bölümü vardır.
Çoğunun detaylı olarak nasıl çalıştıklarını kimse bilmez
10:05
You know, there's about 400 different parts of the brain
153
605330
2000
ama içeride çok sayıda farklı şey olduğunu biliyoruz.
10:07
which seem to have different functions.
154
607330
2000
10:09
Nobody knows how most of them work in detail,
155
609330
3000
Her zaman birlikte çalışmazlar.
Çoğunun diğerini sıfırladığı şeklindeki Freud'un teorisini severim.
10:12
but we do know that there're lots of different things in there.
156
612330
4000
Eğer kendinizi yüzlerce kaynağı olan
10:16
And they don't always work together. I like Freud's theory
157
616330
2000
10:18
that most of them are cancelling each other out.
158
618330
4000
bir tür şehir gibi düşünüyorsanız o halde, mesela korktuğunuzda,
10:22
And so if you think of yourself as a sort of city
159
622330
4000
uzun vadeli hedeflerinizi iptal edebilirsiniz, ama daha derin düşünebilir
10:26
with a hundred resources, then, when you're afraid, for example,
160
626330
6000
ve tamamen o belirli hedefi nasıl başaracağınıza odaklanabilirsiniz.
10:32
you may discard your long-range goals, but you may think deeply
161
632330
4000
Diğer herşeyi atarsınız. Saplantılı biri olursunuz --
10:36
and focus on exactly how to achieve that particular goal.
162
636330
4000
tüm umursadığınız bu platformdan dışarı çıkmamaktır.
10:40
You throw everything else away. You become a monomaniac --
163
640330
3000
Aç olduğunuzda, yemek daha çekici olur falan.
10:43
all you care about is not stepping out on that platform.
164
643330
4000
Böylece becerilerinizin çokca gelişmiş alt kümeleri olarak duyguları görüyorum.
10:47
And when you're hungry, food becomes more attractive, and so forth.
165
647330
4000
10:51
So I see emotions as highly evolved subsets of your capability.
166
651330
6000
Duygu sadece düşünceye eklenmiş bir şey değildir.
Duygusal bir durum, genelde müsait kaynaklarınızın 100
10:57
Emotion is not something added to thought. An emotional state
167
657330
4000
veya 200 tanesini çıkardığınızda elde ettiğinizdir.
11:01
is what you get when you remove 100 or 200
168
661330
4000
Yani duyguları, düşünmekten az bir şeyin zıttı gibi düşünmek
11:05
of your normally available resources.
169
665330
3000
son derece verimlidir.
11:08
So thinking of emotions as the opposite of -- as something
170
668330
3000
Umarım gelecek birkaç yılda, bunun göstergesi olan akıllı makineler çıkacak.
11:11
less than thinking is immensely productive. And I hope,
171
671330
4000
Sanırım gerisi çok önemli değil, bu akıllı makineleri
11:15
in the next few years, to show that this will lead to smart machines.
172
675330
4000
nasıl yapacağımız hakkındaki detaylar.
11:19
And I guess I better skip all the rest of this, which are some details
173
679330
3000
(Gülüşmeler)
11:22
on how we might make those smart machines and --
174
682330
5000
Aslında ana fikir, gerçekten akıllı bir makine,
11:27
(Laughter)
175
687330
5000
bir problemle karşı karşıya kaldığınızı farkeder.
11:32
-- and the main idea is in fact that the core of a really smart machine
176
692330
5000
Problem buna benzer bir şeydir
11:37
is one that recognizes that a certain kind of problem is facing you.
177
697330
5000
ve bu nedenle böyle bir problem için iyi olacak
11:42
This is a problem of such and such a type,
178
702330
3000
belli bir düşünme yolu veya yolları vardır.
11:45
and therefore there's a certain way or ways of thinking
179
705330
5000
Sanırım gelecek, piskolojinin ana problemi
çıkmazları, durumları, engelleri sınıflandırmak
11:50
that are good for that problem.
180
710330
2000
11:52
So I think the future, main problem of psychology is to classify
181
712330
4000
ve bunları düşünüp eşleştirecek uygun
11:56
types of predicaments, types of situations, types of obstacles
182
716330
4000
ve olası düşünce yollarını da sınıflandırmaktır.
Görüyorsunuz ya, nerdeyse Pavlovcu gibi --
12:00
and also to classify available and possible ways to think and pair them up.
183
720330
6000
gerçekten basit teorilerle
piskolojinin ilk yüz yılını kaybettik;
12:06
So you see, it's almost like a Pavlovian --
184
726330
3000
insanlar nasıl öğrenir, bir duruma nasıl reaksiyon verir?
12:09
we lost the first hundred years of psychology
185
729330
2000
Söylediğim şey, binlerce portu bulunan büyük, devasa sistem
12:11
by really trivial theories, where you say,
186
731330
3000
12:14
how do people learn how to react to a situation? What I'm saying is,
187
734330
6000
tasarlamayı da içeren birçok seviyeyi atladıktan sonra
12:20
after we go through a lot of levels, including designing
188
740330
5000
tekrar piskolojinin asıl problemi ile yüzleşeceğiz.
12:25
a huge, messy system with thousands of ports,
189
745330
3000
Durumlar nedir değil, benim belirttiğim
12:28
we'll end up again with the central problem of psychology.
190
748330
4000
problem türleri nelerdir
ve strateji türleri nelerdir, bunları nasıl öğrenirsiniz,
12:32
Saying, not what are the situations,
191
752330
3000
bunları nasıl birleştirirsiniz, gerçekten yaratıcı biri
12:35
but what are the kinds of problems
192
755330
2000
uygun kaynaklar arasından yeni bir düşünme yolu nasıl bulur falan.
12:37
and what are the kinds of strategies, how do you learn them,
193
757330
3000
12:40
how do you connect them up, how does a really creative person
194
760330
3000
Sanırım gelecek 20 senede
12:43
invent a new way of thinking out of the available resources and so forth.
195
763330
5000
eğer yapay zekaya geleneksel yaklaşımlardan sıyrılabilirsek,
12:48
So, I think in the next 20 years,
196
768330
2000
sinir ağları, genetik algoritmalar ve kurallı sistemler gibi
12:50
if we can get rid of all of the traditional approaches to artificial intelligence,
197
770330
5000
ve fikrimizi sadece biraz daha yükseğe yöneltirsek mesela,
12:55
like neural nets and genetic algorithms
198
775330
2000
tüm bu şeyleri doğru problem türü için kullanabilen bir sistem yapabilir miyiz?
12:57
and rule-based systems, and just turn our sights a little bit higher to say,
199
777330
6000
Bazı problemler sinir ağları için iyidir, ama geriye kalanlar,
13:03
can we make a system that can use all those things
200
783330
2000
sinir ağları için umut vadetmiyor.
13:05
for the right kind of problem? Some problems are good for neural nets;
201
785330
4000
Genetik algoritmalar belli şeyler için harika,
13:09
we know that others, neural nets are hopeless on them.
202
789330
3000
hangi konuda kötü olduklarında şüpheliyim ve söylemeyeceğim.
13:12
Genetic algorithms are great for certain things;
203
792330
3000
(Gülüşmeler)
Teşekkürler.
13:15
I suspect I know what they're bad at, and I won't tell you.
204
795330
4000
(Alkışlar)
13:19
(Laughter)
205
799330
1000
13:20
Thank you.
206
800330
2000
13:22
(Applause)
207
802330
6000
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7