The illusion of consciousness | Dan Dennett

دن دنت و هوشیاری

1,730,690 views ・ 2007-05-03

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: Ali Moeeny Reviewer: Hasan Moeeni
00:26
So I'm going to speak about a problem that I have
0
26000
3000
من می خواهم در مورد یک مشکلی که باهاش مواجهم صحبت بکنم
00:29
and that's that I'm a philosopher.
1
29000
3000
و این مشکل این است که من فیلسوف هستم.
00:32
(Laughter)
2
32000
2000
(خنده)
00:34
When I go to a party and people ask me what do I do
3
34000
3000
وقتی من به مهمانی می روم و مردم از من می پرسند که شغلت چیست؟
00:37
and I say, "I'm a professor," their eyes glaze over.
4
37000
5000
و من جواب می دهم که من پروفسور هستم - مردم چپ چپ به من نگاه می کنند.
00:42
When I go to an academic cocktail party
5
42000
2000
اگر من به یک مهمانی دانشگاهی بروم
00:44
and there are all the professors around, they ask me what field I'm in
6
44000
4000
آنجا پروفسورها از من می پرسند که در چه رشته ای کار می کنم
00:48
and I say, "philosophy" -- their eyes glaze over.
7
48000
3000
وقتی من جواب می دهم که "فلسفه" - آن ها چپ چپ نگاهم می کنند.
00:51
(Laughter)
8
51000
2000
(خنده)
00:53
When I go to a philosopher's party
9
53000
3000
وقتهایی که به مهمانی فلاسفه می روم
00:56
(Laughter)
10
56000
3000
(خنده)
00:59
and they ask me what I work on and I say, "consciousness,"
11
59000
4000
و فیلسوفها از من می پرسند که روی چه موضوعی کار می کنی و من جواب می دم که روی هوشیاری کار می کنم
01:03
their eyes don't glaze over -- their lips curl into a snarl.
12
63000
5000
آن ها چپ چپ نگاهم نمی کنند بلکه لب و لوچه آن ها آویزان می شود و به خودشان می لرزند.
01:08
(Laughter)
13
68000
1000
(خنده)
01:09
And I get hoots of derision and cackles and growls
14
69000
6000
و یا با ناراحتی هو می کنند یا می خندند و مسخره می کنند.
01:15
because they think, "That's impossible! You can't explain consciousness."
15
75000
5000
چون فکر می کنند این نشدنی است و کسی نمی تواند هوشیاری را توضیح بدهد.
01:20
The very chutzpah of somebody thinking
16
80000
2000
آن ها این را گستاخی می دانند که کسی فکر کند می تواند هوشیاری را درک کند
01:22
that you could explain consciousness is just out of the question.
17
82000
4000
و یا آن را توضیح بدهد. هوشیاری اصلا سوال بردار نیست.
01:26
My late, lamented friend Bob Nozick, a fine philosopher,
18
86000
4000
دوست مرحوم من باب نوزیک که فیلسوف خیلی خوبی بود
01:30
in one of his books, "Philosophical Explanations,"
19
90000
4000
در یکی از کتابهاش به نام توضیحات فلسفی
01:34
is commenting on the ethos of philosophy --
20
94000
5000
در مورد نحوه کار فلاسفه توضیح می دهد--
01:39
the way philosophers go about their business.
21
99000
2000
راهی که فلاسفه در کارهایشان پی می گیرند.
01:41
And he says, you know, "Philosophers love rational argument."
22
101000
4000
و می گوید که فلاسفه طرفدار استدلال منطقی هستند.
01:45
And he says, "It seems as if the ideal argument
23
105000
2000
و توضیح می دهد که به نظر می رسد که نحوه استدلال ایده آل
01:47
for most philosophers is you give your audience the premises
24
107000
6000
در نظر غالب فلاسفه این باشد که شما برای مخاطب هایتان پیش فرض ها را توضیح بدهید.
01:53
and then you give them the inferences and the conclusion,
25
113000
5000
و بعد مراحل استقرا و نتایج را برایشان توضیح بدهید و این آنچنان قانع کننده باشد
01:58
and if they don't accept the conclusion, they die.
26
118000
4000
که کسی نتواند از قبول کردن شانه خالی کند و مثلا اگر نتایج را قبول نکند بمیرد.
02:02
Their heads explode." The idea is to have an argument
27
122000
3000
یا مغزش منفجر شود. یعنی چنان استدلالی باشد
02:05
that is so powerful that it knocks out your opponents.
28
125000
4000
که همه مخالفین را ناک اوت کند.
02:09
But in fact that doesn't change people's minds at all.
29
129000
3000
اما در دنیای واقع استدلال قوی نظر آدمها را تغییر نمی دهد.
02:12
It's very hard to change people's minds
30
132000
1000
خیلی مشکل است که نظر آدمها را
02:13
about something like consciousness,
31
133000
2000
در مورد چیزی مثل هوشیاری عوض کرد.
02:15
and I finally figured out the reason for that.
32
135000
5000
من بالاخره علت این مساله را کشف کردم.
02:20
The reason for that is that everybody's an expert on consciousness.
33
140000
4000
علتش این است که هر کسی خودش را متخصص هوشیاری می داند.
02:24
We heard the other day that everybody's got a strong opinion about video games.
34
144000
4000
دیروز همین جا صحبت بود که هر کسی در زمینه بازی های کامپیوتری نظری دارد.
02:28
They all have an idea for a video game, even if they're not experts.
35
148000
3000
همه ی آن ها ایده هایی درباره بازی های کامپیوتری دارند حتی اگر متخصص آن نباشند.
02:31
But they don't consider themselves experts on video games;
36
151000
3000
ولی خوب البته همه این افراد خودشان را متخصص بازهای کامپیوتری نمی دانند.
02:34
they've just got strong opinions.
37
154000
1000
آن ها فقط ایده های خوبی در این باره دارند.
02:35
I'm sure that people here who work on, say, climate change
38
155000
5000
من مطمئن هستم که همه کسانی که اینجا صحبت کردند مثلا آنها که در زمینه
02:40
and global warming, or on the future of the Internet,
39
160000
5000
تغییرات آب و هوا و گرم شدن زمین حرف زدند یا در زمینه آینده اینترنت کار می کنند،
02:45
encounter people who have very strong opinions
40
165000
2000
همیشه با افرادی روبرو می شوند که نظرات جدی
02:47
about what's going to happen next.
41
167000
3000
در مورد این موضوع ها دارند ولی
02:50
But they probably don't think of these opinions as expertise.
42
170000
4000
خوب این افراد خودشان را متخصص در این زمینه ها نمی دانند.
02:54
They're just strongly held opinions.
43
174000
2000
آن ها فقط ایده های خوبی در این موضوعات دارند.
02:56
But with regard to consciousness, people seem to think,
44
176000
4000
اما در مورد هوشیاری افراد فکر می کنند
03:00
each of us seems to think, "I am an expert.
45
180000
3000
که خودشان متخصص هوشیاری هستند. فقط به خاطر اینکه من هوشیار هستم
03:03
Simply by being conscious, I know all about this."
46
183000
3000
من فکر می کنم همه چیز در مورد هوشیاری را می دانم. این باعث می شود که
03:06
And so, you tell them your theory and they say,
47
186000
2000
وقتی کسی مثل من تئوری خودش را در مورد هوشیاری برای مردم توضیح می دهد
03:08
"No, no, that's not the way consciousness is!
48
188000
1000
آنها می گویند: نه، نه، هوشیاری این طور که تو می گویی نیست!
03:09
No, you've got it all wrong."
49
189000
2000
نه، تو در اشتباهی.
03:11
And they say this with an amazing confidence.
50
191000
4000
و افراد با اطمینان خیلی زیادی در این مورد اظهار نظر می کنند.
03:15
And so what I'm going to try to do today
51
195000
2000
به همین خاطر من امروز قصد دارم،
03:17
is to shake your confidence. Because I know the feeling --
52
197000
3000
این اطمینان شما را از بین ببرم. چون من این احساس اطمینان را درک می کنم
03:20
I can feel it myself.
53
200000
2000
من خودم این مساله را حس می کنم.
03:22
I want to shake your confidence that you know your own innermost minds --
54
202000
6000
من می خواهم این اطمینان شما را به اینکه ذهن خودتان را می شناسید از بین ببرم.
03:28
that you are, yourselves, authoritative about your own consciousness.
55
208000
5000
و این احساس که شما صاحب نظر در مورد هوشیاری خودتان هستید را از بین ببرم.
03:33
That's the order of the day here.
56
213000
3000
این برنامه امروز من است.
03:36
Now, this nice picture shows a thought-balloon, a thought-bubble.
57
216000
3000
این تصویر زیبا یک بالون فکر یا یک حباب فکر را نشان می دهد.
03:39
I think everybody understands what that means.
58
219000
2000
فکر کنم همه می دانیم این شکل قرار است چه چیزی را نشان بدهد.
03:41
That's supposed to exhibit the stream of consciousness.
59
221000
3000
این شکل قرار است که جریان هوشیاری را نمایش بدهد.
03:44
This is my favorite picture of consciousness that's ever been done.
60
224000
2000
به نظر من این بهترین تصویری است که تا حال از هوشیاری ترسیم شده است.
03:46
It's a Saul Steinberg of course -- it was a New Yorker cover.
61
226000
3000
این جلد مجله نیویورکر است که سائول اشتاین برگ آن را کشیده است.
03:49
And this fellow here is looking at the painting by Braque.
62
229000
5000
این آقایی که اینجا در عکس هست دارد به این نقاشی از براک نگاه می کند.
03:54
That reminds him of the word baroque, barrack, bark, poodle,
63
234000
4000
و این کار کلمه های دیگری را هم به ذهنش آورده مثل باروک، بارک، برک، پودل،
03:58
Suzanne R. -- he's off to the races.
64
238000
2000
و سوزان و ... . همینطور پشت سر هم.
04:00
There's a wonderful stream of consciousness here
65
240000
4000
اینجا یک جریان زیبا از هوشیاری تصویر شده است.
04:04
and if you follow it along, you learn a lot about this man.
66
244000
4000
اگر شما آن را دنبال بکنید، خیلی مطالب را در مورد این آقا می فهمید.
04:08
What I particularly like about this picture, too,
67
248000
2000
چیزی که من در این عکس از آن خوشم می آید
04:10
is that Steinberg has rendered the guy
68
250000
2000
این است اشتان برگ این آقا را
04:12
in this sort of pointillist style.
69
252000
3000
به فورم نقطه نقطه (نقطه چین) کشیده است.
04:15
Which reminds us, as Rod Brooks was saying yesterday:
70
255000
3000
این مساله یادآور همان چیزی است که دیروز رود بروکس اینجا مطرح کرد:
04:18
what we are, what each of us is -- what you are, what I am --
71
258000
4000
چیزی که ما هستیم، چیزی که هر یک از ما هستیم -- چیزی که شما هستید، من هستم --
04:22
is approximately 100 trillion little cellular robots.
72
262000
6000
حدود صد تریلیون ربوت سلولی کوچک است.
04:28
That's what we're made of.
73
268000
2000
این آن چیزی است که همه ما از آن ساخته شده ایم.
04:30
No other ingredients at all. We're just made of cells, about 100 trillion of them.
74
270000
4000
هیچ ماده اولیه دیگری در کار نیست. فقط از این ۱۰۰ تریلیون سلول ساخته شده ایم.
04:34
Not a single one of those cells is conscious;
75
274000
2000
و حتی یکی از آنها هم هوشیار نیست. حتی یکی از این سلولها هم نمی داند که
04:36
not a single one of those cells knows who you are, or cares.
76
276000
5000
شما کی هستید و برای هیچ کدام مهم هم نیست که شما کی هستید.
04:41
Somehow, we have to explain
77
281000
2000
در عین حال ما باید راهی پیدا کنیم که بفهمیم
04:43
how when you put together teams, armies, battalions
78
283000
4000
چطور وقتی تیم هایی یا لشکر هایی یا گروهایی
04:47
of hundreds of millions of little robotic unconscious cells --
79
287000
4000
از صد ها میلیون از این روبوتهای سلولی ناهشیار را در کنار هم به کار می گیریم
04:51
not so different really from a bacterium, each one of them --
80
291000
4000
-- که تک تک آنها فرق زیادی با باکتری ها ندارند --
04:55
the result is this. I mean, just look at it.
81
295000
4000
چنین نتیجه ای به دست می آید. فقط شما به این تصویر نگاه کنید.
04:59
The content -- there's color, there's ideas, there's memories,
82
299000
4000
چقدر محتوا اینجا هست. ایده هست، رنگ هست، خاطرات هست،
05:03
there's history. And somehow all that content of consciousness
83
303000
4000
تاریخ هست. ولی به نحوی همه این محتوا از طریق فعالیت
05:07
is accomplished by the busy activity of those hoards of neurons.
84
307000
5000
دسته های نورونی ایجاد می شود. چطور چنین چیزی ممکن است؟
05:12
How is that possible? Many people just think it isn't possible at all.
85
312000
4000
بسیاری از افراد فکر می کنند چنین چیزی ممکن نیست.
05:16
They think, "No, there can't be any
86
316000
2000
به هیچ وجه ممکن نیست کسی
05:18
sort of naturalistic explanation of consciousness."
87
318000
4000
با ابزار و علل طبیعی هوشیاری را توضیح بدهد.
05:22
This is a lovely book by a friend of mine named Lee Siegel,
88
322000
3000
این یک کتاب دوست داشتنی است که دوست من لی سیگل نوشته است.
05:25
who's a professor of religion, actually, at the University of Hawaii,
89
325000
3000
لی استاد مذهب در دانشگاه هاوایی است.
05:28
and he's an expert magician, and an expert
90
328000
2000
که متخصص جادوگری هم هست و متخصص
05:30
on the street magic of India, which is what this book is about,
91
330000
4000
جادوگری خیابانی هندی است. و این کتاب هم در همین زمینه است.
05:34
"Net of Magic."
92
334000
2000
"اساس جادو"
05:36
And there's a passage in it which I would love to share with you.
93
336000
3000
در این کتاب یک پاراگراف هست که من دوست دارم شما هم آن را بخوانید.
05:39
It speaks so eloquently to the problem.
94
339000
6000
چون مساله را خیلی روشن مطرح کرده است. «از من می پرسند موضوع این کتاب چیست
05:45
"'I'm writing a book on magic,' I explain, and I'm asked, 'Real magic?'
95
345000
5000
و من جواب می دهم جادوگری است. می پرسند جادوگری واقعی؟
05:50
By 'real magic,' people mean miracles,
96
350000
2000
و منظورشان از جادوگری واقعی معجزه
05:52
thaumaturgical acts, and supernatural powers.
97
352000
2000
و سحر و قدرتهای فوق طبیعی است.
05:54
'No,' I answer. 'Conjuring tricks, not real magic.'
98
354000
4000
و من جواب می دهم: نه، فقط تردستی و شعبده بازی نه جادوگری واقعی»
05:58
'Real magic,' in other words, refers to the magic that is not real;
99
358000
4000
به بیان دیگر منظور از جادوگری واقعی آن نوع از جادوگری است که واقعیت ندارد،
06:02
while the magic that is real, that can actually be done, is not real magic."
100
362000
5000
چون که با جادوگری واقعی نمی شود در واقع جادو انجام داد.
06:07
(Laughter)
101
367000
4000
(خنده)
06:11
Now, that's the way a lot of people feel about consciousness.
102
371000
4000
بسیاری از افراد در مورد هوشیاری هم همین طور فکر می کنند.
06:15
(Laughter)
103
375000
1000
(خنده)
06:16
Real consciousness is not a bag of tricks.
104
376000
2000
می گویند: هوشیاری واقعی یک جعبه جادو پر از حقه های تردستی نیست.
06:18
If you're going to explain this as a bag of tricks,
105
378000
2000
اگر تو می خواهی با یک مجموعه از حقه ها هوشیاری را توجیه کنی،
06:20
then it's not real consciousness, whatever it is.
106
380000
3000
اساسا در اشتباهی هر کاری که بکنی بی فایده است.
06:23
And, as Marvin said, and as other people have said,
107
383000
6000
از آن جا که ماروین گفته است و کسان دیگر هم گفته اند،
06:29
"Consciousness is a bag of tricks."
108
389000
3000
هوشیاری یک جعبه پر از تردستی است.
06:32
This means that a lot of people are just left completely dissatisfied
109
392000
5000
در نتیجه عده زیادی هستند که خارج از این دایره می مانند و قانع نمی شوند.
06:37
and incredulous when I attempt to explain consciousness.
110
397000
3000
و به خاطر پیش داوری - آن چه من می گویم را باور نمی کنند.
06:40
So this is the problem. So I have to
111
400000
3000
خوب این مشکل من است و من مجبورم به نحوی
06:43
do a little bit of the sort of work
112
403000
3000
این مساله را توضیح بدهم و به کارهایی متوسل شوم که
06:46
that a lot of you won't like,
113
406000
4000
خیلی از شما نخواهید پسندید،
06:50
for the same reason that you don't like to see
114
410000
2000
به همان دلیل که دوست ندارید از راز یک حقه
06:52
a magic trick explained to you.
115
412000
2000
جادوگری سر در بیاورید.
06:54
How many of you here, if somebody -- some smart aleck --
116
414000
4000
چند نفر از شما هستند که اگر کسی شروع به
06:58
starts telling you how a particular magic trick is done,
117
418000
3000
توضیح راز یک تردستی بکند،
07:01
you sort of want to block your ears and say, "No, no, I don't want to know!
118
421000
3000
گوشتان را می گیرید که نشنوید و می گویید من دوست ندارم بفهمم.
07:04
Don't take the thrill of it away. I'd rather be mystified.
119
424000
3000
و می خواهم همچنان تعجب کنم و لذت ببرم.
07:07
Don't tell me the answer."
120
427000
3000
به من راز آن را نگویید.
07:10
A lot of people feel that way about consciousness, I've discovered.
121
430000
3000
من فهمیده ام که خیلی از مردم در مورد هوشیاری هم، همین طور فکر می کنند.
07:13
And I'm sorry if I impose some clarity, some understanding on you.
122
433000
6000
من معذرت می خواهم اگر بعضی از این تردستی ها را برای شما لو می دهم. اگر کسی هست که
07:19
You'd better leave now if you don't want to know some of these tricks.
123
439000
5000
نمی خواهد این مسایل برایش روشن بشود بهتر است همین حالا مجلس را ترک کند.
07:24
But I'm not going to explain it all to you.
124
444000
4000
ولی خوب من همه جزئیات آن را برای شما توضیح نمی دهم.
07:28
I'm going to do what philosophers do.
125
448000
3000
بلکه کاری را می کنم که معمولا فلاسفه می کنند.
07:31
Here's how a philosopher explains the sawing-the-lady-in-half trick.
126
451000
6000
مثلا فلاسفه تردستی «نصف کردن یک خانم با اره» را این طور توضیح می دهند.
07:37
You know the sawing-the-lady-in-half trick?
127
457000
2000
شما تردستی «نصف کردن یک خانم با اره» را دیده اید؟
07:39
The philosopher says, "I'm going to explain to you how that's done.
128
459000
4000
فیلسوف می گوید: من الان برای تان توضیح می دهم که چطور یک شعبده باز
07:43
You see, the magician doesn't really saw the lady in half."
129
463000
5000
یک خانم را با اره نصف می کند. شعبده باز واقعا آن خانم را نصف نمی کند.
07:48
(Laughter)
130
468000
2000
(خنده)
07:50
"He merely makes you think that he does."
131
470000
4000
بلکه کاری می کند که شما فکر کنید آن خانم نصف شده است.
07:54
And you say, "Yes, and how does he do that?"
132
474000
1000
و بعد شما می پرسید: خوب ولی چطور این کار را می کند؟
07:55
He says, "Oh, that's not my department, I'm sorry."
133
475000
2000
و فیلسوف می گوید: ببخشید. نحوه انجام کار خارج از تخصص من است.
07:57
(Laughter)
134
477000
5000
(خنده)
08:02
So now I'm going to illustrate how philosophers explain consciousness.
135
482000
3000
من حالا می خواهم که به شما نشان بدهم که فلاسفه چطور هوشیاری را برای شما توضیح می دهند.
08:05
But I'm going to try to also show you
136
485000
3000
علاوه بر این من سعی می کنم به شما نشان بدهم
08:08
that consciousness isn't quite as marvelous --
137
488000
3000
که هوشیاری آنقدر ها هم عالی --
08:11
your own consciousness isn't quite as wonderful --
138
491000
2000
که هوشیاری شما آنقدر ها هم که فکر می کنید
08:13
as you may have thought it is.
139
493000
2000
عالی و بی نقص نیست.
08:15
This is something, by the way, that Lee Siegel talks about in his book.
140
495000
4000
راستی این هم یکی از چیزهایی است که لی سیگل در کتابش به آن پرداخته است.
08:19
He marvels at how he'll do a magic show, and afterwards
141
499000
4000
آنجا می گوید که بعد از یک نمایش تردستی تماشاگر ها قسم می خورند که دیده اند که
08:23
people will swear they saw him do X, Y, and Z. He never did those things.
142
503000
4000
شعبده باز فلان کارها را انجام داده در حالی که شعبده باز چنین کارهایی نکرده است.
08:27
He didn't even try to do those things.
143
507000
2000
شعبده باز حتی سعی هم نکرده که آن کارها را انجام بدهد.
08:29
People's memories inflate what they think they saw.
144
509000
4000
بلکه حافظه آن ها باعث تورم افکارشان می شود و باعث می شود فکر کنند آن کارها انجام شده است.
08:33
And the same is true of consciousness.
145
513000
3000
مساله هوشیاری هم همین طور است.
08:36
Now, let's see if this will work. All right. Let's just watch this.
146
516000
7000
بگذارید ببینم.اگر این کار کند.خیلی خوب. این را ببینید.
08:43
Watch it carefully.
147
523000
1000
با دقت این را تماشا کنید.
08:56
I'm working with a young computer-animator documentarian
148
536000
3000
من با یک انیماتور و مستند ساز جوان
08:59
named Nick Deamer, and this is a little demo that he's done for me,
149
539000
5000
به نام نیک دیمر کار می کنم
09:04
part of a larger project some of you may be interested in.
150
544000
3000
این قسمتی از یک پروژه بزرگتر است که بعضی از شما ها ممکن است به آن علاقه مند باشید.
09:07
We're looking for a backer.
151
547000
3000
ما دنبال کسی می گردیم که این کار را حمایت کند.
09:10
It's a feature-length documentary on consciousness.
152
550000
4000
این قرار است نهایتا یک فیلم مستند در مورد هوشیاری بشود.
09:14
OK, now, you all saw what changed, right?
153
554000
2000
خوب شما همه متوجه شدید که چی اینجا عوض شده است؟ درسته؟
09:20
How many of you noticed that every one of those squares changed color?
154
560000
5000
چند نفر از شما متوجه شدید که همه این مربع ها رنگشان عوض شد؟
09:25
Every one. I'll just show you by running it again.
155
565000
4000
همه ی شما. من دوباره این را پخش می کنم تا متوجه بشوید.
09:34
Even when you know that they're all going to change color,
156
574000
5000
حتی حالا که شما می دانید تک تک این مربع ها قرار است رنگشان عوض بشود،
09:39
it's very hard to notice. You have to really concentrate
157
579000
4000
خیلی سخت است که زمان تغییر رنگ را متوجه بشوید. شما باید واقعا تمرکز کنید،
09:43
to pick up any of the changes at all.
158
583000
3000
تا بتوانید تغییر را متوجه بشوید.
09:46
Now, this is an example -- one of many --
159
586000
5000
این در واقع یک مثال از
09:51
of a phenomenon that's now being studied quite a bit.
160
591000
2000
یک پدیده ای است که الان کمی بررسی شده و
09:53
It's one that I predicted in the last page or two of my
161
593000
4000
من در صفحه آخر یا دو صفحه آخر از کتابم که
09:57
1991 book, "Consciousness Explained,"
162
597000
2000
سال ۱۹۹۱ منتشر کردم، به اسم "توضیح هوشیاری" پیش بینی کرده بودم.
09:59
where I said if you did experiments of this sort,
163
599000
3000
که آن جا گفته ام، اگر کسی آزمایشهایی از این قبیل انجام بدهد،
10:02
you'd find that people were unable to pick up really large changes.
164
602000
3000
خواهد دید که افراد تغییرات خیلی بزرگ و واضحی را نادیده می گیرند و متوجه نمی شوند.
10:05
If there's time at the end,
165
605000
2000
اگر در آخر فرصت باشد،
10:07
I'll show you the much more dramatic case.
166
607000
3000
من نمونه های خیلی جالب تری را نشان شما خواهم داد.
10:10
Now, how can it be that there are all those changes going on,
167
610000
5000
خوب سوال این است که چطور ممکن است که این همه چیز عوض شود
10:15
and that we're not aware of them?
168
615000
3000
ولی ما از آن آگاه نشویم؟
10:18
Well, earlier today, Jeff Hawkins mentioned the way your eye saccades,
169
618000
5000
خوب امروز قبل از من جف هاوکینز در صحبتهاش به حرکت سریع چشم ها اشاره کرد.
10:23
the way your eye moves around three or four times a second.
170
623000
3000
چشمهای ما سه تا چهار بار در ثانیه می گردند.
10:26
He didn't mention the speed. Your eye is constantly in motion,
171
626000
3000
او به سرعت آن اشاره نکرد. چشمهای ما مدام در حرکت هستند.
10:29
moving around, looking at eyes, noses, elbows,
172
629000
3000
و مدام روی چیزهای که جذاب تر یا مهم تر هستند توقف می کنند،
10:32
looking at interesting things in the world.
173
632000
2000
مثلا روی چشم افراد یا دماغ آنها یا لبهای آنها.
10:34
And where your eye isn't looking,
174
634000
2000
نکته این است که بینایی شما در مورد جاهایی که
10:36
you're remarkably impoverished in your vision.
175
636000
3000
مستقیما به آنها نگاه نمی کنید بسیار ضعیف است.
10:39
That's because the foveal part of your eye,
176
639000
3000
علت این مساله هم این است که لکه زرد چشم شما
10:42
which is the high-resolution part,
177
642000
2000
که قسمت با رزولوشن بالای چشم شما است
10:44
is only about the size of your thumbnail held at arms length.
178
644000
3000
فقط به اندازه ناخن شصت، وقتی دستتان را این شکل بگیرید پوشش می دهد.
10:47
That's the detail part.
179
647000
2000
شما فقط لکه زرد را با دقت بالا می بینید و بقیه میدان بینایی دقت خیلی کمی دارد.
10:49
It doesn't seem that way, does it?
180
649000
3000
ولی شما اصلا این را احساس نمی کنید. می کنید؟
10:52
It doesn't seem that way, but that's the way it is.
181
652000
2000
با اینکه ما اصلا اینطور حس نمی کنیم، ولی این واقعیت است.
10:54
You're getting in a lot less information than you think.
182
654000
4000
ما اطلاعات خیلی کمتری از آن چیزی که فکر می کنیم از محیط دریافت می کنیم.
10:58
Here's a completely different effect. This is a painting by Bellotto.
183
658000
6000
خوب این یک پدیده کاملا متفاوت است. این یک نقاشی متعلق به بلاتو است.
11:04
It's in the museum in North Carolina.
184
664000
2000
این نقاشی در موزه ای در کارولینای شمالی نگهداری می شود.
11:06
Bellotto was a student of Canaletto's.
185
666000
3000
بلاتو شاگرد کانولتو بوده است.
11:09
And I love paintings like that --
186
669000
1000
من این جور نقاشی ها را خیلی دوست دارم.
11:10
the painting is actually about as big as it is right here.
187
670000
4000
اندازه واقعی این نقاشی تقریبا همین اندازه ای است که شما الان روی این پرده می بینید.
11:14
And I love Canalettos, because Canaletto has this fantastic detail,
188
674000
3000
من به این خاطر از کانولتو خوشم می آید چون نقاشی هاش جزئیات فراوانی را نشان می دهند.
11:17
and you can get right up
189
677000
3000
شما می توانید بروید
11:20
and see all the details on the painting.
190
680000
3000
و از نزدیک همه جزئیات را نگاه کنید.
11:23
And I started across the hall in North Carolina,
191
683000
5000
من اول از دور و از آخر سالن موزه کارولینا شروع کردم به دیدن
11:28
because I thought it was probably a Canaletto,
192
688000
2000
چون فکر کردم که این کار هم مال کانولتو است
11:30
and would have all that in detail.
193
690000
2000
و شامل جزئیات فراوانی خواهد بود.
11:32
And I noticed that on the bridge there, there's a lot of people --
194
692000
3000
و از دور دیدم که روی آن پلی که در نقاشی هست عده زیادی آدم
11:35
you can just barely see them walking across the bridge.
195
695000
3000
که شما به سختی می توانید آن ها را ببینید در حال عبور هستند.
11:38
And I thought as I got closer
196
698000
1000
و فکر کردم هر چه نزدیک تر بروم
11:39
I would be able to see all the detail of most people,
197
699000
3000
جزئیات بیشتری از افرادی که روی پل هستند را می توانم ببینم.
11:42
see their clothes, and so forth.
198
702000
2000
مانند لباس هایشان و بقیه جزئیات.
11:44
And as I got closer and closer, I actually screamed.
199
704000
4000
وقتی که نزدیک و نزدیک تر رفتم یک دفعه از تعجب جیغ زدم.
11:48
I yelled out because when I got closer,
200
708000
2000
فریاد من به خاطر این بود که وقتی من نزدیک آن شدم،
11:50
I found the detail wasn't there at all.
201
710000
4000
متوجه شدم که اصلا جزئیاتی وجود ندارد.
11:54
There were just little artfully placed blobs of paint.
202
714000
4000
فقط لکه های رنگی ای روی صفحه بود که هنرمندانه کناره هم قرار گرفته بودند.
11:58
And as I walked towards the picture,
203
718000
3000
همین طور که من به تصویر نزدیک تر می شدم
12:01
I was expecting detail that wasn't there.
204
721000
3000
انتظار دیدن جزییاتی را داشتم که واقعا روی آن صفحه وجود نداشتند.
12:04
The artist had very cleverly suggested people and clothes
205
724000
5000
هنرمند نقاش با هوشمندنی فقط سرنخهایی از مردم و لباس ها
12:09
and wagons and all sorts of things,
206
729000
3000
و چیزهای دیگری که باید آن جا دیده می شد
12:12
and my brain had taken the suggestion.
207
732000
3000
را روی صفحه ثبت کرده بود و مغز من این سرنخ ها را تبدیل به تصاویر کاملی کرده بود.
12:15
You're familiar with a more recent technology, which is -- There,
208
735000
6000
شما حتما با نوع مدرن تر این فن آوری آشنا هستند.
12:21
you can get a better view of the blobs.
209
741000
2000
شما می توانید تصویر بهتری از لکه های رنگ را ببینید.
12:23
See, when you get close
210
743000
2000
ببینید، وقتی که نزدیکتر می شوید،
12:25
they're really just blobs of paint.
211
745000
5000
آن ها واقعا لکه هایی از رنگ هستند.
12:30
You will have seen something like this -- this is the reverse effect.
212
750000
6000
اینجا شما بر عکس آن مساله را می بینید.
12:44
I'll just give that to you one more time.
213
764000
3000
یک دفعه دیگه تماشا بکنید.
12:47
Now, what does your brain do when it takes the suggestion?
214
767000
7000
سوال این است که که مغز شما چطور این سرنخ ها را می گیرد و تبدیل به تصاویر کامل می کند؟
12:54
When an artful blob of paint or two, by an artist,
215
774000
5000
وقتی یک لکه رنگی که هنرمندانه قرار داده شده است،
12:59
suggests a person -- say, one of
216
779000
6000
برای مغز یک انسان را تداعی می کند، برای مثال یکی از نقاشی های
13:05
Marvin Minsky's little society of mind --
217
785000
2000
ماروین مینسکی است به اسم جامعه ذهن ها --
13:07
do they send little painters out to fill in all the details in your brain somewhere?
218
787000
5000
آیا کسی یک نقاش کوچولو را داخل مغز شما می فرستد تا بقیه جزییات را برای شما نقاشی کند؟
13:12
I don't think so. Not a chance. But then, how on Earth is it done?
219
792000
5000
نه فکر نکنم اینطور باشد. اما اگر اینطور نیست پس چطور ما از آن لکه ها بقیه جزییات را می بینیم؟
13:17
Well, remember the philosopher's explanation of the lady?
220
797000
5000
خوب یادتون می آید که فلاسفه چطور با مساله اره کردن آن خانم توسط شعبده باز برخورد می کردند؟
13:22
It's the same thing.
221
802000
3000
این هم همانطور است.
13:25
The brain just makes you think that it's got the detail there.
222
805000
3000
مغز فقط کاری می کند که شما فکر کنید جزئیات وجود دارند در حالی که وجود ندارند.
13:28
You think the detail's there, but it isn't there.
223
808000
3000
مغز باعث می شود شما انتظار داشته باشید جزئیات آنجا باشند در حالی که نیستند.
13:31
The brain isn't actually putting the detail in your head at all.
224
811000
3000
مغز در واقع این جزئیات را در اختیار شما قرار نمی دهد.
13:34
It's just making you expect the detail.
225
814000
3000
شما تنها انتظار دارید که جزئیاتی وجود داشته باشد.
13:37
Let's just do this experiment very quickly.
226
817000
3000
بیایید این آزمایش را خیلی سریع انجام بدهیم.
13:40
Is the shape on the left the same as the shape on the right, rotated?
227
820000
5000
آیا شکل سمت چپ همان شکل سمت راستی است که فقط یک کم چرخیده است؟
13:45
Yes.
228
825000
2000
بله.
13:47
How many of you did it by rotating the one on the left
229
827000
2000
چند نفر در ذهنشان سمت چپی را چرخاندند
13:49
in your mind's eye, to see if it matched up with the one on the right?
230
829000
3000
تا ببینند آیا با سمت راستی منطبق می شود یا نه؟
13:52
How many of you rotated the one on the right? OK.
231
832000
4000
خوب. چند نفر سمت راستی را چرخاندند؟
13:56
How do you know that's what you did?
232
836000
2000
خوب. شما چطور می فهمید که سمت راستی را چرخانده اید یا سمت چپی را؟
13:58
(Laughter)
233
838000
3000
(خنده)
14:01
There's in fact been a very interesting debate
234
841000
2000
در واقع یک بحث خیلی جالبی در
14:03
raging for over 20 years in cognitive science --
235
843000
3000
بیست سال گذشته در علوم شناختی مطرح شده است
14:06
various experiments started by Roger Shepherd,
236
846000
2000
که با کارهای راجر شپرد شروع شده است
14:08
who measured the angular velocity of rotation of mental images.
237
848000
5000
که سرعت چرخش تصاویر ذهنی را اندازه گیری کرد.
14:13
Yes, it's possible to do that.
238
853000
2000
بله شما می توانید سرعت چرخش تصاویر ذهنی را اندازه بگیرید.
14:15
But the details of the process are still in significant controversy.
239
855000
7000
البته جزئیات اینکه ما چطور این کار را انجام می دهیم هنوز مورد اختلاف است.
14:22
And if you read that literature, one of the things
240
862000
3000
نکته مهمی که در مطالعه
14:25
that you really have to come to terms with is
241
865000
3000
این مسایل متوجه می شویم این است که
14:28
even when you're the subject in the experiment, you don't know.
242
868000
2000
حتی وقتی که آن را عملا تجربه می کنید، نمی دانید چطور این کار را انجام می دهید.
14:30
You don't know how you do it.
243
870000
2000
شما نمی دانید که چطور این کار را انجام می دهید.
14:32
You just know that you have certain beliefs.
244
872000
3000
شما فقط می دانید که «باور» های خاصی در این مورد دارید.
14:35
And they come in a certain order, at a certain time.
245
875000
3000
که در زمانهای خاصی و به ترتیب خاصی بروز می کنند.
14:38
And what explains the fact that that's what you think?
246
878000
2000
و چه چیز این واقعیت را توضیح می دهد که این آن چیزی است که شما فکر می کنید؟
14:40
Well, that's where you have to go backstage and ask the magician.
247
880000
4000
برای اینکه این را بفهمیم، باید برویم پشت صحنه و از شعبده باز سوال کنیم.
14:44
This is a figure that I love: Bradley, Petrie, and Dumais.
248
884000
4000
من این شکل را خیلی دوست دارم. برادلی، پتری و دومایس.
14:48
You may think that I've cheated,
249
888000
2000
ممکن است که شما فکر کنید من تقلب کرده ام
14:50
that I've put a little whiter-than-white boundary there.
250
890000
5000
و یک سری لبه سفید خیلی روشن به این شکل اضافه کرده ام.
14:55
How many of you see that sort of boundary,
251
895000
2000
چند نفر از شما ها این لبه ها را می بینید
14:57
with the Necker cube floating in front of the circles?
252
897000
3000
و احساس می کنید که این مکعب نکر از صفحه بیرون زده است؟
15:00
Can you see it?
253
900000
2000
آیا می توانید این را ببینید؟
15:02
Well, you know, in effect, the boundary's really there, in a certain sense.
254
902000
5000
واقعیت این است که این لبه ها به یک معنی واقعا آنجا هستند.
15:07
Your brain is actually computing that boundary,
255
907000
3000
مغز شما واقعا آن لبه ها را محاسبه می کند.
15:10
the boundary that goes right there.
256
910000
5000
آن لبه ای که اینجا قرار دارد.
15:15
But now, notice there are two ways of seeing the cube, right?
257
915000
2000
اما الان، به دو شکل می توان این مکعب را دید. درست است؟
15:17
It's a Necker cube.
258
917000
2000
این یک مکعب نکر است.
15:19
Everybody can see the two ways of seeing the cube? OK.
259
919000
4000
همه می توانند مکعب را به هر دو شکل را ببینند؟
15:23
Can you see the four ways of seeing the cube?
260
923000
4000
ببینم آیا شما می توانید به چهار شکل مکعب را ببینید؟
15:27
Because there's another way of seeing it.
261
927000
2000
یک راه دیگری برای دیدن مکعب هست.
15:29
If you're seeing it as a cube floating in front of some circles,
262
929000
3000
یک راه این است که یک مکعب سفید روی یک صفحه سفید
15:32
some black circles, there's another way of seeing it.
263
932000
3000
که چند تا لکه سیاه دارد ببینید و یک راه این است
15:35
As a cube, on a black background,
264
935000
2000
که یک مکعب سفید پشت یک صفحه سفید که چند تا سوراخ دارد ببینید.
15:37
as seen through a piece of Swiss cheese.
265
937000
2000
مانند دیدن از بین یک قطعه پنیر سوئیسی.
15:39
(Laughter)
266
939000
3000
(خنده)
15:42
Can you get it? How many of you can't get it? That'll help.
267
942000
6000
می توانید اینطوری تصورش کنید؟ چند نفر از شما نمی توانند آن را ببینند. حالا راحت تر شد.
15:48
(Laughter)
268
948000
2000
(خنده)
15:50
Now you can get it. These are two very different phenomena.
269
950000
5000
حالا که متوجه شدید. این دو نمونه، پدیده های کاملا متفاوتی هستند.
15:55
When you see the cube one way, behind the screen,
270
955000
6000
وقتی شما مکعب را پشت صفحه می بینید
16:01
those boundaries go away.
271
961000
2000
این لبه ها از بین می روند.
16:03
But there's still a sort of filling in, as we can tell if we look at this.
272
963000
5000
اما به هر حال یک نوع تکمیل وجود دارد. همان طور که با دیدن این تصویر می توانیم بگوییم.
16:08
We don't have any trouble seeing the cube, but where does the color change?
273
968000
4000
ما به راحتی مکعب را می بینیم ولی نمی دانیم دقیقا کجا رنگ ها عوض می شوند؟
16:12
Does your brain have to send little painters in there?
274
972000
3000
آیا مغز شما نیاز دارد که نقاش های کوچکی را پشت صفحه بفرستد؟
16:15
The purple-painters and the green-painters
275
975000
2000
آیا نقاش های صورتی و نقاش های سبز
16:17
fight over who's going to paint that bit behind the curtain? No.
276
977000
3000
سر اینکه تا کجا کدام رنگ را ادامه بدهند با هم دعوا می کنند؟ نه.
16:20
Your brain just lets it go. The brain doesn't need to fill that in.
277
980000
4000
نه مغز شما این مساله را نادیده می گیرد. مغز نیازی ندارد این مساله را حل کند.
16:29
When I first started talking about
278
989000
3000
وقتی من برای اولین بار شروع به صحبت در مورد
16:32
the Bradley, Petrie, Dumais example that you just saw --
279
992000
4000
این مثالی که همین حالا بهتون نشان دادم کردم
16:36
I'll go back to it, this one --
280
996000
4000
منظورم این یکی است.
16:40
I said that there was no filling-in behind there.
281
1000000
7000
من گفتم که اینجا تکمیل کردنی رخ نمی دهد.
16:47
And I supposed that that was just a flat truth, always true.
282
1007000
3000
و با خودم فکر کردم که این یک واقعیتی است که همیشه درست است.
16:50
But Rob Van Lier has recently shown that it isn't.
283
1010000
5000
اما اخیراً راب ون لیر نشان داده که همیشه اینطور نیست.
16:55
Now, if you think you see some pale yellow --
284
1015000
5000
اگر شما فکر می کنید که در این تصویر یک شی زرد می بینید
17:00
I'll run this a few more times.
285
1020000
2000
من این را چند بار دیگر نمایش خواهم داد.
17:02
Look in the gray areas,
286
1022000
4000
به این مناطق خاکستری توجه کنید.
17:06
and see if you seem to see something sort of shadowy moving in there --
287
1026000
5000
شما یک سایه ای نمی بینید که دارد اینجا حرکت می کند؟
17:11
yeah, it's amazing. There's nothing there. It's no trick.
288
1031000
7000
بله! این شگفت آور است. در واقع هیچ چیزی در قسمت های خاکستری نیست. هیچ کلکی در کار نیست.
17:18
["Failure to Detect Changes in Scenes" slide]
289
1038000
6000
این یکی از کارهای ران رنسیک است که به درجاتی از آن
17:24
This is Ron Rensink's work, which was in some degree
290
1044000
2000
پیشنهاد من در آخر کتابم الهام گرفته است.
17:26
inspired by that suggestion right at the end of the book.
291
1046000
4000
اجازه بدهید من این را برای چند ثانیه متوقف کنم.
17:30
Let me just pause this for a second if I can.
292
1050000
2000
اسم این پدیده کوری در موقع تغییر است.
17:32
This is change-blindness.
293
1052000
2000
من دو تا تصویر به شما نشان خواهم داد
17:34
What you're going to see is two pictures,
294
1054000
2000
یکی از این دو تا تصویر با آن یکی کمی تفاوت دارد.
17:36
one of which is slightly different from the other.
295
1056000
2000
مثلا اینجا می بینید که تصویر اول و دوم فرقشان این است که یکی سقف خاکستری و
17:38
You see here the red roof and the gray roof,
296
1058000
3000
آن یکی سقف قرمز دارد. بین این دو تا تصویر
17:41
and in between them there will be a mask,
297
1061000
2000
برای حدود یک چهارم ثانیه یک ماسک (پوشانه) نشان داده می شود.
17:43
which is just a blank screen, for about a quarter of a second.
298
1063000
4000
شما تصویر اول را می بینید بعد ماسک را
17:47
So you'll see the first picture, then a mask,
299
1067000
2000
و بعد تصویر دوم را و بعد ماسک را
17:49
then the second picture, then a mask.
300
1069000
2000
و به همین ترتیب این ها تکرار می شود و شما باید وقتی فرق دو تا تصویر را
17:51
And this will just continue, and your job as the subject
301
1071000
4000
فهمیدید یک دکمه را فشار بدهید.
17:55
is to press the button when you see the change.
302
1075000
3000
پس تصویر اول برای ۲۴۰ میلی ثانیه نشان داده می شود بعد صحفه خالی می شود.
17:58
So, show the original picture for 240 milliseconds. Blank.
303
1078000
8000
بعد تصویر دوم ۲۴۰ میلی ثانیه نمایش داده می شود و دو مرتبه صفحه ۲۹۰ میلی ثانیه خالی است.
18:06
Show the next picture for 240 milliseconds. Blank.
304
1086000
6000
و به همین ترتیب این مراحل تکرار می شود تا فرد مورد آزمایش دکمه را فشار بدهد.
18:12
And keep going, until the subject presses the button, saying,
305
1092000
4000
و بگوید که تغییر را دیده است.
18:16
"I see the change."
306
1096000
2000
حالا من می خواهم آزمایش را روی شما انجام بدهم.
18:18
So now we're going to be subjects in the experiment.
307
1098000
3000
با یک مثال ساده شروع می کنیم.
18:21
We're going to start easy. Some examples.
308
1101000
9000
خوب این که مشکل نیست؟
18:30
No trouble there.
309
1110000
2000
همه می بینند؟ خیلی خوب.
18:32
Can everybody see? All right.
310
1112000
3000
خوب افرادی که این آزمایش را انجام داده اند اندکی بیش از
18:35
Indeed, Rensink's subjects took only a little bit more
311
1115000
4000
یک ثانیه بعد از شروع تغییر را متوجه می شدند.
18:39
than a second to press the button.
312
1119000
2000
این یکی را می بینید؟
18:46
Can you see that one?
313
1126000
1000
افراد این یکی را در نزدیک به ۲.۹ ثانیه متوجه شده اند.
18:55
2.9 seconds.
314
1135000
2000
چند نفر هنوز پیداش نکرده اند؟
19:04
How many don't see it still?
315
1144000
3000
چه روی سقف آن کلبه هست؟
19:07
What's on the roof of that barn?
316
1147000
2000
(خنده)
19:09
(Laughter)
317
1149000
3000
این یکی آسان است.
19:20
It's easy.
318
1160000
2000
روی رودخانه پل است یا اسکله؟
19:46
Is it a bridge or a dock?
319
1186000
2000
این چند تای آخر خیلی جالب هستند.
19:52
There are a few more really dramatic ones, and then I'll close.
320
1192000
4000
من می خواهم چند تا که واقعا تکان دهنده هستند به شما نشان دهم.
19:56
I want you to see a few that are particularly striking.
321
1196000
4000
این یکی خیلی تغییر بزرگی است و باز هم به سختی دیده می شود.
20:00
This one because it's so large and yet it's pretty hard to see.
322
1200000
7000
آیا می توانید آن را ببینید؟
20:07
Can you see it?
323
1207000
3000
حضار : بله.
20:10
Audience: Yes.
324
1210000
2000
سایه ها عقب و جلو می روند بالای دماغه هواپیما.خیلی بزرگ است.
20:12
Dan Dennett: See the shadows going back and forth? Pretty big.
325
1212000
3000
این یکی پانزده و نیم ثانیه وقت
20:23
So 15.5 seconds is the median time
326
1223000
4000
آزمایش دهندگان را می گرفته است.
20:27
for subjects in his experiment there.
327
1227000
2000
من این یکی را خیلی دوست دارم.این دیگر آخریش است.
20:29
I love this one. I'll end with this one,
328
1229000
3000
چون که این خیلی واضح است و چیز خیلی مهمی است.
20:32
just because it's such an obvious and important thing.
329
1232000
3000
چند نفر این را هنوز نمی بینند؟ چند نفر این را هنوز نمی بینند؟
20:37
How many still don't see it? How many still don't see it?
330
1237000
6000
آن هواپیما چند تا موتور زیر بالش دارد؟
20:43
How many engines on the wing of that Boeing?
331
1243000
3000
(خنده)
20:46
(Laughter)
332
1246000
1000
درست در وسط تصویر.
20:47
Right in the middle of the picture!
333
1247000
6000
خیلی ممنون از توجهتون.
20:53
Thanks very much for your attention.
334
1253000
1000
من قصد داشتم به شما نشان بدهم که دانشمندان سعی می کنند
20:54
What I wanted to show you is that scientists,
335
1254000
5000
با روشهایی از بیرون و از دید ناظر خارجی
20:59
using their from-the-outside, third-person methods,
336
1259000
4000
به شما در مورد هوشیاری درونی شما اطلاعاتی بدهند
21:03
can tell you things about your own consciousness
337
1263000
2000
که حتی خوابش را هم نمی دیده اید.
21:05
that you would never dream of,
338
1265000
2000
و در واقع شما شناختی از
21:07
and that, in fact, you're not the authority
339
1267000
2000
هوشیاری خودتان تا آن حد که فکر می کنید ندارید.
21:09
on your own consciousness that you think you are.
340
1269000
2000
و در واقع ما در راه رسیدن به
21:11
And we're really making a lot of progress
341
1271000
2000
یک تئوری ذهن خیلی پیشرفت کرده ایم.
21:13
on coming up with a theory of mind.
342
1273000
3000
جف هاوکینز امروز صبح سعی کرد که تلاشهای خودش
21:16
Jeff Hawkins, this morning, was describing his attempt
343
1276000
6000
برای رسیدن به یک تئوری خوب در علوم اعصاب را توضیح دهد.
21:22
to get theory, and a good, big theory, into the neuroscience.
344
1282000
4000
و من با او موافقم که این مشکل بزرگی است.
21:26
And he's right. This is a problem.
345
1286000
5000
یک بار من در دانشکده پزشکی هاروارد سخنرانی می کردم
21:31
Harvard Medical School once -- I was at a talk --
346
1291000
2000
ریس یک آزمایشگاه می گفت در آزمایشگاه ما یک جمله ای هست که می گوید:
21:33
director of the lab said, "In our lab, we have a saying.
347
1293000
4000
اگر شما روی یک نورون کار می کنید کار شما نوروساینس است.
21:37
If you work on one neuron, that's neuroscience.
348
1297000
3000
اگر شما روی دو تا نورون کار می کنید کار شما روانشناسی است.
21:40
If you work on two neurons, that's psychology."
349
1300000
3000
(خنده)
21:43
(Laughter)
350
1303000
4000
ما به تئوری های بیشتری نیاز داریم و خیلی از این ها از بالا به پایین خواهند آمد.
21:47
We have to have more theory, and it can come as much from the top down.
351
1307000
3000
از شما خیلی متشکرم.
21:50
Thank you very much.
352
1310000
2000
(تشویق)
21:52
(Applause)
353
1312000
4000

Original video on YouTube.com
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7