What is consciousness? - Michael S. A. Graziano

1,503,210 views ・ 2019-02-11

TED-Ed


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: Behdad Khazaeli Reviewer: sadegh zabihi
00:06
Here are two images of a house.
0
6657
2420
اینجا دو تصویر از یک خانه داریم.
00:09
There’s one obvious difference,
1
9077
2270
یک تفاوت مشخص وجود دارد،
00:11
but to this patient, P.S.,
2
11347
2460
اما برای این بیمار، پ. س.،
00:13
they looked completely identical.
3
13807
2800
کاملاً یکسان به نظر می‌رسند.
00:16
P.S. had suffered a stroke that damaged the right side of her brain,
4
16607
3760
پ. س. دچار سکته مغزی شده که به سمت راست مغزش آسیب رسانده،
00:20
leaving her unaware of everything on her left side.
5
20367
3650
و موجب شده تا از چیز‌هایی که در سمت چپش اتفاق می‌افتد آگاه نشود،
00:24
But though she could discern no difference between the houses,
6
24017
3540
اما اگرچه تفاوتی را میان خانه‌ها تشخیص نمی‌دهد،
00:27
when researchers asked her which she would prefer to live in,
7
27557
3390
اگر محققین از او بپرسند که در کدام خانه دوست دارد زندگی کند،
00:30
she chose the house that wasn’t burning—
8
30947
2840
خانه‌ای را که آتش نگرفته انتخاب می‌کند —
00:33
not once, but again and again.
9
33787
3110
نه یک بار، بار‌ها و بار‌ها.
00:36
P.S.’s brain was still processing information
10
36897
3420
مغز پ. س. هنوز اطلاعات را پردازش می‌کند
00:40
from her whole field of vision.
11
40317
2120
از تمامی میدان دیدش.
00:42
She could see both images
12
42437
1660
او می‌تواند هر دو تصویر را ببیند
00:44
and tell the difference between them,
13
44097
1980
و تفاوت‌های میانشان را بگوید،
00:46
she just didn’t know it.
14
46077
1760
تنها این را نمی‌داند.
00:47
If someone threw a ball at her left side,
15
47837
2710
اگر کسی توپی به سمت چپش پرت کند،
00:50
she might duck.
16
50547
980
احتمالاً سرش را می‌دزدد.
00:51
But she wouldn’t have any awareness of the ball,
17
51527
3250
اما هیچ آگاهی از توپ نخواهد داشت،
00:54
or any idea why she ducked.
18
54777
2680
یا چرا سرش را دزدیده.
00:57
P.S.’s condition,
19
57457
1420
بیماری پ. س.،
00:58
known as hemispatial neglect,
20
58877
2270
که «غفلت یک سویه» نامیده می‌شود،
01:01
reveals an important distinction between the brain’s processing of information
21
61147
4840
نشانگر تفاوت مهمی میان پردازش اطلاعات در مغز
01:05
and our experience of that processing.
22
65987
3177
و درک ما از این پردازش است.
01:09
That experience is what we call consciousness.
23
69164
3870
این تجربه چیزی است که آگاهی می‌نامیم.
01:13
We are conscious of both the external world and our internal selves—
24
73034
5010
ما از جهان بیرونی و خود درونی‌مان، هر دو آگاهیم —
01:18
we are aware of an image
25
78044
1771
ما از تصویری آگاهیم
01:19
in much the same way we are aware of ourselves looking at an image,
26
79815
3870
تقریباً به همان شکلی که وقتی به تصویری نگاه می‌کنیم،
01:23
or our inner thoughts and emotions.
27
83685
2770
از افکار درونی و احساساتمان خودمان آگاهیم.
01:26
But where does consciousness come from?
28
86455
2510
اما آگاهی از کجا می‌آید؟
01:28
Scientists, theologians, and philosophers
29
88965
2850
دانشمندان، حکما و فلاسفه
01:31
have been trying to get to the bottom of this question for centuries—
30
91815
3810
برای قرن‌ها تلاش کرده‌اند تا به انتهای این سوال برسند —
01:35
without reaching any consensus.
31
95625
2600
اگرچه به توافقی نرسیده‌اند.
01:38
One recent theory is that
32
98225
1710
یک نظریه جدید این است که
01:39
consciousness is the brain’s imperfect picture of its own activity.
33
99935
4930
آگاهی تصویر ناقص مغز از فعالیت‌های خودش است.
01:44
To understand this theory,
34
104865
1470
فهمیدن این نظریه
01:46
it helps to have a clear idea
35
106335
1630
کمک می‌کند تا نظری روشن بدست آوریم
01:47
of one important way the brain processes information from our senses.
36
107965
4830
از روشی مهم که مغز اطلاعات حسی ما را پردازش می‌کند.
01:52
Based on sensory input,
37
112795
1609
بر اساس ورودی‌های حسی،
01:54
it builds models,
38
114404
1360
مدل‌هایی را می‌سازد،
01:55
which are continuously updating, simplified descriptions
39
115764
3400
که دائما بروز می‌شوند، مشخصات ساده شده‌ای
01:59
of objects and events in the world.
40
119164
2940
از اشیا و حوادث این جهان.
02:02
Everything we know is based on these models.
41
122104
3350
هر چیزی که ما می‌دانیم بر پایه این مدل‌هاست.
02:05
They never capture every detail of the things they describe,
42
125454
3590
آن‌ها هیچوقت تمامی جزئیات چیز‌هایی را که تعریف می‌کنند را نمی‌گیرند،
02:09
just enough for the brain to determine appropriate responses.
43
129044
4053
تنها به اندازه‌ای که مغز پاسخ صحیحی را معین کند.
02:13
For instance, one model built deep into the visual system
44
133397
3480
مثلا، یک مدل در عمق ساختار بینایی ما قرار دارد
02:16
codes white light as brightness without color.
45
136877
3260
و نور سفید را به شکل روشنایی بدون رنگ کد می‌کند.
02:20
In reality,
46
140137
1060
در واقعیت،
02:21
white light includes wavelengths
47
141197
1790
نور سفید طول موج
02:22
that correspond to all the different colors we can see.
48
142987
3350
همه رنگ‌های موجود قابل دیدن را داراست.
02:26
Our perception of white light is wrong and oversimplified,
49
146337
3690
درک ما از نور سفید اشتباه و بیش از حد ساده شده است،
02:30
but good enough for us to function.
50
150027
2460
اما به اندازه‌ای که بخواهیم عمل کنیم مناسب است.
02:32
Likewise, the brain’s model of the physical body
51
152487
2640
به همین صورت، مدل مغز از بدن فیزیکی،
02:35
keeps track of the configuration of our limbs,
52
155127
2670
موقعیت اعضای بدن‌مان را دنبال می‌کند،
02:37
but not of individual cells or even muscles,
53
157797
3190
اما نه هر سلول یا عضله را،
02:40
because that level of information isn’t needed to plan movement.
54
160987
3980
چون آن میزان از اطلاعات برای برنامه ریزی حرکت لازم نیست.
02:44
If it didn’t have the model keeping track of the body’s size, shape,
55
164967
3740
اگر مدلی برای حفظ اندازه و شکل،
02:48
and how it is moving at any moment,
56
168707
1970
و چگونگی حرکت آن در هر لحظه را نداشت،
02:50
we would quickly injure ourselves.
57
170677
2410
ما به سرعت خود را مجروح می‌کردیم.
02:53
The brain also needs models of itself.
58
173087
2710
مغز به مدلی از خودش هم نیاز دارد.
02:55
For example,
59
175797
870
برای مثال،
02:56
the brain has the ability to pay attention to specific objects and events.
60
176667
4520
مغز می‌تواند به چیز‌ها یا موضوعات مشخصی تمرکز کند.
03:01
It also controls that focus,
61
181187
2171
همینطور این تمرکز را کنترل می‌کند،
03:03
shifting it from one thing to another,
62
183358
1910
آن را از یک چیز به دیگری انتقال می‌دهد،
03:05
internal and external,
63
185268
1490
درونی و بیرونی،
03:06
according to our needs.
64
186758
1610
بر مبنای نیاز‌هایمان.
03:08
Without the ability to direct our focus,
65
188368
2210
بدون توانایی هدایت تمرکزمان،
03:10
we wouldn’t be able to assess threats, finish a meal, or function at all.
66
190578
4740
نمی‌توانیم خطرات را بسنجیم، غذایمان را بخوریم، یا کلا عمل کنیم.
03:15
To control focus effectively,
67
195318
2179
برای هدایت موثر تمرکز،
03:17
the brain has to construct a model of its own attention.
68
197497
3410
مغز باید مدلی از توجه خود بسازد.
03:20
With 86 billion neurons constantly interacting with each other,
69
200907
3960
با ۸۶ میلیارد نورونی که دائما با هم در تعاملند،
03:24
there’s no way the brain’s model of its own information processing
70
204867
3790
امکان ندارد تا مدل مغز از پردازش اطلاعات خود
03:28
can be perfectly self-descriptive.
71
208657
2460
کاملاً مطابق با خودش باشد.
03:31
But like the model of the body,
72
211117
1670
اما مثل مدل بدن،
03:32
or our conception of white light,
73
212787
2110
یا درک ما از نور سفید،
03:34
it doesn’t have to be.
74
214897
1630
نیازی هم نیست.
03:36
Our certainty that we have a metaphysical, subjective experience
75
216527
3810
اطمینان ما از اینکه تجربه‌ای متافیزیکی و ذهنی داریم
03:40
may come from one of the brain’s models,
76
220337
2310
می‌تواند ناشی از یکی از مدل‌های مغز باشد،
03:42
a cut-corner description of what it means to process information
77
222647
3730
تعریفی ساده انگارانه از پردازش اطلاعات
03:46
in a focused and deep manner.
78
226377
2820
به شکلی عمیق و متمرکز.
03:49
Scientists have already begun trying to figure out
79
229197
2670
دانشمندان شروع کرده‌اند تا بفهمند
03:51
how the brain creates that self model.
80
231867
2920
که مغز چگونه این مدل را از خود می‌سازد.
03:54
MRI studies are a promising avenue for pinpointing the networks involved.
81
234787
4730
بررسی توسط MRI راهی نوید‌بخش در تعیین شبکه‌های مسئول این موضوع است.
03:59
These studies compare patterns of neural activation
82
239517
2980
در این مطالعات الگو‌های فعالیت‌های عصبی مقایسه می‌شوند
04:02
when someone is and isn’t conscious of a sensory stimulus, like an image.
83
242497
5010
وقتی که شخصی از یک محرک حسی آگاهی دارد یا ندارد، مثل یک تصویر.
04:07
The results show that the areas needed for visual processing
84
247507
3440
نتایج نشان می‌دهند که مناطقی که برای پردازش تصویر مورد نیاز است
04:10
are activated whether or not the participant is aware of the image,
85
250947
3969
شخص آگاهی داشته باشد یا نه فعال هستند،
04:14
but a whole additional network lights up
86
254916
2761
اما شبکه‌ای کامل تنها وقتی فعال می‌شود
04:17
only when they are conscious of seeing the image.
87
257677
3710
که آگاهی از تصویر وجود داشته باشد.
04:21
Patients with hemispatial neglect, like P.S.,
88
261387
2850
بیمارانی مانند پ. س.، که دچار غفلت یک سویه هستند،
04:24
typically have damage to one particular part of this network.
89
264237
4230
معمولا دچار آسیب به قسمتی از این شبکه شده‌اند.
04:28
More extensive damage to the network can sometimes lead to a vegetative state,
90
268467
4322
آسیب گسترده‌تر به این شبکه می‌تواند منجر به حالت زندگی گیاهی شود،
04:32
with no sign of consciousness.
91
272789
2930
که نشانی از آگاهی وجود ندارد.
04:35
Evidence like this brings us closer to understanding
92
275719
2780
شواهدی مانند این ما را به درک
04:38
how consciousness is built into the brain,
93
278499
2750
اینکه آگاهی چگونه در مغزمان ساخته شده نزدیکتر می‌کند،
04:41
but there’s still much more to learn.
94
281249
1900
اما هنوز چیز‌های خیلی بیشتری برای یاد گرفتن وجود دارد.
04:43
For instance,
95
283149
860
مثلا، روشی که نورون‌های شبکه‌های مربوط به آگاهی
04:44
the way neurons in the networks related to consciousness
96
284009
2850
04:46
compute specific pieces of information
97
286859
2540
بخش خاصی از اطلاعات را پردازش می‌کنند
04:49
is outside the scope of our current technology.
98
289399
2970
خارج از توان فناوری فعلی ماست.
04:52
As we approach questions of consciousness with science,
99
292369
3080
همینطور که با کمک علم از آگاهی می‌پرسیم،
04:55
we’ll open new lines of inquiry into human identity.
100
295449
3530
مرز‌های جدیدی از تحقیق را در شناخت انسان می‌گشاییم.
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7