How we read each other's minds | Rebecca Saxe

ربكا ساكس: مغز چگونه قضاوت اخلاقی ميكنه

560,652 views

2009-09-11 ・ TED


New videos

How we read each other's minds | Rebecca Saxe

ربكا ساكس: مغز چگونه قضاوت اخلاقی ميكنه

560,652 views ・ 2009-09-11

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: Bidel Akbari Reviewer: Saeed Salehi
00:12
Today I'm going to talk to you about the problem of other minds.
0
12160
3000
امروز میخوام درباره مسئله ذهن دیگران صحبت کنم.
00:15
And the problem I'm going to talk about
1
15160
2000
و مسئله‌ای که میخوام راجع بهش صحبت کنم
00:17
is not the familiar one from philosophy,
2
17160
3000
اونی نیست که از طریق فلسفه باهاش آشنا هستیم،
00:20
which is, "How can we know
3
20160
2000
که میگه، "ما چطور میتونیم بفهمیم
00:22
whether other people have minds?"
4
22160
2000
که دیگران ذهن و خرد دارند یا نه؟"
00:24
That is, maybe you have a mind,
5
24160
2000
منظورش اینه که، شاید شما ذهن و خرد دارید
00:26
and everyone else is just a really convincing robot.
6
26160
3000
و دیگران فقط یک روبات شبیه به انسان هستند.
00:29
So that's a problem in philosophy,
7
29160
2000
خب اون مشکلیه که توی فلسفه وجود داره.
00:31
but for today's purposes I'm going to assume
8
31160
2000
ولی برای مسئله امروز من میخوام فرض کنم
00:33
that many people in this audience have a mind,
9
33160
2000
که حاضرین اینجا دارای ذهن و خرد هستند
00:35
and that I don't have to worry about this.
10
35160
2000
و لازم نیست راجع به این مسئله نگران باشم.
00:37
There is a second problem that is maybe even more familiar to us
11
37160
3000
مشکل دومی هم هست که شاید به عنوان
00:40
as parents and teachers and spouses
12
40160
3000
والدین و معلمان و همسران و
00:43
and novelists,
13
43160
2000
نویسندگان حتی بیشتر باهاش آشنا باشیم.
00:45
which is, "Why is it so hard
14
45160
2000
و اون اينه که، "چرا بسيار سخته
00:47
to know what somebody else wants or believes?"
15
47160
2000
فهميدن خواسته ها و باورهاي ديگران؟"
00:49
Or perhaps, more relevantly,
16
49160
2000
و شاید، مربوط تر،
00:51
"Why is it so hard to change what somebody else wants or believes?"
17
51160
3000
"چرا عوض کردن چیزایی که یه نفر میخواد یا باور داره انقدر سخته؟"
00:54
I think novelists put this best.
18
54160
2000
به نظر من نویسنده‌ها این رو خوب تفسیر کردن.
00:56
Like Philip Roth, who said,
19
56160
2000
مثل فلیپ راث، که گفته،
00:58
"And yet, what are we to do about this terribly significant business
20
58160
3000
"حالا، کار خیلی خیلی مهم دیگران چه ربطی به ما داره؟
01:01
of other people?
21
61160
2000
"حالا، کار خیلی خیلی مهم دیگران چه ربطی به ما داره؟
01:03
So ill equipped are we all,
22
63160
2000
تجهیزات ما خیلی کمه
01:05
to envision one another's interior workings
23
65160
2000
برای دیدن کارکردهای درونی و
01:07
and invisible aims."
24
67160
2000
اهداف درونی دیگران."
01:09
So as a teacher and as a spouse,
25
69160
3000
بنابراین به عنوان معلم، و به عنوان همسر،
01:12
this is, of course, a problem I confront every day.
26
72160
2000
این، البته، مسئله‌ایه که من هر روز باهاش روبرو میشم.
01:14
But as a scientist, I'm interested in a different problem of other minds,
27
74160
3000
ولی به عنوان دانشمند، من به یه مسئله‌ی دیگه در مورد ذهن و خرد دیگران علاقمندم.
01:17
and that is the one I'm going to introduce to you today.
28
77160
3000
و اون اونیه که امروز میخوام به شما معرفی کنم.
01:20
And that problem is, "How is it so easy
29
80160
2000
و اون مسئله اینه که، "دونستن ذهن دیگران
01:22
to know other minds?"
30
82160
2000
و اون مسئله اینه که، "دونستن ذهن دیگران چرا انقدر راحته؟"
01:24
So to start with an illustration,
31
84160
2000
خب کار رو با یک تصویر شروع می‌کنیم،
01:26
you need almost no information,
32
86160
2000
شما تقریبا به هیچ اطلاعاتی نیاز ندارین،
01:28
one snapshot of a stranger,
33
88160
2000
یه عکس از یه غریبه،
01:30
to guess what this woman is thinking,
34
90160
2000
برای اینکه حدس بزنین که این خانم به چی چیزی داره فکر میکنه،
01:32
or what this man is.
35
92160
3000
یا این آقا داره به چی فکر میکنه.
01:35
And put another way, the crux of the problem is
36
95160
2000
به عبارت دیگه، معمای قضیه وسیله‌ایه که ما برای ذهن دیگران استفاده می‌کنیم،
01:37
the machine that we use for thinking about other minds,
37
97160
3000
به عبارت دیگه، معمای قضیه وسیله‌ایه که ما برای ذهن دیگران استفاده می‌کنیم،
01:40
our brain, is made up of pieces, brain cells,
38
100160
3000
مغز ما از قسمت‌هایی تشکیل شده، سلول‌های مغز،
01:43
that we share with all other animals, with monkeys
39
103160
2000
که ما اون رو با همه حیوانات دیگه مشترکیم، با میمون‌ها
01:45
and mice and even sea slugs.
40
105160
3000
موش‌ها، و حتی حلزون‌های دریایی.
01:48
And yet, you put them together in a particular network,
41
108160
3000
حالا شما اون سلول‌ها رو بصورت شبکه ویژه‌ای قرار بدید،
01:51
and what you get is the capacity to write Romeo and Juliet.
42
111160
3000
و چیزی که بدست میاد قدرت بوجود آوردن رومئو و جولیت رو خواهد داشت.
01:54
Or to say, as Alan Greenspan did,
43
114160
2000
یا اگه مثل آلن گرینسپن بگیم،
01:56
"I know you think you understand what you thought I said,
44
116160
3000
"میدونم که فکر میکنی اون چیزی رو که فکر میکنی گفته بودم رو متوجه شدی،
01:59
but I'm not sure you realize that what you heard
45
119160
2000
ولی مطمئن نیستم که پی برده باشی اون چیزی که شنیدی
02:01
is not what I meant."
46
121160
2000
اونی نیست که منظورم بوده."
02:03
(Laughter)
47
123160
3000
(خنده حاضرین)
02:06
So, the job of my field of cognitive neuroscience
48
126160
2000
بنابراین شغل من در رشته مغزو اعصابِ شناختی اینه که
02:08
is to stand with these ideas,
49
128160
2000
با همچین ایده‌هایی کنار بیام
02:10
one in each hand.
50
130160
2000
هرکدومشون توی یکی از دستام.
02:12
And to try to understand how you can put together
51
132160
3000
و سعی کردن برای فهمیدن اینکه چطور میشه
02:15
simple units, simple messages over space and time, in a network,
52
135160
4000
بخش‌ها و پیام‌های ساده‌ای در طول زمان و مکان بصورت یک شبکه درآورد
02:19
and get this amazing human capacity to think about minds.
53
139160
4000
و این توانایی بالقوه انسانها رو برای فکر کردن راجع به افکار و ذهن‌ها بکار گرفت.
02:23
So I'm going to tell you three things about this today.
54
143160
3000
بنابراین من امروز سه تا چیز راجع به این به شما میگم.
02:26
Obviously the whole project here is huge.
55
146160
3000
مشخصه که کل پروژه خیلی عظیمه.
02:29
And I'm going to tell you just our first few steps
56
149160
3000
و من میخوام درباره فقط چند قدم اولیه ما
02:32
about the discovery of a special brain region
57
152160
2000
در راه کشف یه قسمت خاص در مغز که راجع به افکار دیگران فکر میکنه صحبت کنم.
02:34
for thinking about other people's thoughts.
58
154160
2000
که راجع به افکار دیگران فکر میکنه صحبت کنم.
02:36
Some observations on the slow development of this system
59
156160
2000
مشاهداتی چند درباره توسعه کند این سیستم
02:38
as we learn how to do this difficult job.
60
158160
4000
در حین اینکه ما این کار سخت رو یاد میگیریم.
02:42
And then finally, to show that some of the differences
61
162160
2000
ودر نهایت، نشون دادن اینکه
02:44
between people, in how we judge others,
62
164160
3000
تفاوت میان قضاوت‌ها در دیگران
02:47
can be explained by differences in this brain system.
63
167160
4000
میتونه بوسیله فرق‌هایی که در این سیستم مغز وجود داره توضیح داده بشه.
02:51
So first, the first thing I want to tell you is that
64
171160
2000
برای شروع، اولین چیزی که میخوام بهتون بگم اینه که
02:53
there is a brain region in the human brain, in your brains,
65
173160
3000
یه قسمتی در مغز انسانها هست، در مغز شما هست،
02:56
whose job it is to think about other people's thoughts.
66
176160
3000
که کارش فکر کردن راجع به افکار دیگرانه.
02:59
This is a picture of it.
67
179160
2000
این یه عکس از اون قسمته.
03:01
It's called the Right Temporo-Parietal Junction.
68
181160
2000
اسمش تقاطع تمپورو-پاریتال راسته.
03:03
It's above and behind your right ear.
69
183160
2000
اون بالا و پشت گوش سمت راست شما قرار گرفته
03:05
And this is the brain region you used when you saw the pictures I showed you,
70
185160
2000
این قسمتیه که شما وقتی اون عکس رو بهتون نشون دارم، ازش استفاده کردین،
03:07
or when you read Romeo and Juliet
71
187160
2000
یا وقتی که دارین رومئو و جولیت رو میخونین
03:09
or when you tried to understand Alan Greenspan.
72
189160
3000
یا وقتی که دارین سعی میکنین آلن گرینسپن رو متوجه بشین.
03:12
And you don't use it for solving any other kinds of logical problems.
73
192160
4000
و شما از اون برای حل کردن هیچگونه مسئله منطقی‌ای استفاده نمیکنین.
03:16
So this brain region is called the Right TPJ.
74
196160
3000
بنابراین این قسمت از مغز RTPJ نام داره.
03:19
And this picture shows the average activation
75
199160
2000
و این عکس فعالیت متوسط اون رو در گروهی رو نشون میده که ما به اونا انسانها بالغ معمولی میگیم.
03:21
in a group of what we call typical human adults.
76
201160
2000
و این عکس فعالیت متوسط اون رو در گروهی رو نشون میده که ما به اونا انسانها بالغ معمولی میگیم.
03:23
They're MIT undergraduates.
77
203160
2000
اونا دانشجویان دوره لیسانس دانشگاه MIT هستند.
03:25
(Laughter)
78
205160
4000
(خنده حاضرین)
03:29
The second thing I want to say about this brain system
79
209160
2000
دومین چیزی که میخوام راجع به این سیستم مغز بگم اینه که
03:31
is that although we human adults
80
211160
2000
گرچه ما آدم بزرگا
03:33
are really good at understanding other minds,
81
213160
2000
خیلی توی درک کردن ذهن دیگران خوب عمل میکنیم،
03:35
we weren't always that way.
82
215160
2000
ولی قبلا اینطوری نبودیم.
03:37
It takes children a long time to break into the system.
83
217160
3000
خیلی طول میکشه که یک کودک این سیستم رو بدست بیاره.
03:40
I'm going to show you a little bit of that long, extended process.
84
220160
4000
من میخوام بخشی از اون پروسه وسیع و طولانی رو بهتون نشون بدم.
03:44
The first thing I'm going to show you is a change between age three and five,
85
224160
3000
اولین چیزی که میخوام بهتون نشون بدم فرق بین سه سالگی و پنج سالگیه،
03:47
as kids learn to understand
86
227160
2000
که بچه‌ها یاد میگیرن
03:49
that somebody else can have beliefs that are different from their own.
87
229160
3000
که یه نفر دیگه ممکنه باورهایی متفاوت از باورهای اونها داشته باشه.
03:52
So I'm going to show you a five-year-old
88
232160
2000
بنابراین من به شما یک پنج ساله نشون میدم
03:54
who is getting a standard kind of puzzle
89
234160
2000
که داره یه پازل استاندارد رو
03:56
that we call the false belief task.
90
236160
3000
که ما بهش تمرین باور غلط میگیم حل میکنه.
03:59
Rebecca Saxe (Video): This is the first pirate. His name is Ivan.
91
239160
3000
ویدئو: این دزد دریایی اولیه. اسمش ایوانه.
04:02
And you know what pirates really like?
92
242160
2000
میدونی دزد دریایی‌ها چیو خیلی دوست دارن؟
04:04
Child: What? RS: Pirates really like cheese sandwiches.
93
244160
3000
دزدهای دریایی ساندویچ پنیر خیلی دوست دارن.
04:07
Child: Cheese? I love cheese!
94
247160
3000
بچه: پنیر؟ منم عاشق پنیرم!
04:10
RS: Yeah. So Ivan has this cheese sandwich,
95
250160
2000
ر.س: درسته. خب این ساندویچ پنیری مال ایوانه.
04:12
and he says, "Yum yum yum yum yum!
96
252160
2000
و اون میگه "یام یام یام یام یام!
04:14
I really love cheese sandwiches."
97
254160
2000
من واقعا عاشق ساندویچ پنیری‌ام."
04:16
And Ivan puts his sandwich over here, on top of the pirate chest.
98
256160
4000
بعد ایوان ساندویچشو میزاره اینجا، روی صندوقش.
04:20
And Ivan says, "You know what? I need a drink with my lunch."
99
260160
4000
بعد ایوان میگه، "میدونی؟ من با ناهارم یه نوشیدنی میخوام."
04:24
And so Ivan goes to get a drink.
100
264160
3000
پس ایوان میره که یه نوشیدنی بگیره.
04:27
And while Ivan is away
101
267160
2000
و وقتی که ایوان اونجا نیست
04:29
the wind comes,
102
269160
3000
باد میاد
04:32
and it blows the sandwich down onto the grass.
103
272160
2000
و ساندویچ رو روی چمن میندازه.
04:34
And now, here comes the other pirate.
104
274160
4000
حالا، یه دزد دریایی دیگه وارد میشه.
04:38
This pirate is called Joshua.
105
278160
3000
اسم این جاشواس.
04:41
And Joshua also really loves cheese sandwiches.
106
281160
2000
و جاشوا هم واقعا عاشق ساندویچ پنیریه.
04:43
So Joshua has a cheese sandwich and he says,
107
283160
2000
خب، جاشوا هم یه ساندویچ پنیری داره و میگه،
04:45
"Yum yum yum yum yum! I love cheese sandwiches."
108
285160
4000
"یام یام یام یام یام! من واقعا عاشق ساندویچ پنیری‌ام."
04:49
And he puts his cheese sandwich over here on top of the pirate chest.
109
289160
3000
و اون ساندویچ پنیری‌اش رو میزاره اینجا روی صندوقچه.
04:52
Child: So, that one is his.
110
292160
2000
بچه: خب، اون ساندویچ مال اونه.
04:54
RS: That one is Joshua's. That's right.
111
294160
2000
ر.س: اون که اونجاس مال جاشواس، درسته.
04:56
Child: And then his went on the ground.
112
296160
2000
بچه: و بعد مال اون افتاد روی زمین.
04:58
RS: That's exactly right.
113
298160
2000
ر.س: دقیقا درسته.
05:00
Child: So he won't know which one is his.
114
300160
2000
بچه: پس اون نمیدونه که کدوم مال اونه.
05:02
RS: Oh. So now Joshua goes off to get a drink.
115
302160
3000
ر.س: اوه. حالا جاشوا میره که یه نوشیدنی بگیره.
05:05
Ivan comes back and he says, "I want my cheese sandwich."
116
305160
4000
ایوان برمیگرده و میگه، "من ساندویچ پنیریمو میخوام."
05:09
So which one do you think Ivan is going to take?
117
309160
3000
خب، کدومشونو فکر میکنی ایوان برمیداره؟
05:12
Child: I think he is going to take that one.
118
312160
2000
بچه: من فکر میکنم اون اونو برمیداره.
05:14
RS: Yeah, you think he's going to take that one? All right. Let's see.
119
314160
2000
ر.س: درسته، تو فکر میکنی که اون رو برمیداره؟ بسیارخب. بزار ببینیم.
05:16
Oh yeah, you were right. He took that one.
120
316160
3000
اوه درسته، درست گفتی. اون رو ورداشت.
05:19
So that's a five-year-old who clearly understands
121
319160
2000
خب اون یه بچه پنج ساله بود که کاملا درک میکنه
05:21
that other people can have false beliefs
122
321160
2000
که ممکنه دیگران باورهای غلطی داشته باشن
05:23
and what the consequences are for their actions.
123
323160
2000
و عملشون چه عاقبت‌هایی میتونه داشته باشه.
05:25
Now I'm going to show you a three-year-old
124
325160
3000
حالا بهتون یه بچه سه ساله نشون میدم
05:28
who got the same puzzle.
125
328160
2000
که همون پازل رو حل میکنه.
05:30
RS: And Ivan says, "I want my cheese sandwich."
126
330160
2000
ویدئو: ر.س: و ایوان میگه، "من ساندویچ پنیرم رو میخوام."
05:32
Which sandwich is he going to take?
127
332160
3000
کدوم ساندویچ رو برمیداره؟
05:35
Do you think he's going to take that one? Let's see what happens.
128
335160
2000
فکر میکنی که اون رو برمیداره؟ بزار ببینیم چه اتفاقی میافته.
05:37
Let's see what he does. Here comes Ivan.
129
337160
2000
بزار ببینیم چیکار میکنه. ایوان اومد.
05:39
And he says, "I want my cheese sandwich."
130
339160
3000
و میگه، "من ساندویچ پنیریم رو میخوام."
05:42
And he takes this one.
131
342160
2000
و این رو بر میداره.
05:44
Uh-oh. Why did he take that one?
132
344160
3000
او-او. چرا اون رو برداشت؟
05:47
Child: His was on the grass.
133
347160
4000
بچه: مال اون روی چمن بود.
05:51
So the three-year-old does two things differently.
134
351160
3000
ر.س. پس سه ساله‌هه دو چیز رو بصورت متفاوت انجام میده.
05:54
First, he predicts Ivan will take the sandwich
135
354160
3000
اولش پیش بینی میکنه که ایوان اون ساندویچ رو که اونه برمیداره.
05:57
that's really his.
136
357160
2000
واقعا مال اونه.
05:59
And second, when he sees Ivan taking the sandwich where he left his,
137
359160
4000
و بعدش، وقتی که میبینه ایوان ساندویچشو از همون جایی برمیداره که گذاشته بود،
06:03
where we would say he's taking that one because he thinks it's his,
138
363160
3000
ممکنه بگیم اونو ورداشته چون فکر میکرده ساندویچ خودشه،
06:06
the three-year-old comes up with another explanation:
139
366160
3000
ولی سه ساله‌هه به یه تفسیر دیگه‌ای میرسه.
06:09
He's not taking his own sandwich because he doesn't want it,
140
369160
2000
ساندویچ خودشو برنمیداره چون نمیخوادش،
06:11
because now it's dirty, on the ground.
141
371160
2000
چون کثیفه، روی زمینه.
06:13
So that's why he's taking the other sandwich.
142
373160
2000
برای همینه که اون یکی ساندویچ رو برمیداره.
06:15
Now of course, development doesn't end at five.
143
375160
4000
حالا البته که توسعه مغز در پنج سالگی متوقف نمیشه.
06:19
And we can see the continuation of this process
144
379160
2000
و ما میتونیم ادامه پروسه
06:21
of learning to think about other people's thoughts
145
381160
2000
یادگیری فکر کردن درباره افکار دیگران رو
06:23
by upping the ante
146
383160
2000
با بالاتر بردن سطح سوال‌ها
06:25
and asking children now, not for an action prediction,
147
385160
3000
و اینکه ازشون دیگه سوال‌های پیش بینی عملکردی نپرسیم
06:28
but for a moral judgment.
148
388160
2000
و بجاش ازشون قضاوت اخلاقی بپرسیم.
06:30
So first I'm going to show you the three-year-old again.
149
390160
2000
پس سه ساله‌هه رو دوباره بهتون نشون میدم.
06:32
RS.: So is Ivan being mean and naughty for taking Joshua's sandwich?
150
392160
3000
ویدئو: ر.س: پس ایوان بدجنسه و آدم بدیه که ساندویچ جاشوا رو برمیداره؟
06:35
Child: Yeah.
151
395160
1000
بچه: بله.
06:36
RS: Should Ivan get in trouble for taking Joshua's sandwich?
152
396160
3000
ر.س: ایوان باید بخاطر برداشتن ساندویچ جاشوا توی دردسر بیفته؟
06:39
Child: Yeah.
153
399160
2000
بچه: بله.
06:41
So it's maybe not surprising he thinks it was mean of Ivan
154
401160
2000
ر.س: پس شاید عجیب نباشه که فکر کنه ایوان
06:43
to take Joshua's sandwich,
155
403160
2000
از روی بدجنسی ساندویچ جاشوا رو برداشته.
06:45
since he thinks Ivan only took Joshua's sandwich
156
405160
2000
از اونجایی که فکر میکنه ایوان فقط ساندویچ جاشوا رو
06:47
to avoid having to eat his own dirty sandwich.
157
407160
3000
بخاطر اینکه نمیخواسته ساندویچ کثیف خودشو بخوره برداشته.
06:50
But now I'm going to show you the five-year-old.
158
410160
2000
ولی حالا پنج ساله‌هه رو بهتون نشون میدم.
06:52
Remember the five-year-old completely understood
159
412160
2000
به یاد بیارید که پنج ساله‌هه کاملا درک کرد
06:54
why Ivan took Joshua's sandwich.
160
414160
2000
که چرا ایوان ساندویچ جاشوا رو برداشته.
06:56
RS: Was Ivan being mean and naughty
161
416160
2000
ویدئو: ر.س: آیا ایوان بدجنسه که
06:58
for taking Joshua's sandwich?
162
418160
2000
ساندویچ جاشوا رو برداشته؟
07:00
Child: Um, yeah.
163
420160
2000
بچه: هوم، بله.
07:02
And so, it is not until age seven
164
422160
2000
ر.س: در سن هفت سالگیه
07:04
that we get what looks more like an adult response.
165
424160
3000
که ما جوابی که بیشتر شبیه جواب بزرگاس میگیریم.
07:07
RS: Should Ivan get in trouble for taking Joshua's sandwich?
166
427160
3000
ویدئو: آیا ایوان بخاطر اینکه ساندویچ جاشوا رو برداشته باید توی دردسر بیفته؟
07:10
Child: No, because the wind should get in trouble.
167
430160
2000
بچه: نه، چون باد باید توی دردسر بیفته.
07:12
He says the wind should get in trouble
168
432160
3000
ر.س. میگه باد باید برای عوض شدن ساندویچ‌ها توی دردسر بیفته (تاوان پس بده).
07:15
for switching the sandwiches.
169
435160
2000
ر.س. میگه باد باید برای عوض شدن ساندویچ‌ها توی دردسر بیفته (تاوان پس بده).
07:17
(Laughter)
170
437160
2000
(خنده حاضرین)
07:19
And now what we've started to do in my lab
171
439160
2000
و حالا کاری که ما توی لابراتوار من شروع کردیم به انجام دادن
07:21
is to put children into the brain scanner
172
441160
2000
اینه که بچه‌ها رو داخل اسکن کننده مغز گذاشتیم
07:23
and ask what's going on in their brain
173
443160
3000
و اتفاقاتی رو که داخل مغز اونا میفته
07:26
as they develop this ability to think about other people's thoughts.
174
446160
3000
وقتی که دارن توانایی فکر کردن درباره افکار دیگران رو توسعه میدن رو بررسی کردیم.
07:29
So the first thing is that in children we see this same brain region, the Right TPJ,
175
449160
4000
اولین چیزی دیدیم اینه که دقیقا همون قسمت مغز، قسمت RTPJ،
07:33
being used while children are thinking about other people.
176
453160
3000
داره استفاده میشه وقتی که دارن راجع به دیگران فکر میکنن.
07:36
But it's not quite like the adult brain.
177
456160
2000
ولی کاملا شبیه یه فرد بالغ نیست.
07:38
So whereas in the adults, as I told you,
178
458160
2000
بنابراین همونطور که گفتم در افراد بالغ،
07:40
this brain region is almost completely specialized --
179
460160
3000
این قسمت مغز کاملا تخصصی عمل میکنه.
07:43
it does almost nothing else except for thinking about other people's thoughts --
180
463160
3000
اون قسمت تقریبا هیچ کار دیگه‌ای جز فکر کردن راجع به افکار دیگران نمیکنه.
07:46
in children it's much less so,
181
466160
2000
توی بچه‌ها وقتی بین پنج تا هشت سال هستن،
07:48
when they are age five to eight,
182
468160
2000
کمتر این اتفاق می‌افته،
07:50
the age range of the children I just showed you.
183
470160
2000
رنج سنی بچه‌هایی که به شما نشون دادم.
07:52
And actually if we even look at eight to 11-year-olds,
184
472160
3000
و در واقع اگر حتی ما به بچه‌های هشت تا 11سال توجه کنیم،
07:55
getting into early adolescence,
185
475160
2000
که دارن به بلوغ میرسن،
07:57
they still don't have quite an adult-like brain region.
186
477160
3000
اونا هنوز قسمت مغزشون شبیه مغز انسانهای بالغ نیست.
08:00
And so, what we can see is that over the course of childhood
187
480160
3000
بنابراین اون چیزی که میتونیم توی دوران کودکی
08:03
and even into adolescence,
188
483160
2000
و حتی باوغ ببینیم اینه که،
08:05
both the cognitive system,
189
485160
2000
هر دو بخش سیستم شناختی که توانایی مغز ما برای فکر کردن به افکار دیگرانه،
08:07
our mind's ability to think about other minds,
190
487160
2000
هر دو بخش سیستم شناختی که توانایی مغز ما برای فکر کردن به افکار دیگرانه،
08:09
and the brain system that supports it
191
489160
2000
و سیستم مغز ما که از اون پشتیبانی میکنه
08:11
are continuing, slowly, to develop.
192
491160
3000
آرام آرام درحال توسعه هستند.
08:14
But of course, as you're probably aware,
193
494160
2000
ولی خب البته، همونطور که میدونید،
08:16
even in adulthood,
194
496160
2000
حتی در سن بلوغ،
08:18
people differ from one another in how good they are
195
498160
2000
آدمها در اینکه چقدر خوب راجع به ذهن دیگران فکر میکنن،
08:20
at thinking of other minds, how often they do it
196
500160
2000
فرق دارن، و اینکه چقدر اینکار رو انجام میدن،
08:22
and how accurately.
197
502160
2000
و اینکه چقدر دقیق این کار رو انجام میدن.
08:24
And so what we wanted to know was, could differences among adults
198
504160
3000
بنابراین چیزی که ما خواستیم بفهمیم این بود که، آیا فرق‌هایی که میان آدم‌های بالغ
08:27
in how they think about other people's thoughts
199
507160
2000
در نحوه فکر کردن راجع به فکر دیگران وجود داره
08:29
be explained in terms of differences in this brain region?
200
509160
3000
رو میشه بصورت تفاوت‌ در قسمت‌های مختلف مغز توضیح داد.
08:32
So, the first thing that we did is we gave adults a version
201
512160
3000
بنابراین اولین کاری که ما کردیم این بود که به بالغ‌ها
08:35
of the pirate problem that we gave to the kids.
202
515160
2000
نسخه‌ای از مساله دزد دریایی که به بچه‌ها داده بودیم رو دادیم.
08:37
And I'm going to give that to you now.
203
517160
2000
و من الان میخوام اون رو براتون مطرح کنم.
08:39
So Grace and her friend are on a tour of a chemical factory,
204
519160
3000
خب، گریس و دوستش در حال بازدید از یک شرکت شیمیایی هستند
08:42
and they take a break for coffee.
205
522160
2000
و برای استراحت میرن که یه قهوه بخورن.
08:44
And Grace's friend asks for some sugar in her coffee.
206
524160
3000
و دوست گریس میخواد که قهوه‌اش شکر داشته باشه.
08:47
Grace goes to make the coffee
207
527160
3000
گریس میره که قهوه درست کنه
08:50
and finds by the coffee a pot
208
530160
2000
و کنار ظرف قهوه
08:52
containing a white powder, which is sugar.
209
532160
3000
یه ظرف که توش یه پودر سفیده رو میبینه، که شکره.
08:55
But the powder is labeled "Deadly Poison,"
210
535160
3000
ولی روی اون ظرف نوشته شده "زهر کشنده".
08:58
so Grace thinks that the powder is a deadly poison.
211
538160
3000
پس گریس فکر میکنه که اون پودر زهر کشنده‌اس.
09:01
And she puts it in her friend's coffee.
212
541160
2000
و از اون توی قهوه دوستش میریزه.
09:03
And her friend drinks the coffee, and is fine.
213
543160
3000
و دوستش اون قهوه رو میخوره، و سالمه.
09:06
How many people think it was morally permissible
214
546160
2000
چند نفر فکر میکنن که این کار از نظر اخلاقی قابل قبوله
09:08
for Grace to put the powder in the coffee?
215
548160
4000
که گریس اون پودر رو داخل قهوه بریزه؟
09:12
Okay. Good. (Laughter)
216
552160
3000
خب، خوبه. (خنده حاضرین)
09:15
So we ask people, how much should Grace be blamed
217
555160
3000
خب پس ما از آدما میپرسیم که گریس چه اندازه باید سرزنش بشه
09:18
in this case, which we call a failed attempt to harm?
218
558160
2000
در این مورد، که ما بهش میگیم تلاش ناموفق برای آسیب رساندن.
09:20
And we can compare that to another case,
219
560160
2000
و ما میتونیم اون رو با یک مورد دیگه مطابقت بدیم
09:22
where everything in the real world is the same.
220
562160
2000
در جایی که همه چیز در عالم واقعی یکسانه.
09:24
The powder is still sugar, but what's different is what Grace thinks.
221
564160
3000
اون پودره شکره، ولی چیزی که فرق میکنه اون چیزیه که گریس فکر میکنه.
09:27
Now she thinks the powder is sugar.
222
567160
3000
حالا فکر میکنه که اون پودر شکره.
09:30
And perhaps unsurprisingly, if Grace thinks the powder is sugar
223
570160
3000
و احتمالا اگر گریس فکر کنه که اون پودر شکره
09:33
and puts it in her friend's coffee,
224
573160
2000
و اون رو توی قهوه دوستش بریزه،
09:35
people say she deserves no blame at all.
225
575160
2000
دیگران میگن که اون شایسته سرزنش شدن نیست.
09:37
Whereas if she thinks the powder was poison, even though it's really sugar,
226
577160
4000
درحالیکه اگر فکر میکرده که پودره زهره، هرچند که شکر بوده،
09:41
now people say she deserves a lot of blame,
227
581160
3000
حالا دیگران میگن که شایسته سرزنشه،
09:44
even though what happened in the real world was exactly the same.
228
584160
3000
اگرچه اتفاقی که واقعا در نهایت افتاده، یکیه.
09:47
And in fact, they say she deserves more blame
229
587160
2000
و در واقع دیگران میگن که در حالتی که تلاشی برای آسیب رسوندن انجام گرفته،
09:49
in this case, the failed attempt to harm,
230
589160
2000
شایسته سرزنش بیشتریه،
09:51
than in another case,
231
591160
2000
نسبت به حالتی که
09:53
which we call an accident.
232
593160
2000
ما بهش یه اتفاق و حادثه میگیم.
09:55
Where Grace thought the powder was sugar,
233
595160
2000
که گریس فکر کرده که پودر داخل ظرف، شکره،
09:57
because it was labeled "sugar" and by the coffee machine,
234
597160
2000
چون روی ظرفش نوشته بوده "شکر" و کنار دستگاه قهوه جوش بوده،
09:59
but actually the powder was poison.
235
599160
2000
ولی در واقع اون پودر، زهر بوده.
10:01
So even though when the powder was poison,
236
601160
3000
پس حتی در حالتیکه پودر داخل ظرف، زهر بوده،
10:04
the friend drank the coffee and died,
237
604160
3000
و دوستش اون قهوه رو خورده و مرده،
10:07
people say Grace deserves less blame in that case,
238
607160
3000
دیگران میگن که گریس شایسته سرزنش کمتریه،
10:10
when she innocently thought it was sugar,
239
610160
2000
وقتی که بدون قصد و غرض خاصی فکر میکرده اون ظرف شکره،
10:12
than in the other case, where she thought it was poison
240
612160
2000
نسبت که حالت دیگه که فکر میکرده اون ظرف زهره
10:14
and no harm occurred.
241
614160
3000
و هیچ آسیب به دوستش نرسیده.
10:17
People, though, disagree a little bit
242
617160
2000
هرچند که آدما، یه مقداری
10:19
about exactly how much blame Grace should get
243
619160
2000
درباره اینکه گریس چقدر باید سرزنش بشه، با همدیگه اختلاف نظر دارن.
10:21
in the accident case.
244
621160
2000
در حالتی که موضوع یه اتفاق بوده.
10:23
Some people think she should deserve more blame,
245
623160
2000
بعضی فکر میکنن که شایسته سرزنش بیشتریه،
10:25
and other people less.
246
625160
2000
و بعضی دیگه فکر میکنن شایسته سرزنش کمتریه.
10:27
And what I'm going to show you is what happened when we look inside
247
627160
2000
و چیزی که الان میخوام بهتون نشون بدم اینه که چه اتفاقی میافته وقتی ما داخل مغز
10:29
the brains of people while they're making that judgment.
248
629160
2000
اونایی رو که دارن این قضاوت رو میکنن نگاه میکنیم.
10:31
So what I'm showing you, from left to right,
249
631160
2000
پس اون چیزی که من دارم بهتون نشون میدم، از چپ به راست،
10:33
is how much activity there was in this brain region,
250
633160
3000
مقدار فعالیت این قسمت از مغزه.
10:36
and from top to bottom, how much blame
251
636160
2000
و از بالا به پایین، اندازه سرزنشیه
10:38
people said that Grace deserved.
252
638160
2000
که دیگران گفتن گریس شایسته اونه.
10:40
And what you can see is, on the left
253
640160
2000
و چیزی که میتونین مشاهده کنین اینه که، در سمت چپ
10:42
when there was very little activity in this brain region,
254
642160
2000
وقتی که مقدار کمی فعالیت در این قسمت از مغز وجود داره،
10:44
people paid little attention to her innocent belief
255
644160
3000
دیگران توجه کمی به باور بی قصد و غرض گریس کردن
10:47
and said she deserved a lot of blame for the accident.
256
647160
3000
و گفتن بخاطر این اتفاق شایسته سرزنش خیلی زیادیه.
10:50
Whereas on the right, where there was a lot of activity,
257
650160
2000
در حالیکه، در سمت راست، که فعالیت زیادی اتفاق افتاده،
10:52
people paid a lot more attention to her innocent belief,
258
652160
3000
دیگران توجه زیادی به باور بی قصد و غرض گریس کردن،
10:55
and said she deserved a lot less blame
259
655160
2000
و گفتن، شایسته سرزنش خیلی کمتریه.
10:57
for causing the accident.
260
657160
2000
بخاطر اتفاق افتادن این حادثه.
10:59
So that's good, but of course
261
659160
2000
خب، خیلی خوبه، ولی البته
11:01
what we'd rather is have a way to interfere
262
661160
2000
ما دنبال پیدا کردن راهی برای دخالت کردن
11:03
with function in this brain region,
263
663160
2000
در کارکرد این قسمت از مغز هستیم،
11:05
and see if we could change people's moral judgment.
264
665160
3000
که ببینیم آیا میتونیم قضاوت اخلاقی دیگران رو عوض کنیم.
11:08
And we do have such a tool.
265
668160
2000
و ما همچین ابزاری در اختیار داریم.
11:10
It's called Trans-Cranial Magnetic Stimulation,
266
670160
2000
اسمشو گذاشتیم تحریک کننده مغناطیسی فرا جمجمه‌ای
11:12
or TMS.
267
672160
2000
یا Trans-Cranial Magnetic Stimulation.
11:14
This is a tool that lets us pass a magnetic pulse
268
674160
2000
اين ابزاریه که به ما اجازه میده پالس‌های مغناطیسی رو
11:16
through somebody's skull, into a small region of their brain,
269
676160
4000
از جمجمه فردی، به قسمت کوچکی در مغزش بفرستیم،
11:20
and temporarily disorganize the function of the neurons in that region.
270
680160
4000
و بطور موقت نطم عملکرد نورون‌های اون قسمت رو مختل کنیم.
11:24
So I'm going to show you a demo of this.
271
684160
2000
یک دمو از این فرایند به شما نشون میدم.
11:26
First, I'm going to show you that this is a magnetic pulse.
272
686160
3000
اول به شما نشون میدم که این یک پالس مغناطیسیه،
11:29
I'm going to show you what happens when you put a quarter on the machine.
273
689160
3000
به شما نشون میدم که اگر یه سکه روی این دستگاه بزاریم چه اتفاقی میافته.
11:32
When you hear clicks, we're turning the machine on.
274
692160
4000
وقتی شما صدای کلیک رو میشنوید ما این دستگاه رو روشن کردیم.
11:42
So now I'm going to apply that same pulse to my brain,
275
702160
3000
حالا من میخوام دقیقا همون پالس رو روی مغز خودم اعمال کنم،
11:45
to the part of my brain that controls my hand.
276
705160
2000
به قسمتی از مغزم که دستامو کنترل میکنه.
11:47
So there is no physical force, just a magnetic pulse.
277
707160
3000
بنابراین هیچ نیروی فیزیکی‌ای در میون نیست، فقط پالس‌های مغناطیسیه.
11:54
Woman (Video): Ready, Rebecca? RS: Yes.
278
714160
2000
ویدئو: خانم: آماده‌ای؟ ربکا ساکس: بله.
11:57
Okay, so it causes a small involuntary contraction in my hand
279
717160
3000
خب، پس پالس مغناطیسی در مغز من،
12:00
by putting a magnetic pulse in my brain.
280
720160
3000
باعث انقباض غیرارادی کوچکی در دستم میشه.
12:03
And we can use that same pulse,
281
723160
2000
و ما میتونیم عینا همون پالس مغناطیسی رو،
12:05
now applied to the RTPJ,
282
725160
2000
به قسمت RTPJ اعمال كنيم،
12:07
to ask if we can change people's moral judgments.
283
727160
3000
که ببینیم آیا میشه قضاوت اخلاقی آدما رو عوض کرد.
12:10
So these are the judgments I showed you before, people's normal moral judgments.
284
730160
2000
خب، اینا قضاوت‌هایی هستند که قبلا بهتون نشون دادم، قضاوت‌های معمولی آدما.
12:12
And then we can apply TMS to the RTPJ
285
732160
3000
بعد ما میتونیم TMS رو به قسمت RTPJ اعمال كنيم
12:15
and ask how people's judgments change.
286
735160
2000
و ببينيم چطور قضاوت آدما تغییر میکنه.
12:17
And the first thing is, people can still do this task overall.
287
737160
4000
و اولین نکته اینه که، آدما میتونن در حالت کلی این کار رو انجام بدن.
12:21
So their judgments of the case when everything was fine
288
741160
2000
پس قضاوتشون در حالیتکه همه چیز خوب پیش میرفته
12:23
remain the same. They say she deserves no blame.
289
743160
3000
بدون تغییر باقی مونده. میگن که گریس سزاوار هیچ سرزنشی نیست.
12:26
But in the case of a failed attempt to harm,
290
746160
4000
ولی در حالت تلاش ناموفق برای لطمه زدن،
12:30
where Grace thought that it was poison, although it was really sugar,
291
750160
3000
که گریس فکر میکرد که پودر سفید زهره، ولی در واقع شکر بوده،
12:33
people now say it was more okay, she deserves less blame
292
753160
3000
حالا آدما میگن قضیه نرمال تره، و گریس سزاوار سرزنش کمتریه
12:36
for putting the powder in the coffee.
293
756160
3000
برای ریختن اون پودر داخل قهوه دوستش.
12:39
And in the case of the accident, where she thought that it was sugar,
294
759160
2000
و برای حالتی که، اون فکر میکرده که اون پودر شکر بوده،
12:41
but it was really poison and so she caused a death,
295
761160
3000
ولی در واقع زهر بوده و باعث مرگ دوستش شده،
12:44
people say that it was less okay, she deserves more blame.
296
764160
6000
آدما میگن که این نرمال نیست و سزاوار سرزنش بیشتریه.
12:50
So what I've told you today is that
297
770160
2000
خب، چیزی که امروز بهتون گفتم این بود که
12:52
people come, actually, especially well equipped
298
772160
4000
آدما در واقع با ابزار خوبی
12:56
to think about other people's thoughts.
299
776160
2000
برای فکر کردن راجع به افکار دیگران به دنیا میان.
12:58
We have a special brain system
300
778160
2000
ما یک سیستم مخصوص مغز داریم
13:00
that lets us think about what other people are thinking.
301
780160
3000
که به ما اجازه فکر کردن راجع افکاری که دیگران دارن رو میده.
13:03
This system takes a long time to develop,
302
783160
2000
این سیستم زمان زیادی برای توسعه میگیره،
13:05
slowly throughout the course of childhood and into early adolescence.
303
785160
3000
توسعه طولانی‌ای در طول کودکی، و اوایل بلوغ.
13:08
And even in adulthood, differences in this brain region
304
788160
3000
و حتی در سن بلوغ، فرق‌هایی که بین این قسمت از مغز هست
13:11
can explain differences among adults
305
791160
2000
میتونه فرق‌هایی که بین آدم بزرگ‌ها هست رو توضیح بده
13:13
in how we think about and judge other people.
306
793160
3000
که ما چطور راجع به دیگران فکر و قضاوت میکنیم.
13:16
But I want to give the last word back to the novelists,
307
796160
3000
ولی میخوام آخرین حرفم رو به نویسنده‌ها تقدیم کنم.
13:19
and to Philip Roth, who ended by saying,
308
799160
3000
و به فلیپ راث، که جمله‌اش رو اینطور تموم کرد،
13:22
"The fact remains that getting people right
309
802160
2000
"حقیقتا، درست درک کردن آدما
13:24
is not what living is all about anyway.
310
804160
2000
چیزی نیست که بهرحال زندگی رو تشکیل میده.
13:26
It's getting them wrong that is living.
311
806160
2000
اون چیزی که زندگی رو تشکیل میده اینه که ما نادرست درکشون کنیم.
13:28
Getting them wrong and wrong and wrong,
312
808160
3000
نادرست و نادرست و نادرست درکشون کنیم،
13:31
and then on careful reconsideration,
313
811160
2000
و بعد از یه بررسی دقیق و مجدد،
13:33
getting them wrong again."
314
813160
2000
دوباره نادرست درکشون کنیم."
13:35
Thank you.
315
815160
2000
با تشکر از شما.
13:37
(Applause)
316
817160
10000
(تشویق حاضرین)
13:47
Chris Anderson: So, I have a question. When you start talking about using
317
827160
2000
کریس اندرسون: وقتی شما راجع به استفاده کردن از
13:49
magnetic pulses to change people's moral judgments,
318
829160
3000
پالس‌های مغناطیسی برای تغییر قضاوت اخلاقی آدما صحبت میکنی،
13:52
that sounds alarming.
319
832160
3000
به نظر هشدار دهنده میاد.
13:55
(Laughter)
320
835160
1000
(خنده حاضرین)
13:56
Please tell me that you're not taking phone calls from the Pentagon, say.
321
836160
4000
خواهش میکنم به من بگو تلفن‌های پنتاگون رو جواب نمیدی، بگو.
14:00
RS: I'm not.
322
840160
2000
ربکا ساکس: نه، اینکار رو نمیکنم.
14:02
I mean, they're calling, but I'm not taking the call.
323
842160
3000
یعنی، اونا زنگ میزنن، ولی من باهاشون صحبت نمیکنم.
14:05
(Laughter)
324
845160
1000
(خنده حاضرین)
14:06
CA: They really are calling?
325
846160
2000
ک.ا: واقعا دارن تماس میگیرن؟
14:08
So then seriously,
326
848160
3000
پس واقعا
14:11
you must lie awake at night sometimes
327
851160
3000
بعضی وقتا باید شب‌ها بیدار باشی
14:14
wondering where this work leads.
328
854160
2000
و به این فکر کنی که این کار به کجاها می‌کشه.
14:16
I mean, you're clearly an incredible human being,
329
856160
2000
منظورم اینه که کاملا مشخصه که تو یک انسان خوب و عالی هستی.
14:18
but someone could take this knowledge
330
858160
3000
ولی یه نفر ممکنه این دانش رو بگیره
14:21
and in some future
331
861160
2000
و در آینده
14:23
not-torture chamber,
332
863160
2000
نه بصورت اتاق شکنجه،
14:25
do acts that people here might be worried about.
333
865160
3000
کاری کنه که ممکنه دیگران راجع بهش نگران باشن.
14:28
RS: Yeah, we worry about this.
334
868160
2000
ر.س: بله، ما راجع به این موضوع نگرانیم.
14:30
So, there's a couple of things to say about TMS.
335
870160
3000
خب، چند نکته هست که باید راجع به TMS میشه گفت.
14:33
One is that you can't be TMSed without knowing it.
336
873160
2000
اول اینکه نمیشه کسی رو بدون اینکه خبر داشته باشه TMS کرد.
14:35
So it's not a surreptitious technology.
337
875160
3000
بنابراین این یک تکنولوژی پنهانی نیست.
14:38
It's quite hard, actually, to get those very small changes.
338
878160
3000
خیلی سخته که به این تغییرات کوچک برسیم.
14:41
The changes I showed you are impressive to me
339
881160
3000
تغییراتی که به شما نشون دادم برای من جالب هستند
14:44
because of what they tell us about the function of the brain,
340
884160
2000
بخاطر چیزهایی که راجع به کارکرد و کارایی مغز به ما میگن.
14:46
but they're small on the scale
341
886160
2000
ولی در مقایسه به قضاوت اخلاقی‌ای که ما در واقع میکنیم،
14:48
of the moral judgments that we actually make.
342
888160
2000
ناچیز هستند.
14:50
And what we changed was not people's
343
890160
2000
و چیزی که ما تغییر دادیم
14:52
moral judgments when they're deciding what to do,
344
892160
3000
قضاوت اخلاقی اونها وقتی که تصمیم به انجام کاری میگیرند نبود،
14:55
when they're making action choices.
345
895160
2000
یا وقتی که برای انجام کاری انتخاب میکنند.
14:57
We changed their ability to judge other people's actions.
346
897160
3000
ما توانایی اونها رو برای قضاوت درباره کارهای دیگران تغییر دادیم.
15:00
And so, I think of what I'm doing not so much as
347
900160
2000
بنابراین من فکر میکنم کارم بررسی و مطالعه متهم در یک دادگاه جنایی نیست،
15:02
studying the defendant in a criminal trial,
348
902160
2000
بنابراین من فکر میکنم کارم بررسی و مطالعه متهم در یک دادگاه جنایی نیست،
15:04
but studying the jury.
349
904160
2000
بلکه مطالعه هیات ژوریه.
15:06
CA: Is your work going to lead to any recommendations
350
906160
3000
ک.ا: آیا کار شما میتونه باعث پیشنهادهایی
15:09
in education, to perhaps bring up
351
909160
3000
در زمینه تحصیل باشه، که مثلا بتونیم نسلی از بچه‌ها رو
15:12
a generation of kids able to make fairer moral judgments?
352
912160
5000
که می‌تونن قضاوت‌های اخلاقی منصفانه‌تری کنند بار بیاریم؟
15:17
RS: That's one of the idealistic hopes.
353
917160
3000
ر.س: این یک انتظار و امید ایده‌آله.
15:20
The whole research program here of studying
354
920160
4000
کل برنامه تحقیقاتی ما، درباره بررسی
15:24
the distinctive parts of the human brain is brand new.
355
924160
4000
بخش‌های متفاوت مغز انسان کار جدیدیه.
15:28
Until recently, what we knew about the brain
356
928160
2000
چیزی که ما درباره مغز تا حالا میدونستیم
15:30
were the things that any other animal's brain could do too,
357
930160
3000
چیزایی بودن که هر حیوان دیگه‌ای هم میتونسته انجام بده.
15:33
so we could study it in animal models.
358
933160
2000
که ما بتونیم اون‌ها رو روی حیوانها مطالعه و بررسی کنیم.
15:35
We knew how brains see, and how they control the body
359
935160
2000
ما میدونیم که مغز چگونه میبینه، و چگونه بدن رو کنترل میکنه،
15:37
and how they hear and sense.
360
937160
2000
و چطور میتونه بشنوه و حس کنه.
15:39
And the whole project of understanding
361
939160
3000
و کلا پروژه درک کردن و فهمیدن اینکه
15:42
how brains do the uniquely human things --
362
942160
2000
مغز چطور کارهای مخصوص انسان‌ها رو انجام میده،
15:44
learn language and abstract concepts,
363
944160
3000
مثل یادگیری زبان، و مفاهیم انتزاعی،
15:47
and thinking about other people's thoughts -- that's brand new.
364
947160
2000
و یا فکر کردن راجع به افکار دیگران، اینها جدید هستند.
15:49
And we don't know yet what the implications will be
365
949160
2000
و ما هنوز نمیدونیم، فهمیدن اونها
15:51
of understanding it.
366
951160
2000
چه معنی و مفهومی داره.
15:53
CA: So I've got one last question. There is this thing called
367
953160
2000
ک.ا: خب من سوال آخرمو میپرسم. یه چیزی هست به اسم
15:55
the hard problem of consciousness,
368
955160
2000
اسم مساله مشکل هشیاری،
15:57
that puzzles a lot of people.
369
957160
2000
که خیلی از آدما رو گیج کرده.
15:59
The notion that you can understand
370
959160
3000
نظریه‌ای که شاید باهاش بشه فهمید
16:02
why a brain works, perhaps.
371
962160
2000
چرا مغز کار میکنه.
16:04
But why does anyone have to feel anything?
372
964160
3000
ولی چرا همه باید همه‌چیز رو حس کنند؟
16:07
Why does it seem to require these beings who sense things
373
967160
3000
چرا به نظر میرسه که لازمه این وسیله‌ها رو که برامون حس میکنن نیاز داریم
16:10
for us to operate?
374
970160
2000
که بتونیم فعالیت کنیم؟
16:12
You're a brilliant young neuroscientist.
375
972160
3000
تو یک دانشمند سلول‌های مغز جوان هستی.
16:15
I mean, what chances do you think there are
376
975160
2000
منظورم اینه که، چقدر شانس این وجود داره
16:17
that at some time in your career,
377
977160
2000
منظورم اینه که، چقدر شانس این وجود داره که در یک مقطعی در زندگی کاریت،
16:19
someone, you or someone else,
378
979160
2000
یک شخصی، خودت یا کس دیگه‌ای،
16:21
is going to come up with some paradigm shift
379
981160
2000
به یک نتیجه متفاوتی از این که هست
16:23
in understanding what seems an impossible problem?
380
983160
4000
راجع به فهمیدن و درک کردن چیزی که الان فهمیدنش غیرممکن میرسه برسه.
16:27
RS: I hope they do. And I think they probably won't.
381
987160
4000
ر.س: من امیدوارم که بتونن. و فکر میکنم که احتمالا نمی‌تونن.
16:31
CA: Why?
382
991160
3000
ک.ا: چرا؟
16:34
RS: It's not called the hard problem of consciousness for nothing.
383
994160
3000
ر.س: بیخودی اسمش رو مساله مشکل هشیاری نذاشتن.
16:37
(Laughter)
384
997160
2000
(خنده حاضرین)
16:39
CA: That's a great answer. Rebecca Saxe, thank you very much. That was fantastic.
385
999160
3000
ک.ا: جواب عالی‌ای بود. ربکا ساکس، بسیار سپاسگزارم. خارق‌العاده بود.
16:42
(Applause)
386
1002160
4000
(تشویق حاضرین)
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7