Daniel Goleman: Why arent we all Good Samaritans?

گفتگوی دَنییِل گُلمِن راجع به مِهر و شَفَقَت

352,182 views

2008-01-09 ・ TED


New videos

Daniel Goleman: Why arent we all Good Samaritans?

گفتگوی دَنییِل گُلمِن راجع به مِهر و شَفَقَت

352,182 views ・ 2008-01-09

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: Pouria Montazeri Reviewer: ghasem vahedi
00:13
You know, I'm struck by how one of the implicit themes of TED
0
13160
4000
من، تحت تأثیرِ این قرار گرفته ام، که یکی از مطالبِ ضمني TED
00:17
is compassion, these very moving demonstrations we've just seen:
1
17160
3000
شَفَقَت است: همانندِ نمایشهای تحریک کننده ای را که اینجا مشاهده کردیم:
00:21
HIV in Africa, President Clinton last night.
2
21160
4000
HIV در آفریقا و سخنراني دیشبِ رئیس جمهور کلینتون.
00:25
And I'd like to do a little collateral thinking, if you will,
3
25160
5000
و من میخواهم کمی با استفاده از افکارِ تضمینی در مورد شفقت،
00:30
about compassion and bring it from the global level to the personal.
4
30160
5000
آن را از سطحِ جهانی به سطحِ شخصی بیاورم.
00:35
I'm a psychologist, but rest assured,
5
35160
2000
من یک روانشناسم، ولی میتوانید مطمئن باشید،
00:37
I will not bring it to the scrotal.
6
37160
1000
که آن را به سطح خاری نخواهم آورد.
00:39
(Laughter)
7
39160
4000
(خنده)
00:44
There was a very important study done a while ago
8
44160
2000
مدتها پیش، یک مطالعة خیلی مهمی
00:46
at Princeton Theological Seminary that speaks to why it is
9
46160
4000
در مدرسة علوم الهي پِرِستُن (Preston) انجام گرفت که نشان میدهد،
00:51
that when all of us have so many opportunities to help,
10
51160
3000
به چه جهت، وقتی که همة ما اینهمه فرصتهای کمک کردن داریم،
00:54
we do sometimes, and we don't other times.
11
54160
3000
گاهی کمک میکنیم و گاهی نمیکنیم.
00:58
A group of divinity students at the Princeton Theological Seminary
12
58160
3000
به یک گروه از شاگردینِ حکمت الهي مدرسة علوم الهي پِرِستُن
01:02
were told that they were going to give a practice sermon
13
62160
4000
گفته شد که قرار است یک موعظة تمرینی انجام دهند
01:06
and they were each given a sermon topic.
14
66160
3000
و به هر یک از آنها یک موضوعِ موعظه داده شد.
01:09
Half of those students were given, as a topic,
15
69160
3000
به نصفی از آنها، به عنوانِ موضوع،
01:12
the parable of the Good Samaritan:
16
72160
2000
حکایتِ «سامِرِ نیکو» داده شد:
01:14
the man who stopped the stranger in --
17
74160
2000
مردی که به یک بیگانه
01:17
to help the stranger in need by the side of the road.
18
77160
2000
در کنارِ جاده کمک میکند.
01:19
Half were given random Bible topics.
19
79160
3000
به نصفِ دیگر، یک موضوعِ تصادفی از کتابِ مقدس داده شد.
01:22
Then one by one, they were told they had to go to another building
20
82160
3000
بعد، به یک یک آنها گفته شد که میبایست برای انجامِ موعظه،
01:26
and give their sermon.
21
86160
1000
به ساختمانِ دیگری بروند.
01:27
As they went from the first building to the second,
22
87160
3000
هنگاميكه از ساختمانِ اولی بسوی ساختمانِ دومی میرفتند،
01:30
each of them passed a man who was bent over and moaning,
23
90160
3000
هر کدام از آنها از کنارِ شخصی، کمر خم و ناله وار،
01:34
clearly in need. The question is: Did they stop to help?
24
94160
4000
و ظاهراً محتاج، رد شدند. سؤال اینجاست: آیا آنها توقف کردند که کمک کنند؟
01:38
The more interesting question is:
25
98160
1000
سؤالِ جالبتر اینست:
01:40
Did it matter they were contemplating the parable
26
100160
3000
آیا اَندیشیدنِ آنها به حکایتِ «سامِرِ نیکو»
01:43
of the Good Samaritan? Answer: No, not at all.
27
103160
4000
هیچ اهمیتی داشت؟ جواب: خیر، اصلاً.
01:48
What turned out to determine whether someone would stop
28
108160
3000
مشخص شد که، تصمیمِ متوقف شدن
01:51
and help a stranger in need
29
111160
1000
و به یک بیگانة محتاج کمک کردنِ اشخاص،
01:52
was how much of a hurry they thought they were in --
30
112160
3000
بستگی به مقدارِ عجله ای که آنها حس میکردند داشت --
01:56
were they feeling they were late, or were they absorbed
31
116160
4000
که آیا احساس میکردند که دیر کرده اند، یا اینکه آنها مجذوبِ
02:00
in what they were going to talk about.
32
120160
1000
موعظه ای که قرار بود انجام بدهند بودند.
02:02
And this is, I think, the predicament of our lives:
33
122160
2000
و به عقیدة من، این وضعِ نامساعدِ زندگي ماست:
02:05
that we don't take every opportunity to help
34
125160
4000
اینکه ما از هر فرصت برای کمک کردن استفاده نمیکنیم،
02:09
because our focus is in the wrong direction.
35
129160
3000
چون، توجهِ ما به جهات غلط متمرکز است.
02:12
There's a new field in brain science, social neuroscience.
36
132160
3000
یک زمینة جدیدی در علومِ مغزی وجود دارد، بنامِ عصب شناسي اجتماعی.
02:16
This studies the circuitry in two people's brains
37
136160
4000
این زمینه، جريانِ برقِ مغزي، که در حینِ فعل و انفعالِ دو شخص با یکدیگر،
02:20
that activates while they interact.
38
140160
2000
فعال میشوند را، مطالعه میکند.
02:22
And the new thinking about compassion from social neuroscience
39
142160
4000
و حال، دیدگاهِ جدید بسوی شفقت، از نظرِ عصب شناسي اجتماعی،
02:26
is that our default wiring is to help.
40
146160
4000
این است که سیمکشي مغزي ما ذاتاً بسوی کمک کردن است.
02:30
That is to say, if we attend to the other person,
41
150160
4000
بدین معنی، که ما در حینِ رسیدگی به شخصِ دیگر،
02:35
we automatically empathize, we automatically feel with them.
42
155160
3000
بطور خودكار آنها را درک و حس میکنیم.
02:39
There are these newly identified neurons, mirror neurons,
43
159160
2000
عصبهای جدیدی بنامِ عصبهای آیینه‌ای وجود دارند،
02:41
that act like a neuro Wi-Fi, activating in our brain
44
161160
4000
که همانند عصبهای Wi-Fi هستند، که همان ناحیه های فعال خود را
02:45
exactly the areas activated in theirs. We feel "with" automatically.
45
165160
4000
در مغز فعال میکنند. ما «بصورتِ» خودکاری حس میکنیم.
02:49
And if that person is in need, if that person is suffering,
46
169160
4000
و اگر آن شخص، محتاج و رنج زده باشد،
02:54
we're automatically prepared to help. At least that's the argument.
47
174160
4000
ما بطور خودکار آماده به کمک کردن او خواهیم بود.
02:58
But then the question is: Why don't we?
48
178160
3000
و اما سپس این سؤال پیش میاید: چرا کمک نمیکنیم؟
03:01
And I think this speaks to a spectrum
49
181160
2000
و بنظر من، این اشاره به طیفی میکند که،
03:04
that goes from complete self-absorption,
50
184160
2000
از کاملاً غرق شدنِ در خويش گرفته
03:07
to noticing, to empathy and to compassion.
51
187160
2000
تا تشخیص و یکدلی و شفقت را با هم در بر دارد.
03:09
And the simple fact is, if we are focused on ourselves,
52
189160
4000
و واقعیتِ ساده اینست که، وقتیکه توجه ما صرفاً بخودمان است،
03:14
if we're preoccupied, as we so often are throughout the day,
53
194160
3000
و غرق مشقولیتها خود هستیم، همانطوری که بیشتر اوقاتمان در طی روز صرف میشود،
03:17
we don't really fully notice the other.
54
197160
3000
قادر به ملاحظه کردنِ دیگران نخواهیم بود.
03:20
And this difference between the self and the other focus
55
200160
2000
و این تفاوت، بین توجه به خود و به بغیه،
03:22
can be very subtle.
56
202160
1000
میتواند خیلی لطیف باشد.
03:23
I was doing my taxes the other day, and I got to the point
57
203160
4000
چند روز پیش، من داشتم حسابِ مالیاتم را انجام میدادم، و رسیدم به
03:27
where I was listing all of the donations I gave,
58
207160
2000
فهرست بندی کردنِ تمام اهداء،
03:30
and I had an epiphany, it was -- I came to my check
59
210160
3000
که یکدفعه بمن وحی شد، این بود -- رفتم بسوی دفترچة چكم
03:33
to the Seva Foundation and I noticed that I thought,
60
213160
3000
طرفِ چکِ «بنیادِ سِیوا» و ملاحظه کردم که این فکر بسرم آمد:
03:36
boy, my friend Larry Brilliant would really be happy
61
216160
2000
بَه، دوستم لِری بِریلییِنت چقدر خوشحال میشه
03:39
that I gave money to Seva.
62
219160
1000
اگر بدونه که من به بنیادِ سِیوا پول داده ام.
03:40
Then I realized that what I was getting from giving
63
220160
3000
سپس پی بردم که داشتم از این عملِ کمک کردن،
03:43
was a narcissistic hit -- that I felt good about myself.
64
223160
4000
معتاد بخود شیفتگی میشدم -- اینکه من احساس خوب بخودم داشتم.
03:47
Then I started to think about the people in the Himalayas
65
227160
5000
سپس شروع کردم به مردمِ هیمالیا (Himalayas) فکر کردن
03:52
whose cataracts would be helped, and I realized
66
232160
2000
که چگونه به آبِ مرواریدِ چشمشان کمک خواهد شد، و متوجه شدم
03:55
that I went from this kind of narcissistic self-focus
67
235160
3000
که از این نوع توجهِ بخود شیفتگی،
03:59
to altruistic joy, to feeling good
68
239160
3000
به طرفِ نوع دوستی (خدمت رسانی و ياری رساندن به ديگران)، و بعد به احساسِ خوب داشتن
04:02
for the people that were being helped. I think that's a motivator.
69
242160
4000
برای مردمی که داشتم کمک میکردم، سپری شدم. عقیده دارم که آن خود نیز یک نوع تحریک کننده است.
04:06
But this distinction between focusing on ourselves
70
246160
3000
و اما، دقت داشتن به تشخیصِ بینِ توجه بخودمان
04:09
and focusing on others
71
249160
1000
و توجه به دیگران،
04:10
is one that I encourage us all to pay attention to.
72
250160
3000
چیزیست که همه را بسوی آن تشویق میکنم.
04:13
You can see it at a gross level in the world of dating.
73
253160
3000
شما میتوانید آنرا در سطحِ بارز در دنیای دوست یابی مشاهده کنید.
04:17
I was at a sushi restaurant a while back
74
257160
3000
خیلی وقت پیش، در یک رستورانِ سوشی (sushi) بودم
04:20
and I overheard two women talking about the brother of one woman,
75
260160
3000
و از فاصلة دور گفتگوی دو خانمی را که داشتند راجع به برادرِ یکیشون صحبت میکردند را میشنیدم،
04:24
who was in the singles scene. And this woman says,
76
264160
3000
که مجرد بود. و این خانم گفت،
04:27
"My brother is having trouble getting dates,
77
267160
2000
«برادرم در یافتنِ دوست مشکل داره،
04:29
so he's trying speed dating." I don't know if you know speed dating?
78
269160
2000
پس داره به {دوست یابي پُر سرعت} فرصت میده.» نمیدانم آیا شما از {دوست یابي پُر سرعت} با خبرید؟
04:31
Women sit at tables and men go from table to table,
79
271160
4000
خانمها سر یک میز مینشینند و آقایان از یک میز به یک میز دیگر میروند،
04:35
and there's a clock and a bell, and at five minutes, bingo,
80
275160
3000
و یک ساعت و زنگ وجود دارد که هر پنج دقیقه، زنگ میخوره،
04:39
the conversation ends and the woman can decide
81
279160
2000
مصاحبه تمام میشه و آن خانم میتواند تصمیم بگیرد
04:41
whether to give her card or her email address to the man
82
281160
4000
که آیا کارتش یا ایمیلش را برای پیگیری
04:45
for follow up. And this woman says,
83
285160
2000
به آن مرد بده یا نه. و این خانم میگه،
04:47
"My brother's never gotten a card, and I know exactly why.
84
287160
4000
«برادرم هیچوقت یک کارت نگرفت. و من دقیقاً میدانم چرا:
04:51
The moment he sits down, he starts talking non-stop about himself;
85
291160
5000
از لحظه ای که مینشیند، شروع میکند، بدونِ مکس، در مورد خود صحبت کردن،
04:56
he never asks about the woman."
86
296160
1000
و هیچوقت در مورد آن خانم سؤالی نمیکند.»
04:58
And I was doing some research in the Sunday Styles section
87
298160
5000
من مشغول تحقیقاتی برای قسمتِ «سَبکِ یکشنبه» در
05:03
of The New York Times, looking at the back stories of marriages --
88
303160
3000
مجلة New York Times بودم، که نگاهی به تاریخچة ازدواجها میداشت --
05:06
because they're very interesting -- and I came to the marriage
89
306160
3000
چون آنها خیلی شگفت انگیزند -- و من به ازدواجِ
05:09
of Alice Charney Epstein. And she said
90
309160
3000
اَلیس چارنی اِپستین رسیدم. و او گفت
05:12
that when she was in the dating scene,
91
312160
2000
که وقتی در صحنة دوست یابی بود،
05:15
she had a simple test she put people to.
92
315160
2000
یک امتحان بسیار ساده ای را در مورد اشخاص انجام میداد.
05:18
The test was: from the moment they got together,
93
318160
2000
امتحان این بود: که ببیند از لحظه ای که به هم میرسند،
05:20
how long it would take the guy to ask her a question
94
320160
3000
چقدر طول میکشد تا آن مرد از او یک سؤال کند
05:23
with the word "you" in it.
95
323160
2000
با استفاده از کلمة «تو» در سؤالش.
05:25
And apparently Epstein aced the test, therefore the article.
96
325160
4000
و مشخصاً خانم اِپستین امتحانش را ۲۰ گرفت، که باعثِ تکمیلِ مقاله ام شد.
05:29
(Laughter)
97
329160
1000
(خنده)
05:30
Now this is a -- it's a little test
98
330160
2000
و حال، این یک امتحانِ کوچکی است
05:32
I encourage you to try out at a party.
99
332160
2000
که تشویقتان میکنم در یک مهمانی آنرا انجام دهید.
05:34
Here at TED there are great opportunities.
100
334160
2000
اینجا در TED مهلت های بسیار زیادی وجود دارد.
05:38
The Harvard Business Review recently had an article called
101
338160
3000
نشریة تجارتي هاروِرد (Harvard) اخیراً یک مقاله ای داشت بنامِ
05:41
"The Human Moment," about how to make real contact
102
341160
3000
«لحظه هاي انساني»، راجع به اینکه چطوری در سر کار،
05:44
with a person at work. And they said, well,
103
344160
3000
با همکاران میتوانست برخوردِ واقعی داشت. و نوشته بود که،
05:47
the fundamental thing you have to do is turn off your BlackBerry,
104
347160
3000
کار اساسي که شما باید انجام دهید اینست که بِلَک بِریتان را خاموش کنید،
05:51
close your laptop, end your daydream
105
351160
3000
کامپیوترِ لَپ تاپِتان را ببندید، به افکارِ پوچتان خاتمه دهید
05:55
and pay full attention to the person.
106
355160
2000
و توجه کاملتان را به آن شخص دهید.
05:58
There is a newly coined word in the English language
107
358160
4000
یک کلمة نوینی در زبان انگلیسی وجود دارد
06:03
for the moment when the person we're with whips out their BlackBerry
108
363160
3000
برای لحظه ای که شخصی که با ما هست، بِلَک بِریش را در میاورد
06:06
or answers that cell phone, and all of a sudden we don't exist.
109
366160
3000
یا اینکه به مُبایلش جواب میدهد، و ناگهان، بودنِ ما را کلاً فراموش میکند.
06:10
The word is "pizzled": it's a combination of puzzled and pissed off.
110
370160
4000
کلمه اش هست «pizzled»: ترکیبِ کلماتِ گیج شدن و عصبانی شدن است.
06:14
(Laughter)
111
374160
3000
(خنده)
06:17
I think it's quite apt. It's our empathy, it's our tuning in
112
377160
6000
فکر میکنم که بسیار مناسب است.
06:24
which separates us from Machiavellians or sociopaths.
113
384160
3000
یکدلی و بصیرت است که ما را از ماكياولیان و دشمنانِ جامعه سوا میکند.
06:27
I have a brother-in-law who's an expert on horror and terror --
114
387160
5000
برادر زنم متخصصِ خوف و دهشت است --
06:32
he wrote the Annotated Dracula, the Essential Frankenstein --
115
392160
3000
او نویسندة کتابهای «تفسیرِ دِراکولا» و «گلچينِ فِرَکِنستاین» است --
06:35
he was trained as a Chaucer scholar,
116
395160
1000
او بعنوانِ یک پژوهشگرِ چاوسر (Chaucer) تربیت یافت،
06:36
but he was born in Transylvania
117
396160
2000
ولی در ترانسیلوانیا متولد شد
06:38
and I think it affected him a little bit.
118
398160
2000
و فکر میکنم که این کمی بر او اثر داشت.
06:40
At any rate, at one point my brother-in-law, Leonard,
119
400160
4000
به هر حال، برادر زنم، لِنورد،
06:44
decided to write a book about a serial killer.
120
404160
2000
تسمیم گرفت که کتابی در مورد یک قاتلِ زنجیره ای بنویسد.
06:46
This is a man who terrorized the very vicinity we're in
121
406160
3000
این مردیست که سالها پیش، همین حومه ای که ما در‌ آن زندگی میکنیم را
06:50
many years ago. He was known as the Santa Cruz strangler.
122
410160
2000
تِرور کرد. مشهور به «خفه کنندة سَنتا کُروزی» بود.
06:53
And before he was arrested, he had murdered his grandparents,
123
413160
4000
و قبل از اینکه بازداشت شود، مادر بزرگ و پدر بزرگ خود،
06:57
his mother and five co-eds at UC Santa Cruz.
124
417160
3000
و همچنین مادر خود، و پنج تن از شاگردینِ دانشگاه را بقتل رسانده بود.
07:01
So my brother-in-law goes to interview this killer
125
421160
2000
پس، برادر زنم رفت که با این قاتل مصاحبه کند
07:04
and he realizes when he meets him
126
424160
2000
و در حینِ ملاقات، به این پی بُرد که
07:06
that this guy is absolutely terrifying.
127
426160
1000
این شخص قطعاً وحشت آمیز است.
07:08
For one thing, he's almost seven feet tall.
128
428160
2000
اولاً، او تقریباً ۲۱۳ سانتيمتر است.
07:10
But that's not the most terrifying thing about him.
129
430160
3000
ولی قد بلندش وحشت آمیزترین چیز نیست.
07:13
The scariest thing is that his IQ is 160: a certified genius.
130
433160
5000
ترسناکترین چیز این است که هوشِ شناختیش ۱۶۰ بود: یک نابغة تصدیق شده.
07:19
But there is zero correlation between IQ and emotional empathy,
131
439160
4000
لیکن، بینِ هوشِ شناختی و احساساتِ همدلی (احساسات به شخصِ دیگر)
07:23
feeling with the other person.
132
443160
1000
هیچ ارتباطی وجود ندارد.
07:25
They're controlled by different parts of the brain.
133
445160
2000
آنها بوسیلة قسمتهای متفاوت مغز کنترل میشوند.
07:28
So at one point, my brother-in-law gets up the courage
134
448160
2000
بلاخره، برادر زنم به خودش این جرات را داد
07:31
to ask the one question he really wants to know the answer to,
135
451160
2000
که از آن قاتل، سؤالی که واقعاً جوابش را میخواست را بپرسد.
07:33
and that is: how could you have done it?
136
453160
3000
و آن این بود: «چطوری توانستی این اعمال را انجام دهی؟
07:36
Didn't you feel any pity for your victims?
137
456160
2000
آیا هیچ احساسِ ترحم برای قربانی هایت نکردی؟»
07:38
These were very intimate murders -- he strangled his victims.
138
458160
3000
اینها قتلهای بسیار محرمانه ای بودند -- او قربانیهایش را خفه میکرد.
07:42
And the strangler says very matter-of-factly,
139
462160
2000
و قاتل به طورِ بسیار قطعی جواب داد:
07:44
"Oh no. If I'd felt the distress, I could not have done it.
140
464160
5000
«نَه. اگر احساسِ پریشانی و اندوه میداشتم، دیگر نمیتوانستم آن را انجام دهم.
07:49
I had to turn that part of me off. I had to turn that part of me off."
141
469160
6000
من به نوبة خود، آن بخش از خودم را خاموش کردم.»
07:55
And I think that that is very troubling,
142
475160
5000
و فکر میکنم که این بسیار موجب ناراحتي خاطر است.
08:01
and in a sense, I've been reflecting on turning that part of us off.
143
481160
4000
و به نحوی، رویِ خاموش کردنِ این بخش، در تفکرم.
08:05
When we focus on ourselves in any activity,
144
485160
2000
وقتی که در حین هر نوع فعالیتی، ما توجه به خودمان میدهیم،
08:08
we do turn that part of ourselves off if there's another person.
145
488160
3000
آن بخشمان را خاموش میکنیم، مخصوصاً اگر شخص دیگری کنار ما باشد.
08:12
Think about going shopping and think about the possibilities
146
492160
5000
به خرید کردن فکر کن و به امکان داشتن یک
08:17
of a compassionate consumerism.
147
497160
2000
مصرف گرائي دلسوزانه تفکر کن.
08:20
Right now, as Bill McDonough has pointed out,
148
500160
2000
در حال حاظر، همانطور که بیل مَکدانا اشاره کرده است،
08:24
the objects that we buy and use have hidden consequences.
149
504160
4000
چیزهایی را که ما میخریم و استفاده میکنیم، دارای عواقبِ پنهاني هستند.
08:28
We're all unwitting victims of a collective blind spot.
150
508160
3000
ما همه قربانیهای بی خبرِ یک نقطة ضعف‌ِ اشتراکی هستیم.
08:32
We don't notice and don't notice that we don't notice
151
512160
2000
ما بی اطلاع هستیم و از
08:35
the toxic molecules emitted by a carpet or by the fabric on the seats.
152
515160
6000
ملکولهای زَهراگينی که از فرشها یا پارچة صندلیمان انتشار میشوند، بی خبریم.
08:42
Or we don't know if that fabric is a technological
153
522160
5000
یا اینکه، نمیدانیم اگر آن پارچه یک مادة مُغذَي تكنولوژی
08:47
or manufacturing nutrient; it can be reused
154
527160
4000
یا یک یک مادة مُغذَي ساخته شده است؛ آیا میتواند دوباره استفاده شود
08:51
or does it just end up at landfill? In other words,
155
531160
2000
یا اینکه آخرتش زمینِ زباله است؟ به عبارتی دیگر،
08:53
we're oblivious to the ecological and public health
156
533160
5000
ما از نتایجِ اکولوژي، بهداشتِ عمومی،
08:59
and social and economic justice consequences
157
539160
3000
و اعتدالِ اجتماعی و اقتصادي
09:02
of the things we buy and use.
158
542160
2000
چیزهایی را که میخریم، بی خبریم.
09:06
In a sense, the room itself is the elephant in the room,
159
546160
4000
همانند ضربالمثلِ: فیل توی اطاق است و
09:10
but we don't see it. And we've become victims
160
550160
4000
ما او را نمیبینیم. و ما قربانیان
09:14
of a system that points us elsewhere. Consider this.
161
554160
3000
سیستمی شده ایم که ما را به جهتِ دیگری اشاره میدهد. این را ملاحظه کنید.
09:18
There's a wonderful book called
162
558160
3000
یک کتاب بسیار شگفت انگيزی است بنامِ
09:22
Stuff: The Hidden Life of Everyday Objects.
163
562160
2000
«چیزها: زندگي پنهاني اشیاي روزمره».
09:25
And it talks about the back story of something like a t-shirt.
164
565160
3000
و راجع به تاریخچة شیئی مانندِ یک پیراهن صحبت میکند:
09:28
And it talks about where the cotton was grown
165
568160
3000
که ابریشمش کجا رُشد کرد،
09:31
and the fertilizers that were used and the consequences
166
571160
2000
چه نوع کودی استفاده شد و این کود چه
09:33
for soil of that fertilizer. And it mentions, for instance,
167
573160
4000
اثری بر آن خاک داشت. و اشاره میکند که، برای مثال،
09:37
that cotton is very resistant to textile dye;
168
577160
3000
آن ابریشم در مقابلِ رنگِ پارچه خیلی مُقاوم است؛
09:40
about 60 percent washes off into wastewater.
169
580160
3000
و اینکه حدودِ ۶۰ درصدِ آن شسته میشه بسوی آب و فاضلاب.
09:43
And it's well known by epidemiologists that kids
170
583160
3000
و بیمارشناسان اینرا خوب میدانند که بچه هایی
09:46
who live near textile works tend to have high rates of leukemia.
171
586160
5000
که نزدیکِ کارخانه های محصولات پارچه ای زندگی میکنند، گرایشِ بسیار به سرطانِ خون دارند.
09:52
There's a company, Bennett and Company, that supplies Polo.com,
172
592160
4000
یک شرکتیست بنامِ بِنِت و کُمپانی، که Polo.com و Victoria's Secret
09:57
Victoria's Secret -- they, because of their CEO, who's aware of this,
173
597160
5000
را تولید میکند -- آنها، چون مدیرِ شرکتشان از این واقعه آگاهست،
10:03
in China formed a joint venture with their dye works
174
603160
4000
در چین یک معاملة مشترکی با کارخانه های محصولات رنگی بوجود آوردند
10:07
to make sure that the wastewater
175
607160
2000
تا مطمئن باشند که از فاضلابها،
10:09
would be properly taken care of before it returned to the groundwater.
176
609160
4000
قبل از اینکه تبدیل به آبهای زیرزمینی شوند، به شایستگی مواظبت شود.
10:13
Right now, we don't have the option to choose the virtuous t-shirt
177
613160
4000
در حال حاظر، ما این اختیار را نداریم که یک پیراهنِ بافضيلتی را
10:18
over the non-virtuous one. So what would it take to do that?
178
618160
4000
در مقابلِ یک پیراهنِ بی فضيلت‌ انتخاب کنیم.
10:25
Well, I've been thinking. For one thing,
179
625160
3000
خوب، داشتم فکر میکردم. اولاً
10:28
there's a new electronic tagging technology that allows any store
180
628160
5000
یک تکنولوژي برقی وجود دارد که به هر مغازه این اجازه را میدهد
10:33
to know the entire history of any item on the shelves in that store.
181
633160
4000
تا تاریخچة کاملِ هر محصولی را که روی تاقچه دارند را بداند.
10:38
You can track it back to the factory. Once you can track it
182
638160
2000
مینوانید ردِ پاي آنرا تا به خودِ کارخانه تعقیب کنید. يكمرتبه‌ که ردِ پاي آنرا
10:40
back to the factory, you can look at the manufacturing processes
183
640160
4000
به خودِ کارخانه پیدا کردید، میتوانید به فراینده های تولیدي که
10:44
that were used to make it, and if it's virtuous,
184
644160
4000
برای ساختن آنها استفاده شده، نگاه کنید، و اگر با فضیلت است،
10:48
you can label it that way. Or if it's not so virtuous,
185
648160
4000
میتوانید آنرا بهمان وجه برچسب زنید. یا اگر بی فضیلت است،
10:52
you can go into -- today, go into any store,
186
652160
4000
میتوانید -- امروزه، میتوانید واردِ هر مغازه ای شوید،
10:56
put your scanner on a palm onto a barcode,
187
656160
3000
اِسکَنِر خود را بسوی کُدِ میله ای اشاره کنید
10:59
which will take you to a website.
188
659160
2000
بدینوسیله، شما را به وبلاگِ آن میبرد.
11:01
They have it for people with allergies to peanuts.
189
661160
2000
همین را هم برای اشخاصی که حساسیت به بادام زمینی دارند، دارند.
11:04
That website could tell you things about that object.
190
664160
2000
آن وبلاگ میتواند چیزهایی در مورد آن شیی بشما نشان دهد.
11:07
In other words, at point of purchase,
191
667160
1000
به عنوانِ دیگری، در لحظة خریدن،
11:08
we might be able to make a compassionate choice.
192
668160
4000
توانایي انتخابِ مشفقانه را میتوانیم داشته باشیم.
11:12
There's a saying in the world of information science:
193
672160
6000
در علومِ اطلاع رساني یک اصطلاحی وجود دارد:
11:18
ultimately everybody will know everything.
194
678160
3000
نهایتاً همگی، همه چیز را خواهند دانست.
11:21
And the question is: will it make a difference?
195
681160
2000
و سؤال اینجاست: آیا تفاوتی بوجود خواهد آورد؟
11:25
Some time ago when I was working for The New York Times,
196
685160
3000
مدتها پیش، وقتی که براي New York Times کار میکردم،
11:29
it was in the '80s, I did an article
197
689160
2000
در دهة ۸۰ بود، یک مقاله دربارة
11:31
on what was then a new problem in New York --
198
691160
2000
مشکلات جدیدِ نیویورک نوشتم --
11:33
it was homeless people on the streets.
199
693160
2000
در مورد آدمهای خانه بدوش در خیابانها.
11:35
And I spent a couple of weeks going around with a social work agency
200
695160
4000
و حدودِ دو هفته به ماموریت با آژانسِ عمومي کاری، که به خانه بدوشان خدمت میکردند،
11:39
that ministered to the homeless. And I realized seeing the homeless
201
699160
3000
به اطراف شهر رفتم. و این را کشف کردم، بعد از دیدنِ خانه بدوشان
11:42
through their eyes that almost all of them were psychiatric patients
202
702160
5000
ازطریقِ دیدگاهِ خودشان، که تقریبآً همگي آنها بیمارِ روانی هستند
11:47
that had nowhere to go. They had a diagnosis. It made me --
203
707160
4000
که هیچ کجا را برای رفتن ندارند. تشخيص‌ِ ناخوشیشان مشخص بود. این، مرا وادار کرد --
11:52
what it did was to shake me out of the urban trance where,
204
712160
3000
کاری که کرد این بود که مرا از بیهوشي شهر نشیني که
11:56
when we see, when we're passing someone who's homeless
205
716160
3000
وقتی مي بينيم که از کنارِ خانه بدوشی که در حدودِ دیدگاهمان است رد میشویم،
11:59
in the periphery of our vision, it stays on the periphery.
206
719160
3000
اين اتفاق در حد مشاهده مي ماند و
12:04
We don't notice and therefore we don't act.
207
724160
2000
ما آگاه نميشويم، بنابراین عَمَلی از ما سر نمیزند.
12:09
One day soon after that -- it was a Friday -- at the end of the day,
208
729160
5000
چند روزِ بعدِ آن -- جمعه بود -- در اواخر روز،
12:14
I went down -- I was going down to the subway. It was rush hour
209
734160
3000
رفتم بسوی تِرِنِ زير زمينى. وقتِ اوجِ ترافیک بود
12:17
and thousands of people were streaming down the stairs.
210
737160
2000
و هزاران نفر داشتن از پله ها جاری میشدند.
12:19
And all of a sudden as I was going down the stairs
211
739160
2000
و ناگهان، در حالی که از پله ها داشتم میامدم پایین
12:21
I noticed that there was a man slumped to the side,
212
741160
3000
یک مردِ رخوت زدة را ملاحظه کردم،
12:24
shirtless, not moving, and people were just stepping over him --
213
744160
4000
بدون پیراهن، بدونِ حرکت، و مردم داشتن همینطور از رویش لقدوار رد میشدند --
12:29
hundreds and hundreds of people.
214
749160
1000
صدها و صدها نفر.
12:31
And because my urban trance had been somehow weakened,
215
751160
3000
و چون بیهوشي شهر نِشینیم به کمی ضعیف شده بود،
12:35
I found myself stopping to find out what was wrong.
216
755160
3000
متوجه شدم که وایستادم تا ببینم داستانش چیست.
12:39
The moment I stopped, half a dozen other people
217
759160
2000
لحظه ای که وایستادم، چند نفر دیگر هم
12:42
immediately ringed the same guy.
218
762160
1000
بلافاصله دور او حلقه زدند.
12:44
And we found out that he was Hispanic, he didn't speak any English,
219
764160
2000
و متوجه شدیم که او اسپانيايي بود، هیچ انگليسی بلد نبود،
12:46
he had no money, he'd been wandering the streets for days, starving,
220
766160
5000
هیچ پولی نداشت، و روزهای بسیاری را در خیابانها سرگردان و گرسنه سپری کرده بود،
12:51
and he'd fainted from hunger.
221
771160
1000
و از گرسنگی غش کرده بود.
12:52
Immediately someone went to get orange juice,
222
772160
2000
بلافاصله یکنفر رفت که آبِ پرتقال بیاورد،
12:54
someone brought a hotdog, someone brought a subway cop.
223
774160
2000
یکنفر دیگر ساندویچ سوسیس آورد، یک کسِ دیگری پلیسِ تِرِنِ زير زمينى را آورد.
12:57
This guy was back on his feet immediately.
224
777160
3000
آین شخص بلافاصله روی پاهاش وایستاد.
13:00
But all it took was that simple act of noticing,
225
780160
4000
ولی، تنها چیزی که احتیاج بود، همان عملِ سادة ملاحظه کردن بود.
13:05
and so I'm optimistic.
226
785160
1000
پس، من خیلی خوش بین هستم.
13:06
Thank you very much.
227
786160
1000
خیلی متشکرم.
13:07
(Applause)
228
787160
2000
(تشویق)
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7