How technology changes our sense of right and wrong | Juan Enriquez

114,951 views ・ 2021-02-24

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: Leila Ataei Reviewer: Pedram Pourasgari
00:13
In an era of extreme polarization,
0
13063
2734
در عصر قطبیدگی افراطی،
00:15
it's really dangerous to talk about right and wrong.
1
15830
3133
صحبت از درست و غلط واقعا خطرناک است.
00:20
You can be targeted, judged for something you said 10 years ago, 10 months ago,
2
20263
5300
می‌توانید بخاطر حرفی که ۱۰ سال قبل، ۱۰ ماه قبل،‌۱۰ ساعت قبل، ۱۰ ثانیه قبل زدید
00:25
10 hours ago, 10 seconds ago.
3
25563
2734
هدف قرار بگیرید و قضاوت شوید.
00:28
And that means that those who think you're wrong
4
28330
2267
و این یعنی کسانی که فکر می‌کنند شما اشتباه می‌کنید
00:30
may burn you at the stake
5
30630
1267
شما را از ریشه بسوزانند
00:31
or those who are on your side
6
31930
2133
یا کسانی که طرف شما هستند
00:34
that think you're not sufficiently orthodox
7
34063
2234
فکر کنند که شما به حد کافی پایبند اصول نیستید و
00:36
may try and cancel you.
8
36330
1300
شاید سعی به حذف شما کنند.
00:37
As you're thinking about right and wrong, I want you to consider three ideas.
9
37663
3667
در حالیکه به درست و غلط می‌اندیشید، از شما می‌خواهم این ۳ ایده را بسنجید.
00:41
What if right and wrong is something that changes over time.
10
41963
3667
چه می شود اگر درست و غلط چیزی باشد که با زمان تغییر می‌کند.
00:46
What if right and wrong is something that can change because of technology.
11
46530
4033
چه می شود اگر درست و غلط چیزی باشد که می‌تواند به واسطه فناوری تغییر کند.
00:50
What if technology is moving exponentially?
12
50563
2600
و اگر سرعت پیشرفت فناوری تصاعدی باشد.
00:53
So as you're thinking about this concept,
13
53930
2167
پس حال که درباره این مفهوم فکر می‌کنید،
00:56
remember human sacrifice used to be normal and natural.
14
56130
2933
به یاد بیاورید که قربانی کردن انسان امری عادی و طبیعی بود.
00:59
It was a way of appeasing the gods.
15
59063
1867
راهی برای خشنودسازی خدایان.
01:00
Otherwise the rain wouldn't come,
16
60963
1767
وگرنه باران نمی‌بارید،
01:02
the sun wouldn't shine.
17
62763
1700
خورشید طلوع نمی‌کرد.
01:04
Public executions.
18
64497
1566
اعدام در ملاء عام.
01:06
They were common, normal, legal.
19
66063
2567
متداول، عادی و قانونی بودند.
01:08
You used to take your kids to watch beheadings in the streets of Paris.
20
68663
4100
بچه‌ها را برای تماشای مراسم قطع سر در خیابانهای پاریس می‌بردند.
01:12
One of the greatest wrongs, slavery,
21
72797
3133
یکی از بزرگترین اشتباهات، برده‌داری بود،
01:15
indentured servitude,
22
75963
1934
برده‌داری قراردادی،
01:17
that was something that was practiced for millennia.
23
77930
2633
چیزی که به مدت ۱۰۰۰ سال اعمال شد.
01:21
It was practiced across the Incas, the Mayas, the Chinese,
24
81163
4434
از اقوام اینکا و مایا و چینی‌ها گرفته تا
01:25
the Indians in North and South America.
25
85630
3900
سرخوپوستان در آمریکای شمالی و جنوبی.
01:29
And as you're thinking about this,
26
89530
1700
و در حالیکه به آن فکر می‌کنید،
01:31
one question is why did something so wrong last for so long?
27
91263
4667
سوالی که پیش می‌‌آید این است که چیزی به این غلطی چرا این قدر طول کشیده؟
01:36
And a second question is: why did it go away?
28
96663
3267
و سوال دوم این که چرا منسوخ شد؟
01:39
And why did it go away in a few short decades in legal terms?
29
99963
3900
و چرا ظرف چند دهه کوتاه از لحاظ حقوقی منسوخ شد؟
01:43
Certainly there was a work
30
103863
1700
به طور قطع کار صورت گرفته از سوی
01:45
by extraordinary abolitionists who risked their lives,
31
105563
3700
لغو‌طلبان خارق‌العاده‌ای است که زندگی خود را به خطر انداختند،
01:49
but there may be something else happening alongside these brave abolitionists.
32
109297
4666
اما شاید چیز دیگری در کنار کار این لغوطلبهای شجاع نیز رخ داده است.
01:54
Consider energy and the industrial revolution.
33
114663
3634
انقلاب صنعتی و انرژی را در نظر بگیرید.
01:58
A single barrel of oil contains the energy equivalent
34
118330
4067
یک تک بشکه نفت انرژی معادل با کار
02:02
of the work of five to 10 people.
35
122430
2567
۱۰ نفر را دارد.
02:05
Add that to machines,
36
125930
1833
آن را که به ماشین‌ها اضافه کنید
02:07
and suddenly you've got millions of people's equivalent labor
37
127797
4466
و ناگهان نیروی کار معادل میلیون‌ها نفر
02:12
at your disposal.
38
132297
1833
در خدمت شماست.
02:14
You can quit oppressing people and have a doubling in lifespan
39
134163
4900
می‌توانید دست از استعمار آدمها برداشته و بعد از یک طول عمر کوتاه به مدت ۱۰۰۰ سال
02:19
after a flattened lifespan for millennia.
40
139063
3467
طول عمری مضاعف داشته باشید.
02:22
The world economy, which had been flat for millennia,
41
142530
3067
اقتصاد دنیا، که برای ۱۰۰۰ سال یکنواخت بود،
02:25
all of a sudden explodes.
42
145630
1900
به یکباره منفجر می‌شود.
02:27
And you get enormous amounts of wealth and food and other things
43
147530
4533
و میزان انبوهی از ثروت و غذا و سایر چیزها را به دست میاورید که
02:32
produced by far fewer hands.
44
152063
2767
توسط دستهای کمتری تولید شده‌اند.
02:35
Technology changes the way we interact with each other in fundamental ways.
45
155797
4266
فناوری شیوه تعامل ما با یکدیگر را به روشهای بنیادی تغییر می‌‌دهد.
02:40
New technologies like the machine gun
46
160063
2234
فناوریهای تازه مثل مسلسل
02:42
completely changed the nature of warfare in World War I.
47
162330
3767
تماما ماهیت جنگاوری را در جنگ جهانی اول تغییر دادند.
02:46
It drove people into trenches.
48
166130
2067
آدمها را به سنگرها راند.
02:48
You were in the British trench, or you were in the German trench.
49
168197
3100
یا در سنگر انگلیس بودید یا که در سنگر آلمان.
02:51
Anything in between was no man's land.
50
171330
2367
هر جایی بین این دو خاک کسی نبود.
02:53
You entered no man's land.
51
173697
1533
شما وارد خاک هیچکس می‌شدید.
02:55
You were shot. You were killed.
52
175263
2034
گلوله می‌خوردید. کشته می‌شدید.
02:57
You tried to leave the trench in the other direction.
53
177330
2733
اگر تلاش می‌کردید سنگر خود را در جهت دیگر ترک کنید،
03:00
Then your own side would shoot you
54
180063
1700
آن وقت طرف خودی به شما شلیک می‌کرد
03:01
because you were a deserter.
55
181797
1333
چون که شما خائن بودید.
03:03
In a weird way, today's machine guns are narrowcast social media.
56
183963
5067
به طریقی عجیب، مسلسل‌های امروزی رسانه‌های اجتماعی پخش برنامه محدود هستند.
03:09
We're shooting at each other.
57
189030
1500
ما به یکدیگر شلیک می‌کنیم.
03:10
We're shooting at those we think are wrong
58
190530
2067
به کسانی که فکر می‌کنیم غلط‌‌ هستنند
03:12
with posts, with tweets, with photographs, with accusations, with comments.
59
192630
4900
با پست‌ها، توییتها، عکسها،‌اتهام‌ها، نظرات‌مان شلیک می‌کنیم.
03:17
And what it's done is it's created these two trenches
60
197530
3100
و نتیجه این کار ایجاد این دو سنگری شده است
03:20
where you have to be either in this trench or that trench.
61
200663
3934
که یا باید در این سنگر باشید یا آن سنگر.
03:24
And there's almost no middle ground to meet each other,
62
204630
3100
و تقریبا هیچ زمین مشترکی برای ملاقات یکدیگر در بین نیست تا
03:27
to try and find some sort of a discussion between right and wrong.
63
207763
5534
تلاش برای یافتن نوعی گفتگو بین درست و غلط اتفاق بی‌افتد.
03:33
As you drive around the United States, you see signs on lawns.
64
213330
4633
موقع رانندگی در ایالات متحده متوجه علامتهای روی چمن‌ها می‌شوید.
03:37
Some say, "Black Lives Matter."
65
217997
2033
برخی می‌گوید: «زندگی سیاه‌هان اهمیت دارد.»
03:40
Others say, "We support the police."
66
220030
2500
و برخی دیگر: «از پلیس‌ها حمایت می‌کنیم.»
03:42
You very rarely see both signs on the same lawn.
67
222530
4000
خیلی به ندرت شاهد هر دو علامت در یک چمن هستید.
03:47
And yet if you ask people,
68
227197
1900
و در عین حال اگر از مردم بپرسید،
03:49
most people would probably support Black Lives Matter
69
229130
2933
اکثرشان احتمالا از زندگی سیاه‌هان اهمیت دارد حمایت می‌کنند و
03:52
and they would also support their police.
70
232063
2867
همینطور از پلیس‌ها.
03:54
So as you think of these polarized times,
71
234963
2134
لذا وقتی به این دوران قطبیدگی فکر می‌کنید،
03:57
as you think of right and wrong,
72
237130
1633
در حالیکه به درست و غلط می‌اندیشید
03:58
you have to understand that right and wrong changes
73
238797
2766
باید این را بفهمید که درست و غلط تغییر می‌کند
04:01
and is now changing in exponential ways.
74
241563
2967
و اکنون شتاب تغییرات تصاعدی است.
04:04
Take the issue of gay marriage.
75
244530
1933
ازدواج همجنس‌گراها را در نظر بگیرید.
04:06
In 1996, two-thirds of the US population was against gay marriage.
76
246497
5133
در ۱۹۹۶، دو-سوم جمعیت آمریکا علیه ازدواج همجنسگراها بود.
04:11
Today two-thirds is for.
77
251663
2100
امروزه دو-سوم به نفع آنهاست.
04:13
It's almost 180-degree shift in the opinion.
78
253797
4233
تقریبا تغییر ۱۸۰ درجه در عقیده را نشان می‌دهد.
04:18
In part, this is because of protests,
79
258030
2333
بخشی از آن به خاطر اعتراضات است،
04:20
because people came out of the closet,
80
260363
2234
چون آدم‌ها از مخفیگاه‌شان بیرون آمدند،
04:22
because of AIDS,
81
262630
1933
به خاطر ایدز،
04:24
but a great deal of it has to do with social media.
82
264563
2967
اما بخش زیادی از آن به خاطر رسانه‌های اجتماعی است.
04:27
A great deal of it has to do with people out in our homes,
83
267530
4100
بخش زیادی از آن به خاطر آدم‌هایی است که در منازل،
04:31
in our living rooms, through television, through film, through posts,
84
271663
4700
در اتاقهای نشیمن ما هستند، به واسطه تلویزیون، فیلم و پست‌ها،
04:36
through people being comfortable enough,
85
276363
2534
به واسطه مردمی است که به حد کافی احساس راحتی می‌کنند،
04:38
our friends, our neighbors, our family,
86
278930
2967
دوستان، همسایگان و خانواده‌مان که
04:41
to say, "I'm gay."
87
281930
1833
بگویند، « من همجنس‌گرا هستم.»
04:43
And this has shifted opinion
88
283797
1633
و این امر حتی باعث تغییر عقیده در
04:45
even in some of the most conservative of places.
89
285463
3400
برخی از محافظه‌کارترین مکان‌ها شده است.
04:48
Take the Pope.
90
288863
1434
برای مثال پاپ.
04:50
As Cardinal in 2010,
91
290330
1733
در مقام کاردینال در۲۰۱۰،
04:52
he was completely against gay marriage.
92
292063
2534
او کاملا مخالف ازدواج همجنس‌ها بود.
04:54
He becomes Pope.
93
294630
1333
او پاپ می‌شود.
04:55
And three years after the last sentence
94
295997
3300
و سه سال بعد این آخرین جمله از اوست که
04:59
he comes out with "Who am I to judge?"
95
299330
2367
«من که هستم که قضاوت کنم؟»
05:01
And then today, he's in favor of civil unions.
96
301697
4000
و بعد امروز، او طرفدار اتحادیه‌های مدنی است.
05:05
As you're thinking about technology changing ethics,
97
305697
3200
در حالیکه مشغول فکر درباره اثر تغییردهنده فناوری در اخلاقیات هستید،
05:08
you also have to consider that technology is now moving exponentially.
98
308930
3833
باید این را هم در نظر بگیرید که فناوری اکنون تصاعدی جلو می رود.
05:12
As right and wrong changes,
99
312797
2133
در حالیکه درست و غلط تغییر می‌کند،
05:14
if you take the position, "I know right.
100
314963
2634
اگر موضع شما این باشد که «من درست را می دانم.
05:17
And if you completely disagree with me, if you partially disagree with me,
101
317630
3567
و اگر شما با من کاملا مخالف باشید، اگر تا حدودی مخالف باشید،
05:21
if you even quibble with me, then you're wrong,"
102
321197
2433
اگر حتی با من لفاظی کنی، پس در حال اشتباه کردنی،»
05:23
then there's no discussion,
103
323663
1367
پس هیچ جای بحثی نمی‌ماند،
05:25
no tolerance, no evolution, and certainly no learning.
104
325030
3500
نه تحملی، نه تکاملی، و قطعا نه آموختنی.
05:28
Most of us are not vegetarians yet.
105
328530
2267
اکثر ما هنوز گیاهخوار نیستیم.
05:31
Then again, we haven't had
106
331830
1400
باز دوباره، هنوز کلی جایگزین
05:33
a whole lot of faster, better, cheaper alternatives to meat.
107
333263
3767
سریعتر، بهتر و ارزانتری از گوشت نداریم.
05:37
But now that we're getting synthetic meats,
108
337030
2533
اما حال که در ساخت گوشت مصنوعی بهتر می‌شویم،
05:39
as the price drops from 380,000 dollars in 2013
109
339563
4467
در حالیکه قیمت آن از ۳۸۰۰۰۰ دلار در ۲۰۱۳
05:44
to 9 dollars today,
110
344030
1333
به امروزه ۹ دلار رسیده،
05:46
a great big chunk of people
111
346530
1433
یک گروه خیلی بزرگی از مردم،
05:47
are going to start becoming vegetarian or quasi-vegetarian.
112
347997
4466
شروع به گیاهخواری یا نیمه گیاهخواری خواهند کرد.
05:52
And then in retrospect, these pictures
113
352497
2566
و بعد در نگاه به گذشته، این تصاویر از
05:55
of walking into the fanciest, most expensive restaurants in town
114
355063
4134
قدم برداشتن به گرانترین و تجملی‌ترین رستورانهای شهر
05:59
and walking past racks of bloody steaks
115
359197
3900
و گذشتن از کنار قفسه‌های استیک خونی
06:03
is going to look very different in 10 years, in 20 years and 30 years.
116
363130
5267
۱۰ سال، ۲۰ سال و ۳۰ سال بعد بسیار متفاوت دیده خواهد شد.
06:08
In these polarized times,
117
368430
2333
در این زمانه قطبیت‌ها،
06:10
I'd like to revive two words you rarely hear today:
118
370797
3900
مایلم دو کلمه‌ای را احیا کنم که امروزه به ندرت آها را می‌شنوید:
06:14
humility and forgiveness.
119
374697
1866
تواضع و بخشش.
06:17
When you judge the past, your ancestors, your forefathers,
120
377663
3934
وقتی گذشته، اجداد و نیاکان خود را قضاوت می‌کنید،
06:21
do so with a little bit more humility,
121
381630
2100
آن را با اندکی تواضع انجام دهید چون
06:23
because perhaps if you'd been educated in that time,
122
383763
3167
شاید اگر شما در آن دوران تحصیلات داشتید،
06:26
if you'd lived in that time,
123
386963
1634
اگر در آن زمان زندگی می‌‌کردید،
06:28
you would've done a lot of things wrong.
124
388630
2333
کلی کار اشتباه انجام داده بودید.
06:30
Not because they're right.
125
390997
1700
نه این که آنها حق دارند.
06:32
Not because we don't see they're wrong today,
126
392697
2700
نه این که ما امروز اشتباها‌تشان را نمی‌بینیم،
06:35
but simply because our notions,
127
395430
2100
بلکه صرفا به خاطر تصوراتمان،
06:37
our understanding of right and wrong change across time.
128
397530
3533
درک ما از درست و غلط در طول زمان تغییر می‌کند.
06:41
The second word, forgiveness.
129
401997
2200
کلمه دوم، بخشش است.
06:44
Forgiveness is incredibly important these days.
130
404197
3033
بخشیدن این روزها جور باورنکردنی مهم است.
06:47
You cannot cancel somebody for saying the wrong word,
131
407263
3967
شما نمی‌توانید کسی را به خاطر گفتن کلمه اشتباه، انجام کاری
06:51
for having done something 10 years ago,
132
411263
2634
ده سال قبل، تحریک کردن شما و این که
06:53
for having triggered you and not being a hundred percent right.
133
413930
3700
۱۰۰ درصد درست نبوده حذف کنید.
06:57
To build a community, you have to build it and talk to people
134
417663
3467
برای ساخت یک جامعه، باید آن را بسازید و با مردم صحبت کنید
07:01
and learn from people
135
421163
1367
و از مردمی بیاموزید که
07:02
who may have very different points of view from yours.
136
422530
2933
شاید نقطه‌نظرهایی متفاوت از شما دارند.
07:05
You have to allow them a space
137
425497
2566
باید به آنها فضا بدهید
07:08
instead of creating a no man's land.
138
428063
2667
به جای ایجاد سرزمینی برای هیچکس.
07:10
A middle ground, a ??? and a space of empathy.
139
430763
3600
یک جای ما بین که فضایی برای همدلی ایجاد می‌کند.
07:15
This is a time to build community.
140
435130
1833
الان زمان ساخت یک اجتماع است.
07:16
This is not a time to continue ripping nations apart.
141
436997
3233
الان وقت شکاف انداختن بین ملتها نیست.
07:20
Thank you very much.
142
440263
1234
از شما خیلی متشکرم.
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7