How technology changes our sense of right and wrong | Juan Enriquez

112,242 views ・ 2021-02-24

TED


Videoyu oynatmak için lütfen aşağıdaki İngilizce altyazılara çift tıklayınız.

Çeviri: Fatma Nur Gözden geçirme: Ramazan Şen
Çok fazla kutuplaşmanın olduğun bir yerde,
neyin doğru neyin yanlış olduğunu konuşmak gerçekten tehlikelidir.
10 yıl önce, 10 ay önce, 10 saat önce, 10 saniye önce söylediğin şeyler için
00:13
In an era of extreme polarization,
0
13063
2734
00:15
it's really dangerous to talk about right and wrong.
1
15830
3133
hedef alınabilir, yargılanabilirsin.
Ve bu demek ki senin yanıldığını düşünenler
00:20
You can be targeted, judged for something you said 10 years ago, 10 months ago,
2
20263
5300
seni ateşe atmak istiyor
veya senin tarafında olanlar,
00:25
10 hours ago, 10 seconds ago.
3
25563
2734
yeterince doğru olmadığını düşünenler
seni karalamaya çalışabilirler.
00:28
And that means that those who think you're wrong
4
28330
2267
Siz doğru ve yanlış hakkında düşünürken, üç fikri dikkate almanızı istiyorum.
00:30
may burn you at the stake
5
30630
1267
00:31
or those who are on your side
6
31930
2133
Ya doğru ve yanlış zamanla değişen bir şeyse.
00:34
that think you're not sufficiently orthodox
7
34063
2234
00:36
may try and cancel you.
8
36330
1300
00:37
As you're thinking about right and wrong, I want you to consider three ideas.
9
37663
3667
Ya doğru ve yanlış teknoloji yüzünden değişebilen bir şeyse.
00:41
What if right and wrong is something that changes over time.
10
41963
3667
Ya teknoloji hızlanarak ilerliyorsa.
Siz bu konuda düşünürken,
00:46
What if right and wrong is something that can change because of technology.
11
46530
4033
önceden insanları kurban etmenin normal olduğunu hatırlayın.
00:50
What if technology is moving exponentially?
12
50563
2600
Tanrıyı memnun etmenin bir yoluydu bu.
Aksi taktirde yağmur yağmazdı,
00:53
So as you're thinking about this concept,
13
53930
2167
güneş parlamazdı.
00:56
remember human sacrifice used to be normal and natural.
14
56130
2933
Halka açık idamlar.
Bunlar çok yaygın, normal, yasaldı.
00:59
It was a way of appeasing the gods.
15
59063
1867
01:00
Otherwise the rain wouldn't come,
16
60963
1767
Önceden çocuklarınızı Paris sokaklarındaki kafa kesilmeleri izlemeye götürürdünüz.
01:02
the sun wouldn't shine.
17
62763
1700
01:04
Public executions.
18
64497
1566
En büyük yanlışlardan biri, kölelik,
01:06
They were common, normal, legal.
19
66063
2567
sözleşmeli kölelik,
01:08
You used to take your kids to watch beheadings in the streets of Paris.
20
68663
4100
bin yıl boyunca uygulanan bir şeydi.
01:12
One of the greatest wrongs, slavery,
21
72797
3133
Incalar, Mayalar, Çinliler, Hintliler
01:15
indentured servitude,
22
75963
1934
01:17
that was something that was practiced for millennia.
23
77930
2633
Kuzey ve Güney Amerikalılar tarafından uygulanırdı.
01:21
It was practiced across the Incas, the Mayas, the Chinese,
24
81163
4434
Ve siz bu konuda düşünürken şunu soralım:
neden yanlış olan bir şey bu zamana kadar sürdü?
01:25
the Indians in North and South America.
25
85630
3900
Ve ikinci soru: neden bitti?
01:29
And as you're thinking about this,
26
89530
1700
01:31
one question is why did something so wrong last for so long?
27
91263
4667
Ve neden birkaç on yıl içinde yasal olarak kalktı?
Hayatlarını riske atan
01:36
And a second question is: why did it go away?
28
96663
3267
sıra dışı köle karşıtları arasında kesinlikle bir çalışma vardı,
01:39
And why did it go away in a few short decades in legal terms?
29
99963
3900
ama bu cesur köle karşıtlarının tarafında başka şeyler oluyor olabilir.
01:43
Certainly there was a work
30
103863
1700
01:45
by extraordinary abolitionists who risked their lives,
31
105563
3700
Enerji ve sanayi devrimini düşünün.
01:49
but there may be something else happening alongside these brave abolitionists.
32
109297
4666
Tek bir petrol varili beş ila on kişinin
çalışmasına eşdeğer bir enerji taşır.
01:54
Consider energy and the industrial revolution.
33
114663
3634
Buna ek olarak makinelerle,
01:58
A single barrel of oil contains the energy equivalent
34
118330
4067
birdenbire emrinizde milyonlarca insana eşdeğer
02:02
of the work of five to 10 people.
35
122430
2567
işçiye sahip oluyorsunuz.
02:05
Add that to machines,
36
125930
1833
İnsanlara baskı uygulamayı bırakabilir ve bin yıldır sabit giden
02:07
and suddenly you've got millions of people's equivalent labor
37
127797
4466
yaşam süresini ikiye katlayabilirsiniz.
02:12
at your disposal.
38
132297
1833
02:14
You can quit oppressing people and have a doubling in lifespan
39
134163
4900
Ekonomi dünyasında, ki bin yıl boyunca sabitti,
birdenbire yükselişe geçti.
02:19
after a flattened lifespan for millennia.
40
139063
3467
Ve daha az kişi tarafından sahip olunan varlığa, yemeğe ve diğer şeylere
02:22
The world economy, which had been flat for millennia,
41
142530
3067
sahip olabilirsin.
02:25
all of a sudden explodes.
42
145630
1900
02:27
And you get enormous amounts of wealth and food and other things
43
147530
4533
Teknoloji birbirimizle temel yollarla kurduğumuz iletişimimizi değiştirir.
Yeni teknolojiler makineli tüfek gibi
02:32
produced by far fewer hands.
44
152063
2767
1.Dünya Savaşı’nda savaş seyrini tamamen değiştirdi.
02:35
Technology changes the way we interact with each other in fundamental ways.
45
155797
4266
İnsanları siperlere sürükledi.
İngiliz hendeğindeydiniz ya da Alman.
02:40
New technologies like the machine gun
46
160063
2234
02:42
completely changed the nature of warfare in World War I.
47
162330
3767
Bu ikisi arasındaki her şey tarafsız bölge.
Tarafsız bölgeye girdiniz.
02:46
It drove people into trenches.
48
166130
2067
Vuruldunuz. Öldürüldünüz.
02:48
You were in the British trench, or you were in the German trench.
49
168197
3100
Diğer tarafta siperi terk etmeyi denediniz.
02:51
Anything in between was no man's land.
50
171330
2367
Sonra kaçak olduğun için
02:53
You entered no man's land.
51
173697
1533
kendi cephen seni vururdu.
02:55
You were shot. You were killed.
52
175263
2034
Tuhaf bir şekilde, bugünün makineli tüfekleri dijital sosyal medyadır.
02:57
You tried to leave the trench in the other direction.
53
177330
2733
03:00
Then your own side would shoot you
54
180063
1700
Birbirimizi vuruyoruz.
03:01
because you were a deserter.
55
181797
1333
Yanıldığını düşündüğümüz kişiyi vuruyoruz;
03:03
In a weird way, today's machine guns are narrowcast social media.
56
183963
5067
gönderilerle, tweetlerle, fotoğraflarla, suçlamalarla, yorumlarla.
03:09
We're shooting at each other.
57
189030
1500
Ve yapılan şey bu iki siperi yarattı
03:10
We're shooting at those we think are wrong
58
190530
2067
03:12
with posts, with tweets, with photographs, with accusations, with comments.
59
192630
4900
ve o ya da bu siperde olmanız gerekti.
Ve nerdeyse birbirimizle buluşmak için,
03:17
And what it's done is it's created these two trenches
60
197530
3100
doğruyu ve yanlışı tartışmak için bir orta yol yok.
03:20
where you have to be either in this trench or that trench.
61
200663
3934
03:24
And there's almost no middle ground to meet each other,
62
204630
3100
Birleşik Devletler’de gezerken, çimlerde işaretler görürsünüz.
03:27
to try and find some sort of a discussion between right and wrong.
63
207763
5534
″Siyahların Hayatı Önemlidir″ der bazısı.
Bazıları ise ″Polisi destekliyoruz.″ der.
03:33
As you drive around the United States, you see signs on lawns.
64
213330
4633
İki işaretin de aynı çimde olduğunu çok nadir görürsünüz.
03:37
Some say, "Black Lives Matter."
65
217997
2033
Ve eğer insanlara sorarsanız,
03:40
Others say, "We support the police."
66
220030
2500
çoğu Siyahların Hayatı Önemlidir’i destekliyordur
03:42
You very rarely see both signs on the same lawn.
67
222530
4000
ve aynı zamanda polisi de destekliyordur.
Kutuplaşmanın olduğu şu günlerde,
03:47
And yet if you ask people,
68
227197
1900
doğru ve yanlışı düşündüğünüzde,
03:49
most people would probably support Black Lives Matter
69
229130
2933
doğru ve yanlışın değiştiğini anlamanız gerekir
03:52
and they would also support their police.
70
232063
2867
ve şimdi çeşitli yollarda değişmeye devam ediyor.
03:54
So as you think of these polarized times,
71
234963
2134
Gey evliliği sorununu ele alalım.
03:57
as you think of right and wrong,
72
237130
1633
03:58
you have to understand that right and wrong changes
73
238797
2766
1996′da, ABD’nin üçte ikisi gey evliliğine karşıydı.
04:01
and is now changing in exponential ways.
74
241563
2967
Bugün üçte ikisi destekliyor.
04:04
Take the issue of gay marriage.
75
244530
1933
Fikirlerde neredeyse 180 derece değişiklik var.
04:06
In 1996, two-thirds of the US population was against gay marriage.
76
246497
5133
Bu kısımda, protestolar yüzünden,
04:11
Today two-thirds is for.
77
251663
2100
insanların artık açığa çıkması yüzünden,
04:13
It's almost 180-degree shift in the opinion.
78
253797
4233
AIDS yüzünden,
ama büyük kısmı sosyal medyayla ilgili.
04:18
In part, this is because of protests,
79
258030
2333
Bunun büyük bir kısmı evlerimizde,
04:20
because people came out of the closet,
80
260363
2234
04:22
because of AIDS,
81
262630
1933
oturma odalarımızda, televizyon, film, gönderiler,
04:24
but a great deal of it has to do with social media.
82
264563
2967
04:27
A great deal of it has to do with people out in our homes,
83
267530
4100
yeterince rahat olan insanlar vasıtasıyla,
arkadaşlarımızın, komşularımızın, ailemizin,
04:31
in our living rooms, through television, through film, through posts,
84
271663
4700
″Ben geyim.″ diyebilmesidir.
Ve en muhafazakar yerlerde bile
04:36
through people being comfortable enough,
85
276363
2534
bu görüş artık değişti.
04:38
our friends, our neighbors, our family,
86
278930
2967
Papayı ele alalım.
04:41
to say, "I'm gay."
87
281930
1833
2010′un kardinali olarak,
04:43
And this has shifted opinion
88
283797
1633
tamamen gey evliliğine karşıydı.
04:45
even in some of the most conservative of places.
89
285463
3400
Papa oldu.
Ve son cümleden üç yıl sonra
04:48
Take the Pope.
90
288863
1434
04:50
As Cardinal in 2010,
91
290330
1733
″Ben kimim ki yargılıyorum?″ dedi.
04:52
he was completely against gay marriage.
92
292063
2534
Ve bugün, o sivil birliğin tarafında.
04:54
He becomes Pope.
93
294630
1333
04:55
And three years after the last sentence
94
295997
3300
Teknolojinin etiği değiştirdiğini düşünürken,
04:59
he comes out with "Who am I to judge?"
95
299330
2367
aynı zamanda teknolojinin katlanarak ilerlediğini de düşünmek zorundasınız.
05:01
And then today, he's in favor of civil unions.
96
301697
4000
Doğru ve yanlış değiştiği sürece,
05:05
As you're thinking about technology changing ethics,
97
305697
3200
şöyle dersen: ″Ben doğru olanı biliyorum.
05:08
you also have to consider that technology is now moving exponentially.
98
308930
3833
Ve eğer bana hiç katılmıyorsanız, bana kısmen katılmıyorsanız,
05:12
As right and wrong changes,
99
312797
2133
hatta benimle münakaşa ediyorsanız, o zaman hatalısınız.”
05:14
if you take the position, "I know right.
100
314963
2634
o zaman tartışma olmaz,
tolerans olmaz, evrim olmaz, ve kesinlikle öğrenme olmaz.
05:17
And if you completely disagree with me, if you partially disagree with me,
101
317630
3567
Çoğumuz henüz vejetaryen değil.
05:21
if you even quibble with me, then you're wrong,"
102
321197
2433
05:23
then there's no discussion,
103
323663
1367
Tekrardan, et için daha hızlı
daha iyi, daha ucuz bir alternatifimiz olmazdı.
05:25
no tolerance, no evolution, and certainly no learning.
104
325030
3500
05:28
Most of us are not vegetarians yet.
105
328530
2267
Ama şimdi yapay et alabiliyoruz,
05:31
Then again, we haven't had
106
331830
1400
2013′te 380,000 dolardan günümüzde
05:33
a whole lot of faster, better, cheaper alternatives to meat.
107
333263
3767
9 dolara düştü,
05:37
But now that we're getting synthetic meats,
108
337030
2533
insanların büyük bir kısmı
05:39
as the price drops from 380,000 dollars in 2013
109
339563
4467
vejetaryen ya da yarı vejetaryen olmaya başladı.
05:44
to 9 dollars today,
110
344030
1333
Ve geçmişe baktığımızda,
05:46
a great big chunk of people
111
346530
1433
şehirdeki en lüks, en pahalı restoranlara girip
05:47
are going to start becoming vegetarian or quasi-vegetarian.
112
347997
4466
kanlı biftek raflarının yanından geçerken
05:52
And then in retrospect, these pictures
113
352497
2566
bu resimler 10 yıl sonra, 20 ve 30 yıl sonra çok farklı görünecek.
05:55
of walking into the fanciest, most expensive restaurants in town
114
355063
4134
05:59
and walking past racks of bloody steaks
115
359197
3900
Kutuplaşmanın olduğu şu zamanlarda,
bugünlerde nadiren duyacağınız şu iki kelimeyi tekrardan gündeme getireyim:
06:03
is going to look very different in 10 years, in 20 years and 30 years.
116
363130
5267
alçakgönüllülük ve affedicilik.
06:08
In these polarized times,
117
368430
2333
Geçmişi yargıladığınızda, soyunuz, atalarınız,
06:10
I'd like to revive two words you rarely hear today:
118
370797
3900
bunu biraz daha alçakgönüllülükle yapın,
06:14
humility and forgiveness.
119
374697
1866
çünkü belki o zamanda eğitim görmüş olsaydınız,
06:17
When you judge the past, your ancestors, your forefathers,
120
377663
3934
eğer o zamanda yaşasaydınız,
birçok şeyi yanlış yapardınız.
06:21
do so with a little bit more humility,
121
381630
2100
Onlar doğru olduğu için değil.
06:23
because perhaps if you'd been educated in that time,
122
383763
3167
Onların bugün yanıldığını görmediğimizden değil,
06:26
if you'd lived in that time,
123
386963
1634
kavramlarımız yüzünden,
06:28
you would've done a lot of things wrong.
124
388630
2333
doğru ve yanlış algımız zamanla değişti.
06:30
Not because they're right.
125
390997
1700
06:32
Not because we don't see they're wrong today,
126
392697
2700
İkinci kelime olan, affedicilik.
06:35
but simply because our notions,
127
395430
2100
Affedicilik şu günlerde inanılmaz derecede önemli.
06:37
our understanding of right and wrong change across time.
128
397530
3533
Birini yanlış bir şey dedi diye karalayamazsın,
06:41
The second word, forgiveness.
129
401997
2200
10 yıl önce yaptığı bir şey yüzünden,
06:44
Forgiveness is incredibly important these days.
130
404197
3033
sizi tetiklediği için ve sizinle yüzde yüz uyuşmadığı için.
06:47
You cannot cancel somebody for saying the wrong word,
131
407263
3967
Bir toplum inşa etmek için, onu inşa etmeniz ve bakış açısı sizinkinden
06:51
for having done something 10 years ago,
132
411263
2634
çok farklı olan insanlardan
06:53
for having triggered you and not being a hundred percent right.
133
413930
3700
bir şeyler öğrenmeniz gerek.
06:57
To build a community, you have to build it and talk to people
134
417663
3467
Onlara bir yer açmanız gerek
tarafsız bir bölge yaratmak değil.
07:01
and learn from people
135
421163
1367
07:02
who may have very different points of view from yours.
136
422530
2933
Bir orta yol, empati için bir alan yaratma.
07:05
You have to allow them a space
137
425497
2566
Şimdi toplum oluşturma zamanı.
07:08
instead of creating a no man's land.
138
428063
2667
Şimdi ulusları parçalamaya devam etme zamanı değil.
07:10
A middle ground, a ??? and a space of empathy.
139
430763
3600
Çok teşekkürler.
07:15
This is a time to build community.
140
435130
1833
07:16
This is not a time to continue ripping nations apart.
141
436997
3233
07:20
Thank you very much.
142
440263
1234
Bu web sitesi hakkında

Bu site size İngilizce öğrenmek için yararlı olan YouTube videolarını tanıtacaktır. Dünyanın dört bir yanından birinci sınıf öğretmenler tarafından verilen İngilizce derslerini göreceksiniz. Videoyu oradan oynatmak için her video sayfasında görüntülenen İngilizce altyazılara çift tıklayın. Altyazılar video oynatımı ile senkronize olarak kayar. Herhangi bir yorumunuz veya isteğiniz varsa, lütfen bu iletişim formunu kullanarak bizimle iletişime geçin.

https://forms.gle/WvT1wiN1qDtmnspy7