How technology changes our sense of right and wrong | Juan Enriquez

112,228 views ・ 2021-02-24

TED


Dubbelklik op de Engelse ondertitels hieronder om de video af te spelen.

Vertaald door: Marena Marshall Nagekeken door: Oeds Eilander
In een tijdperk van extreme polarisatie
is het heel riskant om over goed en slecht te spreken.
Je kunt bekritiseerd worden voor iets wat je tien jaar geleden zei,
00:13
In an era of extreme polarization,
0
13063
2734
00:15
it's really dangerous to talk about right and wrong.
1
15830
3133
tien maanden geleden,
tien uur geleden,
tien seconden geleden.
Mensen die het niet met je eens zijn,
00:20
You can be targeted, judged for something you said 10 years ago, 10 months ago,
2
20263
5300
kunnen je afbranden,
of degenen die aan jouw kant staan
00:25
10 hours ago, 10 seconds ago.
3
25563
2734
en vinden dat je niet strikt genoeg bent,
kunnen je uitsluiten.
00:28
And that means that those who think you're wrong
4
28330
2267
Als je nadenkt over goed en slecht,
00:30
may burn you at the stake
5
30630
1267
stel jezelf dan de volgende drie vragen.
00:31
or those who are on your side
6
31930
2133
Is goed en slecht iets wat met de tijd verandert?
00:34
that think you're not sufficiently orthodox
7
34063
2234
00:36
may try and cancel you.
8
36330
1300
00:37
As you're thinking about right and wrong, I want you to consider three ideas.
9
37663
3667
Kunnen goed en fout veranderen onder invloed van technologie?
00:41
What if right and wrong is something that changes over time.
10
41963
3667
Wat als technologie zich steeds sneller ontwikkelt?
Als we hier wat dieper op ingaan,
00:46
What if right and wrong is something that can change because of technology.
11
46530
4033
vergeet dan niet dat mensenoffers vroeger heel normaal waren.
00:50
What if technology is moving exponentially?
12
50563
2600
Zo werden de goden tevredengesteld.
Anders zou het niet regenen,
00:53
So as you're thinking about this concept,
13
53930
2167
en de zon zou niet schijnen.
Openbare executies.
00:56
remember human sacrifice used to be normal and natural.
14
56130
2933
Deze waren gebruikelijk, normaal, wettig.
00:59
It was a way of appeasing the gods.
15
59063
1867
01:00
Otherwise the rain wouldn't come,
16
60963
1767
Mensen bezochten met hun kinderen onthoofdingen in de straten van Parijs.
01:02
the sun wouldn't shine.
17
62763
1700
01:04
Public executions.
18
64497
1566
Een van de grootste onrechten,
01:06
They were common, normal, legal.
19
66063
2567
de slavernij,
contractarbeid,
01:08
You used to take your kids to watch beheadings in the streets of Paris.
20
68663
4100
was iets wat eeuwenlang beoefend werd.
01:12
One of the greatest wrongs, slavery,
21
72797
3133
Het was gebruikelijk bij de Inca’s, de Maya’s en de Chinezen,
01:15
indentured servitude,
22
75963
1934
01:17
that was something that was practiced for millennia.
23
77930
2633
evenals de indianen in Noord- en Zuid-Amerika.
01:21
It was practiced across the Incas, the Mayas, the Chinese,
24
81163
4434
Als je hierover nadenkt,
moet je je afvragen,
hoe zoiets slechts zo lang stand heeft kunnen houden?
01:25
the Indians in North and South America.
25
85630
3900
Een tweede vraag is:
01:29
And as you're thinking about this,
26
89530
1700
waarom is het uiteindelijk gestopt?
01:31
one question is why did something so wrong last for so long?
27
91263
4667
En waarom is het zo snel gestopt, althans in juridische zin?
Uiteraard is er hard voor gewerkt
01:36
And a second question is: why did it go away?
28
96663
3267
door bewonderenswaardige abolitionisten die hun leven riskeerden,
01:39
And why did it go away in a few short decades in legal terms?
29
99963
3900
maar mogelijk speelde er nog iets anders dan alleen moedige abolitionisten.
01:43
Certainly there was a work
30
103863
1700
01:45
by extraordinary abolitionists who risked their lives,
31
105563
3700
Neem bijvoorbeeld energie en de industriële revolutie
01:49
but there may be something else happening alongside these brave abolitionists.
32
109297
4666
De energie die je uit een vat olie haalt,
staat gelijk aan het werk dat vijf tot tien mensen verrichten.
01:54
Consider energy and the industrial revolution.
33
114663
3634
Als we machines meerekenen,
01:58
A single barrel of oil contains the energy equivalent
34
118330
4067
staat ons opeens het arbeidsequivalent van miljoenen mensen ter beschikking.
02:02
of the work of five to 10 people.
35
122430
2567
02:05
Add that to machines,
36
125930
1833
Onderdrukking is niet langer nodig
02:07
and suddenly you've got millions of people's equivalent labor
37
127797
4466
en mensen leven twee keer zo lang,
na een langdurig lage levensverwachting.
02:12
at your disposal.
38
132297
1833
02:14
You can quit oppressing people and have a doubling in lifespan
39
134163
4900
De wereldeconomie,
die zich lange tijd nauwelijks ontwikkelde,
maakt opeens een explosieve groei door.
02:19
after a flattened lifespan for millennia.
40
139063
3467
Enorme hoeveelheden producten, voedsel en andere zaken
02:22
The world economy, which had been flat for millennia,
41
142530
3067
worden door veel minder handen geproduceerd.
02:25
all of a sudden explodes.
42
145630
1900
02:27
And you get enormous amounts of wealth and food and other things
43
147530
4533
Wezenlijk verandert technologie de manier waarop we met elkaar omgaan.
Nieuwe technologieën,
02:32
produced by far fewer hands.
44
152063
2767
zoals het machinegeweer,
veranderden de manier van oorlogsvoering in de Eerste Wereldoorlog wezenlijk.
02:35
Technology changes the way we interact with each other in fundamental ways.
45
155797
4266
Mensen werden de loopgraven ingejaagd.
Je zat in de Engelse of Duitse loopgraven.
02:40
New technologies like the machine gun
46
160063
2234
02:42
completely changed the nature of warfare in World War I.
47
162330
3767
Alles ertussenin was niemandsland.
Wie in niemandsland terechtkwam,
02:46
It drove people into trenches.
48
166130
2067
werd neergeschoten -- gedood.
02:48
You were in the British trench, or you were in the German trench.
49
168197
3100
Wie in de andere richting uit de loopgraaf wilde vluchten,
02:51
Anything in between was no man's land.
50
171330
2367
werd door de eigen partij gedood,
02:53
You entered no man's land.
51
173697
1533
omdat je een deserteur was.
02:55
You were shot. You were killed.
52
175263
2034
Vreemd genoeg zijn de machinegeweren van vandaag zeer gerichte sociale media.
02:57
You tried to leave the trench in the other direction.
53
177330
2733
03:00
Then your own side would shoot you
54
180063
1700
We schieten op elkaar.
03:01
because you were a deserter.
55
181797
1333
We schieten op mensen met een andere mening
03:03
In a weird way, today's machine guns are narrowcast social media.
56
183963
5067
door middel van posts, tweets, foto’s, beschuldigingen, comments.
03:09
We're shooting at each other.
57
189030
1500
Zo zijn twee loopgraven gecreëerd,
03:10
We're shooting at those we think are wrong
58
190530
2067
03:12
with posts, with tweets, with photographs, with accusations, with comments.
59
192630
4900
en je moet of in de ene of in de andere zitten.
Er bestaat geen middenweg om toenadering te zoeken
03:17
And what it's done is it's created these two trenches
60
197530
3100
en over goed en slecht te discussiëren.
03:20
where you have to be either in this trench or that trench.
61
200663
3934
03:24
And there's almost no middle ground to meet each other,
62
204630
3100
Als je in de Verenigde Staten rondrijdt,
03:27
to try and find some sort of a discussion between right and wrong.
63
207763
5534
dan zie je borden op gazons staan.
Op sommige staat: “Black Lives Matter.”
Op andere: “Wij steunen de politie.”
03:33
As you drive around the United States, you see signs on lawns.
64
213330
4633
Zelden staan beide borden naast elkaar op hetzelfde gazon.
03:37
Some say, "Black Lives Matter."
65
217997
2033
Maar als je het mensen vraagt,
03:40
Others say, "We support the police."
66
220030
2500
dan zouden de meeste mensen Black Lives Matter toejuichen,
03:42
You very rarely see both signs on the same lawn.
67
222530
4000
en tegelijkertijd ook de politie steunen.
Dus in deze tijden van polarisatie,
03:47
And yet if you ask people,
68
227197
1900
als we praten over goed en slecht,
03:49
most people would probably support Black Lives Matter
69
229130
2933
dan moeten we ons bedenken dat goed en slecht verandert
03:52
and they would also support their police.
70
232063
2867
en het verandert tegenwoordig razendsnel.
03:54
So as you think of these polarized times,
71
234963
2134
Neem het homohuwelijk als voorbeeld.
03:57
as you think of right and wrong,
72
237130
1633
03:58
you have to understand that right and wrong changes
73
238797
2766
In 1996 was twee derde van de VS tegen het homohuwelijk.
04:01
and is now changing in exponential ways.
74
241563
2967
Tegenwoordig is twee derde voor.
04:04
Take the issue of gay marriage.
75
244530
1933
Dit is een omslag van bijna 180 graden.
04:06
In 1996, two-thirds of the US population was against gay marriage.
76
246497
5133
Dit komt gedeeltelijk door protesten,
04:11
Today two-thirds is for.
77
251663
2100
omdat mensen uit de kast kwamen,
04:13
It's almost 180-degree shift in the opinion.
78
253797
4233
ook vanwege AIDS,
maar het heeft grotendeels met sociale media te maken.
04:18
In part, this is because of protests,
79
258030
2333
Voornamelijk komt het door mensen uit onze omgeving,
04:20
because people came out of the closet,
80
260363
2234
04:22
because of AIDS,
81
262630
1933
die onze woonkamers binnenkomen via de televisie, films, posts,
04:24
but a great deal of it has to do with social media.
82
264563
2967
04:27
A great deal of it has to do with people out in our homes,
83
267530
4100
en door mensen die de moed hebben,
zoals vrienden, buren en familieleden,
04:31
in our living rooms, through television, through film, through posts,
84
271663
4700
om te zeggen: “Ik ben homo.”
Zo verandert de publieke opinie,
04:36
through people being comfortable enough,
85
276363
2534
zelfs in de meeste conservatieve plaatsen.
04:38
our friends, our neighbors, our family,
86
278930
2967
De paus is nog een voorbeeld.
04:41
to say, "I'm gay."
87
281930
1833
Toen hij in 2010 kardinaal was,
04:43
And this has shifted opinion
88
283797
1633
was hij geheel tegen het homohuwelijk.
04:45
even in some of the most conservative of places.
89
285463
3400
Maar toen werd hij paus.
Drie jaar na zijn laatste uitspraak
04:48
Take the Pope.
90
288863
1434
04:50
As Cardinal in 2010,
91
290330
1733
zei hij: “Waarom zou ik oordelen?”
04:52
he was completely against gay marriage.
92
292063
2534
En nu is hij voor het geregistreerd partnerschap.
04:54
He becomes Pope.
93
294630
1333
04:55
And three years after the last sentence
94
295997
3300
Technologie verandert ethiek,
04:59
he comes out with "Who am I to judge?"
95
299330
2367
maar we mogen ook niet vergeten
05:01
And then today, he's in favor of civil unions.
96
301697
4000
dat technologie zich razendsnel ontwikkelt.
Goed en slecht veranderen voortdurend.
05:05
As you're thinking about technology changing ethics,
97
305697
3200
Neem je volgend standpunt in:
05:08
you also have to consider that technology is now moving exponentially.
98
308930
3833
’Ik weet wat goed is.
Als je het ook maar een beetje met me oneens bent,
05:12
As right and wrong changes,
99
312797
2133
of tegen me in gaat,
dan heb jij ongelijk.′
05:14
if you take the position, "I know right.
100
314963
2634
Dan is er geen discussie,
geen tolerantie, voortgang,
05:17
And if you completely disagree with me, if you partially disagree with me,
101
317630
3567
en leren we zeker niks nieuws.
De meesten van ons eten nog vlees.
05:21
if you even quibble with me, then you're wrong,"
102
321197
2433
05:23
then there's no discussion,
103
323663
1367
We hebben echter ook nog geen
snellere, betere of goedkopere vleesvervangers
05:25
no tolerance, no evolution, and certainly no learning.
104
325030
3500
05:28
Most of us are not vegetarians yet.
105
328530
2267
Nu er meer kweekvlees beschikbaar is,
05:31
Then again, we haven't had
106
331830
1400
en de prijs van 380.000 dollar in 2013 naar 9 dollar nu gedaald is,
05:33
a whole lot of faster, better, cheaper alternatives to meat.
107
333263
3767
05:37
But now that we're getting synthetic meats,
108
337030
2533
zal een groot aantal mensen vegetariër of semi-vegetariër worden.
05:39
as the price drops from 380,000 dollars in 2013
109
339563
4467
05:44
to 9 dollars today,
110
344030
1333
Het beeld van mensen die de duurste en chicste restaurants binnengaan
05:46
a great big chunk of people
111
346530
1433
05:47
are going to start becoming vegetarian or quasi-vegetarian.
112
347997
4466
en langs rekken vol sappige biefstukken lopen,
05:52
And then in retrospect, these pictures
113
352497
2566
zal er over 10, 20 of 30 jaar heel anders uitzien.
05:55
of walking into the fanciest, most expensive restaurants in town
114
355063
4134
05:59
and walking past racks of bloody steaks
115
359197
3900
In deze tijden van polarisatie
zou ik twee woorden weer nieuw leven willen inblazen:
06:03
is going to look very different in 10 years, in 20 years and 30 years.
116
363130
5267
terughoudendheid en vergeving.
06:08
In these polarized times,
117
368430
2333
Als je over je verleden en je voorouders oordeelt,
06:10
I'd like to revive two words you rarely hear today:
118
370797
3900
doe dat dan met wat meer terughoudendheid,
06:14
humility and forgiveness.
119
374697
1866
want als je in die periode was opgevoed,
06:17
When you judge the past, your ancestors, your forefathers,
120
377663
3934
of in die tijd geleefd had,
dan zou je veel dingen verkeerd gedaan hebben.
06:21
do so with a little bit more humility,
121
381630
2100
Niet omdat ze toen goed waren.
06:23
because perhaps if you'd been educated in that time,
122
383763
3167
Niet omdat we nu vinden dat ze slecht waren,
06:26
if you'd lived in that time,
123
386963
1634
maar eenvoudigweg omdat onze opvattingen,
06:28
you would've done a lot of things wrong.
124
388630
2333
ons idee over wat goed en slecht is,
06:30
Not because they're right.
125
390997
1700
door de tijd heen veranderd is.
06:32
Not because we don't see they're wrong today,
126
392697
2700
Het tweede woord, vergeving.
06:35
but simply because our notions,
127
395430
2100
Tegenwoordig is vergeven uitermate belangrijk.
06:37
our understanding of right and wrong change across time.
128
397530
3533
Je kunt iemand niet opzij schuiven omdat deze het verkeerde woord gebruikte,
06:41
The second word, forgiveness.
129
401997
2200
om iets wat deze 10 jaar geleden gedaan heeft,
06:44
Forgiveness is incredibly important these days.
130
404197
3033
omdat deze je boos heeft gemaakt en niet volledig gelijk had.
06:47
You cannot cancel somebody for saying the wrong word,
131
407263
3967
Een gemeenschap kun je alleen bouwen door met mensen in gesprek te gaan
06:51
for having done something 10 years ago,
132
411263
2634
en van mensen te leren,
06:53
for having triggered you and not being a hundred percent right.
133
413930
3700
ook al hebben ze een heel ander standpunt.
06:57
To build a community, you have to build it and talk to people
134
417663
3467
Gun mensen de ruimte
in plaats van een niemandsland te creëren.
07:01
and learn from people
135
421163
1367
07:02
who may have very different points of view from yours.
136
422530
2933
Een middenweg met ruimte voor medeleven.
07:05
You have to allow them a space
137
425497
2566
We moeten een gemeenschap bouwen.
07:08
instead of creating a no man's land.
138
428063
2667
Dit is niet het moment om landen verder van elkaar te vervreemden.
07:10
A middle ground, a ??? and a space of empathy.
139
430763
3600
Dankjewel.
07:15
This is a time to build community.
140
435130
1833
07:16
This is not a time to continue ripping nations apart.
141
436997
3233
07:20
Thank you very much.
142
440263
1234
Over deze website

Deze site laat u kennismaken met YouTube-video's die nuttig zijn om Engels te leren. U ziet Engelse lessen gegeven door topdocenten uit de hele wereld. Dubbelklik op de Engelse ondertitels op elke videopagina om de video af te spelen. De ondertitels scrollen synchroon met het afspelen van de video. Heeft u opmerkingen of verzoeken, neem dan contact met ons op via dit contactformulier.

https://forms.gle/WvT1wiN1qDtmnspy7