How do daily habits lead to political violence? | Christiane-Marie Abu Sarah

86,534 views

2020-09-18・ 7092    159


Visit http://TED.com to get our entire library of TED Talks, transcripts, translations, personalized talk recommendations and more. What drives someone to commit politically motivated violence? The unsettling answer lies in daily habits. Behavioral historian Christiane-Marie Abu Sarah shares startling insights into how seemingly mundane choices can breed polarization that lead to extreme, even deadly, actions -- and explains how to identify and bypass these behaviors in order to rediscover common ground. The TED Talks channel features the best talks and performances from the TED Conference, where the world's leading thinkers and doers give the talk of their lives in 18 minutes (or less). Look for talks on Technology, Entertainment and Design -- plus science, business, global issues, the arts and more. You're welcome to link to or embed these videos, forward them to others and share these ideas with people you know. Follow TED on Twitter: http://twitter.com/TEDTalks Like TED on Facebook: http://facebook.com/TED Subscribe to our channel: http://youtube.com/TED TED's videos may be used for non-commercial purposes under a Creative Commons License, Attribution–Non Commercial–No Derivatives (or the CC BY – NC – ND 4.0 International) and in accordance with our TED Talks Usage Policy (https://www.ted.com/about/our-organization/our-policies-terms/ted-talks-usage-policy). For more information on using TED for commercial purposes (e.g. employee learning, in a film or online course), please submit a Media Request at https://media-requests.ted.com

Instruction

Double-click on the English captions to play the video from there.

00:00
Transcriber: Leslie Gauthier Reviewer: Camille Martínez
Vertaald door: Ruth Compernol Nagekeken door: Peter Van de Ven
00:12
So I'm starting us out today with a historical mystery.
Vandaag zal ik beginnen met een historisch mysterie.
00:17
In 1957, there were two young women,
In 1957 waren er twee jonge vrouwen,
00:20
both in their 20s,
allebei in de 20, ze woonden in dezelfde stad
00:21
both living in the same city,
00:22
both members of the same political group.
en waren lid van dezelfde politieke groepering.
00:26
That year, both decided to commit violent attacks.
Dat jaar besloten beiden om gewelddadige aanslagen te plegen.
00:31
One girl took a gun and approached a soldier at a checkpoint.
Een van hen nam een geweer en benaderde een soldaat bij een controlepost.
00:36
The other girl took a bomb and went to a crowded café.
Het andere meisje ging met een bom naar een druk café.
00:42
But here's the thing:
Maar hier gaat het me om:
00:44
one of the those girls followed through with the attack,
een van die meisjes ging door met de aanslag,
00:49
but the other turned back.
maar het andere meisje bedacht zich.
00:53
So what made the difference?
Wat maakte het verschil?
00:56
I'm a behavioral historian, and I study aggression,
Ik ben een gedragshistoricus en bestudeer agressie,
00:59
moral cognition
morele cognitie en besluitvorming in sociale bewegingen.
01:01
and decision-making in social movements.
01:04
That's a mouthful. (Laughs)
Dat is een hele mond vol.
01:06
So, the translation of that is:
Kort gezegd:
01:09
I study the moment an individual decides to pull the trigger,
Ik bestudeer het moment waarop iemand besluit de trekker over te halen,
01:14
the day-to-day decisions that led up to that moment
de dagelijkse beslissingen die tot dat moment hebben geleid
01:18
and the stories that they tell themselves about why that behavior is justified.
en de verhalen die ze zichzelf vertellen om hun gedrag te rechtvaardigen.
01:25
Now, this topic --
Nu is dit onderwerp niet puur wetenschappelijk voor mij.
01:26
it's not just scholarly for me.
01:29
It's actually a bit personal.
Het is persoonlijker.
01:31
I grew up in Kootenai County, Idaho,
Ik ben opgegroeid in Kootenai County, Idaho.
01:34
and this is very important.
En dit is erg belangrijk:
01:37
This is not the part of Idaho with potatoes.
dat is niet het deel van Idaho met aardappelen.
01:41
We have no potatoes.
Wij hebben geen aardappelen.
01:44
And if you ask me about potatoes,
En als je me vraagt naar aardappelen,
01:46
I will find you.
zal ik je weten te vinden.
01:47
(Laughter)
(Gelach)
01:48
This part of Idaho is known for mountain lakes,
Dit deel van Idaho staat bekend om zijn bergmeren,
01:52
horseback riding,
paardrijden, skiën.
01:54
skiing.
01:55
Unfortunately, starting in the 1980s,
Helaas is het sinds de jaren 1980
01:58
it also became known as the worldwide headquarters
ook bekend als het wereldwijde hoofdkantoor van Aryan Nations.
02:02
for the Aryan Nations.
02:05
Every year, members of the local neo-Nazi compound
Elk jaar kwamen leden van de lokale neonazi's buiten
02:08
would turn out and march through our town,
voor een optocht door onze stad,
02:11
and every year,
en elk jaar kwamen inwoners van onze stad op straat om hiertegen te protesteren.
02:13
members of our town would turn out and protest them.
02:16
Now, in 2001, I graduated from high school,
In 2001 studeerde ik af van de middelbare school
02:20
and I went to college in New York City.
en ging ik naar de universiteit in New York City.
02:24
I arrived in August 2001.
Ik kwam aan in augustus 2001.
02:29
As many of you probably are aware,
Zoals velen van jullie waarschijnlijk weten,
02:31
three weeks later,
gingen drie weken later de Twin Towers ten onder.
02:33
the Twin Towers went down.
02:36
Now, I was shocked.
Ik was in shock.
02:40
I was incredibly angry.
Ik was razend.
02:44
I wanted to do something,
Ik wou iets doen,
02:46
but the only thing that I could think of doing at that time
maar het enige wat ik op dat moment kon bedenken
02:50
was to study Arabic.
was om Arabisch te studeren.
02:53
I will admit,
Ik geef toe: ik was het meisje in de klas dat wou weten waarom 'ze' 'ons' haten.
02:55
I was that girl in class that wanted to know why "they" hate "us."
03:01
I started studying Arabic for very wrong reasons.
Ik begon Arabisch te studeren om heel verkeerde redenen.
03:05
But something unexpected happened.
Maar toen gebeurde iets onverwachts.
03:07
I got a scholarship to go study in Israel.
Ik kreeg een beurs om in Israël te gaan studeren.
03:10
So the Idaho girl went to the Middle East.
Dus het meisje uit Idaho ging naar het Midden-Oosten.
03:13
And while I was there, I met Palestinian Muslims,
En tijdens mijn verblijf daar ontmoette ik Palestijnse moslims,
03:18
Palestinian Christians,
Palestijnse christenen,
03:20
Israeli settlers,
Israëlische kolonisten, Israëlische vredesactivisten.
03:21
Israeli peace activists.
03:23
And what I learned is that every act has an ecology.
En wat ik leerde, is dat elke daad een ecologie heeft,
03:28
It has a context.
een bepaalde context.
03:32
Now, since then, I have gone around the world,
Sinds die tijd ben ik de hele wereld rondgetrokken;
03:35
I have studied violent movements,
ik heb gewelddadige bewegingen bestudeerd;
03:39
I have worked with NGOs and ex-combatants in Iraq,
ik heb samengewerkt met ngo's en ex-strijders in Irak,
03:44
Syria,
Syrië,
03:45
Vietnam,
Vietnam,
03:47
the Balkans,
de Balkan,
03:48
Cuba.
Cuba.
03:50
I earned my PhD in History,
Ik behaalde een PhD in geschiedenis,
03:52
and now what I do is I go to different archives
en vandaag bezoek ik verschillende archieven
03:55
and I dig through documents,
en doorzoek documenten,
03:57
looking for police confessions,
op zoek naar bekentenissen bij de politie, rechtszaken,
04:01
court cases,
04:03
diaries and manifestos of individuals involved in violent attacks.
dagboeken en manifesten
van mensen die betrokken zijn bij gewelddadige aanslagen.
04:09
Now, you gather all these documents --
Je verzamelt dus al die documenten --
04:12
what do they tell you?
wat vertellen ze je?
04:13
Our brains love causal mysteries,
Dat onze hersenen blijkbaar van causale mysteries houden.
04:16
it turns out.
04:18
So any time we see an attack on the news,
Dus telkens als we een aanslag zien op het nieuws,
04:21
we tend to ask one question:
hebben we de neiging om één vraag te stellen:
04:23
Why?
waarom?
04:24
Why did that happen?
Waarom is dit gebeurd?
04:26
Well, I can tell you I've read thousands of manifestos,
Wel, ik heb duizenden manifesten gelezen
04:29
and what you find out is that they are actually imitative.
en wat je ontdekt is dat ze vooral imiteren.
04:33
They imitate the political movement that they're drawing from.
Ze imiteren de politieke beweging waar ze inspiratie uit putten.
04:37
So they actually don't tell us a lot about decision-making
Dus eigenlijk vertellen ze ons niet veel over besluitvorming
04:41
in that particular case.
in dat specifieke geval.
04:43
So we have to teach ourselves to ask a totally different question.
Dus we moeten onszelf aanleren om een totaal andere vraag te stellen.
04:48
Instead of "Why?" we have to ask "How?"
In plaats van 'Waarom?' moeten we ons afvragen 'Hoe?'.
04:52
How did individuals produce these attacks,
Hoe hebben individuen deze aanvallen kunnen uitvoeren,
04:55
and how did their decision-making ecology contribute to violent behavior?
en hoe droeg de ecologie rond hun besluitvorming bij aan gewelddadig gedrag?
05:00
There's a couple things I've learned from asking this kind of question.
Ik heb een paar dingen geleerd door dit soort vragen te stellen.
05:05
The most important thing is that
Het belangrijkste is dat politiek geweld niet iets cultureel endemisch is.
05:07
political violence is not culturally endemic.
05:10
We create it.
We creëren het.
05:12
And whether we realize it or not,
En of we het nu beseffen of niet,
05:14
our day-to-day habits contribute to the creation of violence
onze dagelijkse gewoontes dragen bij
aan de creatie van geweld in onze omgeving.
05:20
in our environment.
05:21
So here's a couple of habits that I've learned contribute to violence.
Hier zijn een paar gewoontes die bijdragen aan geweld.
05:28
One of the first things that attackers did
Een van de eerste dingen die aanvallers deden
05:31
when preparing themselves for a violent event
wanneer ze zich voorbereidden op een gewelddadige aanslag,
05:35
was they enclosed themselves in an information bubble.
was dat ze zichzelf opsloten in een informatiebubbel.
05:39
We've heard of fake news, yeah?
Iedereen heeft al gehoord van fake nieuws, niet?
05:41
Well, this shocked me:
Wel, dit schokte me:
05:44
every group that I studied had some kind of a fake news slogan.
elke groep die ik bestudeerde had een soort van 'fake nieuws'-slogan.
05:47
French communists called it the "putrid press."
De Franse communisten noemden het de 'verrotte pers'.
05:51
French ultranationalists called it the "sellout press"
De Franse ultranationalisten noemden het de 'uitverkoop van de pers'
05:55
and the "treasonous press."
en de 'verraderlijke pers'.
05:57
Islamists in Egypt called it the "depraved news."
De Egyptische Islamisten hadden het over het 'verdorven nieuws'.
06:00
And Egyptian communists called it ...
En de Egyptische communisten noemden het ...
06:04
"fake news."
'fake nieuws'.
06:05
So why do groups spend all this time trying to make these information bubbles?
Waarom besteden groepen zoveel tijd aan het creëren van informatiebubbels?
06:09
The answer is actually really simple.
Het antwoord is eigenlijk heel eenvoudig.
06:12
We make decisions based on the information we trust, yeah?
We nemen beslissingen op basis van de informatie die we vertrouwen, niet?
06:17
So if we trust bad information,
Dus als we slechte informatie vertrouwen,
06:21
we're going to make bad decisions.
zullen we slechte beslissingen nemen.
06:24
Another interesting habit that individuals used
Een andere interessante gewoonte van individuen
06:27
when they wanted to produce a violent attack
toen ze een gewelddadige aanval planden,
06:30
was that they looked at their victim not as an individual
was dat ze hun slachtoffer niet als individu zagen
06:33
but just as a member of an opposing team.
maar als lid van een vijandig team.
06:37
Now this gets really weird.
En nu wordt het echt raar.
06:39
There's some fun brain science behind why that kind of thinking is effective.
Er zit boeiende hersenwetenschap achter waarom dat soort denken doeltreffend is.
06:43
Say I divide all of you guys into two teams:
Stel dat ik jullie allemaal in twee teams verdeel:
06:47
blue team,
een blauw team
06:48
red team.
en een rood team.
06:49
And then I ask you to compete in a game against each other.
En dan vraag ik jullie om met elkaar te concurreren in een wedstrijd.
06:53
Well, the funny thing is, within milliseconds,
Het grappige is dat je binnen enkele milliseconden
06:57
you will actually start experiencing pleasure -- pleasure --
effectief plezier zal ervaren -
plezier! -
07:02
when something bad happens to members of the other team.
als er iets ergs gebeurt met de leden van het andere team.
07:07
The funny thing about that is if I ask one of you blue team members
Het grappige is dat als ik een van jullie blauwe teamleden vraag
07:11
to go and join the red team,
om zich bij het rode team te voegen,
07:14
your brain recalibrates,
dat je hersenen dan herkalibreren,
07:16
and within milliseconds,
en binnen milliseconden
07:18
you will now start experiencing pleasure
zal je nu plezier beginnen te ervaren
07:20
when bad things happen to members of your old team.
als er slechte dingen gebeuren met leden van je oude team.
07:26
This is a really good example of why us-them thinking is so dangerous
Dit geeft echt goed weer waarom wij/zij-denken zo gevaarlijk is
07:32
in our political environment.
in onze politieke omgeving.
07:34
Another habit that attackers used to kind of rev themselves up for an attack
Nog een gewoonte van aanvallers om zich voor te bereiden op een aanval,
07:38
was they focused on differences.
was dat ze focusten op verschillen.
07:41
In other words, they looked at their victims, and they thought,
Met andere woorden, ze keken naar hun slachtoffers en dachten:
07:45
"I share nothing in common with that person.
ik heb niets gemeen met die persoon; ze zijn totaal anders dan ik.
07:47
They are totally different than me."
07:50
Again, this might sound like a really simple concept,
Nogmaals, dit kan klinken als een heel simpel concept,
07:54
but there's some fascinating science behind why this works.
maar er is fascinerende wetenschap die verklaart waarom dit werkt.
07:59
Say I show you guys videos of different-colored hands
Stel dat ik jullie video's laat zien van handen in een verschillende huidskleur
08:04
and sharp pins being driven into these different-colored hands,
en er wordt een scherpe naald geprikt in die andersgekleurde handen,
08:08
OK?
OK?
08:10
If you're white,
Als je blank bent,
08:12
the chances are you will experience the most sympathetic activation,
is de kans groot dat je de meeste sympathieke activering zal ervaren,
08:17
or the most pain,
of de meeste pijn,
08:19
when you see a pin going into the white hand.
als je een speld in de blanke hand ziet gaan.
08:24
If you are Latin American, Arab, Black,
Als je Latijns-Amerikaans, Arabisch of zwart bent,
08:27
you will probably experience the most sympathetic activation
zal je waarschijnlijk de meeste sympathieke activering ervaren
08:31
watching a pin going into the hand that looks most like yours.
als je een naald in de hand ziet prikken die het meest op de jouwe lijkt.
08:38
The good news is, that's not biologically fixed.
Het goede nieuws is: dit ligt niet biologisch vast.
08:42
That is learned behavior.
Het is aangeleerd gedrag.
08:45
Which means the more we spend time with other ethnic communities
Dus hoe meer tijd we doorbrengen met andere etnische gemeenschappen,
08:49
and the more we see them as similar to us and part of our team,
hoe meer we hen zien als gelijkend op ons, als een deel van ons team,
08:56
the more we feel their pain.
hoe meer we hun pijn voelen.
08:58
The last habit that I'm going to talk about
De laatste gewoonte waarover ik het zal hebben
09:01
is when attackers prepared themselves to go out and do one of these events,
is dat individuen die zich op zo'n aanval voorbereiden
09:06
they focused on certain emotional cues.
zich richtten op bepaalde emotionele signalen.
09:09
For months, they geared themselves up by focusing on anger cues, for instance.
Maandenlang zaten ze zichzelf op te naaien door zich te richten op woedesignalen.
09:15
I bring this up because it's really popular right now.
Ik zeg dit omdat dit momenteel echt populair is.
09:17
If you read blogs or the news,
Als je blogs of het nieuws leest,
09:21
you see talk of two concepts from laboratory science:
heeft men het over twee concepten uit de laboratoriumwetenschap:
09:25
amygdala hijacking and emotional hijacking.
het kapen van de amygdala en emotionele kaping.
09:28
Now, amygdala hijacking:
Het kapen van de amygdala
09:31
it's the concept that I show you a cue -- say, a gun --
is wanneer ik je een signaal toon, bijvoorbeeld een geweer,
09:35
and your brain reacts with an automatic threat response
en je hersenen reageren automatisch bedreigd op dat signaal.
09:39
to that cue.
09:40
Emotional hijacking -- it's a very similar concept.
Emotionele kaping is gelijkaardig.
09:43
It's the idea that I show you an anger cue, for instance,
Ik laat je bijvoorbeeld een woedesignaal zien
09:48
and your brain will react with an automatic anger response
en je hersenen zullen reageren met een automatische reactie van woede
09:53
to that cue.
op dat signaal.
09:54
I think women usually get this more than men. (Laughs)
Ik denk dat dit bij vrouwen vaker voorkomt dan bij mannen.
09:58
(Laughter)
(Gelach)
09:59
That kind of a hijacking narrative grabs our attention.
Dat soort verhalen over het kapen van hersenen trekken onze aandacht.
10:03
Just the word "hijacking" grabs our attention.
Alleen al het woord 'kapen' trekt onze aandacht.
10:06
The thing is,
Maar meestal is dit niet hoe signalen in het echte leven werken.
10:07
most of the time, that's not really how cues work in real life.
10:12
If you study history,
Wie de geschiedenis bestudeert, ziet dat we gebombardeerd worden
10:14
what you find is that we are bombarded with hundreds of thousands of cues
met honderdduizenden signalen, elke dag.
10:19
every day.
10:20
And so what we do is we learn to filter.
Dus leren we filteren.
10:22
We ignore some cues,
We negeren sommige signalen,
10:24
we pay attention to other cues.
en letten op andere signalen.
10:27
For political violence, this becomes really important,
Voor politiek geweld is dit echt belangrijk,
10:30
because what it meant is that attackers usually didn't just see an anger cue
want dat betekent dat aanvallers niet alleen een woedesignaal zien
10:36
and suddenly snap.
en plots doorslaan.
10:38
Instead,
In plaats daarvan zijn politici en sociale activisten
10:40
politicians, social activists spent weeks, months, years
weken, maanden, jaren bezig
10:46
flooding the environment with anger cues, for instance,
de omgeving te overspoelen met woedesignalen
10:51
and attackers,
en aanvallers besteedden aandacht aan die signalen,
10:53
they paid attention to those cues,
10:56
they trusted those cues,
ze vertrouwden die signalen, focusten erop
10:58
they focused on them,
11:00
they even memorized those cues.
en leerden ze zelfs uit het hoofd.
11:03
All of this just really goes to show how important it is to study history.
Ik wil hiermee laten zien hoe belangrijk het is de geschiedenis te bestuderen.
11:09
It's one thing to see how cues operate in a laboratory setting.
Het is één iets om te zien hoe signalen in een laboratorium werken.
11:13
And those laboratory experiments are incredibly important.
En die labo-experimenten zijn enorm belangrijk.
11:17
They give us a lot of new data about how our bodies work.
Ze geven ons veel nieuwe informatie over hoe onze lichamen werken.
11:22
But it's also very important to see how those cues operate in real life.
Maar het is ook belangrijk om te zien
hoe die signalen in het echte leven werken.
11:30
So what does all this tell us about political violence?
Dus wat vertelt dit ons over politiek geweld?
11:35
Political violence is not culturally endemic.
Politiek geweld is niet cultureel endemisch.
11:39
It is not an automatic, predetermined response to environmental stimuli.
Het is geen automatische, vooraf bepaalde reactie op stimuli uit de omgeving.
11:45
We produce it.
Wij produceren het.
11:47
Our everyday habits produce it.
Onze dagelijkse gewoontes produceren het.
11:50
Let's go back, actually, to those two women that I mentioned at the start.
Laat ons terugkeren naar die twee vrouwen van daarnet.
11:55
The first woman had been paying attention to those outrage campaigns,
De eerste vrouw had aandacht besteed aan de haatcampagnes,
12:01
so she took a gun
dus nam ze een geweer en benaderde een soldaat bij een controlepost.
12:02
and approached a soldier at a checkpoint.
12:07
But in that moment, something really interesting happened.
Maar op dat moment gebeurde iets heel interessants.
12:10
She looked at that soldier,
Ze bekeek die soldaat,
12:13
and she thought to herself,
en dacht bij zichzelf:
12:18
"He's the same age as me.
hij is even oud als ik;
12:21
He looks like me."
hij lijkt op mij.
12:24
And she put down the gun, and she walked away.
En ze legde het geweer neer en liep weg.
12:28
Just from that little bit of similarity.
Enkel door dat kleine beetje gelijkenis.
12:32
The second girl had a totally different outcome.
Bij het tweede meisje was de uitkomst totaal anders.
12:37
She also listened to the outrage campaigns,
Ze luisterde ook naar de haatcampagnes,
12:40
but she surrounded herself with individuals
maar omringde zichzelf met mensen die voorstander waren van geweld,
12:43
who were supportive of violence,
12:45
with peers who supported her violence.
gelijkgestemden die haar geweld aanmoedigden.
12:48
She enclosed herself in an information bubble.
Ze sloot zichzelf op in een informatiebubbel.
12:52
She focused on certain emotional cues for months.
Ze focuste maandenlang op bepaalde emotionele signalen.
12:56
She taught herself to bypass certain cultural inhibitions against violence.
Ze leerde zichzelf af om culturele remmingen te voelen tegen geweld.
13:02
She practiced her plan,
Ze oefende haar plan, leerde zichzelf nieuwe gewoontes aan,
13:03
she taught herself new habits,
13:06
and when the time came, she took her bomb to the café,
en toen de tijd rijp was, nam ze haar bom mee naar het café,
13:10
and she followed through with that attack.
en voerde de aanslag uit.
13:15
This was not impulse.
Dit was geen impuls.
13:18
This was learning.
Het was aangeleerd gedrag.
13:22
Polarization in our society is not impulse,
Polarisatie in onze samenleving gebeurt niet impulsief,
13:26
it's learning.
het is aangeleerd gedrag.
13:28
Every day we are teaching ourselves:
Elke dag leren we onszelf dingen aan:
13:31
the news we click on,
het nieuws waarop we klikken,
13:33
the emotions that we focus on,
de emoties waarop we ons richten,
13:35
the thoughts that we entertain about the red team or the blue team.
de gedachten die we hebben over het rode of het blauwe team.
13:40
All of this contributes to learning,
Dit alles draagt bij aan het leerproces, of we het nu beseffen of niet.
13:42
whether we realize it or not.
13:44
The good news
Het goede nieuws is:
13:47
is that while the individuals I study already made their decisions,
de individuen die ik bestudeer hebben hun beslissingen al genomen,
13:53
we can still change our trajectory.
maar wij kunnen onze koers nog altijd veranderen.
13:57
We might never make the decisions that they made,
We zullen misschien nooit dezelfde beslissingen nemen als zij,
14:00
but we can stop contributing to violent ecologies.
maar we kunnen wel stoppen met bijdragen aan gewelddadige ecologieën.
14:05
We can get out of whatever news bubble we're in,
We kunnen uit de nieuwsbubbel stappen waar we momenteel in zitten,
14:10
we can be more mindful about the emotional cues
we kunnen meer aandacht leren hebben
voor de emotionele signalen waarop we ons richten,
14:14
that we focus on,
14:15
the outrage bait that we click on.
het provocerende clickbait waarop we klikken.
14:18
But most importantly,
Maar het belangrijkste is
14:19
we can stop seeing each other as just members of the red team
dat we kunnen stoppen met elkaar enkel te zien als leden van het rode team
14:24
or the blue team.
of het blauwe team.
14:25
Because whether we are Christian, Muslim, Jewish, atheist,
Want of we nu christen zijn, moslim, jood, atheïst,
14:31
Democrat or Republican,
democraat of republikein,
14:34
we're human.
we zijn allemaal mensen.
14:35
We're human beings.
We zijn mensen.
14:37
And we often share really similar habits.
En vaak hebben we heel gelijkaardige gewoontes.
14:42
We have differences.
Er zijn verschillen.
14:44
Those differences are beautiful,
Die verschillen zijn mooi en zijn ook heel belangrijk.
14:46
and those differences are very important.
14:48
But our future depends on us being able to find common ground
Maar onze toekomst hangt af van de vraag
of we raakvlakken kunnen vinden met de andere kant.
14:55
with the other side.
14:57
And that's why it is so, so important
En daarom is het zo belangrijk
15:01
for us to retrain our brains
dat we onze hersenen herscholen
15:03
and stop contributing to violent ecologies.
en stoppen met bij te dragen aan gewelddadige ecologieën.
15:08
Thank you.
Bedankt.
15:09
(Applause)
(Applaus)
About this site

This site was created for the purpose of learning English through video.

Each video can be played with simultaneous captions in English and your native language.

Double-click on the English captions will play the video from there.

If you have any comments or suggestions, please contact us using this contact form.