Daniel Goleman: Why arent we all Good Samaritans?

326,736 views ・ 2008-01-09

TED


A videó lejátszásához kattintson duplán az alábbi angol feliratokra.

Fordító: Orsolya Szemere Lektor: Krisztian Stancz
00:13
You know, I'm struck by how one of the implicit themes of TED
0
13160
4000
Tudják, lenyűgöz, hogy mennyire magától értetődő téma a TED-en
00:17
is compassion, these very moving demonstrations we've just seen:
1
17160
3000
az együttérzés. Mint pl.a tegnapi megindító bemutatók, amiket itt láthattunk:
00:21
HIV in Africa, President Clinton last night.
2
21160
4000
HIV Afrikában, Clinton elnök tegnap este.
00:25
And I'd like to do a little collateral thinking, if you will,
3
25160
5000
Szeretnék egy kis másodlagos gondolkodást eszközölni az együttérzésről,
00:30
about compassion and bring it from the global level to the personal.
4
30160
5000
ha benne vannak, és a globális szintről a személyes szintre hozni.
00:35
I'm a psychologist, but rest assured,
5
35160
2000
Pszichológus vagyok, de nyugodjanak meg,
00:37
I will not bring it to the scrotal.
6
37160
1000
nem fogom véresen komolyra venni.
00:39
(Laughter)
7
39160
4000
(Nevetés)
00:44
There was a very important study done a while ago
8
44160
2000
Készült nemrég egy nagyon fontos tanulmány,
00:46
at Princeton Theological Seminary that speaks to why it is
9
46160
4000
A Princeton Teológiai Szemináriumon, amely azt a kérdést vette célba,
00:51
that when all of us have so many opportunities to help,
10
51160
3000
vajon miért van az, hogy habár mindannyiunknak oly sok lehetősége van
00:54
we do sometimes, and we don't other times.
11
54160
3000
segíteni, néha megtesszük, néha viszont nem.
00:58
A group of divinity students at the Princeton Theological Seminary
12
58160
3000
Egy csoport teológus hallgatónak azt mondták a Princeton Teológiai Szemináriumon,
01:02
were told that they were going to give a practice sermon
13
62160
4000
hogy szentbeszéd gyakorlatot kell tartaniuk,
01:06
and they were each given a sermon topic.
14
66160
3000
és mind kaptak is egy témát ehhez.
01:09
Half of those students were given, as a topic,
15
69160
3000
A hallgatók fele témaként
01:12
the parable of the Good Samaritan:
16
72160
2000
az irgalmas szamaritánusról szóló példázatot kapta:
01:14
the man who stopped the stranger in --
17
74160
2000
a férfiről, aki megállította az idegent --
01:17
to help the stranger in need by the side of the road.
18
77160
2000
hogy segítsen a szükséget szenvedő idegennek, az út szélén.
01:19
Half were given random Bible topics.
19
79160
3000
A másik fele véletlenszerűen választott bibliai történetet kapott.
01:22
Then one by one, they were told they had to go to another building
20
82160
3000
Azután mindnek azt mondták, hogy egy másik épületbe kell menniük,
01:26
and give their sermon.
21
86160
1000
és ott megtartani a szentbeszédet.
01:27
As they went from the first building to the second,
22
87160
3000
Miközben mentek át az egyik épületből a másikba,
01:30
each of them passed a man who was bent over and moaning,
23
90160
3000
mindannyian elhaladtak egy férfi mellett, aki összegörnyedve siránkozott,
01:34
clearly in need. The question is: Did they stop to help?
24
94160
4000
egyértelműen segítségre szorult. A kérdés: Vajon megálltak segíteni?
01:38
The more interesting question is:
25
98160
1000
És még ennél is érdekesebb kérdés:
01:40
Did it matter they were contemplating the parable
26
100160
3000
Vajon számított-e az, hogy éppen azon a történeten morfondíroztak,
01:43
of the Good Samaritan? Answer: No, not at all.
27
103160
4000
ami az irgalmas szamaritánusról szólt? Válasz: Egyáltalán nem!
01:48
What turned out to determine whether someone would stop
28
108160
3000
Az derült ki, hogy mindössze annyi számított ebben a kérdésben,
01:51
and help a stranger in need
29
111160
1000
hogy megállnak-e és segítenek-e egy idegennek,
01:52
was how much of a hurry they thought they were in --
30
112160
3000
hogy mit gondoltak, mennyire kell sietniük --
01:56
were they feeling they were late, or were they absorbed
31
116160
4000
azt érezték, hogy késésben vannak, vagy éppen
02:00
in what they were going to talk about.
32
120160
1000
teljesen elvesztek abban, amiről beszélniük kellett.
02:02
And this is, I think, the predicament of our lives:
33
122160
2000
És azt gondolom, hogy ugyanebbe a kategóriába tartozik az életünk is:
02:05
that we don't take every opportunity to help
34
125160
4000
azért nem ragadunk meg minden alkalmat a segítségadásra,
02:09
because our focus is in the wrong direction.
35
129160
3000
mert a figyelmünk nem jó helyre irányul!
02:12
There's a new field in brain science, social neuroscience.
36
132160
3000
Van az agykutatásnak egy új területe, a szociális neurológia.
02:16
This studies the circuitry in two people's brains
37
136160
4000
Azt taglalja, hogy két ember agyi áramkörei
02:20
that activates while they interact.
38
140160
2000
mi módon aktiválódnak miközben érintkeznek.
02:22
And the new thinking about compassion from social neuroscience
39
142160
4000
És a szociális neurológiából származó újfajta gondolkodás az együttérzésről
02:26
is that our default wiring is to help.
40
146160
4000
az, hogy alapértelmezés szerint a segítségadásra vagyunk "huzalozva".
02:30
That is to say, if we attend to the other person,
41
150160
4000
Ez annyit jelent, hogy amennyiben odafigyelünk egy másik emberre,
02:35
we automatically empathize, we automatically feel with them.
42
155160
3000
automatikusan empátiát gyakorlunk, automatikusan együttérzünk vele.
02:39
There are these newly identified neurons, mirror neurons,
43
159160
2000
Vannak ezek a nemrég felfedezett neuronok, a tükörneuronok,
02:41
that act like a neuro Wi-Fi, activating in our brain
44
161160
4000
amik úgy működnek, mint valami neuro-Wi-Fi, pontosan ugyanazokat a területeket
02:45
exactly the areas activated in theirs. We feel "with" automatically.
45
165160
4000
aktiválják a mi agyunkban, mint ami az övékben aktív. Automatikusan együttérzünk!
02:49
And if that person is in need, if that person is suffering,
46
169160
4000
És amennyiben ez az illető szükséget szenved valamiben, vagy szenved,
02:54
we're automatically prepared to help. At least that's the argument.
47
174160
4000
automatikusan segítőkészen állunk hozzá! Legalábbis így mondják.
02:58
But then the question is: Why don't we?
48
178160
3000
Felmerül azonban a kérdés: Miért nem így működünk?
03:01
And I think this speaks to a spectrum
49
181160
2000
Úgy vélem, ehhez egy egész spektrumot kell megvizsgálnunk,
03:04
that goes from complete self-absorption,
50
184160
2000
ami a teljes önfeláldozástól,
03:07
to noticing, to empathy and to compassion.
51
187160
2000
az észrevevésen át, az empátiához és együttérzéshez vezet.
03:09
And the simple fact is, if we are focused on ourselves,
52
189160
4000
És a helyzet az, hogy amennyiben magunkkal vagyunk elfoglalva,
03:14
if we're preoccupied, as we so often are throughout the day,
53
194160
3000
ha gondolatainkba vagyunk feledkezve, ahogy az oly sokszor előfordul naponta,
03:17
we don't really fully notice the other.
54
197160
3000
tényleg nem veszünk észre másokat.
03:20
And this difference between the self and the other focus
55
200160
2000
És a különbség a közt, hogy a figyelmünket magunkra ill. valaki másra irányítsuk
03:22
can be very subtle.
56
202160
1000
valóban nagyon apró lehet.
03:23
I was doing my taxes the other day, and I got to the point
57
203160
4000
Az adóbevallásomat készítettem a minap, és amikor ahhoz a ponthoz
03:27
where I was listing all of the donations I gave,
58
207160
2000
értem, ahol számbavettem az eddig adott adományaimat,
03:30
and I had an epiphany, it was -- I came to my check
59
210160
3000
látomásom lett, mégpedig -- amikor a Seva Alapítvány
03:33
to the Seva Foundation and I noticed that I thought,
60
213160
3000
csekkje került a kezembe, észrevettem, hogy az a gondolat fut át rajtam:
03:36
boy, my friend Larry Brilliant would really be happy
61
216160
2000
Te jó ég! Larry Brilliant barátom milyen boldog lenne,
03:39
that I gave money to Seva.
62
219160
1000
ha adományt adnék a Sevának.
03:40
Then I realized that what I was getting from giving
63
220160
3000
És akkor arra jöttem rá, hogy amit ebből az adományozásból nyernék
03:43
was a narcissistic hit -- that I felt good about myself.
64
223160
4000
az egy szippantás nárcizmus lenne -- hogy elégedett vagyok magammal.
03:47
Then I started to think about the people in the Himalayas
65
227160
5000
Akkor elkezdtem a Himalájában élő emberekre gondolni,
03:52
whose cataracts would be helped, and I realized
66
232160
2000
akiknek a szürkehályog műtétjét ez támogatná, és akkor beugrott,
03:55
that I went from this kind of narcissistic self-focus
67
235160
3000
hogy ebből a nárcisztikus öntömjénezés-féléből eljutottam
03:59
to altruistic joy, to feeling good
68
239160
3000
egy altruisztikus örömhöz, hogy amiatt érzem jól magam,
04:02
for the people that were being helped. I think that's a motivator.
69
242160
4000
hogy segíthetek embereknek! Szerintem ez egy motiváció.
04:06
But this distinction between focusing on ourselves
70
246160
3000
De én arra bátorítok mindenkit, hogy érdemes odafigyelni
04:09
and focusing on others
71
249160
1000
arra, hogy meg tudjuk különböztetni,
04:10
is one that I encourage us all to pay attention to.
72
250160
3000
mikor koncentrálunk önmagunkra, ill. másokra.
04:13
You can see it at a gross level in the world of dating.
73
253160
3000
Láthatjuk, hogy ez a világ randiszokásaiban tömegszinten is megnyilvánul.
04:17
I was at a sushi restaurant a while back
74
257160
3000
Nemrég jártam egy sushi bárban,
04:20
and I overheard two women talking about the brother of one woman,
75
260160
3000
és hallottam, amint két hölgy az egyikük bátyjáról beszélgetett,
04:24
who was in the singles scene. And this woman says,
76
264160
3000
aki szingli volt. Ez a hölgy a következőt mondta,
04:27
"My brother is having trouble getting dates,
77
267160
2000
"A testvéremnek nehezen megy a randevúzás,
04:29
so he's trying speed dating." I don't know if you know speed dating?
78
269160
2000
ezért felgyorsította a dolgot." Nem tudom mennyire ismerik a gyorsrandizást?
04:31
Women sit at tables and men go from table to table,
79
271160
4000
A nők ülnek az asztalok mellett, a férfiak pedig asztaltól asztalig járkálnak,
04:35
and there's a clock and a bell, and at five minutes, bingo,
80
275160
3000
van egy óra és egy csengő, és az ötödik percnél, bingo,
04:39
the conversation ends and the woman can decide
81
279160
2000
a beszélgetés véget ér és a nő eldöntheti, hogy
04:41
whether to give her card or her email address to the man
82
281160
4000
odaadja-e a névjegyét, vagy e-mail címét a férfinak,
04:45
for follow up. And this woman says,
83
285160
2000
hogy találkozzanak. És a hölgy azt mondta,
04:47
"My brother's never gotten a card, and I know exactly why.
84
287160
4000
"Az öcsém sohasem kap névjegyet. És én pontosan tudom, hogy miért nem.
04:51
The moment he sits down, he starts talking non-stop about himself;
85
291160
5000
Abban a pillanatban, ahogy leül, elkezd non-stop önmagáról beszélni,
04:56
he never asks about the woman."
86
296160
1000
soha nem kérdezi a nőt!"
04:58
And I was doing some research in the Sunday Styles section
87
298160
5000
Végeztem némi kutatást a New York Times, Sunday Styles részlegénél,
05:03
of The New York Times, looking at the back stories of marriages --
88
303160
3000
a házasságok háttértörténeteit megvizsgálandó, --
05:06
because they're very interesting -- and I came to the marriage
89
306160
3000
mert ezek olyan érdekesek -- egyszer csak elértem
05:09
of Alice Charney Epstein. And she said
90
309160
3000
Alice Charney Epstein házasságához. Ő azt mondta,
05:12
that when she was in the dating scene,
91
312160
2000
hogy amikor ő volt ilyen gyorsrandin,
05:15
she had a simple test she put people to.
92
315160
2000
egy igen egyszerű tesztnek vetette alá az embereket.
05:18
The test was: from the moment they got together,
93
318160
2000
A következőből állt: attól a pillanattól fogva, hogy összekerülnek,
05:20
how long it would take the guy to ask her a question
94
320160
3000
mennyi időbe telik a fickónak az, hogy feltegyen neki egy kérdést,
05:23
with the word "you" in it.
95
323160
2000
amiben szerepel a "te" szó.
05:25
And apparently Epstein aced the test, therefore the article.
96
325160
4000
És Epstein nyilvánvalóan elhallgatta, hogy ez egy teszt, így íródott a cikk.
05:29
(Laughter)
97
329160
1000
(Nevetés)
05:30
Now this is a -- it's a little test
98
330160
2000
Hát ilyen ez a kis teszt,
05:32
I encourage you to try out at a party.
99
332160
2000
bátorítom önöket arra, hogy próbálják ki egy bulin!
05:34
Here at TED there are great opportunities.
100
334160
2000
Itt a TED-en hihetetlenül nagy lehetőségeink vannak erre!
05:38
The Harvard Business Review recently had an article called
101
338160
3000
A Harvard Business Review-ban megjelent nemrég egy cikk,
05:41
"The Human Moment," about how to make real contact
102
341160
3000
"Az emberi pillanat" címmel, arról, hogy hogyan lehet valódi
05:44
with a person at work. And they said, well,
103
344160
3000
kapcsolatot teremteni azokkal, akikkel együttdolgozunk. És az állt benne,
05:47
the fundamental thing you have to do is turn off your BlackBerry,
104
347160
3000
hogy a legalapvetőbb ebben a kérdésben, hogy kikapcsold a BlackBerry-det,
05:51
close your laptop, end your daydream
105
351160
3000
csukd össze a laptopodat, fejezd be az ábrándozásodat,
05:55
and pay full attention to the person.
106
355160
2000
és a teljes figyelmedet fordítsd a másik ember felé.
05:58
There is a newly coined word in the English language
107
358160
4000
Van az angolban egy újonnan kialakult szó,
06:03
for the moment when the person we're with whips out their BlackBerry
108
363160
3000
arra a pillanatra, amikor az illető, akivel vagyunk, a BlackBerry-jét mütyürgészi,
06:06
or answers that cell phone, and all of a sudden we don't exist.
109
366160
3000
vagy felveszi a mobilját, és mi hirtelen eltűnünk számára.
06:10
The word is "pizzled": it's a combination of puzzled and pissed off.
110
370160
4000
A szó, a 'pizzled' - a "szétesett és a tele a hócipőm" keveréke.
06:14
(Laughter)
111
374160
3000
(Nevetés)
06:17
I think it's quite apt. It's our empathy, it's our tuning in
112
377160
6000
Szerintem ez helytálló. Az empátiánk, a ráhangolódásunk az,
06:24
which separates us from Machiavellians or sociopaths.
113
384160
3000
ami elválaszt bennünket attól, hogy Machiavellik, vagy szociopaták legyünk.
06:27
I have a brother-in-law who's an expert on horror and terror --
114
387160
5000
Van egy vejem, aki szakértő a horroros, terroros dolgokban --
06:32
he wrote the Annotated Dracula, the Essential Frankenstein --
115
392160
3000
ő írta a Megfejtett Drakula, a lényegi Frankenstein c. könyvet, --
06:35
he was trained as a Chaucer scholar,
116
395160
1000
Chaucer tudósnak nevelték,
06:36
but he was born in Transylvania
117
396160
2000
de Erdélyben született,
06:38
and I think it affected him a little bit.
118
398160
2000
és azt gondolom, ez volt rá némi hatással.
06:40
At any rate, at one point my brother-in-law, Leonard,
119
400160
4000
Mindenesetre, Leonard nevű vejem egyszer csak
06:44
decided to write a book about a serial killer.
120
404160
2000
elhatározta, hogy ír egy könyvet egy sorozatgyilkosról.
06:46
This is a man who terrorized the very vicinity we're in
121
406160
3000
Egy olyan emberről, aki terrorban tartotta éppen ezt a környéket,
06:50
many years ago. He was known as the Santa Cruz strangler.
122
410160
2000
ahol mi most vagyunk, jónéhány évvel ezelőtt. Santa Cruz-i fojtogató néven híresült el.
06:53
And before he was arrested, he had murdered his grandparents,
123
413160
4000
Mielőtt letartóztatták, megölte a nagyszüleit,
06:57
his mother and five co-eds at UC Santa Cruz.
124
417160
3000
anyját, és 5 diáktársát a Santa Cruz-i Egyetemen.
07:01
So my brother-in-law goes to interview this killer
125
421160
2000
Tehát a vejem elment interjút készíteni ezzel a sorozatgyilkossal,
07:04
and he realizes when he meets him
126
424160
2000
és amikor találkozott vele, akkor eszmélt rá,
07:06
that this guy is absolutely terrifying.
127
426160
1000
hogy a fickó totál ijesztő.
07:08
For one thing, he's almost seven feet tall.
128
428160
2000
Először is amiatt, hogy több, mint 2 m magas.
07:10
But that's not the most terrifying thing about him.
129
430160
3000
De nem ez volt a legijesztőbb benne.
07:13
The scariest thing is that his IQ is 160: a certified genius.
130
433160
5000
Hanem az, hogy az IQ-ja 160 volt, azaz igazoltan géniusz!
07:19
But there is zero correlation between IQ and emotional empathy,
131
439160
4000
Semmi összefüggés nincs azonban az IQ és az érzelmi empátia közt,
07:23
feeling with the other person.
132
443160
1000
hogy képesek vagyunk-e együttérezni egy másik emberrel.
07:25
They're controlled by different parts of the brain.
133
445160
2000
Az agy különböző részei felelősek ezekért.
07:28
So at one point, my brother-in-law gets up the courage
134
448160
2000
Tehát a vejem egyszer csak összeszedte a bátorságát,
07:31
to ask the one question he really wants to know the answer to,
135
451160
2000
és feltette azt a kérdést, amire ténylegesen választ akart.
07:33
and that is: how could you have done it?
136
453160
3000
Ami ez volt: Hogy tudta ezt megtenni?
07:36
Didn't you feel any pity for your victims?
137
456160
2000
Nem sajnálta egy kicsit sem az áldozatait?
07:38
These were very intimate murders -- he strangled his victims.
138
458160
3000
Nagyon közeli gyilkosságok voltak ugyanis -- megfojtotta az áldozatait.
07:42
And the strangler says very matter-of-factly,
139
462160
2000
És a fojtogató nagyon tárgyilagosan azt válaszolta,
07:44
"Oh no. If I'd felt the distress, I could not have done it.
140
464160
5000
"Ó egyáltalán nem. Ha éreztem volna bármi nyomort, nem tudtam volna megtenni.
07:49
I had to turn that part of me off. I had to turn that part of me off."
141
469160
6000
Azt a részemet ki kellett kapcsolnom! Ki kellett kapcsolnom azt a részemet!"
07:55
And I think that that is very troubling,
142
475160
5000
És szerintem ez az, ami nagyon aggasztó!
08:01
and in a sense, I've been reflecting on turning that part of us off.
143
481160
4000
És egy bizonyos értelemben én is arra utaltam, amikor így kikapcsoljuk ezt a részünket.
08:05
When we focus on ourselves in any activity,
144
485160
2000
Amikor bármely tevékenységnél magunkra fókuszálunk,
08:08
we do turn that part of ourselves off if there's another person.
145
488160
3000
akkor bizony kikapcsoljuk ezt a részünket, amennyiben egy másik személy is jelen van!
08:12
Think about going shopping and think about the possibilities
146
492160
5000
Gondoljunk csak egy bevásárlásra, és azon belül is
08:17
of a compassionate consumerism.
147
497160
2000
az együttérző fogyasztóiságra!
08:20
Right now, as Bill McDonough has pointed out,
148
500160
2000
Ahogy épp az imént azt Bill McDonough is leszögezte,
08:24
the objects that we buy and use have hidden consequences.
149
504160
4000
a tárgyaknak, amiket megveszünk és használunk rejtett következményei vannak!
08:28
We're all unwitting victims of a collective blind spot.
150
508160
3000
Öntudatlanul is áldozatai vagyunk mindannyian e kollektív vakfoltnak!
08:32
We don't notice and don't notice that we don't notice
151
512160
2000
Nem vesszük észre, sőt azt sem vesszük észre, hogy nem vesszük észre,
08:35
the toxic molecules emitted by a carpet or by the fabric on the seats.
152
515160
6000
hogy a szőnyegünk, vagy a bútoraink kárpitja mérgező molekulákat bocsát ki.
08:42
Or we don't know if that fabric is a technological
153
522160
5000
Vagy annak sem vagyunk tudatában, hogy ez a szövet
08:47
or manufacturing nutrient; it can be reused
154
527160
4000
feldolgozóipari tápanyag; lehet, hogy újra lehet hasznosítani
08:51
or does it just end up at landfill? In other words,
155
531160
2000
vagy egyszerűen csak a szeméttelepen landol? Más szavakkal
08:53
we're oblivious to the ecological and public health
156
533160
5000
megfeledkezünk az ökológiai és a közegészségről
08:59
and social and economic justice consequences
157
539160
3000
és a társadalmi és gazdasági jogi következményekről,
09:02
of the things we buy and use.
158
542160
2000
amikor ezeket a tárgyakat megvesszük és használjuk.
09:06
In a sense, the room itself is the elephant in the room,
159
546160
4000
Bizonyos értelemben maga a szoba, az elefánt a szobában,
09:10
but we don't see it. And we've become victims
160
550160
4000
csak nem látjuk! És egy olyan rendszer áldozataivá válunk,
09:14
of a system that points us elsewhere. Consider this.
161
554160
3000
ami egész máshova mutat! Érdemes ezt megfontolni!
09:18
There's a wonderful book called
162
558160
3000
Van egy nagyszerű könyv, aminek a címe:
09:22
Stuff: The Hidden Life of Everyday Objects.
163
562160
2000
Kacatok: Mindennapi tárgyaink rejtett élete.
09:25
And it talks about the back story of something like a t-shirt.
164
565160
3000
Olyasmikről ír, mint pl. egy póló háttértörténete.
09:28
And it talks about where the cotton was grown
165
568160
3000
Hogy hol termelték a gyapotot,
09:31
and the fertilizers that were used and the consequences
166
571160
2000
a hozzá felhasznált műtrágyákról, és a műtrágyának
09:33
for soil of that fertilizer. And it mentions, for instance,
167
573160
4000
a talajra gyakorolt hatásáról. Azt is megemlíti pl., hogy
09:37
that cotton is very resistant to textile dye;
168
577160
3000
a pamut nagyon ellenálló a textilfestékkel szemben;
09:40
about 60 percent washes off into wastewater.
169
580160
3000
kb. 60 %-a kimosódik a szennyvízzel.
09:43
And it's well known by epidemiologists that kids
170
583160
3000
És a járványügyben pontosan tudják, hogy azok a gyerekek,
09:46
who live near textile works tend to have high rates of leukemia.
171
586160
5000
akik textilgyárak mellett nőnek fel, nagymértékben hajlamosak leukémiára!
09:52
There's a company, Bennett and Company, that supplies Polo.com,
172
592160
4000
Van egy cég, a Bennett és Tsa., akik a Polo.com-ot, és a Victoria's Secretet is ellátják --
09:57
Victoria's Secret -- they, because of their CEO, who's aware of this,
173
597160
5000
ők a vezérigazgatójuknak köszönhetően, aki nagyon tudatos ebben a kérdésben,
10:03
in China formed a joint venture with their dye works
174
603160
4000
Kínában egy olyan vegyesvállalatot hoztak létre a festőüzemükkel,
10:07
to make sure that the wastewater
175
607160
2000
ami bebiztosítja, hogy a szennyvizükről megfelelően gondoskodnak,
10:09
would be properly taken care of before it returned to the groundwater.
176
609160
4000
mielőtt a felszín alatti vizekbe visszavezetik.
10:13
Right now, we don't have the option to choose the virtuous t-shirt
177
613160
4000
Jelenleg nincs meg a lehetőségünk arra, hogy az ilyen értelemben "erkölcsös" pólót válasszuk,
10:18
over the non-virtuous one. So what would it take to do that?
178
618160
4000
a nem erkölcsössel szemben. Mert mibe is kerülne ezt létrehozni?
10:25
Well, I've been thinking. For one thing,
179
625160
3000
Hát, ez elgondolkodtatott. Először is,
10:28
there's a new electronic tagging technology that allows any store
180
628160
5000
van egy új elektronikus címkéző technológia, amely bármelyik áruházban lehetővé teszi,
10:33
to know the entire history of any item on the shelves in that store.
181
633160
4000
hogy az abban az áruházban polcon lévő bármely árucikk teljes történetét lekövessük.
10:38
You can track it back to the factory. Once you can track it
182
638160
2000
Vissza lehet követni a gyárig. Amint ide eljutunk,
10:40
back to the factory, you can look at the manufacturing processes
183
640160
4000
megvizsgálhatjuk az előállítási folyamatot,
10:44
that were used to make it, and if it's virtuous,
184
644160
4000
amivel készült, és amennyiben "erkölcsös",
10:48
you can label it that way. Or if it's not so virtuous,
185
648160
4000
megjelölhetjük annak. Amennyiben azonban nem az,
10:52
you can go into -- today, go into any store,
186
652160
4000
akkor bemehetünk -- ma már bemehetünk bármely áruházba,
10:56
put your scanner on a palm onto a barcode,
187
656160
3000
rátehetjük a leolvasónkat bármely vonalkódra,
10:59
which will take you to a website.
188
659160
2000
és az elvezet az illetékes weboldalra.
11:01
They have it for people with allergies to peanuts.
189
661160
2000
A mogyoróra allergiások számára van ilyen pl.
11:04
That website could tell you things about that object.
190
664160
2000
Az a weboldal meg tudja adni a kért adatokat arról a tárgyról.
11:07
In other words, at point of purchase,
191
667160
1000
Más szavakkal, a vásárlás helyén
11:08
we might be able to make a compassionate choice.
192
668160
4000
képesek lehetünk együttérző döntést hozni!
11:12
There's a saying in the world of information science:
193
672160
6000
Van egy mondás az informatika világában:
11:18
ultimately everybody will know everything.
194
678160
3000
'végül mindenki megtud mindent'.
11:21
And the question is: will it make a difference?
195
681160
2000
És a kérdés az: Fog ez bármin változtatni?
11:25
Some time ago when I was working for The New York Times,
196
685160
3000
Régebben, mikor a New York Timesnál dolgoztam
11:29
it was in the '80s, I did an article
197
689160
2000
a 80-as években, írtam egy cikket
11:31
on what was then a new problem in New York --
198
691160
2000
arról, ami akkoriban újonnan felmerülő probléma volt New Yorkban --
11:33
it was homeless people on the streets.
199
693160
2000
az utcán élő hajléktalanokról.
11:35
And I spent a couple of weeks going around with a social work agency
200
695160
4000
Heteket töltöttem azzal, hogy hajléktalanokkal foglalkozó szociális munkásokkal járkáltam körbe.
11:39
that ministered to the homeless. And I realized seeing the homeless
201
699160
3000
És a hajléktalanok szemébe tekintve azt vettem észre,
11:42
through their eyes that almost all of them were psychiatric patients
202
702160
5000
hogy majdnem mindegyikük pszichiátriai beteg volt,
11:47
that had nowhere to go. They had a diagnosis. It made me --
203
707160
4000
akiknek nem volt hova menniük! Diagnosztizálva voltak!
11:52
what it did was to shake me out of the urban trance where,
204
712160
3000
Ez a felfedezés felrázott engem a nagyvárosi transzból,
11:56
when we see, when we're passing someone who's homeless
205
716160
3000
ami azt eredményezi, hogy amikor elmegyünk egy hajléktalan mellett,
11:59
in the periphery of our vision, it stays on the periphery.
206
719160
3000
aki kiesik a látószögünkből, akkor ott is marad.
12:04
We don't notice and therefore we don't act.
207
724160
2000
Észre sem vesszük, ezért nem is cselekszünk.
12:09
One day soon after that -- it was a Friday -- at the end of the day,
208
729160
5000
Egy nappal ezután -- péntek volt éppen -- a nap végén,
12:14
I went down -- I was going down to the subway. It was rush hour
209
734160
3000
mentem le a metróba éppen. Csúcsforgalom volt,
12:17
and thousands of people were streaming down the stairs.
210
737160
2000
és emberek ezrei ömlöttek lefelé a lépcsőkön.
12:19
And all of a sudden as I was going down the stairs
211
739160
2000
És egyszer csak, ahogy mentem lefelé a lépcsőn,
12:21
I noticed that there was a man slumped to the side,
212
741160
3000
észrevettem egy összeroskadt férfit oldalt,
12:24
shirtless, not moving, and people were just stepping over him --
213
744160
4000
póló nélkül, mozdulatlanul, és az emberek átlépkedtek rajta --
12:29
hundreds and hundreds of people.
214
749160
1000
sok száz ember!
12:31
And because my urban trance had been somehow weakened,
215
751160
3000
S mivel a nagyvárosi transzom már meg volt gyengülve,
12:35
I found myself stopping to find out what was wrong.
216
755160
3000
azon kaptam magam, hogy megállok és próbálom megfejteni, mi lehet a baj.
12:39
The moment I stopped, half a dozen other people
217
759160
2000
Amint megálltam, egy féltucat ember
12:42
immediately ringed the same guy.
218
762160
1000
odagyűlt körbe, a srác köré.
12:44
And we found out that he was Hispanic, he didn't speak any English,
219
764160
2000
Rájöttünk, hogy spanyol ajkú, hogy egyáltalán nem beszél angolul,
12:46
he had no money, he'd been wandering the streets for days, starving,
220
766160
5000
nincs pénze, napok óta az utcákon bolyong, éhezik,
12:51
and he'd fainted from hunger.
221
771160
1000
és az éhségtől ájult el.
12:52
Immediately someone went to get orange juice,
222
772160
2000
Valaki azonnal elment narancsléért,
12:54
someone brought a hotdog, someone brought a subway cop.
223
774160
2000
valaki hotdogot hozott, egy másik hívott egy metrórendőrt.
12:57
This guy was back on his feet immediately.
224
777160
3000
A srác azonnal talpra lett állítva.
13:00
But all it took was that simple act of noticing,
225
780160
4000
És mindez egyszerűen az észrevételnek köszönhetően.
13:05
and so I'm optimistic.
226
785160
1000
Ezért optimista vagyok.
13:06
Thank you very much.
227
786160
1000
Köszönöm Önöknek.
13:07
(Applause)
228
787160
2000
(Taps)
Erről a weboldalról

Ez az oldal olyan YouTube-videókat mutat be, amelyek hasznosak az angol nyelvtanuláshoz. A világ minden tájáról származó, kiváló tanárok által tartott angol leckéket láthatsz. Az egyes videók oldalán megjelenő angol feliratokra duplán kattintva onnan játszhatja le a videót. A feliratok a videó lejátszásával szinkronban gördülnek. Ha bármilyen észrevétele vagy kérése van, kérjük, lépjen kapcsolatba velünk ezen a kapcsolatfelvételi űrlapon.

https://forms.gle/WvT1wiN1qDtmnspy7