How to see past your own perspective and find truth | Michael Patrick Lynch

218,238 views ・ 2017-07-10

TED


A videó lejátszásához kattintson duplán az alábbi angol feliratokra.

Fordító: Péter Pallós Lektor: Andi Vida
00:12
So, imagine that you had your smartphone miniaturized
0
12740
3679
Képzeljék el, hogy lekicsinyítik, és közvetlenül az agyukba ültetik
00:16
and hooked up directly to your brain.
1
16443
2360
okostelefonjukat.
00:19
If you had this sort of brain chip,
2
19711
1893
Ilyen agycsippel képesek lennének
00:21
you'd be able to upload and download to the internet
3
21628
2531
bármit föltölteni az internetre, és letölteni róla
00:24
at the speed of thought.
4
24183
1192
a gondolat sebességével.
00:25
Accessing social media or Wikipedia would be a lot like --
5
25986
3267
A közösségi média vagy a Wikipédia elérése olyan lenne, mintha...
00:29
well, from the inside at least --
6
29277
1640
– legalábbis belülről nézve –
00:30
like consulting your own memory.
7
30941
1750
mintha memóriájukban keresgélnének.
00:33
It would be as easy and as intimate as thinking.
8
33247
3198
Oly könnyű és közvetlen lenne, mint a gondolkodás.
00:37
But would it make it easier for you to know what's true?
9
37579
3157
De megkönnyítené-e az igazság fölismerését,
00:40
Just because a way of accessing information is faster
10
40760
2961
hogy gyorsabban jutunk az információhoz?
00:43
it doesn't mean it's more reliable, of course,
11
43745
2245
Persze, ez nem jelenti azt, hogy megbízhatóbb,
sem azt, hogy mindnyájan egyformán értelmezzük,
00:46
and it doesn't mean that we would all interpret it the same way.
12
46014
3231
00:49
And it doesn't mean that you would be any better at evaluating it.
13
49269
3594
sőt azt sem, hogy pontosabban tudnánk értékelni.
00:52
In fact, you might even be worse,
14
52887
1657
Sőt, rosszabbul is járhatunk,
00:54
because, you know, more data, less time for evaluation.
15
54568
2782
hiszen ha több az adat, kevesebb idő jut az értékelésre.
00:58
Something like this is already happening to us right now.
16
58378
3395
Már manapság is ilyesmi történik velünk.
01:01
We already carry a world of information around in our pockets,
17
61797
3858
Már a zsebünkben hordozzuk az információ világát,
01:05
but it seems as if the more information we share and access online,
18
65679
4229
de úgy látszik, minél több információt adunk és kapunk az interneten,
01:09
the more difficult it can be for us to tell the difference
19
69932
2802
annál nehezebb eldönteni,
01:12
between what's real and what's fake.
20
72758
2117
mi a különbség a valóság és a hamisítvány között.
01:15
It's as if we know more but understand less.
21
75507
3938
Úgy néz ki, hogy többet tudunk, de azt kevésbé értjük.
A modern kor jellemzője,
01:20
Now, it's a feature of modern life, I suppose,
22
80152
2937
hogy a nagyközönség elszigetelt infóbuborékokban él.
01:23
that large swaths of the public live in isolated information bubbles.
23
83113
3988
01:27
We're polarized: not just over values, but over the facts.
24
87849
4654
Polarizálódtunk: nemcsak az értékeket, hanem a tényeket tekintve is.
01:32
One reason for that is, the data analytics that drive the internet
25
92527
3597
Ennek egyik oka, hogy az internetet mozgató adatelemzés
nemcsak több infót nyújt nekünk,
01:36
get us not just more information,
26
96148
2399
01:38
but more of the information that we want.
27
98571
2186
hanem többet, mint szeretnénk.
01:40
Our online life is personalized;
28
100781
2390
Az online létünk személyessé vált:
01:43
everything from the ads we read
29
103195
1730
az olvasott hirdetésektől
01:44
to the news that comes down our Facebook feed
30
104949
2590
a Facebookról áradó hírekig minden egyénre szabott,
01:47
is tailored to satisfy our preferences.
31
107563
3006
hogy megfeleljen személyes érdeklődésünknek.
01:51
And so while we get more information,
32
111279
1806
Miközben több információhoz jutunk,
a sok információ legalább annyira bennünket tükröz,
01:53
a lot of that information ends up reflecting ourselves
33
113109
3230
01:56
as much as it does reality.
34
116363
2204
mint a valóságot.
01:59
It ends up, I suppose,
35
119198
1639
Az a vége, hogy egyre nagyobb buborékokat fújunk,
02:01
inflating our bubbles rather than bursting them.
36
121691
2533
ahelyett hogy szétpukkasztanánk őket.
02:05
And so maybe it's no surprise
37
125331
2129
Ezért nem meglepő,
02:07
that we're in a situation, a paradoxical situation,
38
127484
2905
hogy ellentmondásos helyzetbe kerültünk, mert azt hisszük,
02:10
of thinking that we know so much more,
39
130413
2131
hogy sokkal többet tudunk,
02:12
and yet not agreeing on what it is we know.
40
132568
3010
miközben abban sem értünk egyet, hogy mit tudunk.
02:17
So how are we going to solve this problem of knowledge polarization?
41
137259
3572
Hogy oldjuk meg a tudáspolarizáció problémáját?
02:20
One obvious tactic is to try to fix our technology,
42
140855
4168
Az egyik kézenfekvő taktika a technológiánk javítása
a digitális felületek újratervezésével,
02:25
to redesign our digital platforms,
43
145047
1909
02:26
so as to make them less susceptible to polarization.
44
146980
3143
hogy kevésbé legyenek hajlamosak a polarizációra.
02:30
And I'm happy to report
45
150884
1199
Örömmel jelenthetem,
hogy a Google és a Facebook sok okos embere ezen dolgozik.
02:32
that many smart people at Google and Facebook are working on just that.
46
152107
4640
02:36
And these projects are vital.
47
156771
1589
Ez életképes irányzat.
02:39
I think that fixing technology is obviously really important,
48
159837
3130
Hiszem, hogy a technológia javítása valóban fontos,
02:42
but I don't think technology alone, fixing it, is going to solve the problem
49
162991
4622
de kétlem, hogy önmagában megoldás lenne
02:47
of knowledge polarization.
50
167637
1354
a tudáspolarizációra.
Azért nem hiszek benne, mert végtére is,
02:49
I don't think that because I don't think, at the end of the day,
51
169015
3075
ez nem technológiai kérdés.
02:52
it is a technological problem.
52
172114
1629
02:53
I think it's a human problem,
53
173767
1875
Szerintem ez emberi kérdés,
02:55
having to do with how we think and what we value.
54
175666
3565
mert gondolkodásunkkal és értékválasztásunkkal függ össze.
03:00
In order to solve it, I think we're going to need help.
55
180285
2615
A megoldásához segítségre lesz szükségünk.
03:02
We're going to need help from psychology and political science.
56
182924
3005
A lélektan és a politikatudomány segítségére.
03:05
But we're also going to need help, I think, from philosophy.
57
185953
3250
De ugyanilyen fontos a filozófia segítsége is.
03:10
Because to solve the problem of knowledge polarization,
58
190663
3528
A tudáspolarizáció megoldásához
03:15
we're going to need to reconnect
59
195522
1995
ismét föl kell használnunk
03:18
with one fundamental, philosophical idea:
60
198455
3836
egy alapvető filozófiai elképzelést:
03:23
that we live in a common reality.
61
203219
2397
azt, hogy közös valóságban élünk.
03:26
The idea of a common reality is like, I suppose,
62
206671
4027
A közös valóság elve olyan,
03:30
a lot of philosophical concepts:
63
210722
1563
mint sok filozófiai fogalom:
03:32
easy to state
64
212309
1166
könnyű megfogalmazni,
03:33
but mysteriously difficult to put into practice.
65
213499
2635
de rejtelmesen bonyolult átültetni a gyakorlatba.
Hogy valóban elfogadhassuk,
03:37
To really accept it,
66
217003
1305
03:38
I think we need to do three things,
67
218332
2217
három dologra van szükségünk,
03:40
each of which is a challenge right now.
68
220573
2312
s mindegyikük kemény dió.
03:44
First, we need to believe in truth.
69
224749
2564
Először: hinnünk kell az igazságban.
03:48
You might have noticed
70
228267
1163
Tán észrevették,
03:49
that our culture is having something of a troubled relationship
71
229454
3015
hogy kultúránk valami zavaros viszonyban van
03:52
with that concept right now.
72
232493
1401
ezzel a fogalommal.
Úgy tűnik, mintha nem nagyon értenénk egyet azzal
03:55
It seems as if we disagree so much that,
73
235061
3213
03:58
as one political commentator put it not long ago,
74
238298
2809
– ahogy egy politikai kommentátor fogalmazott nemrég –,
mintha már nem lennének tények.
04:01
it's as if there are no facts anymore.
75
241131
2235
04:04
But that thought is actually an expression
76
244986
4222
Ám e gondolat csak egy megtévesztő,
04:09
of a sort of seductive line of argument that's in the air.
77
249232
4009
mindenütt jelenlévő érvsorozat kifejeződése
04:13
It goes like this:
78
253668
1268
Így működik:
04:16
we just can't step outside of our own perspectives;
79
256188
2851
egyszerűen képtelenek vagyunk nézőpontot váltani,
képtelenek vagyunk legyűrni elfogultságunkat.
04:19
we can't step outside of our biases.
80
259063
2442
04:21
Every time we try,
81
261529
1473
Minden próbálkozásunkkor
nézőpontunkhoz gyűjtünk újabb infót.
04:23
we just get more information from our perspective.
82
263026
3585
04:27
So, this line of thought goes,
83
267536
2250
A gondolatmenet azzal folytatódik,
hogy arra jutunk: az objektív igazság csupán áltatás,
04:31
we might as well admit that objective truth is an illusion,
84
271016
3762
04:34
or it doesn't matter,
85
274802
1154
és nincs is jelentősége,
04:35
because either we'll never know what it is,
86
275980
2146
mert vagy soha meg nem ismerjük,
vagy eleve nem is létezik.
04:39
or it doesn't exist in the first place.
87
279039
2143
Az igazságban való kételkedés
04:43
That's not a new philosophical thought --
88
283173
2996
04:46
skepticism about truth.
89
286193
1848
nem új filozófiai gondolat.
04:49
During the end of the last century, as some of you know,
90
289332
2881
A múlt század végén
04:52
it was very popular in certain academic circles.
91
292237
2294
nagyon népszerű volt a tudósok körében.
04:55
But it really goes back all the way to the Greek philosopher Protagoras,
92
295317
5133
De a gondolat Prótagorasz ókori görög filozófusig
05:00
if not farther back.
93
300474
1326
vagy még régebbre nyúlik vissza,
05:02
Protagoras said that objective truth was an illusion
94
302252
2449
Prótagorasz szerint az objektív igazság csupán áltatás,
05:04
because "man is the measure of all things."
95
304725
2907
mert "minden dolog mértéke az ember".
05:07
Man is the measure of all things.
96
307656
1940
Minden dolog mértéke az ember.
Az ember ezt üdítő reálpolitikának
05:10
That can seem like a bracing bit of realpolitik to people,
97
310169
2823
vagy fölszabadítónak érzi,
05:13
or liberating,
98
313016
1159
05:14
because it allows each of us to discover or make our own truth.
99
314199
4538
mert saját igazságunk meglelésére ad lehetőséget.
05:20
But actually, I think it's a bit of self-serving rationalization
100
320618
4162
De azt hiszem, ez filozófiának álcázott
05:24
disguised as philosophy.
101
324804
1867
önáltató okoskodás.
05:27
It confuses the difficulty of being certain
102
327507
2808
Összemossa a bizonyosság bonyolultságát
05:30
with the impossibility of truth.
103
330339
2645
az igazság lehetetlenségével.
05:34
Look --
104
334223
1206
Nézzék, természetesen
05:36
of course it's difficult to be certain about anything;
105
336768
2940
nehezen lehetünk biztosak bármiben;
05:40
we might all be living in "The Matrix."
106
340908
2313
lehet, hogy mi mind a Mátrixban élünk.
Lehet, hogy csip van az agyunkban,
05:44
You might have a brain chip in your head
107
344018
1982
amely hamis információt táplál belénk.
05:46
feeding you all the wrong information.
108
346024
1964
05:49
But in practice, we do agree on all sorts of facts.
109
349593
4179
De a gyakorlatban azért egyetértünk a tényekkel.
05:53
We agree that bullets can kill people.
110
353796
3239
Nem vitatjuk, hogy a golyó embert ölhet.
05:57
We agree that you can't flap your arms and fly.
111
357616
4383
Nem vitatjuk, hogy karunkkal csapkodva sem repülhetünk.
Egyetértünk vele – vagy kellene –,
06:02
We agree -- or we should --
112
362023
2109
hogy létezik külső valóság,
06:05
that there is an external reality
113
365018
2297
06:07
and ignoring it can get you hurt.
114
367339
2081
s pórul járunk, ha nem veszünk róla tudomást.
06:11
Nonetheless, skepticism about truth can be tempting,
115
371205
4149
Mindazonáltal, az igazságban való kétkedés csábító lehet,
06:15
because it allows us to rationalize away our own biases.
116
375378
3314
mert igazolhatja előítéleteinket.
06:18
When we do that, we're sort of like the guy in the movie
117
378716
2987
Ha ezt tesszük, olyanok vagyunk, mint a film szereplője,
06:21
who knew he was living in "The Matrix"
118
381727
2338
aki tudta, hogy a mátrixban él,
06:24
but decided he liked it there, anyway.
119
384793
2725
de úgy döntött, hogy ott jól érzi magát.
Hiszen kellemes érzés, ha azt kapjuk, amire vágyunk.
06:29
After all, getting what you want feels good.
120
389031
2658
06:32
Being right all the time feels good.
121
392271
2696
Jó érzés, ha mindig igazunk van.
06:34
So, often it's easier for us
122
394991
2782
Néha könnyebb elrejtőznünk
06:37
to wrap ourselves in our cozy information bubbles,
123
397797
3489
otthonos információs buborékunkba,
hazugságban élni,
06:42
live in bad faith,
124
402049
1541
06:43
and take those bubbles as the measure of reality.
125
403614
3751
és a buborékokat a valóság mércéjének tekinteni.
06:48
An example, I think, of how this bad faith gets into our action
126
408595
5845
Pl., az álhír jelenségére az önmeggyőzés
06:54
is our reaction to the phenomenon of fake news.
127
414464
4785
illetve önbecsapás a reakcióképzés vagy kompenzáció egyik módja.
06:59
The fake news that spread on the internet
128
419874
2930
Az 2016-os amerikai elnökválasztás alatt
07:02
during the American presidential election of 2016
129
422828
4654
az interneten terjesztett álhírek célja
07:07
was designed to feed into our biases,
130
427506
2627
előítéleteink táplálása
és buborékaink felfújása volt.
07:10
designed to inflate our bubbles.
131
430157
2114
07:12
But what was really striking about it
132
432295
2051
Nem az volt ebben az igazán megdöbbentő,
07:14
was not just that it fooled so many people.
133
434370
2614
hogy annyian bedőltek neki.
07:17
What was really striking to me about fake news,
134
437595
2841
Számomra a megdöbbentő az álhírekkel kapcsolatban
07:20
the phenomenon,
135
440460
1338
maga a jelenség volt,
07:21
is how quickly it itself became the subject of knowledge polarization;
136
441822
5055
hogy milyen gyorsan vált a tudáspolarizáció tárgyává:
07:27
so much so, that the very term -- the very term -- "fake news"
137
447582
3679
olyannyira hogy az álhír fogalma
07:31
now just means: "news story I don't like."
138
451285
3404
ma már csupán annyit tesz: "olyan hír, amely nem tetszik".
07:35
That's an example of the bad faith towards the truth that I'm talking about.
139
455367
4873
Ez példázza az igazsággal szembeni önbecsapást.
07:43
But the really, I think, dangerous thing
140
463240
3474
De az igazi veszély
07:47
about skepticism with regard to truth
141
467981
2578
az igazságban való kétkedést illetően az,
07:51
is that it leads to despotism.
142
471476
1907
hogy önkényuralomhoz vezet.
07:54
"Man is the measure of all things"
143
474350
2923
A "Minden dolog mértéke az ember"
07:57
inevitably becomes "The Man is the measure of all things."
144
477297
3917
eltorzul: "Az Ember minden dolog mértéke".
08:01
Just as "every man for himself"
145
481852
2650
Akárcsak a "Kaparj, kurta, neked is lesz"
08:04
always seems to turn out to be "only the strong survive."
146
484526
2995
mindig így alakul: "Hulljon a férgese".
08:08
At the end of Orwell's "1984,"
147
488345
2489
Az 1984 c. Orwell-mű végén
O'Brien gondolatrendőr a főszereplő Winston Smitht kínozza,
08:12
the thought policeman O'Brien is torturing the protagonist Winston Smith
148
492136
4259
08:16
into believing two plus two equals five.
149
496419
3198
hogy higgye el: kétszer kettő az öt.
08:20
What O'Brien says is the point,
150
500571
2804
O'Brien kimondja a lényeget, amelyről meg akarja győzni Smitht:
08:25
is that he wants to convince Smith that whatever the party says is the truth,
151
505486
4421
bármit mond a Párt, az az igazság,
08:29
and the truth is whatever the party says.
152
509931
2885
és az az igazság, amit a Párt mond.
08:33
And what O'Brien knows is that once this thought is accepted,
153
513484
3520
O'Brien tudja: ha eme eszmét elfogadják,
08:38
critical dissent is impossible.
154
518387
2554
kritikus, eltérő vélemény többé nem lehetséges.
08:41
You can't speak truth to power
155
521857
2188
Nem mondhatjuk meg az igazságot a hatalomnak,
ha lényegénél fogva a hatalom mondja meg az igazságot.
08:44
if the power speaks truth by definition.
156
524069
3155
08:48
I said that in order to accept that we really live in a common reality,
157
528880
4243
Mint mondtam, ahhoz, hogy elfogadjuk közös valóságunk tényét,
három dolgot kell tennünk.
08:53
we have to do three things.
158
533147
1287
08:54
The first thing is to believe in truth.
159
534458
1985
Az első: hinnünk kell az igazságban.
A másik egy latin mondásban összegződik,
08:56
The second thing can be summed up
160
536467
1670
08:58
by the Latin phrase that Kant took as the motto for the Enlightenment:
161
538161
5086
amelyet Kant a felvilágosodás mottójául választott:
09:03
"Sapere aude,"
162
543271
1637
"Sapere aude",
09:04
or "dare to know."
163
544932
1732
avagy: "merj tudni".
09:06
Or as Kant wants, "to dare to know for yourself."
164
546688
2426
Vagy Kant szándéka szerint: "merj a magad értelmére támaszkodni."
09:10
I think in the early days of the internet,
165
550208
2042
Az internet hajnalán
09:12
a lot of us thought
166
552274
1166
többen úgy gondoltuk,
09:13
that information technology was always going to make it easier
167
553464
3810
hogy az információtechnológia mindig meg fogja könnyíteni
09:17
for us to know for ourselves,
168
557298
1855
a magunk értelmére támaszkodást,
és ez sok tekintetben így van.
09:19
and of course in many ways, it has.
169
559177
2692
09:21
But as the internet has become more and more a part of our lives,
170
561893
3838
De ahogy az internet egyre inkább életünk részévé vált,
09:25
our reliance on it, our use of it,
171
565755
1959
a benne való bizalom, a használata
09:27
has become often more passive.
172
567738
2560
gyakorta egyre passzívabbá vált.
09:30
Much of what we know today we Google-know.
173
570322
2365
Az internetről szerzett tudásunk Google-tudás.
09:33
We download prepackaged sets of facts
174
573299
3695
Előrecsomagolt ténykészleteket töltünk le,
és a közösségi média összeszerelő szalagján kevergetjük.
09:37
and sort of shuffle them along the assembly line of social media.
175
577018
3812
09:41
Now, Google-knowing is useful
176
581357
1430
A Google-tudás pont azért hasznos,
09:42
precisely because it involves a sort of intellectual outsourcing.
177
582811
3196
mert a folyamatba bevonja az intellektuális kiválasztást.
Mások hálózatába és algoritmusaiba küldjük a keresésünket.
09:46
We offload our effort onto a network of others and algorithms.
178
586031
5765
09:51
And that allows us, of course, to not clutter our minds
179
591820
3007
Ez pedig lehetővé teszi, hogy ne zavarjuk össze a fejünket
09:54
with all sorts of facts.
180
594851
1439
mindenféle tényekkel.
09:56
We can just download them when we need them.
181
596314
2287
Le tudjuk őket tölteni, amikor csak kellenek.
09:58
And that's awesome.
182
598625
1382
És ez elképesztő!
10:01
But there's a difference between downloading a set of facts
183
601348
4781
De nem mindegy, hogy ténykészleteket töltünk le, vagy valóban értjük-e,
10:06
and really understanding how or why those facts are as they are.
184
606809
4826
a tények hogyan és miért azok, amik.
10:13
Understanding why a particular disease spreads,
185
613237
4374
Nem elég a letöltés ahhoz, hogy megértsük,
10:17
or how a mathematical proof works,
186
617635
2059
miért terjed valamilyen betegség,
10:19
or why your friend is depressed,
187
619718
2013
vagy mi a matematikai bizonyítás módszere,
10:21
involves more than just downloading.
188
621755
2465
vagy barátunk miért levert.
10:25
It's going to require, most likely,
189
625396
2081
Ehhez valószínűleg magunknak is
10:27
doing some work for yourself:
190
627501
2102
némi munkát kell belefektetnünk,
10:30
having a little creative insight;
191
630503
1840
kreatívan bele kell ásnunk magunkat,
10:32
using your imagination;
192
632367
1266
kell hozzá a képzelőerőnk,
10:33
getting out into the field;
193
633657
1318
terepre kell mennünk,
10:34
doing the experiment;
194
634999
1182
kísérletet kell végeznünk,
10:36
working through the proof;
195
636205
1271
elő a bizonyítékokat,
10:37
talking to someone.
196
637500
1444
s beszélnünk kell valakivel.
10:43
Now, I'm not saying, of course, that we should stop Google-knowing.
197
643533
3544
Azt persze nem mondom, hogy vágjuk sutba a Google-tudást,
10:48
I'm just saying
198
648402
1151
csak annyit mondok,
10:49
we shouldn't overvalue it, either.
199
649577
1686
hogy nem szabad túlértékelnünk.
10:51
We need to find ways of encouraging forms of knowing that are more active,
200
651287
4664
A tudás megszerzéséhez ösztönzőbb, tevékenyebb formákat kell keresnünk,
10:56
and don't always involve passing off our effort into our bubble.
201
656512
5049
és ne zárjuk kereséseinket buborékunkba.
11:02
Because the thing about Google-knowing is that too often it ends up
202
662242
3341
Mert a Google-tudásból túl gyakran lesz
11:05
being bubble-knowing.
203
665607
1364
buborék-tudás.
11:07
And bubble-knowing means always being right.
204
667581
2790
A buborék-tudás azt jelenti: "mindig nekem van igazam".
11:11
But daring to know,
205
671183
2197
A "merjünk tudni",
11:13
daring to understand,
206
673404
1570
"merjünk érteni" viszont
azt jelenti: kockáztassuk meg a tévedés lehetőségét.
11:16
means risking the possibility that you could be wrong.
207
676151
3066
11:19
It means risking the possibility
208
679921
2268
A lehetőség megkockáztatása azt jelenti,
11:22
that what you want and what's true are different things.
209
682213
4327
hogy amit szeretnénk és ami igaz – az két különböző dolog.
Ez elvezet bennünket a harmadik teendőnkhöz,
11:28
Which brings me to the third thing that I think we need to do
210
688070
2921
11:31
if we want to accept that we live in a common reality.
211
691854
3032
amennyiben elfogadjuk, hogy közös valóságban élünk.
11:34
That third thing is: have a little humility.
212
694910
2891
Ez pedig: kéretik egy kis alázat.
11:38
By humility here, I mean epistemic humility,
213
698510
2122
Alázaton a tudás iránti alázatot értem,
11:40
which means, in a sense,
214
700656
1989
abban az értelemben,
11:43
knowing that you don't know it all.
215
703701
2403
ami a nemtudás tudása.
De még ennél is többet jelent.
11:46
But it also means something more than that.
216
706128
2053
11:48
It means seeing your worldview as open to improvement
217
708205
4450
Azt jelenti, hogy világnézetünk nyitott a tökéletesedésre
11:52
by the evidence and experience of others.
218
712679
2131
mások bizonyítékai s kísérletei eredményeként.
11:54
Seeing your worldview as open to improvement
219
714834
2049
Világnézetünk nyitva áll a tökéletesedésre,
11:56
by the evidence and experience of others.
220
716907
2123
mások bizonyítékai s kísérletei eredményeként.
Ez több mint a változás iránti nyitottság.
12:00
That's more than just being open to change.
221
720084
2039
Ez több, mint az önfejlesztés iránti nyitottság.
12:02
It's more than just being open to self-improvement.
222
722147
2398
12:04
It means seeing your knowledge as capable of enhancing
223
724569
4285
Azt jelenti: tudásunkat olybá vesszük, mint amely kész a tökéletesítésre,
12:08
or being enriched by what others contribute.
224
728878
2526
vagy ami gazdagodik mások eredményeivel.
12:12
That's part of what is involved
225
732224
2714
Ez beletartozik
12:14
in recognizing there's a common reality
226
734962
2133
a közös valóság tudomásul vételébe,
amelyért mi is felelősek vagyunk.
12:18
that you, too, are responsible to.
227
738116
1853
12:21
I don't think it's much of a stretch to say
228
741633
2205
Kénytelen vagyok kijelenteni,
12:23
that our society is not particularly great at enhancing or encouraging
229
743862
4955
hogy társadalmunk nem túl jó
12:28
that sort of humility.
230
748841
1215
az efféle alázatra ösztönzésben.
Részben azért,
12:30
That's partly because,
231
750080
1579
12:32
well, we tend to confuse arrogance and confidence.
232
752810
2988
mert hajlamosak vagyunk összekeverni az arroganciát a magabiztossággal.
12:36
And it's partly because, well, you know,
233
756263
2441
Az oka részben az,
12:39
arrogance is just easier.
234
759341
1553
hogy az arrogancia könnyebb,
12:40
It's just easier to think of yourself as knowing it all.
235
760918
2677
mert könnyebb mindentudónak hinni magunkat.
12:43
It's just easier to think of yourself as having it all figured out.
236
763619
3697
Könnyebb azt hinni, hogy már mindenre rájöttünk.
12:48
But that's another example of the bad faith towards the truth
237
768513
2933
Ez is példa az igazság téves felfogására,
12:51
that I've been talking about.
238
771470
1538
amelyről most beszélek.
12:55
So the concept of a common reality,
239
775391
2237
Ezért a közös valóság fogalma
12:57
like a lot of philosophical concepts,
240
777652
2690
– akárcsak több filozófiai fogalom –
13:00
can seem so obvious,
241
780366
1484
annyira kézenfekvőnek látszik,
13:02
that we can look right past it
242
782785
1842
hogy tán ügyet sem vetünk rá,
13:05
and forget why it's important.
243
785945
1984
és nem törődünk a fontosságával.
13:09
Democracies can't function if their citizens don't strive,
244
789394
4944
A demokráciák nem működhetnek, ha a polgárok nem törekszenek
13:14
at least some of the time,
245
794362
1370
legalább egy időre
13:15
to inhabit a common space,
246
795756
1681
belakni a közös teret,
13:17
a space where they can pass ideas back and forth
247
797461
3456
ahol eszmét cserélhetnek,
különösen akkor fontos ez,
13:22
when -- and especially when --
248
802123
1786
13:23
they disagree.
249
803933
1405
amikor nem értenek egyet.
13:25
But you can't strive to inhabit that space
250
805749
2264
De nem lehet ilyen törekvésük,
13:29
if you don't already accept that you live in the same reality.
251
809560
3586
amíg nem fogadják el, hogy azonos valóságban élnek.
Az elfogadáshoz hinnünk kell az igazságban,
13:35
To accept that, we've got to believe in truth,
252
815144
2171
13:37
we've got to encourage more active ways of knowing.
253
817339
3311
tevékenyebb ismeretszerzési módszereket kell ösztönöznünk.
13:41
And we've got to have the humility
254
821394
1738
Legyen bennünk kellő alázat,
13:44
to realize that we're not the measure of all things.
255
824271
2707
hogy tudatosuljon: nem mi vagyunk minden dolgok mértéke.
Lehet, hogy álmunk egyszer megvalósul,
13:49
We may yet one day realize the vision
256
829049
3524
13:52
of having the internet in our brains.
257
832597
2673
és agyunkba kerül az internet.
13:56
But if we want that to be liberating and not terrifying,
258
836545
3919
De ha azt akarjuk, hogy fölszabadító, ne pedig rémisztő legyen,
14:00
if we want it to expand our understanding
259
840488
2762
ha nem csak passzív tudásra,
14:03
and not just our passive knowing,
260
843274
2403
hanem megértésünk bővítésére is szánjuk,
14:06
we need to remember that our perspectives,
261
846585
3639
szem előtt kell tartanunk, hogy kilátásaink
14:10
as wondrous, as beautiful as they are,
262
850248
3151
úgy csodálatosak, úgy gyönyörűek, ahogy vannak,
és ezek csupán
14:14
are just that --
263
854171
1280
14:15
perspectives on one reality.
264
855475
2520
egyazon valóság távlatai.
Köszönöm.
14:19
Thank you.
265
859096
1271
14:20
(Applause)
266
860391
4826
(Taps)
Erről a weboldalról

Ez az oldal olyan YouTube-videókat mutat be, amelyek hasznosak az angol nyelvtanuláshoz. A világ minden tájáról származó, kiváló tanárok által tartott angol leckéket láthatsz. Az egyes videók oldalán megjelenő angol feliratokra duplán kattintva onnan játszhatja le a videót. A feliratok a videó lejátszásával szinkronban gördülnek. Ha bármilyen észrevétele vagy kérése van, kérjük, lépjen kapcsolatba velünk ezen a kapcsolatfelvételi űrlapon.

https://forms.gle/WvT1wiN1qDtmnspy7