How to see past your own perspective and find truth | Michael Patrick Lynch

217,837 views ・ 2017-07-10

TED


Vă rugăm să faceți dublu clic pe subtitrările în limba engleză de mai jos pentru a reda videoclipul.

Traducător: Dorothea Flondor Corector: Cristina Nicolae
00:12
So, imagine that you had your smartphone miniaturized
0
12740
3679
Deci, imaginează-ți că ți-ai miniaturizat smartphone-ul
00:16
and hooked up directly to your brain.
1
16443
2360
și ți l-ai legat direct la creier.
00:19
If you had this sort of brain chip,
2
19711
1893
Dacă ai avea un asemenea cip cerebral,
00:21
you'd be able to upload and download to the internet
3
21628
2531
ai putea încărca și descărca de pe internet
00:24
at the speed of thought.
4
24183
1192
cu viteza gândului.
00:25
Accessing social media or Wikipedia would be a lot like --
5
25986
3267
Accesarea rețelelor sociale sau a Wikipediei ar semăna foarte mult...
00:29
well, from the inside at least --
6
29277
1640
cel puțin din interior...
00:30
like consulting your own memory.
7
30941
1750
cu consultarea propriei memorii.
00:33
It would be as easy and as intimate as thinking.
8
33247
3198
Ar fi la fel de ușor și intim ca a gândi.
00:37
But would it make it easier for you to know what's true?
9
37579
3157
Dar ți-ar fi oare mai ușor să știi ce e adevărat?
00:40
Just because a way of accessing information is faster
10
40760
2961
Doar pentru că un mod de accesare a informației e mai rapid
00:43
it doesn't mean it's more reliable, of course,
11
43745
2245
nu înseamnă și că e mai de încredere, desigur,
și nu înseamnă că l-am interpreta cu toții la fel.
00:46
and it doesn't mean that we would all interpret it the same way.
12
46014
3231
00:49
And it doesn't mean that you would be any better at evaluating it.
13
49269
3594
Și nu înseamnă că ai fi mai bun în a-l evalua.
00:52
In fact, you might even be worse,
14
52887
1657
Ai putea fi chiar mai slab,
00:54
because, you know, more data, less time for evaluation.
15
54568
2782
mai multe date înseamnă mai puțin timp pentru evaluare.
00:58
Something like this is already happening to us right now.
16
58378
3395
Ceva asemănător ni se întâmplă deja chiar acum.
01:01
We already carry a world of information around in our pockets,
17
61797
3858
Purtăm deja o lume de informații în buzunare,
01:05
but it seems as if the more information we share and access online,
18
65679
4229
dar pare că, cu cât împărtășim și accesăm mai multă informație online,
01:09
the more difficult it can be for us to tell the difference
19
69932
2802
cu atât mai dificil poate fi pentru noi să facem distincția
01:12
between what's real and what's fake.
20
72758
2117
între ceea ce e real și ceea ce e fals.
01:15
It's as if we know more but understand less.
21
75507
3938
E ca și cum știm mai mult, dar înțelegem mai puțin.
Presupun că e o caracteristică a vieții moderne
01:20
Now, it's a feature of modern life, I suppose,
22
80152
2937
ca părți mari din public să trăiască în bule de informații izolate.
01:23
that large swaths of the public live in isolated information bubbles.
23
83113
3988
01:27
We're polarized: not just over values, but over the facts.
24
87849
4654
Suntem polarizați în privința valorilor, dar și a faptelor.
01:32
One reason for that is, the data analytics that drive the internet
25
92527
3597
Unul din motive e că analiza datelor care pune în mișcare internetul
ne oferă nu doar mai multă informație,
01:36
get us not just more information,
26
96148
2399
01:38
but more of the information that we want.
27
98571
2186
ci mai multă informație dorită de noi.
01:40
Our online life is personalized;
28
100781
2390
Viața noastră online e personalizată,
01:43
everything from the ads we read
29
103195
1730
totul, de la reclamele citite
01:44
to the news that comes down our Facebook feed
30
104949
2590
la veștile care intră în fluxul nostru de Facebook,
01:47
is tailored to satisfy our preferences.
31
107563
3006
e conceput special pentru a ne satisface preferințele.
01:51
And so while we get more information,
32
111279
1806
Deși primim mai multă informație,
o mare parte din aceasta ajunge să ne reflecte pe noi
01:53
a lot of that information ends up reflecting ourselves
33
113109
3230
01:56
as much as it does reality.
34
116363
2204
la fel de mult pe cât reflectă realitatea.
01:59
It ends up, I suppose,
35
119198
1639
Aceasta sfârșește, cred,
02:01
inflating our bubbles rather than bursting them.
36
121691
2533
prin a ne umfla bula, în loc să o spargă.
02:05
And so maybe it's no surprise
37
125331
2129
Astfel, poate că nu e o surpriză
02:07
that we're in a situation, a paradoxical situation,
38
127484
2905
că ne regăsim într-o situație paradoxală,
02:10
of thinking that we know so much more,
39
130413
2131
aceea de a ne gândi că știm atât de mult,
02:12
and yet not agreeing on what it is we know.
40
132568
3010
fără ca totuși să ne punem de acord asupra a ce anume știm.
02:17
So how are we going to solve this problem of knowledge polarization?
41
137259
3572
Deci cum vom soluționa această problemă a polarizării cunoașterii?
02:20
One obvious tactic is to try to fix our technology,
42
140855
4168
O tactică evidentă e să încercăm să remediem tehnologia folosită,
să reconcepem platformele digitale,
02:25
to redesign our digital platforms,
43
145047
1909
02:26
so as to make them less susceptible to polarization.
44
146980
3143
pentru a le face mai puțin susceptibile la polarizare.
02:30
And I'm happy to report
45
150884
1199
Sunt fericit să raportez
că mulți oameni deștepți de la Google și Facebook lucrează chiar la asta.
02:32
that many smart people at Google and Facebook are working on just that.
46
152107
4640
02:36
And these projects are vital.
47
156771
1589
Iar aceste proiecte sunt vitale.
02:39
I think that fixing technology is obviously really important,
48
159837
3130
Cred că remedierea tehnologiei este, evident, foarte importantă,
02:42
but I don't think technology alone, fixing it, is going to solve the problem
49
162991
4622
dar nu cred că doar tehnologia și remedierea ei va soluționa problema
02:47
of knowledge polarization.
50
167637
1354
polarizării cunoașterii.
Nu cred asta fiindcă nu cred că, în cele din urmă,
02:49
I don't think that because I don't think, at the end of the day,
51
169015
3075
e o problemă tehnologică.
02:52
it is a technological problem.
52
172114
1629
02:53
I think it's a human problem,
53
173767
1875
Cred că e o problemă umană,
02:55
having to do with how we think and what we value.
54
175666
3565
care are legătură cu modul în care gândim și cu ceea ce prețuim.
03:00
In order to solve it, I think we're going to need help.
55
180285
2615
Ca să rezolvăm asta, cred că vom avea nevoie de ajutor.
03:02
We're going to need help from psychology and political science.
56
182924
3005
Vom avea nevoie de ajutorul psihologiei și al științei politice.
03:05
But we're also going to need help, I think, from philosophy.
57
185953
3250
Dar cred că vom avea nevoie și de ajutorul filozofiei.
03:10
Because to solve the problem of knowledge polarization,
58
190663
3528
Deoarece, pentru a soluționa problema polarizării cunoașterii,
03:15
we're going to need to reconnect
59
195522
1995
va trebui să ne reconectăm
03:18
with one fundamental, philosophical idea:
60
198455
3836
cu o idee fundamentală, filozofică:
03:23
that we live in a common reality.
61
203219
2397
aceea că trăim într-o realitate comună.
03:26
The idea of a common reality is like, I suppose,
62
206671
4027
Ideea unei realități comune este, presupun, asemănătoare
03:30
a lot of philosophical concepts:
63
210722
1563
multor concepte filozofice:
03:32
easy to state
64
212309
1166
ușor de enunțat,
03:33
but mysteriously difficult to put into practice.
65
213499
2635
dar misterios de dificil de pus în practică.
Pentru a o accepta,
03:37
To really accept it,
66
217003
1305
03:38
I think we need to do three things,
67
218332
2217
cred că trebuie să facem trei lucruri,
03:40
each of which is a challenge right now.
68
220573
2312
fiecare fiind o provocare în momentul de față.
03:44
First, we need to believe in truth.
69
224749
2564
În primul rând, trebuie să credem în adevăr.
03:48
You might have noticed
70
228267
1163
Probabil că ați remarcat
03:49
that our culture is having something of a troubled relationship
71
229454
3015
că cultura noastră are o relație oarecum tulbure
03:52
with that concept right now.
72
232493
1401
cu acest concept în prezent.
Pare că ne contrazicem atât de mult încât,
03:55
It seems as if we disagree so much that,
73
235061
3213
03:58
as one political commentator put it not long ago,
74
238298
2809
cum a spus recent un comentator politic,
e ca și când nu mai există date reale.
04:01
it's as if there are no facts anymore.
75
241131
2235
04:04
But that thought is actually an expression
76
244986
4222
Dar acest raționament e, de fapt,
04:09
of a sort of seductive line of argument that's in the air.
77
249232
4009
expresia unei argumentații seducătoare ce plutește în aer.
04:13
It goes like this:
78
253668
1268
Și e cam așa:
04:16
we just can't step outside of our own perspectives;
79
256188
2851
nu putem păși în afara perspectivelor proprii,
nu putem păși în afara prejudecăților noastre.
04:19
we can't step outside of our biases.
80
259063
2442
04:21
Every time we try,
81
261529
1473
De fiecare dată când încercăm,
primim mai multă informație din perspectiva noastră.
04:23
we just get more information from our perspective.
82
263026
3585
04:27
So, this line of thought goes,
83
267536
2250
Astfel, acest raționament sună așa:
putem admite la fel de bine că adevărul obiectiv e o iluzie
04:31
we might as well admit that objective truth is an illusion,
84
271016
3762
04:34
or it doesn't matter,
85
274802
1154
sau că nu contează,
04:35
because either we'll never know what it is,
86
275980
2146
deoarece fie nu vom ști niciodată ce e,
fie nici nu există.
04:39
or it doesn't exist in the first place.
87
279039
2143
Aceasta nu e o idee filozofică nouă...
04:43
That's not a new philosophical thought --
88
283173
2996
04:46
skepticism about truth.
89
286193
1848
scepticismul cu privire la adevăr.
04:49
During the end of the last century, as some of you know,
90
289332
2881
La sfârșitul secolului trecut, după cum știu unii dintre voi,
04:52
it was very popular in certain academic circles.
91
292237
2294
era foarte popular în unele cercuri academice.
04:55
But it really goes back all the way to the Greek philosopher Protagoras,
92
295317
5133
De fapt, acesta datează din vremea filozofului grec Protagoras,
05:00
if not farther back.
93
300474
1326
dacă nu chiar dinainte.
05:02
Protagoras said that objective truth was an illusion
94
302252
2449
Protagoras a spus că adevărul obiectiv e o iluzie
05:04
because "man is the measure of all things."
95
304725
2907
deoarece „omul e măsura tuturor lucrurilor”.
05:07
Man is the measure of all things.
96
307656
1940
Omul e măsura tuturor lucrurilor.
Asta poate semăna cu politica realistă,
05:10
That can seem like a bracing bit of realpolitik to people,
97
310169
2823
eliberatoare,
05:13
or liberating,
98
313016
1159
05:14
because it allows each of us to discover or make our own truth.
99
314199
4538
deoarece fiecare își poate descoperi sau crea astfel propriul adevăr.
05:20
But actually, I think it's a bit of self-serving rationalization
100
320618
4162
De fapt, cred că e un raționament egocentric
05:24
disguised as philosophy.
101
324804
1867
deghizat drept filozofie.
05:27
It confuses the difficulty of being certain
102
327507
2808
Acesta confundă dificultatea de a fi sigur
05:30
with the impossibility of truth.
103
330339
2645
cu imposibilitatea adevărului.
05:34
Look --
104
334223
1206
Uitați...
05:36
of course it's difficult to be certain about anything;
105
336768
2940
bineînțeles că e dificil să fii sigur de orice:
05:40
we might all be living in "The Matrix."
106
340908
2313
am putea trăi cu toții în „Matrix”.
Ai putea avea un cip cerebral în cap
05:44
You might have a brain chip in your head
107
344018
1982
care îți transmite informații greșite.
05:46
feeding you all the wrong information.
108
346024
1964
05:49
But in practice, we do agree on all sorts of facts.
109
349593
4179
Dar, în practică, suntem de acord cu tot felul de adevăruri.
05:53
We agree that bullets can kill people.
110
353796
3239
Suntem de acord că gloanțele pot ucide oameni.
05:57
We agree that you can't flap your arms and fly.
111
357616
4383
Suntem de acord că nu poți să dai din brațe și să zbori.
Suntem de acord... sau ar trebui...
06:02
We agree -- or we should --
112
362023
2109
că există o realitate externă
06:05
that there is an external reality
113
365018
2297
06:07
and ignoring it can get you hurt.
114
367339
2081
și că ignorarea sa ne poate face rău.
06:11
Nonetheless, skepticism about truth can be tempting,
115
371205
4149
Cu toate acestea, scepticismul față de adevăr poate fi tentant,
06:15
because it allows us to rationalize away our own biases.
116
375378
3314
deoarece ne permite să ne justificăm propriile prejudecăți.
06:18
When we do that, we're sort of like the guy in the movie
117
378716
2987
Când facem asta, suntem cam ca tipul din film
06:21
who knew he was living in "The Matrix"
118
381727
2338
care știa că trăiește în „Matrix”,
06:24
but decided he liked it there, anyway.
119
384793
2725
dar a decis că îi place acolo.
În cele din urmă, te simți bine să obții ceea ce vrei.
06:29
After all, getting what you want feels good.
120
389031
2658
06:32
Being right all the time feels good.
121
392271
2696
Te simți bine să ai dreptate mereu.
06:34
So, often it's easier for us
122
394991
2782
Așa că, adesea ne e mai ușor
06:37
to wrap ourselves in our cozy information bubbles,
123
397797
3489
să ne ascundem în bulele noastre confortabile de informații,
să trăim cu neîncredere
06:42
live in bad faith,
124
402049
1541
06:43
and take those bubbles as the measure of reality.
125
403614
3751
și să credem că aceste bule sunt măsura realității.
06:48
An example, I think, of how this bad faith gets into our action
126
408595
5845
Un exemplu al felului în care neîncrederea ne penetrează acțiunile
06:54
is our reaction to the phenomenon of fake news.
127
414464
4785
este reacția la fenomenul știrilor false.
06:59
The fake news that spread on the internet
128
419874
2930
Știrile false răspândite pe internet
07:02
during the American presidential election of 2016
129
422828
4654
în alegerile prezidențiale americane din 2016
07:07
was designed to feed into our biases,
130
427506
2627
au fost concepute să ne mențină prejudecățile,
să ne umfle bulele.
07:10
designed to inflate our bubbles.
131
430157
2114
07:12
But what was really striking about it
132
432295
2051
Dar ceea ce a fost izbitor la ele
07:14
was not just that it fooled so many people.
133
434370
2614
a fost nu doar că au păcălit atât de mulți oameni.
07:17
What was really striking to me about fake news,
134
437595
2841
Ceea ce mi s-a părut izbitor mie la știrile false,
07:20
the phenomenon,
135
440460
1338
la acest fenomen,
07:21
is how quickly it itself became the subject of knowledge polarization;
136
441822
5055
a fost rapiditatea cu care el a devenit subiect de polarizare a cunoașterii.
07:27
so much so, that the very term -- the very term -- "fake news"
137
447582
3679
Atât de mult încât însuși termenul de „știri false”
07:31
now just means: "news story I don't like."
138
451285
3404
înseamnă acum doar „știre ce nu-mi place”.
07:35
That's an example of the bad faith towards the truth that I'm talking about.
139
455367
4873
E un exemplu al neîncrederii în adevăr despre care vorbesc.
07:43
But the really, I think, dangerous thing
140
463240
3474
Dar, cred, ceea ce e cu adevărat periculos
07:47
about skepticism with regard to truth
141
467981
2578
la scepticismul cu privire la adevăr
07:51
is that it leads to despotism.
142
471476
1907
e că duce la depotism.
07:54
"Man is the measure of all things"
143
474350
2923
„Omul e măsura tuturor lucrurilor”
07:57
inevitably becomes "The Man is the measure of all things."
144
477297
3917
devine inevitabil „Acest om e măsura tuturor lucrurilor”.
08:01
Just as "every man for himself"
145
481852
2650
Tot așa cum „fiecare pentru sine”
08:04
always seems to turn out to be "only the strong survive."
146
484526
2995
pare să devină întotdeauna „doar cel puternic supraviețuiește”.
08:08
At the end of Orwell's "1984,"
147
488345
2489
La finalul cărții lui Orwell „1984”,
polițistul gândurilor O'Brien îl torturează pe Winston Smith
08:12
the thought policeman O'Brien is torturing the protagonist Winston Smith
148
492136
4259
08:16
into believing two plus two equals five.
149
496419
3198
pentru a ajunge să creadă că doi plus doi fac cinci.
08:20
What O'Brien says is the point,
150
500571
2804
Scopul acestui lucru, potrivit lui O'Brien,
08:25
is that he wants to convince Smith that whatever the party says is the truth,
151
505486
4421
e că dorește să-l convingă pe Smith că orice spune partidul e adevărul,
08:29
and the truth is whatever the party says.
152
509931
2885
iar adevărul e orice spune partidul.
08:33
And what O'Brien knows is that once this thought is accepted,
153
513484
3520
Și ceea ce O'Brien știe e că, odată acceptată această idee,
08:38
critical dissent is impossible.
154
518387
2554
dezacordul critic e imposibil.
08:41
You can't speak truth to power
155
521857
2188
Nu poți vorbi de adevăr puterii
dacă puterea spune adevărul prin definiție.
08:44
if the power speaks truth by definition.
156
524069
3155
08:48
I said that in order to accept that we really live in a common reality,
157
528880
4243
Am spus că pentru a accepta că trăim într-o realitate comună,
e nevoie de trei lucruri.
08:53
we have to do three things.
158
533147
1287
08:54
The first thing is to believe in truth.
159
534458
1985
Primul lucru e să credem în adevăr.
08:56
The second thing can be summed up
160
536467
1670
Al doilea lucru poate fi rezumat
de fraza latină preluată de Kant drept motto al Iluminismului:
08:58
by the Latin phrase that Kant took as the motto for the Enlightenment:
161
538161
5086
09:03
"Sapere aude,"
162
543271
1637
„Sapere aude”,
09:04
or "dare to know."
163
544932
1732
sau „îndrăznește să știi”.
09:06
Or as Kant wants, "to dare to know for yourself."
164
546688
2426
Sau, cum dorește Kant, „îndrăznește să afli singur”.
09:10
I think in the early days of the internet,
165
550208
2042
Cred că în primele zile ale internetului,
09:12
a lot of us thought
166
552274
1166
mulți dintre noi credeau
09:13
that information technology was always going to make it easier
167
553464
3810
că tehnologia informațiilor ne va ușura mereu
09:17
for us to know for ourselves,
168
557298
1855
sarcina de a afla singuri
și, bineînțeles, în multe privințe, asta a făcut.
09:19
and of course in many ways, it has.
169
559177
2692
09:21
But as the internet has become more and more a part of our lives,
170
561893
3838
Dar, pe măsură ce internetul a devenit tot mai mult parte a vieții noaste,
09:25
our reliance on it, our use of it,
171
565755
1959
bazarea noastră pe el, modul de utilizare,
09:27
has become often more passive.
172
567738
2560
au devenit tot mai pasive.
09:30
Much of what we know today we Google-know.
173
570322
2365
Mult din ceea ce știm azi se datorează Google.
09:33
We download prepackaged sets of facts
174
573299
3695
Descărcăm seturi de date preîmpachetate
și le aruncăm pe banda rulantă a rețelelor sociale.
09:37
and sort of shuffle them along the assembly line of social media.
175
577018
3812
09:41
Now, Google-knowing is useful
176
581357
1430
Cunoașterea prin Google e bună
09:42
precisely because it involves a sort of intellectual outsourcing.
177
582811
3196
tocmai fiindcă implică un fel de externalizare intelectuală.
Efortul nostru e preluat de o rețea de persoane și algoritmi.
09:46
We offload our effort onto a network of others and algorithms.
178
586031
5765
09:51
And that allows us, of course, to not clutter our minds
179
591820
3007
Și asta ne permite, bineînțeles, să nu ne încărcăm mințile
09:54
with all sorts of facts.
180
594851
1439
cu tot felul de date.
09:56
We can just download them when we need them.
181
596314
2287
Putem să le descărcăm când ne trebuiesc.
09:58
And that's awesome.
182
598625
1382
Și asta e grozav.
10:01
But there's a difference between downloading a set of facts
183
601348
4781
Dar există o diferență între a descărca un set de date
10:06
and really understanding how or why those facts are as they are.
184
606809
4826
și a înțelege cu adevărat cum sau de ce sunt acele date așa cum sunt.
10:13
Understanding why a particular disease spreads,
185
613237
4374
A înțelege de ce se răspândește o anumită boală
10:17
or how a mathematical proof works,
186
617635
2059
sau cum se face o demonstrație matematică
10:19
or why your friend is depressed,
187
619718
2013
sau de ce prietenul tău e deprimat
10:21
involves more than just downloading.
188
621755
2465
implică mai mult decât să descărci.
10:25
It's going to require, most likely,
189
625396
2081
Va presupune, cel mai probabil,
10:27
doing some work for yourself:
190
627501
2102
să lucrezi și singur,
10:30
having a little creative insight;
191
630503
1840
să ai puțină viziune creativă,
10:32
using your imagination;
192
632367
1266
să folosești imaginația,
10:33
getting out into the field;
193
633657
1318
să ieși pe teren,
10:34
doing the experiment;
194
634999
1182
să faci experimentul,
10:36
working through the proof;
195
636205
1271
să faci demonstrația,
10:37
talking to someone.
196
637500
1444
să vorbești cu cineva.
10:43
Now, I'm not saying, of course, that we should stop Google-knowing.
197
643533
3544
Nu spun, desigur, că ar trebui să încetăm să aflăm prin Google.
10:48
I'm just saying
198
648402
1151
Spun doar
10:49
we shouldn't overvalue it, either.
199
649577
1686
că n-ar trebui să-l supraestimăm.
10:51
We need to find ways of encouraging forms of knowing that are more active,
200
651287
4664
Trebuie să găsim moduri de a încuraja forme de cunoaștere activă
10:56
and don't always involve passing off our effort into our bubble.
201
656512
5049
și care nu implică mereu evitarea efortului nostru în bula noastră.
11:02
Because the thing about Google-knowing is that too often it ends up
202
662242
3341
Căci chestia despre cunoașterea de pe Google e că adesea ajunge să fie
11:05
being bubble-knowing.
203
665607
1364
cunoaștere de tip bulă.
11:07
And bubble-knowing means always being right.
204
667581
2790
Și cunoașterea asta înseamnă să ai întotdeauna dreptate.
11:11
But daring to know,
205
671183
2197
Dar a îndrăzni să știi,
11:13
daring to understand,
206
673404
1570
a îndrăzni să înțelegi,
înseamnă să riști să te înșeli.
11:16
means risking the possibility that you could be wrong.
207
676151
3066
11:19
It means risking the possibility
208
679921
2268
Înseamnă să riști să afli
11:22
that what you want and what's true are different things.
209
682213
4327
că ceea ce vrei și ceea ce e adevărat sunt două lucruri diferite.
Astfel ajung la al treilea lucru ce cred că trebuie făcut
11:28
Which brings me to the third thing that I think we need to do
210
688070
2921
11:31
if we want to accept that we live in a common reality.
211
691854
3032
dacă vrem să acceptăm că trăim într-o realitate comună.
11:34
That third thing is: have a little humility.
212
694910
2891
Iar acest al treilea lucru e: să avem puțină modestie.
11:38
By humility here, I mean epistemic humility,
213
698510
2122
Și aici mă refer la modestia epistemică,
11:40
which means, in a sense,
214
700656
1989
care înseamnă, într-un fel,
11:43
knowing that you don't know it all.
215
703701
2403
să știi că nu le știi pe toate.
Dar înseamnă și ceva mai mult de-atât.
11:46
But it also means something more than that.
216
706128
2053
11:48
It means seeing your worldview as open to improvement
217
708205
4450
Înseamnă ca viziunea ta despre lume să fie deschisă îmbunătățirii
11:52
by the evidence and experience of others.
218
712679
2131
aduse de dovezile și experiența altora.
11:54
Seeing your worldview as open to improvement
219
714834
2049
Viziunea ta să fie deschisă îmbunătățirii
11:56
by the evidence and experience of others.
220
716907
2123
aduse de dovezile și experiența altora.
Adică nu doar să fii deschis la schimbare.
12:00
That's more than just being open to change.
221
720084
2039
Nu doar să fii deschis la autoperfecționare.
12:02
It's more than just being open to self-improvement.
222
722147
2398
12:04
It means seeing your knowledge as capable of enhancing
223
724569
4285
Înseamnă să consideri că cunoașterea ta poate fi îmbunătățită
12:08
or being enriched by what others contribute.
224
728878
2526
sau îmbogățită de contribuția altora.
12:12
That's part of what is involved
225
732224
2714
E parte din ceea ce implică recunoașterea faptului
12:14
in recognizing there's a common reality
226
734962
2133
că există o realitate comună
față de care ești și tu responsabil.
12:18
that you, too, are responsible to.
227
738116
1853
12:21
I don't think it's much of a stretch to say
228
741633
2205
Nu cred că e exagerat când spun
12:23
that our society is not particularly great at enhancing or encouraging
229
743862
4955
că societatea noastră nu se descurcă prea bine cu îmbunătățirea sau încurajarea
12:28
that sort of humility.
230
748841
1215
acestui fel de modestie.
Și e așa, parțial, fiindcă
12:30
That's partly because,
231
750080
1579
12:32
well, we tend to confuse arrogance and confidence.
232
752810
2988
tindem să facem confuzia între aroganță și siguranță de sine.
12:36
And it's partly because, well, you know,
233
756263
2441
Și asta, parțial, fiindcă, știți,
12:39
arrogance is just easier.
234
759341
1553
e mai ușor să fii arogant.
12:40
It's just easier to think of yourself as knowing it all.
235
760918
2677
E mai ușor să crezi că le știi pe toate.
12:43
It's just easier to think of yourself as having it all figured out.
236
763619
3697
E mai ușor să crezi că le-ai descifrat pe toate.
12:48
But that's another example of the bad faith towards the truth
237
768513
2933
Dar ăsta e încă un exemplu al neîncrederii în adevăr
12:51
that I've been talking about.
238
771470
1538
despre care vorbeam.
12:55
So the concept of a common reality,
239
775391
2237
Așadar, conceptul realității comune,
12:57
like a lot of philosophical concepts,
240
777652
2690
la fel ca multe concepte filozofice,
13:00
can seem so obvious,
241
780366
1484
poate părea atât de evident,
13:02
that we can look right past it
242
782785
1842
încât privim dincolo de el,
13:05
and forget why it's important.
243
785945
1984
uitând de ce e important.
13:09
Democracies can't function if their citizens don't strive,
244
789394
4944
Democrațiile nu pot funcționa dacă cetățenii lor nu se străduiesc,
13:14
at least some of the time,
245
794362
1370
măcar din când în când,
13:15
to inhabit a common space,
246
795756
1681
să locuiască un spațiu comun,
13:17
a space where they can pass ideas back and forth
247
797461
3456
un spațiu unde pot schimba idei,
mai ales atunci când...
13:22
when -- and especially when --
248
802123
1786
13:23
they disagree.
249
803933
1405
sunt în dezacord.
13:25
But you can't strive to inhabit that space
250
805749
2264
Dar nu te poți strădui să locuiești acel spațiu
13:29
if you don't already accept that you live in the same reality.
251
809560
3586
dacă nu accepți deja că trăiești în aceeași realitate.
Ca să acceptăm, trebuie să credem în adevăr,
13:35
To accept that, we've got to believe in truth,
252
815144
2171
13:37
we've got to encourage more active ways of knowing.
253
817339
3311
trebuie să încurajăm moduri active de cunoaștere.
13:41
And we've got to have the humility
254
821394
1738
Și trebuie să avem modestia
13:44
to realize that we're not the measure of all things.
255
824271
2707
de a realiza că nu suntem măsura tuturor lucrurilor.
Poate vom realiza, într-o bună zi, viziunea
13:49
We may yet one day realize the vision
256
829049
3524
13:52
of having the internet in our brains.
257
832597
2673
de a avea internetul în creierul nostru.
13:56
But if we want that to be liberating and not terrifying,
258
836545
3919
Dar dacă vrem ca acest lucru să fie eliberator, nu terifiant,
14:00
if we want it to expand our understanding
259
840488
2762
dacă dorim să ne extindem înțelegerea,
14:03
and not just our passive knowing,
260
843274
2403
și nu doar cunoașterea pasivă,
14:06
we need to remember that our perspectives,
261
846585
3639
trebuie să ne amintim că perspectivele noastre,
14:10
as wondrous, as beautiful as they are,
262
850248
3151
oricât de minunate și frumoase ar fi,
sunt doar asta...
14:14
are just that --
263
854171
1280
14:15
perspectives on one reality.
264
855475
2520
perspective asupra unei realități.
Mulțumesc.
14:19
Thank you.
265
859096
1271
14:20
(Applause)
266
860391
4826
(Aplauze)
Despre acest site

Acest site vă va prezenta videoclipuri de pe YouTube care sunt utile pentru a învăța limba engleză. Veți vedea lecții de engleză predate de profesori de top din întreaga lume. Faceți dublu clic pe subtitrările în limba engleză afișate pe fiecare pagină video pentru a reda videoclipul de acolo. Subtitrările se derulează în sincron cu redarea videoclipului. Dacă aveți comentarii sau solicitări, vă rugăm să ne contactați folosind acest formular de contact.

https://forms.gle/WvT1wiN1qDtmnspy7