The pattern behind self-deception | Michael Shermer

736,418 views ・ 2010-06-14

TED


Vă rugăm să faceți dublu clic pe subtitrările în limba engleză de mai jos pentru a reda videoclipul.

Traducător: Sebastian Hubati Corector: Laszlo Kereszturi
00:16
So since I was here last in '06,
0
16260
3000
Din 2006, când am fost ultima dată aici,
00:19
we discovered that global climate change
1
19260
2000
omenirea a descoperit că modificarea climei globale
00:21
is turning out to be a pretty serious issue,
2
21260
2000
se dovedește a fi o problemă destul de serioasă.
00:23
so we covered that fairly extensively
3
23260
2000
Noi am scris pe larg despre această situație
00:25
in Skeptic magazine.
4
25260
2000
în revista Skeptic.
00:27
We investigate all kinds
5
27260
2000
Investigăm toate tipurile
00:29
of scientific and quasi-scientific controversies,
6
29260
3000
de controverse științifice și cvasi-științifice.
00:32
but it turns out we don't have to worry about any of this
7
32260
2000
Dar se pare care nu trebuie să ne îngrijorăm deloc
00:34
because the world's going to end in 2012.
8
34260
2000
pentru că lumea se va sfârși în 2012.
00:36
Another update:
9
36260
2000
Și încă ceva:
00:38
You will recall I introduced you guys
10
38260
2000
Vă amintiți că v-am prezentat
00:40
to the Quadro Tracker.
11
40260
2000
Quadro Tracker.
00:42
It's like a water dowsing device.
12
42260
2000
Seamănă cu un instrument empiric de detectare a apei în subteran.
00:44
It's just a hollow piece of plastic with an antenna that swivels around.
13
44260
3000
E doar o bucată de plastic goală înăuntru, cu o antenă pivotantă.
00:47
And you walk around, and it points to things.
14
47260
2000
Pe masură ce mergi, indică spre obiecte.
00:49
Like if you're looking for marijuana in students' lockers,
15
49260
3000
E ca și cum ai căuta marijuana în dulapurile studenților,
00:52
it'll point right to somebody.
16
52260
2000
va indica direct spre cineva.
00:54
Oh, sorry. (Laughter)
17
54260
2000
Oh, scuze. (Râsete)
00:56
This particular one that was given to me
18
56260
2000
Aceasta pe care am primit-o eu
00:58
finds golf balls,
19
58260
2000
găsește mingi de golf,
01:00
especially if you're at a golf course
20
60260
2000
mai ales dacă ești pe un teren de golf
01:02
and you check under enough bushes.
21
62260
3000
și dacă te uiți prin destule tufișuri.
01:05
Well, under the category of "What's the harm of silly stuff like this?"
22
65260
3000
Ei bine, din categoria "Ce rău poate face un lucru ridicol ca acesta?"
01:08
this device, the ADE 651,
23
68260
3000
acest instrument, ADE 651,
01:11
was sold to the Iraqi government
24
71260
3000
a fost vândut guvernului irakian
01:14
for 40,000 dollars apiece.
25
74260
2000
pentru 40,000 de dolari bucata.
01:16
It's just like this one, completely worthless,
26
76260
2000
Este exact ca acesta, complet fără valoare,
01:18
in which it allegedly worked by "electrostatic
27
78260
2000
care chipurile funcționează prin
01:20
magnetic ion attraction,"
28
80260
3000
"atracție magnetică electrostatică a ionilor"
01:24
which translates to
29
84260
2000
și care se traduce prin
01:26
"pseudoscientific baloney" -- would be the nice word --
30
86260
3000
"prostie pseudoștiințifică" -- ar fi formularea decentă --
01:29
in which you string together a bunch of words that sound good,
31
89260
2000
în care înlănțuiești o grămadă de cuvinte care sună bine
01:31
but it does absolutely nothing.
32
91260
2000
dar instrumentul nu face absolut nimic.
01:33
In this case, at trespass points,
33
93260
3000
În acest caz, la punctele de control,
01:36
allowing people to go through
34
96260
2000
a permite oamenilor să treacă
01:38
because your little tracker device said they were okay,
35
98260
3000
pentru că micul instrument de detectare spune ca sunt în regulă
01:41
actually cost lives.
36
101260
3000
chiar costă vieți.
01:44
So there is a danger to pseudoscience,
37
104260
2000
Pseudoștiința este periculoasă
01:46
in believing in this sort of thing.
38
106260
3000
pentru că te face să ai încredere în astfel de instrumente.
01:49
So what I want to talk about today is belief.
39
109260
3000
Așadar, astăzi vreau să vorbesc despre ce credem.
01:52
I want to believe,
40
112260
2000
Vreau să cred,
01:54
and you do too.
41
114260
2000
la fel ca voi.
01:56
And in fact, I think my thesis here is that
42
116260
2000
Și cred că, de fapt, teza mea este că
01:58
belief is the natural state of things.
43
118260
2000
credința este starea naturală a lucrurilor.
02:00
It is the default option. We just believe.
44
120260
2000
Este opțiunea implicită. Pur și simplu, credem.
02:02
We believe all sorts of things.
45
122260
2000
Credem tot felul de lucruri.
02:04
Belief is natural;
46
124260
2000
Credința este naturală.
02:06
disbelief, skepticism, science, is not natural.
47
126260
2000
Neîncrederea, scepticismul și știința nu sunt naturale.
02:08
It's more difficult.
48
128260
2000
Este mai greu.
02:10
It's uncomfortable to not believe things.
49
130260
2000
Nu este confortabil să nu crezi lucruri.
02:12
So like Fox Mulder on "X-Files,"
50
132260
3000
Precum Fox Mulder în "X-Files,"
02:15
who wants to believe in UFOs? Well, we all do,
51
135260
3000
cine vrea să creadă în OZN-uri? Ei bine, toți vrem.
02:18
and the reason for that is because
52
138260
2000
Și motivul este că
02:20
we have a belief engine in our brains.
53
140260
3000
avem în creierele noastre un motor al credinței.
02:23
Essentially, we are pattern-seeking primates.
54
143260
3000
În esență, suntem primate care caută modele.
02:26
We connect the dots: A is connected to B; B is connected to C.
55
146260
3000
Facem conexiuni: A se leagă de B; B se leagă de C.
02:29
And sometimes A really is connected to B,
56
149260
3000
Și uneori A chiar este legat de B.
02:32
and that's called association learning.
57
152260
2000
Aceasta este învățarea prin asociere.
02:34
We find patterns, we make those connections,
58
154260
3000
Găsim modele, facem acele conexiuni,
02:37
whether it's Pavlov's dog here
59
157260
2000
fie că e vorba de câinele lui Pavlov
02:39
associating the sound of the bell with the food,
60
159260
3000
care asociază sunetul clopoțelului cu mâncarea
02:42
and then he salivates to the sound of the bell,
61
162260
2000
și apoi salivează când aude sunetul clopoțelului,
02:44
or whether it's a Skinnerian rat,
62
164260
2000
sau de șobolanul din experimentul lui Skinner
02:46
in which he's having an association
63
166260
2000
în care se face o asociere
02:48
between his behavior and a reward for it,
64
168260
2000
între comportamentul lui și recompensă
02:50
and therefore he repeats the behavior.
65
170260
2000
astfel că șobolanul repetă comportamentul.
02:52
In fact, what Skinner discovered
66
172260
2000
De fapt, ceea ce a descoperit Skinner
02:54
is that, if you put a pigeon in a box like this,
67
174260
3000
este că, dacă pui un porumbel într-o astfel de cutie,
02:57
and he has to press one of these two keys,
68
177260
2000
iar el trebuie să apese pe una dintre aceste două chei,
02:59
and he tries to figure out what the pattern is,
69
179260
2000
încercând să își dea seama care e modelul
03:01
and you give him a little reward in the hopper box there --
70
181260
2000
și dacă îi dai câte o mică recompensă în recipient
03:03
if you just randomly assign rewards
71
183260
3000
alocând recompensele aleator
03:06
such that there is no pattern,
72
186260
2000
ca și cum nu ar exista un model,
03:08
they will figure out any kind of pattern.
73
188260
2000
porumbelul va reuși să identifice orice tip de model.
03:10
And whatever they were doing just before they got the reward,
74
190260
2000
Indiferent de ce făceau înainte de a primi recompensa,
03:12
they repeat that particular pattern.
75
192260
2000
ei repetă acel model specific.
03:14
Sometimes it was even spinning around twice counterclockwise,
76
194260
3000
Uneori chiar se învârtea de două ori în sens invers acelor de ceasornic,
03:17
once clockwise and peck the key twice.
77
197260
3000
o dată în sensul acelor și loveau cheia de două ori cu ciocul.
03:20
And that's called superstition,
78
200260
2000
Iar asta se cheamă superstiție.
03:22
and that, I'm afraid,
79
202260
2000
Și, mi-e teamă
03:24
we will always have with us.
80
204260
2000
că o vom avea întotdeauna cu noi.
03:26
I call this process "patternicity" --
81
206260
2000
Îi spun acestui proces "patternicity",
03:28
that is, the tendency to find meaningful patterns
82
208260
2000
adică tendința de a găsi modele cu semnificație
03:30
in both meaningful and meaningless noise.
83
210260
3000
atât în perturbațiile cu înțeles cât și în cele fără înțeles.
03:33
When we do this process, we make two types of errors.
84
213260
3000
Când urmăm acest proces, facem două tipuri de greșeli.
03:36
A Type I error, or false positive,
85
216260
2000
Eroarea de Tipul I, sau fals pozitiv,
03:38
is believing a pattern is real
86
218260
2000
înseamnă a crede că un model este real
03:40
when it's not.
87
220260
2000
când nu este.
03:42
Our second type of error is a false negative.
88
222260
2000
Al doilea tip de eroare este falsul negativ.
03:44
A Type II error is not believing
89
224260
2000
Eroarea de Tipul II înseamnă să nu crezi
03:46
a pattern is real when it is.
90
226260
3000
că un model este real atunci când el chiar este.
03:49
So let's do a thought experiment.
91
229260
2000
Haideți să facem un experiment mental.
03:51
You are a hominid three million years ago
92
231260
2000
Ești un Hominid în urmă cu trei milioane de ani
03:53
walking on the plains of Africa.
93
233260
3000
și mergi prin șesurile Africii.
03:56
Your name is Lucy, okay?
94
236260
2000
Te cheamă Lucy, în regulă?
03:58
And you hear a rustle in the grass.
95
238260
2000
Și auzi un foșnet în iarbă.
04:00
Is it a dangerous predator,
96
240260
2000
Să fie un animal de pradă periculos,
04:02
or is it just the wind?
97
242260
2000
sau este doar vântul?
04:04
Your next decision could be the most important one of your life.
98
244260
3000
Următoarea decizie ar putea fi cea mai importantă din viața ta.
04:07
Well, if you think that the rustle in the grass is a dangerous predator
99
247260
3000
Ei bine, dacă crezi că foșnetul din iarbă e făcut de un animal de pradă periculos
04:10
and it turns out it's just the wind,
100
250260
2000
și se dovedește că e doar vântul,
04:12
you've made an error in cognition,
101
252260
2000
atunci ai făcut o eroare de percepție,
04:14
made a Type I error, false positive.
102
254260
2000
o eroare de Tipul I, fals pozitiv.
04:16
But no harm. You just move away.
103
256260
2000
Dar n-ai pățit nimic. Doar mergi mai departe.
04:18
You're more cautious. You're more vigilant.
104
258260
2000
Ești mai precaut. Ești mai vigilent.
04:20
On the other hand, if you believe that the rustle in the grass is just the wind,
105
260260
2000
Pe de altă parte, dacă crezi că foșnetul din iarbă e făcut doar de vânt,
04:22
and it turns out it's a dangerous predator,
106
262260
3000
și se dovedește că e făcut de un animal de pradă periculos,
04:25
you're lunch.
107
265260
2000
scrie "prânz" pe tine.
04:27
You've just won a Darwin award.
108
267260
2000
Tocmai ce ai câștigat un premiu Darwin.
04:29
You've been taken out of the gene pool.
109
269260
2000
Ai fost eliminat din rezervorul de gene.
04:31
Now the problem here is that
110
271260
2000
Acum problema este că
04:33
patternicities will occur whenever the cost
111
273260
2000
tendințele de a găsi modele cu semnificație vor apărea oricând costul
04:35
of making a Type I error
112
275260
2000
de a face o eroare de Tipul I
04:37
is less than the cost of making a Type II error.
113
277260
2000
este mai mic decât costul de a face o eroare de Tipul II.
04:39
This is the only equation in the talk by the way.
114
279260
2000
Apropo, asta este singura ecuație pe care o s-o auziți astăzi.
04:41
We have a pattern detection problem
115
281260
2000
Avem o problemă de identificare a modelului
04:43
that is assessing the difference between a Type I and a Type II error
116
283260
3000
însemnând că evaluarea diferenței dintre Tipul I și Tipul II de eroare
04:46
is highly problematic,
117
286260
2000
este foarte problematică,
04:48
especially in split-second, life-and-death situations.
118
288260
3000
mai ales în situațiile extreme, de viață și de moarte.
04:51
So the default position
119
291260
2000
Astfel, poziția implicită
04:53
is just: Believe all patterns are real --
120
293260
2000
este, pur și simplu, "a crede că toate modelele sunt reale."
04:55
All rustles in the grass are dangerous predators
121
295260
3000
"Toate foșnetele din iarbă sunt făcute de animale de pradă periculoase
04:58
and not just the wind.
122
298260
2000
și nu doar de vânt."
05:00
And so I think that we evolved ...
123
300260
2000
Și astfel cred că am evoluat...
05:02
there was a natural selection for the propensity for our belief engines,
124
302260
3000
a fost o selecție naturală a predilecției pentru motoarele noastre de credință,
05:05
our pattern-seeking brain processes,
125
305260
2000
pentru procesele prin care creierul nostru caută modele,
05:07
to always find meaningful patterns
126
307260
2000
pentru a găsi mereu modele cu semnificație
05:09
and infuse them with these sort of
127
309260
2000
și pentru a le umple cu aceste tipuri de
05:11
predatory or intentional agencies that I'll come back to.
128
311260
3000
factori de pradă sau de intenție asupra cărora voi reveni.
05:14
So for example, what do you see here?
129
314260
2000
De exemplu, ce vedeți aici?
05:16
It's a horse head, that's right.
130
316260
2000
E capul unui cal, corect.
05:18
It looks like a horse. It must be a horse.
131
318260
2000
Aduce cu un cal. Trebuie să fie un cal.
05:20
That's a pattern.
132
320260
2000
Acesta este un model.
05:22
And is it really a horse?
133
322260
2000
Dar este, de fapt, un cal?
05:24
Or is it more like a frog?
134
324260
3000
Sau seamănă mai mult cu o broască?
05:27
See, our pattern detection device,
135
327260
2000
Vedeți, dispozitivul nostru de identificare a modelelor
05:29
which appears to be located in the anterior cingulate cortex --
136
329260
3000
care apare localizat în cortexul cingulat anterior --
05:32
it's our little detection device there --
137
332260
3000
este micul nostru instrument de detecție --
05:35
can be easily fooled, and this is the problem.
138
335260
2000
poate fi păcălit ușor și, aceasta este problema.
05:37
For example, what do you see here?
139
337260
2000
De exemplu, ce vedeți aici?
05:39
Yes, of course, it's a cow.
140
339260
3000
Da, bineînțeles. Este o vacă.
05:42
Once I prime the brain -- it's called cognitive priming --
141
342260
3000
Odată ce pregătesc creierul -- se numește amorsare cognitivă --
05:45
once I prime the brain to see it,
142
345260
2000
odată ce creierul este pregătit s-o vadă,
05:47
it pops back out again even without the pattern that I've imposed on it.
143
347260
3000
imaginea va reapărea din nou, chiar fără ajutorul modelului impus.
05:50
And what do you see here?
144
350260
2000
Ce vedeți aici?
05:52
Some people see a Dalmatian dog.
145
352260
2000
Unii oameni văd un câine dalmațian.
05:54
Yes, there it is. And there's the prime.
146
354260
2000
Da, iată-l. Și iată și conturul.
05:56
So when I go back without the prime,
147
356260
2000
Astfel, când ne uităm din nou dar, fără contur,
05:58
your brain already has the model
148
358260
2000
creierul are deja modelul
06:00
so you can see it again.
149
360260
2000
și îl veți vedea din nou.
06:02
What do you see here?
150
362260
3000
Ce vedeți aici?
06:05
Planet Saturn. Yes, that's good.
151
365260
2000
Planeta Saturn. Da, este corect.
06:07
How about here?
152
367260
3000
Dar aici?
06:10
Just shout out anything you see.
153
370260
3000
Spuneți cu voce tare orice vedeți.
06:14
That's a good audience, Chris.
154
374260
2000
Chris, avem un public bun.
06:16
Because there's nothing in this. Well, allegedly there's nothing.
155
376260
3000
Pentru că nu e nimic de văzut aici. E de presupus că nu e nimic.
06:19
This is an experiment done by Jennifer Whitson
156
379260
3000
Acesta este un experiment realizat de Jennifer Whitson
06:22
at U.T. Austin
157
382260
2000
la U.T. Austin
06:24
on corporate environments
158
384260
2000
asupra mediilor corporatiste
06:26
and whether feelings of uncertainty and out of control
159
386260
3000
pentru a vedea dacă sentimentele de nesiguranță și lipsă de control
06:29
makes people see illusory patterns.
160
389260
2000
îi fac pe oameni să vadă modele acolo unde nu sunt.
06:31
That is, almost everybody sees the planet Saturn.
161
391260
3000
Aproape oricine vede planeta Saturn.
06:34
People that are put in a condition of feeling out of control
162
394260
3000
Oamenii care sunt puși într-o situație în care simt că nu dețin controlul
06:37
are more likely to see something in this,
163
397260
2000
sunt mai predispuși să vadă ceva aici,
06:39
which is allegedly patternless.
164
399260
3000
într-o imagine care e de presupus că nu conține niciun model.
06:42
In other words, the propensity to find these patterns
165
402260
3000
Cu alte cuvinte, tendința de a repera aceste modele
06:45
goes up when there's a lack of control.
166
405260
3000
crește când există o lipsă de control.
06:48
For example, baseball players are notoriously superstitious
167
408260
3000
De exemplu, jucătorii de baseball sunt faimoși pentru cât de superstițioși sunt
06:51
when they're batting,
168
411260
2000
când lovesc mingea,
06:53
but not so much when they're fielding.
169
413260
2000
dar mai puțin superstițioși când joacă în teren.
06:55
Because fielders are successful
170
415260
2000
Pentru că rata de succes a jucătorilor din teren
06:57
90 to 95 percent of the time.
171
417260
2000
este de 90-95%.
06:59
The best batters fail seven out of 10 times.
172
419260
3000
Cei mai buni lovitori ratează șapte din 10 încercări.
07:02
So their superstitions, their patternicities,
173
422260
2000
Astfel, superstițiile, tendințele lor de a vedea modele cu semnificație
07:04
are all associated with feelings of lack of control
174
424260
3000
sunt toate asociate cu sentimente de lipsă de control
07:07
and so forth.
175
427260
2000
și așa mai departe.
07:10
What do you see in this particular one here, in this field?
176
430260
3000
Ce vedeți în această imagine, în fondul ei?
07:13
Anybody see an object there?
177
433260
2000
Vede cineva un obiect?
07:15
There actually is something here,
178
435260
2000
De fapt, este ceva acolo,
07:17
but it's degraded.
179
437260
2000
dar imaginea este deteriorată.
07:19
While you're thinking about that,
180
439260
2000
În timp ce vă gândiți,
07:21
this was an experiment done by Susan Blackmore,
181
441260
2000
acesta a fost un experiment realizat de Susan Blackmore,
07:23
a psychologist in England,
182
443260
2000
un doctor psiholog din Anglia,
07:25
who showed subjects this degraded image
183
445260
2000
care le-a arătat această imagine deteriorată unor persoane
07:27
and then ran a correlation between
184
447260
2000
și apoi a corelat rezultatele
07:29
their scores on an ESP test:
185
449260
2000
cu punctajele lor obținute la un test ESP
07:31
How much did they believe in the paranormal,
186
451260
2000
legat de cât de mult cred în fenomenele paranormale,
07:33
supernatural, angels and so forth.
187
453260
3000
supernaturale, în îngeri și așa mai departe.
07:36
And those who scored high on the ESP scale,
188
456260
3000
Cei care au avut punctaje mari pe scara ESP
07:39
tended to not only see
189
459260
2000
au tins nu doar să vadă
07:41
more patterns in the degraded images
190
461260
2000
mai multe modele în imaginile deteriorate,
07:43
but incorrect patterns.
191
463260
2000
dar să vadă modele incorecte.
07:45
Here is what you show subjects.
192
465260
2000
Iată ce li se arată subiecților.
07:47
The fish is degraded 20 percent, 50 percent
193
467260
3000
Imaginea peștelui este deteriorată cu 20%, 50%
07:50
and then the one I showed you,
194
470260
2000
și acum iată imaginea pe care v-am arătat-o,
07:52
70 percent.
195
472260
2000
70%.
07:54
A similar experiment was done by another [Swiss] psychologist
196
474260
2000
Un experiment asemănător a fost realizat de alt psiholog elvețian,
07:56
named Peter Brugger,
197
476260
2000
pe numele său, Peter Brugger,
07:58
who found significantly more meaningful patterns
198
478260
3000
care a descoperit că preponderent mai multe modele cu semnificație
08:01
were perceived on the right hemisphere,
199
481260
2000
sunt percepute în emisfera dreaptă,
08:03
via the left visual field, than the left hemisphere.
200
483260
3000
prin câmpul vizual stâng, comparativ cu emisfera stângă.
08:06
So if you present subjects the images such
201
486260
2000
Astfel, dacă subiecților le sunt prezentate imaginile
08:08
that it's going to end up on the right hemisphere instead of the left,
202
488260
3000
astfel încât să fie percepute în emisfera dreaptă în loc de cea stângă,
08:11
then they're more likely to see patterns
203
491260
2000
atunci va fi mult mai probabil ca ei să vadă modele
08:13
than if you put it on the left hemisphere.
204
493260
2000
decât dacă ar fi fost percepute în emisfera stângă.
08:15
Our right hemisphere appears to be
205
495260
2000
Emisfera noastră dreaptă pare a fi
08:17
where a lot of this patternicity occurs.
206
497260
2000
locul unde se manifestă preponderent tendința de a vedea modele cu semnificație.
08:19
So what we're trying to do is bore into the brain
207
499260
2000
Ceea ce încercăm să facem este să pătrundem în creier
08:21
to see where all this happens.
208
501260
2000
să vedem unde se întâmplă toate aceste lucruri.
08:23
Brugger and his colleague, Christine Mohr,
209
503260
3000
Brugger și colega lui, Christine Mohr,
08:26
gave subjects L-DOPA.
210
506260
2000
le-au administrat subiecților L-DOPA.
08:28
L-DOPA's a drug, as you know, given for treating Parkinson's disease,
211
508260
3000
Așa cum știți, L-DOPA este un medicament care tratează boala Parkinson,
08:31
which is related to a decrease in dopamine.
212
511260
3000
care este legată de scăderea nivelului de dopamină.
08:34
L-DOPA increases dopamine.
213
514260
2000
L-DOPA crește nivelul dopaminei.
08:36
An increase of dopamine caused
214
516260
2000
Iar creșterea nivelului de dopamină
08:38
subjects to see more patterns
215
518260
2000
i-a făcut pe subiecți să vadă mai multe modele
08:40
than those that did not receive the dopamine.
216
520260
2000
decăt cei care nu au primit dopamină.
08:42
So dopamine appears to be the drug
217
522260
2000
Astfel, dopamina pare a fi medicamentul
08:44
associated with patternicity.
218
524260
2000
asociat cu tendința de a vedea modele cu semnificație.
08:46
In fact, neuroleptic drugs
219
526260
2000
De fapt, medicamentele neuroleptice
08:48
that are used to eliminate psychotic behavior,
220
528260
2000
sunt folosite pentru a elimina comportamentele de psihoză
08:50
things like paranoia, delusions
221
530260
2000
precum paranoia, maniile
08:52
and hallucinations,
222
532260
2000
și halucinațiile,
08:54
these are patternicities.
223
534260
2000
toate sunt tendințe de a vedea modele cu semnificație.
08:56
They're incorrect patterns. They're false positives. They're Type I errors.
224
536260
3000
Ele sunt modele incorecte. Sunt falsuri pozitive. Sunt erori de Tipul I.
08:59
And if you give them drugs
225
539260
2000
Dacă se administrează medicamente
09:01
that are dopamine antagonists,
226
541260
2000
impotriva nivelului dopaminei,
09:03
they go away.
227
543260
2000
ele vor dispărea.
09:05
That is, you decrease the amount of dopamine,
228
545260
2000
Scăzând cantitatea de dopamină,
09:07
and their tendency to see
229
547260
2000
și tendința lor de a vedea
09:09
patterns like that decreases.
230
549260
2000
modele de acel gen va scădea.
09:11
On the other hand, amphetamines like cocaine
231
551260
3000
Pe de altă parte, amfetaminele precum cocaina,
09:14
are dopamine agonists.
232
554260
2000
alimentează nivelul de dopamină.
09:16
They increase the amount of dopamine.
233
556260
2000
Ele cresc cantitatea de dopamină.
09:18
So you're more likely to feel in a euphoric state,
234
558260
3000
Este mult mai probabil să te simți într-o stare de euforie,
09:21
creativity, find more patterns.
235
561260
2000
să fii creativ și să găsești mai multe modele.
09:23
In fact, I saw Robin Williams recently
236
563260
2000
De fapt, l-am văzut de curând pe Robin Williams
09:25
talk about how he thought he was much funnier
237
565260
2000
vorbind despre cum se simțea mult mai amuzant
09:27
when he was doing cocaine, when he had that issue, than now.
238
567260
3000
când lua cocaină, atunci când a avut această problemă, decât acum.
09:30
So perhaps more dopamine
239
570260
2000
Deci, poate că un nivel mai mare de dopamină
09:32
is related to more creativity.
240
572260
2000
are legătură cu mai multă creativitate.
09:34
Dopamine, I think, changes
241
574260
2000
Cred că dopamina schimbă
09:36
our signal-to-noise ratio.
242
576260
2000
proporția în care reacționăm la perturbații.
09:38
That is, how accurate we are
243
578260
2000
Înseamnă cât de preciși suntem
09:40
in finding patterns.
244
580260
2000
în a găsi modele.
09:42
If it's too low, you're more likely to make too many Type II errors.
245
582260
3000
Dacă este prea scăzută, este mult mai probabil să faci prea multe erori de tipul II.
09:45
You miss the real patterns. You don't want to be too skeptical.
246
585260
2000
Îți scapă modelele reale. Nu vei vrea să fii nici prea sceptic.
09:47
If you're too skeptical, you'll miss the really interesting good ideas.
247
587260
3000
Dacă ești prea sceptic, vei pierde ideile bune, cu adevărat interesante.
09:51
Just right, you're creative, and yet you don't fall for too much baloney.
248
591260
3000
Dacă proporția este moderată, ești creativ dar, nu înghiți prea multe prostii.
09:54
Too high and maybe you see patterns everywhere.
249
594260
3000
Dacă este prea ridicată, vei vedea modele peste tot.
09:57
Every time somebody looks at you, you think people are staring at you.
250
597260
3000
De fiecare dată când cineva te privește, vei crede că se holbează la tine.
10:00
You think people are talking about you.
251
600260
2000
Crezi că oamenii vorbesc despre tine.
10:02
And if you go too far on that, that's just simply
252
602260
2000
Iar dacă exagerezi, atunci, pur și simplu,
10:04
labeled as madness.
253
604260
2000
se numește nebunie.
10:06
It's a distinction perhaps we might make
254
606260
2000
Am putea face totuși o distincție
10:08
between two Nobel laureates, Richard Feynman
255
608260
2000
între doi laureați Nobel, Richard Feynman
10:10
and John Nash.
256
610260
2000
și John Nash.
10:12
One sees maybe just the right number
257
612260
2000
Unul vede poate exact numărul potrivit
10:14
of patterns to win a Nobel Prize.
258
614260
2000
de modele pentru a câștiga premiul Nobel.
10:16
The other one also, but maybe too many patterns.
259
616260
2000
La fel și celălalt, dar vede poate prea multe modele.
10:18
And we then call that schizophrenia.
260
618260
3000
Și atunci îi spunem schizofrenie.
10:21
So the signal-to-noise ratio then presents us with a pattern-detection problem.
261
621260
3000
Gradul de reacție la perturbații prezintă o problemă de identificare a modelelor.
10:24
And of course you all know exactly
262
624260
2000
Și, bineînțeles că știți cu toții exact
10:26
what this is, right?
263
626260
2000
ce înseamnă asta, nu-i așa?
10:28
And what pattern do you see here?
264
628260
2000
Ce model vedeți aici?
10:30
Again, I'm putting your anterior cingulate cortex to the test here,
265
630260
3000
Din nou, vă testez cortexul cingulat anterior
10:33
causing you conflicting pattern detections.
266
633260
3000
care cauzează identificarea de modele contradictorii.
10:36
You know, of course, this is Via Uno shoes.
267
636260
2000
Desigur, știți că acesta este un pantof Via Uno.
10:38
These are sandals.
268
638260
3000
Acestea sunt sandale.
10:41
Pretty sexy feet, I must say.
269
641260
3000
Trebuie să recunosc că sunt niște picioare foarte sexy.
10:44
Maybe a little Photoshopped.
270
644260
2000
Poate puțin retușate în Photoshop.
10:46
And of course, the ambiguous figures
271
646260
2000
Și, desigur, imaginile ambigue
10:48
that seem to flip-flop back and forth.
272
648260
2000
care te fac să oscilezi într-una.
10:50
It turns out what you're thinking about a lot
273
650260
2000
Se dovedește că lucrurile la care te gândești intens
10:52
influences what you
274
652260
2000
influențează ceea ce
10:54
tend to see.
275
654260
2000
tinzi să vezi.
10:56
And you see the lamp here, I know.
276
656260
2000
Și sunt sigur că aici vedeți lampa.
10:58
Because the lights on here.
277
658260
3000
Pentru că lumina este aprinsă.
11:01
Of course, thanks to the environmentalist movement
278
661260
2000
Desigur, mulțumită mișcării ecologiste
11:03
we're all sensitive to the plight of marine mammals.
279
663260
3000
cu toții suntem sensibili la situația mamiferelor marine.
11:06
So what you see in this particular ambiguous figure
280
666260
3000
Astfel, ceea ce vedeși în această imagine ambiguă
11:09
is, of course, the dolphins, right?
281
669260
2000
desigur, sunt delfinii, nu-i așa?
11:11
You see a dolphin here,
282
671260
2000
Iată aici un delfin.
11:13
and there's a dolphin,
283
673260
2000
Și iată încă unul.
11:15
and there's a dolphin.
284
675260
2000
Și iată încă un delfin.
11:17
That's a dolphin tail there, guys.
285
677260
3000
Acolo e coada unui delfin, oameni buni.
11:20
(Laughter)
286
680260
3000
(Râsete)
11:25
If we can give you conflicting data, again,
287
685260
3000
Dacă vă putem da date contradictorii, din nou,
11:28
your ACC is going to be going into hyperdrive.
288
688260
3000
cortexul cingulat anterior (ACC) va intra într-o stare de hiperactivitate.
11:31
If you look down here, it's fine. If you look up here, then you get conflicting data.
289
691260
3000
Dacă priviți în partea de jos, e OK. Dacă priviți sus, primiți date contradictorii.
11:34
And then we have to flip the image
290
694260
2000
Și atunci va trebui să întoarcem imaginea
11:36
for you to see that it's a set up.
291
696260
2000
pentru a vedea că este o farsă.
11:40
The impossible crate illusion.
292
700260
2000
Iluzia lăzii imposibile.
11:42
It's easy to fool the brain in 2D.
293
702260
2000
Este ușor să păcălești creierul în 2D.
11:44
So you say, "Aw, come on Shermer, anybody can do that
294
704260
2000
Veți spune: "Haide, Shermer, oricine poate face asta
11:46
in a Psych 101 text with an illusion like that."
295
706260
2000
într-un text de psihologie generală cu o astfel de iluzie."
11:48
Well here's the late, great Jerry Andrus'
296
708260
2000
Ei bine, iată-l pe Jerry Andrus
11:50
"impossible crate" illusion in 3D,
297
710260
3000
și ultima sa mare iluzie 3D "a lăzii imposibile",
11:53
in which Jerry is standing inside
298
713260
2000
în care Jerry stă înăuntrul
11:55
the impossible crate.
299
715260
2000
lăzii imposibile.
11:57
And he was kind enough to post this
300
717260
2000
A fost foarte amabil să posteze această imagine
11:59
and give us the reveal.
301
719260
2000
și să ne ofere soluția.
12:01
Of course, camera angle is everything. The photographer is over there,
302
721260
3000
Bineînțeles, totul depinde de unghiul camerei. Fotograful se află acolo.
12:04
and this board appears to overlap with this one, and this one with that one, and so on.
303
724260
3000
Iar placa aceasta pare să se suprapună peste aceasta și tot așa mai departe.
12:07
But even when I take it away,
304
727260
2000
Dar, revenind la imaginea inițială,
12:09
the illusion is so powerful because of how are brains are wired
305
729260
2000
iluzia este atât de puternică din cauza felului în care creierele noastre
12:11
to find those certain kinds of patterns.
306
731260
3000
fac conexiunile pentru a găsi acele tipuri de modele pe care le caută.
12:14
This is a fairly new one
307
734260
2000
Această imagine este relativ nouă
12:16
that throws us off because of the conflicting patterns
308
736260
2000
și ne induce în eroare din cauza modelelor contradictorii
12:18
of comparing this angle with that angle.
309
738260
3000
care rezultă comparând cele două unghiuri.
12:21
In fact, it's the exact same picture side by side.
310
741260
3000
De fapt, este exact aceeași imagine alăturată.
12:24
So what you're doing is comparing that angle
311
744260
2000
Ceea ce faceți este să comparați
12:26
instead of with this one, but with that one.
312
746260
2000
unghiurile greșit.
12:28
And so your brain is fooled.
313
748260
2000
Și astfel, creierul este păcălit.
12:30
Yet again, your pattern detection devices are fooled.
314
750260
2000
Încă o dată, sistemul vostru de identiificare a modelelor este păcălit.
12:32
Faces are easy to see
315
752260
2000
Imaginile fețelor sunt ușor de observat
12:34
because we have an additional evolved
316
754260
2000
pentru că avem un software suplimentar și evoluat
12:36
facial recognition software
317
756260
2000
de recunoaștere a fețelor
12:38
in our temporal lobes.
318
758260
3000
în lobii noștri temporali.
12:41
Here's some faces on the side of a rock.
319
761260
3000
Iată niște fețe pe latura unei stâncii.
12:44
I'm actually not even sure if this is -- this might be Photoshopped.
320
764260
3000
De fapt, nici nu sunt sigur că așa este - imaginea ar putea fi retușată în Photoshop.
12:47
But anyway, the point is still made.
321
767260
2000
Dar, oricum, ați înțeles care este ideea.
12:49
Now which one of these looks odd to you?
322
769260
2000
Acum, care dintre aceste imagini vi se pare ciudată?
12:51
In a quick reaction, which one looks odd?
323
771260
2000
La prima vedere, care are arată ciudat?
12:53
The one on the left. Okay. So I'll rotate it
324
773260
2000
Cea din stânga. OK. O voi roti
12:55
so it'll be the one on the right.
325
775260
2000
și va deveni cea din dreapta.
12:57
And you are correct.
326
777260
2000
Și aveți dreptate.
12:59
A fairly famous illusion -- it was first done with Margaret Thatcher.
327
779260
3000
Este o iluzie relativ cunoscută -- prima dată a fost făcută cu Margaret Thatcher.
13:02
Now, they trade up the politicians every time.
328
782260
2000
Acum sunt folosite de politicieni tot timpul.
13:04
Well, why is this happening?
329
784260
2000
Ei bine, de ce se întâmplă așa?
13:06
Well, we know exactly where it happens,
330
786260
2000
Știm exact unde se întâmplă,
13:08
in the temporal lobe, right across, sort of above your ear there,
331
788260
3000
în lobul temporal, chiar deasupra urechii drepte.
13:11
in a little structure called the fusiform gyrus.
332
791260
3000
Este o structură mică numită gyrus fusiform.
13:14
And there's two types of cells that do this,
333
794260
2000
Există două tipuri de celule
13:16
that record facial features either globally,
334
796260
3000
care înregistrează fie trăsăturile generale ale feței
13:19
or specifically these large, rapid-firing cells,
335
799260
2000
fie pe cele specifice, iar aceste celule mari și rapide
13:21
first look at the general face.
336
801260
2000
întâi examinează trăsăturile generale ale feței.
13:23
So you recognize Obama immediately.
337
803260
2000
Astfel că îl recunoașteți pe Obama imediat.
13:25
And then you notice something quite
338
805260
2000
Apoi observați ceva
13:27
a little bit odd about the eyes and the mouth.
339
807260
2000
puțin ciudat la ochi și la gură.
13:29
Especially when they're upside down,
340
809260
2000
Mai ales când imaginea este întoarsă.
13:31
you're engaging that general facial recognition software there.
341
811260
3000
Folosiți acum acel software de recunoaștere generală a feței.
13:34
Now I said back in our little thought experiment,
342
814260
3000
Mai devreme spuneam în experimentul nostru mental
13:37
you're a hominid walking on the plains of Africa.
343
817260
2000
că sunteți un Hominid care umblă prin șesurile Africii.
13:39
Is it just the wind or a dangerous predator?
344
819260
3000
Să fie doar vântul sau un animal de pradă periculos?
13:42
What's the difference between those?
345
822260
2000
Care este diferența între ele?
13:44
Well, the wind is inanimate;
346
824260
2000
Ei bine, vântul este neînsuflețit;
13:46
the dangerous predator is an intentional agent.
347
826260
2000
animalul de pradă periculos este un factor cu intenție.
13:48
And I call this process agenticity.
348
828260
2000
Îi spun acestui proces "agenticity".
13:50
That is the tendency to infuse patterns
349
830260
2000
Înseamnă tendința de a insufla modele
13:52
with meaning, intention and agency,
350
832260
2000
cu semnificație, intenție și factor,
13:54
often invisible beings from the top down.
351
834260
3000
adesea fiind invizibile într-o abordare de la general la detaliu.
13:57
This is an idea that we got
352
837260
2000
Aceasta este o idee preluată
13:59
from a fellow TEDster here, Dan Dennett,
353
839260
2000
de la Dan Dennett, un alt prieten al comunității TED,
14:01
who talked about taking the intentional stance.
354
841260
2000
care a vorbit despre adoptarea atitudinii de intenție.
14:03
So it's a type of that expanded to explain, I think, a lot of different things:
355
843260
3000
Vorbim despre ceva similar care s-a extins la a explica multe lucruri diferite,
14:06
souls, spirits, ghosts, gods, demons, angels,
356
846260
3000
suflete, spirite, fantome, zei, demoni, îngeri,
14:09
aliens, intelligent designers,
357
849260
2000
extratereștri, proiectanți inteligenți,
14:11
government conspiracists
358
851260
2000
conspiraționiști guvernamentali
14:13
and all manner of invisible agents
359
853260
2000
și toate tipurile de factori invizibili
14:15
with power and intention, are believed
360
855260
2000
cu putere și intenție și despre care se crede
14:17
to haunt our world and control our lives.
361
857260
2000
că ne bântuie lumea și că ne controlează viețile.
14:19
I think it's the basis of animism
362
859260
2000
Cred că stă la baza animismului
14:21
and polytheism and monotheism.
363
861260
3000
și a politeismului și a monoteismului.
14:24
It's the belief that aliens are somehow
364
864260
2000
Este credința că extratereștrii sunt cumva
14:26
more advanced than us, more moral than us,
365
866260
2000
mai avansați decât noi, mai morali decât noi,
14:28
and the narratives always are
366
868260
2000
iar toate poveștirile spun
14:30
that they're coming here to save us and rescue us from on high.
367
870260
3000
că vin aici să ne salveze și să ne scape spre o existență superioară.
14:33
The intelligent designer's always portrayed
368
873260
2000
Proiectantul inteligent este întotdeauna ipostaziat
14:35
as this super intelligent, moral being
369
875260
3000
drept această ființă super-inteligentă și morală
14:38
that comes down to design life.
370
878260
2000
care coboară ca să proiecteze viața.
14:40
Even the idea that government can rescue us --
371
880260
2000
Până și ideea că guvernul ne poate salva.
14:42
that's no longer the wave of the future,
372
882260
2000
Nu mai are nicio legătură cu felul în care vedem viitorul.
14:44
but that is, I think, a type of agenticity:
373
884260
2000
Dar cred că este un tip de tendință de a insufla modele cu semnificație,
14:46
projecting somebody up there,
374
886260
2000
proiectarea faptului că cineva este deasupra lucrurilor,
14:48
big and powerful, will come rescue us.
375
888260
2000
că este imens și puternic și că va veni să ne salveze.
14:50
And this is also, I think, the basis of conspiracy theories.
376
890260
2000
Și, de asemenea, cred că stă la baza teoriilor conspirației.
14:52
There's somebody hiding behind there pulling the strings,
377
892260
3000
Există cineva care se ascunde pentru a trage sforile,
14:55
whether it's the Illuminati
378
895260
2000
fie că este vorba despre Illuminati
14:57
or the Bilderbergers.
379
897260
2000
sau de membrii grupului Bilderberg.
14:59
But this is a pattern detection problem, isn't it?
380
899260
2000
Dar nu-i așa că este o problemă de identificare a modelului?
15:01
Some patterns are real and some are not.
381
901260
2000
Unele modele sunt reale iar altele nu.
15:03
Was JFK assassinated by a conspiracy or by a lone assassin?
382
903260
3000
JFK a fost asasinat printr-o conspirație sau de un ucigaș singuratic?
15:06
Well, if you go there -- there's people there on any given day --
383
906260
3000
Ei bine, dacă mergeți la fața locului -- în orice zi sunt oameni acolo
15:09
like when I went there, here -- showing me where the different shooters were.
384
909260
3000
care îți arată unde erau diferiții lunetiști -- așa cum mi s-a întâmplat mie.
15:12
My favorite one was he was in the manhole.
385
912260
3000
Favorita mea este că ucigașul se află într-o gură de canal.
15:15
And he popped out at the last second, took that shot.
386
915260
3000
Și că a ieșit în ultimul moment și a tras.
15:18
But of course, Lincoln was assassinated by a conspiracy.
387
918260
2000
Dar, desigur, Lincoln a fost asasinat printr-o conspirație.
15:20
So we can't just uniformly dismiss
388
920260
2000
Astfel că nu putem pur și simplu anula
15:22
all patterns like that.
389
922260
2000
absolut toate modelele ca acesta.
15:24
Because, let's face it, some patterns are real.
390
924260
2000
Pentru că, haideți să recunoaștem, unele modele sunt reale.
15:26
Some conspiracies really are true.
391
926260
2000
Unele conspirații chiar sunt adevărate.
15:30
Explains a lot, maybe.
392
930260
2000
Poate că asta explică multe lucruri.
15:32
And 9/11 has a conspiracy theory. It is a conspiracy.
393
932260
3000
Și 9/11 are o teorie a conspirației. Este o conspirație.
15:35
We did a whole issue on it.
394
935260
2000
S-a creat o întreagă problemă din asta.
15:37
Nineteen members of Al Queda plotting to fly planes into buildings
395
937260
2000
19 membri ai Al Qaeda care au complotat să intre cu avioanele în clădiri
15:39
constitutes a conspiracy.
396
939260
2000
constituie o conspirație.
15:41
But that's not what the "9/11 truthers" think.
397
941260
2000
Dar "cei care spun adevărul despre 9/11" cred altceva.
15:43
They think it was an inside job by the Bush administration.
398
943260
3000
Ei cred că a fost o conspirație din interior gândită de administrația Bush.
15:46
Well, that's a whole other lecture.
399
946260
2000
Ei bine, asta e o cu totul altă discuție.
15:48
You know how we know that 9/11
400
948260
2000
Dar știți cum știm că 9/11
15:50
was not orchestrated by the Bush administration?
401
950260
2000
nu a fost orchestrată de administrația Bush?
15:52
Because it worked.
402
952260
2000
Pentru că a funcționat.
15:54
(Laughter)
403
954260
3000
(Râsete)
15:57
(Applause)
404
957260
3000
(Aplauze)
16:00
So we are natural-born dualists.
405
960260
2000
Deci, suntem dualiști înnăscuți.
16:02
Our agenticity process comes from
406
962260
2000
Procesul nostru prin care avem tendința să insuflăm modele vine
16:04
the fact that we can enjoy movies like these.
407
964260
2000
din faptul că ne pot plăcea filme ca acestea.
16:06
Because we can imagine, in essence,
408
966260
2000
Pentru că, în esență, ne putem imagina
16:08
continuing on.
409
968260
2000
cum continuă.
16:10
We know that if you stimulate the temporal lobe,
410
970260
2000
Știm că dacă se stimulează lobul temporal
16:12
you can produce a feeling of out-of-body experiences,
411
972260
2000
se poate produce un sentiment de experiențe extracorporale,
16:14
near-death experiences,
412
974260
2000
experiențe la limita morții,
16:16
which you can do by just touching an electrode to the temporal lobe there.
413
976260
3000
care pot fi induse prin simpla atingere a lobului temporal cu un electrod.
16:19
Or you can do it through loss of consciousness,
414
979260
2000
Sau pot fi induse prin pierderea cunoștinței,
16:21
by accelerating in a centrifuge.
415
981260
2000
accelerând într-o centrifugă.
16:23
You get a hypoxia, or a lower oxygen.
416
983260
3000
Faci hipoxie, sau scade concentrația de oxigen din sânge.
16:26
And the brain then senses
417
986260
2000
Și atunci creierul simte
16:28
that there's an out-of-body experience.
418
988260
2000
că trăiește o experiență extracorporală.
16:30
You can use -- which I did, went out and did --
419
990260
2000
Puteți folosi -- eu am făcut-o --
16:32
Michael Persinger's God Helmet,
420
992260
2000
Casca de Zeu a lui Michael Persinger,
16:34
that bombards your temporal lobes with electromagnetic waves.
421
994260
2000
care îți bombardează lobii temporali cu unde electromagnetice.
16:36
And you get a sense of out-of-body experience.
422
996260
3000
Și simți o experiență extracorporală.
16:39
So I'm going to end here with a short video clip
423
999260
2000
Voi încheia aici cu un scurt videoclip
16:41
that sort of brings all this together.
424
1001260
2000
care integrează tot ce am discutat.
16:43
It's just a minute and a half.
425
1003260
2000
Durează doar un minut și jumătate.
16:45
It ties together all this into the power of expectation and the power of belief.
426
1005260
3000
Leagă tot ce am discutat în conceptele de forță a așteptării și de forță a credinței.
16:48
Go ahead and roll it.
427
1008260
2000
Haideți, îi puteți da drumul.
16:50
Narrator: This is the venue they chose for their fake auditions
428
1010260
3000
Povestitorul: Aceasta este locația aleasă pentru a înscena audițiile
16:53
for an advert for lip balm.
429
1013260
2000
pentru o reclamă la un balsam de buze.
16:55
Woman: We're hoping we can use part of this
430
1015260
2000
Femeia: Sperăm să putem folosi o parte din această filmare
16:57
in a national commercial, right?
431
1017260
2000
într-o reclamă difuzată pe plan național, OK?
16:59
And this is test on some lip balms
432
1019260
2000
Vom testa niște balsamuri de buze
17:01
that we have over here.
433
1021260
2000
pe care le avem aici.
17:03
And these are our models who are going to help us,
434
1023260
2000
Ei sunt modelele noastre care ne vor ajuta,
17:05
Roger and Matt.
435
1025260
2000
Roger și Matt.
17:07
And we have our own lip balm,
436
1027260
2000
Avem propriul nostru balsam de buze,
17:09
and we have a leading brand.
437
1029260
2000
și avem și un brand de top.
17:11
Would you have any problem
438
1031260
2000
Te-ar deranja
17:13
kissing our models to test it?
439
1033260
2000
să săruți modelele noastre pentru a-l testa?
17:15
Girl: No.
440
1035260
2000
Fata: Nu.
17:17
Woman: You wouldn't? (Girl: No.) Woman: You'd think that was fine.
441
1037260
2000
Femeia: Nu te-ar deranja? (Fata: Nu) Femeia: Deci este in regulă.
17:19
Girl: That would be fine. (Woman: Okay.)
442
1039260
2000
Fata: Da, este în regulă. (Femeia: OK.)
17:21
So this is a blind test.
443
1041260
3000
Trebuie să fii legată la ochi.
17:24
I'm going to ask you to go ahead
444
1044260
2000
Te rog să mergi înainte
17:26
and put a blindfold on.
445
1046260
2000
și să-ți acoperi ochii.
17:29
Kay, now can you see anything? (Girl: No.)
446
1049260
3000
OK, poți vedea ceva? (Fata: Nu.)
17:32
Pull it so you can't even see down. (Girl: Okay.)
447
1052260
2000
Trage-o puțin să nu poți vedea nimic în jos. (Fata: În regulă.)
17:34
Woman: It's completely blind now, right?
448
1054260
2000
Femeia: Nu vezi absolut nimic acum, da?
17:36
Girl: Yes. (Woman: Okay.)
449
1056260
2000
Fata: Da. (Femeia: În regulă.)
17:38
Now, what I'm going to be looking for in this test
450
1058260
3000
Acum, ceea ce mă interesează la acest test
17:41
is how it protects your lips,
451
1061260
3000
este cum îți protejează balsamul buzele,
17:44
the texture, right,
452
1064260
2000
textura, în regulă,
17:46
and maybe if you can discern any flavor or not.
453
1066260
3000
și eventual dacă poți deosebi sau nu vreo aromă.
17:49
Girl: Okay. (Woman: Have you ever done a kissing test before?)
454
1069260
3000
Fata: OK. (Femeia: Ai mai făcut vreodată un test care să implice sărutul?)
17:52
Girl: No.
455
1072260
2000
Fata: Nu.
17:54
Woman: Take a step here.
456
1074260
2000
Femeia: Fă un pas în direcția asta.
17:56
Okay, now I'm going to ask you to pucker up.
457
1076260
2000
În regulă, acum pregătește-te.
17:58
Pucker up big and lean in just a little bit, okay?
458
1078260
3000
Pregătește-ți buzele bine și apleacă-te doar puțin, în regulă.
18:06
(Music)
459
1086260
4000
(Muzică)
18:10
(Laughter)
460
1090260
5000
(Râsete)
18:19
(Laughter)
461
1099260
3000
(Râsete)
18:30
Woman: Okay.
462
1110260
2000
OK.
18:32
And, Jennifer, how did that feel?
463
1112260
2000
Jennifer, cum te-ai simțit?
18:34
Jennifer: Good.
464
1114260
2000
Jennifer: A fost bine.
18:36
(Laughter)
465
1116260
7000
(Râsete)
18:43
Girl: Oh my God!
466
1123260
2000
Fata: Oh, doamne.
18:45
(Laughter)
467
1125260
4000
(Râsete)
18:50
Michael Shermer: Thank you very much. Thank you. Thanks.
468
1130260
3000
Michael Shermer: Vă mulțumesc foarte mult. Vă mulțumesc. Mulțumesc.
Despre acest site

Acest site vă va prezenta videoclipuri de pe YouTube care sunt utile pentru a învăța limba engleză. Veți vedea lecții de engleză predate de profesori de top din întreaga lume. Faceți dublu clic pe subtitrările în limba engleză afișate pe fiecare pagină video pentru a reda videoclipul de acolo. Subtitrările se derulează în sincron cu redarea videoclipului. Dacă aveți comentarii sau solicitări, vă rugăm să ne contactați folosind acest formular de contact.

https://forms.gle/WvT1wiN1qDtmnspy7