Peter Donnelly: How stats fool juries

239,895 views ・ 2007-01-12

TED


Vă rugăm să faceți dublu clic pe subtitrările în limba engleză de mai jos pentru a reda videoclipul.

Traducător: Ioana Popa Corector: Magda Marcu
00:25
As other speakers have said, it's a rather daunting experience --
0
25000
2000
Aşa cum au spus şi alţi vorbitori, este o experienţă destul de descurajatoare --
00:27
a particularly daunting experience -- to be speaking in front of this audience.
1
27000
3000
o experienţă extrem de descurajantă -- să vorbeşti în faţa acestei audienţe.
00:30
But unlike the other speakers, I'm not going to tell you about
2
30000
3000
Însă spre deosebire de ceilalţi vorbitori, nu vă voi spune despre
00:33
the mysteries of the universe, or the wonders of evolution,
3
33000
2000
misterele universului, sau despre minunile evoluţiei,
00:35
or the really clever, innovative ways people are attacking
4
35000
4000
sau despre modurile cu adevărat inteligente, inovative prin care oamenii atacă
00:39
the major inequalities in our world.
5
39000
2000
cele mai mari inegalităţi ale lumii noastre.
00:41
Or even the challenges of nation-states in the modern global economy.
6
41000
5000
Sau chiar provocările întâmpinate de naţiunile-stat în economia globală.
00:46
My brief, as you've just heard, is to tell you about statistics --
7
46000
4000
Scurta mea prezentare e, după cum aţi auzit, despre statistici --
00:50
and, to be more precise, to tell you some exciting things about statistics.
8
50000
3000
şi, ca să fiu mai explicit, despre câteva lucruri interesante privind statisticile.
00:53
And that's --
9
53000
1000
Iar asta e --
00:54
(Laughter)
10
54000
1000
(Râsete)
00:55
-- that's rather more challenging
11
55000
2000
-- asta e ceva mai provocatoare
00:57
than all the speakers before me and all the ones coming after me.
12
57000
2000
decât ale tuturor prezentatorilor dinainte și de după mine.
00:59
(Laughter)
13
59000
1000
(Râsete)
01:01
One of my senior colleagues told me, when I was a youngster in this profession,
14
61000
5000
Unul dintre colegii mei seniori mi-a spus, când eram un novice în această profesie,
01:06
rather proudly, that statisticians were people who liked figures
15
66000
4000
oarecum mândru, că statisticienii sunt oameni cărora le plac cifrele
01:10
but didn't have the personality skills to become accountants.
16
70000
3000
dar care nu au trăsăturile de personalitate potrivite pentru a ajunge contabili.
01:13
(Laughter)
17
73000
2000
(Râsete)
01:15
And there's another in-joke among statisticians, and that's,
18
75000
3000
Şi mai există o glumă printre statisticieni, iar aceasta sună aşa:
01:18
"How do you tell the introverted statistician from the extroverted statistician?"
19
78000
3000
"Cum deosebiți statisticianul introvert de statisticianul extrovert?"
01:21
To which the answer is,
20
81000
2000
Răspunsul este
01:23
"The extroverted statistician's the one who looks at the other person's shoes."
21
83000
5000
"Statisticianul extrovert este cel care se uită la pantofii altor persoane."
01:28
(Laughter)
22
88000
3000
(Râsete)
01:31
But I want to tell you something useful -- and here it is, so concentrate now.
23
91000
5000
Dar aş vrea să vă spun ceva util -- şi iată, acum concentraţi-vă.
01:36
This evening, there's a reception in the University's Museum of Natural History.
24
96000
3000
În această seară are loc o recepţie la Muzeul de Istorie Naturală al Universităţii.
01:39
And it's a wonderful setting, as I hope you'll find,
25
99000
2000
Şi este un cadru minunat, aşa cum sper să vi se pară şi vouă,
01:41
and a great icon to the best of the Victorian tradition.
26
101000
5000
şi o imagine excelentă a celor mai bune aspecte ale tradiţiei victoriene.
01:46
It's very unlikely -- in this special setting, and this collection of people --
27
106000
5000
Este foarte puţin probabil -- în acest cadru special, şi cu această colecţie de oameni --
01:51
but you might just find yourself talking to someone you'd rather wish that you weren't.
28
111000
3000
dar s-ar putea să ajungeţi să staţi de vorbă cu cineva cu care aţi prefera să nu o faceţi.
01:54
So here's what you do.
29
114000
2000
Aşa că iată cum procedaţi.
01:56
When they say to you, "What do you do?" -- you say, "I'm a statistician."
30
116000
4000
Când ei vă întreabă "Cu ce vă ocupați" - le răspundeți "Sunt statistician."
02:00
(Laughter)
31
120000
1000
(Râsete)
02:01
Well, except they've been pre-warned now, and they'll know you're making it up.
32
121000
4000
Bine, cu excepția situației în care ei vor fi fost anunțați înainte, și vor ști că mințiți.
02:05
And then one of two things will happen.
33
125000
2000
Apoi un lucru din două se va întâmpla.
02:07
They'll either discover their long-lost cousin in the other corner of the room
34
127000
2000
Fie își vor descoperi un văr îndepărtat în celălalt colț al încăperii
02:09
and run over and talk to them.
35
129000
2000
și vor merge imediat să vorbească cu el.
02:11
Or they'll suddenly become parched and/or hungry -- and often both --
36
131000
3000
Fie dintr-odată li se face foarte sete și/sau foame --și deseori amândouă --
02:14
and sprint off for a drink and some food.
37
134000
2000
și vor alerga pentru o băutură și ceva de mâncare.
02:16
And you'll be left in peace to talk to the person you really want to talk to.
38
136000
4000
Iar voi veți fi lăsați în pace să vorbiți cu acea persoană cu care vreți să vorbiți într-adevărat.
02:20
It's one of the challenges in our profession to try and explain what we do.
39
140000
3000
Este una din provocările profesiei noastre să încercăm să explicăm ce facem.
02:23
We're not top on people's lists for dinner party guests and conversations and so on.
40
143000
5000
Nu ne aflăm în fruntea listelor cu invitați la petreceri și conversații și altele.
02:28
And it's something I've never really found a good way of doing.
41
148000
2000
Iar asta e ceva ce niciodată n-am știut cum să fac.
02:30
But my wife -- who was then my girlfriend --
42
150000
3000
Însă soția mea -- pe vremea aceea prietena mea --
02:33
managed it much better than I've ever been able to.
43
153000
3000
s-a descurcat mult mai bine decât am reușit eu vreodată.
02:36
Many years ago, when we first started going out, she was working for the BBC in Britain,
44
156000
3000
Cu mulți ani în urmă, când am început să ieșim împreună, ea lucra la BBC în Marea Britanie,
02:39
and I was, at that stage, working in America.
45
159000
2000
iar eu, la vremea aceea, lucram în America.
02:41
I was coming back to visit her.
46
161000
2000
Mă întorceam să o vizitez.
02:43
She told this to one of her colleagues, who said, "Well, what does your boyfriend do?"
47
163000
6000
Ea a spus acest lucru colegilor ei, care au întrebat-o "Ei bine, cu ce se ocupă prietenul tău?"
02:49
Sarah thought quite hard about the things I'd explained --
48
169000
2000
Sarah s-a gândit destul de mult la lucrurile pe care le explicasem eu --
02:51
and she concentrated, in those days, on listening.
49
171000
4000
și s-a concentrat, în acele zile, pe ascultare.
02:55
(Laughter)
50
175000
2000
(Râsete)
02:58
Don't tell her I said that.
51
178000
2000
Nu îi spuneți că am zis asta.
03:00
And she was thinking about the work I did developing mathematical models
52
180000
4000
Iar ea se gândea la munca pe care o depusesem în dezvoltarea modelelor matematice
03:04
for understanding evolution and modern genetics.
53
184000
3000
pentru înțelegerea evoluției și geneticii moderne.
03:07
So when her colleague said, "What does he do?"
54
187000
3000
Deci când a întrebat-o colega sa "Cu ce se ocupă el?"
03:10
She paused and said, "He models things."
55
190000
4000
Ea a făcut o pauză şi a spus "Modelează lucruri."
03:14
(Laughter)
56
194000
1000
(Râsete)
03:15
Well, her colleague suddenly got much more interested than I had any right to expect
57
195000
4000
Ei bine, colega ei a devenit dintr-odată mult mai interesată decât aveam eu dreptul să mă aştept
03:19
and went on and said, "What does he model?"
58
199000
3000
şi a întrebat în continuare "Ce modelează?"
03:22
Well, Sarah thought a little bit more about my work and said, "Genes."
59
202000
3000
Ei bine, Sarah s-a gândit un pic mai mult la munca mea şi a răspuns "Gene."
03:25
(Laughter)
60
205000
4000
(Râsete)
03:29
"He models genes."
61
209000
2000
"Modelează gene."
03:31
That is my first love, and that's what I'll tell you a little bit about.
62
211000
4000
Aceasta e prima mea iubire și vă voi povesti puțin despre ea.
03:35
What I want to do more generally is to get you thinking about
63
215000
4000
Ceea ce vreau în general este să vă fac să vă gândiți la
03:39
the place of uncertainty and randomness and chance in our world,
64
219000
3000
locul incertitudinii, aleatoriului și șansei în lumea noastră,
03:42
and how we react to that, and how well we do or don't think about it.
65
222000
5000
și la cum reacționăm noi față de acestea și cât de bine gândim sau nu despre asta.
03:47
So you've had a pretty easy time up till now --
66
227000
2000
Așadar ați avut o perioadă destul de lejeră până acum --
03:49
a few laughs, and all that kind of thing -- in the talks to date.
67
229000
2000
câteva râsete, și lucruri de genul ăsta -- în prelegerile de până acum.
03:51
You've got to think, and I'm going to ask you some questions.
68
231000
3000
Ați ajuns să vă gândiți, iar eu vă voi pune niște întrebări.
03:54
So here's the scene for the first question I'm going to ask you.
69
234000
2000
Așadar iată prima scenă pentru prima întrebare pe care vă voi adresa-o.
03:56
Can you imagine tossing a coin successively?
70
236000
3000
Vă puteți imagina aruncând o monedă în mod succesiv?
03:59
And for some reason -- which shall remain rather vague --
71
239000
3000
Iar dintr-un anumit motiv -- care va rămâne destul de vag --
04:02
we're interested in a particular pattern.
72
242000
2000
ne interesează un anumit model.
04:04
Here's one -- a head, followed by a tail, followed by a tail.
73
244000
3000
Iată unul -- un cap, urmat de o pajură, urmat de o pajură
04:07
So suppose we toss a coin repeatedly.
74
247000
3000
Să presupunem că aruncăm o monedă în mod repetat.
04:10
Then the pattern, head-tail-tail, that we've suddenly become fixated with happens here.
75
250000
5000
Modelul, cap-pajură-pajură, de care am devenit dintr-odată obsedați, are loc aici.
04:15
And you can count: one, two, three, four, five, six, seven, eight, nine, 10 --
76
255000
4000
Și puteți număra: unu, doi, trei, patru, cinci, șase, șapte, opt, nouă, 10 --
04:19
it happens after the 10th toss.
77
259000
2000
se întâmplă după cea de-a 10-a aruncare.
04:21
So you might think there are more interesting things to do, but humor me for the moment.
78
261000
3000
S-ar putea să vă gândiți că sunt lucruri mult mai interesante de făcut, dar faceți-mi pe plac pentru moment.
04:24
Imagine this half of the audience each get out coins, and they toss them
79
264000
4000
Imaginați-vă că jumătatea asta din audiență scoate fiecare câte o momedă și le aruncă
04:28
until they first see the pattern head-tail-tail.
80
268000
3000
până când văd prima dată cap-pajură-pajură.
04:31
The first time they do it, maybe it happens after the 10th toss, as here.
81
271000
2000
Prima dată când le iese, poate se întâmplă după a 10-a aruncare, ca aici.
04:33
The second time, maybe it's after the fourth toss.
82
273000
2000
A doua oară, poate este după a patra aruncare.
04:35
The next time, after the 15th toss.
83
275000
2000
Data următoare, după cea de-a 15-a aruncare.
04:37
So you do that lots and lots of times, and you average those numbers.
84
277000
3000
Deci faceți acest lucru de foarte multe ori, și faceți media acelor numere.
04:40
That's what I want this side to think about.
85
280000
3000
La asta aș vrea să vă gândiți cei din partea asta.
04:43
The other half of the audience doesn't like head-tail-tail --
86
283000
2000
Celeilalte jumătăți de audiență nu îi place cap-pajură-pajură --
04:45
they think, for deep cultural reasons, that's boring --
87
285000
3000
ei cred că, din motive culturale profunde, că e plictisitor --
04:48
and they're much more interested in a different pattern -- head-tail-head.
88
288000
3000
și îi interesează mult mai mult un model diferit -- cap-pajură-cap.
04:51
So, on this side, you get out your coins, and you toss and toss and toss.
89
291000
3000
Deci, pe partea aceasta, vă scoateți monedele și le aruncați de mai multe ori.
04:54
And you count the number of times until the pattern head-tail-head appears
90
294000
3000
Și numărați de căte ori le aruncați până când apare patternul cap-pajură-cap
04:57
and you average them. OK?
91
297000
3000
și faceți o medie. Bine?
05:00
So on this side, you've got a number --
92
300000
2000
Deci în partea aceasta, ați obținut un număr --
05:02
you've done it lots of times, so you get it accurately --
93
302000
2000
ați făcut-o de multe ori, deci îl obțineți pe cel corect --
05:04
which is the average number of tosses until head-tail-tail.
94
304000
3000
care reprezintă numărul mediu al aruncărilor până obțineți cap-pajură-pajură.
05:07
On this side, you've got a number -- the average number of tosses until head-tail-head.
95
307000
4000
În partea asta, ați obținut un număr -- media numerelor aruncărilor până obțineți cap-pajură-cap.
05:11
So here's a deep mathematical fact --
96
311000
2000
Deci iată o realitate matematică profundă --
05:13
if you've got two numbers, one of three things must be true.
97
313000
3000
dacă aveți două numere, unul din trei lucruri trebuie să fie adevărat.
05:16
Either they're the same, or this one's bigger than this one,
98
316000
3000
Fie sunt la fel, fie ăsta e mai mare decât ăsta,
05:19
or this one's bigger than that one.
99
319000
1000
fie ăsta e mai mare decât ăsta.
05:20
So what's going on here?
100
320000
3000
Deci ce se petrece aici?
05:23
So you've all got to think about this, and you've all got to vote --
101
323000
2000
Cu toții trebuie să vă gândiți la acest lucru, și toți trebuie să votați --
05:25
and we're not moving on.
102
325000
1000
și nu mergem mai departe.
05:26
And I don't want to end up in the two-minute silence
103
326000
2000
Și nu vreau să se transforme în liniștea de două minute
05:28
to give you more time to think about it, until everyone's expressed a view. OK.
104
328000
4000
pentru a vă acorda mai mult timp de gândire, până când toată lumea și-a exprimat o opinie. În regulă.
05:32
So what you want to do is compare the average number of tosses until we first see
105
332000
4000
Deci ce vreți să faceți este să comparați numărul mediu de aruncări până când vedem prima dată
05:36
head-tail-head with the average number of tosses until we first see head-tail-tail.
106
336000
4000
cap-pajură-cap cu numărul mediu de aruncări până vedem prima dată cap-pajură-pajură.
05:41
Who thinks that A is true --
107
341000
2000
Cine crede că A este adevărat --
05:43
that, on average, it'll take longer to see head-tail-head than head-tail-tail?
108
343000
4000
că, în medie, va dura mai mult până vom vedea cap-pajură-cap decât cap-pajură-pajură?
05:47
Who thinks that B is true -- that on average, they're the same?
109
347000
3000
Cine crede că B este adevărat -- că în medie, ele sunt la fel?
05:51
Who thinks that C is true -- that, on average, it'll take less time
110
351000
2000
Cine crede că C este adevărat -- că, în medie, durează mai puțin
05:53
to see head-tail-head than head-tail-tail?
111
353000
3000
pentru a vedea cap-pajură-cap decât cap-pajură-pajură?
05:57
OK, who hasn't voted yet? Because that's really naughty -- I said you had to.
112
357000
3000
În regulă, cine nu a votat încă? Pentru că e cu adevărat neascultător -- am spus că trebuie să votați.
06:00
(Laughter)
113
360000
1000
(Râsete)
06:02
OK. So most people think B is true.
114
362000
3000
Bine. Așadar majoritatea oamenilor cred că B este adevărat.
06:05
And you might be relieved to know even rather distinguished mathematicians think that.
115
365000
3000
Și s-ar păutea să vă simțiți ușurați să aflați că inclusiv matematicieni destul de distinși cred asta.
06:08
It's not. A is true here.
116
368000
4000
Nu este adevărat. Aici A este adevărat.
06:12
It takes longer, on average.
117
372000
2000
În medie, durează mai mult timp.
06:14
In fact, the average number of tosses till head-tail-head is 10
118
374000
2000
De fapt, numărul mediu de aruncări până obținem cap-pajură-cap este 10
06:16
and the average number of tosses until head-tail-tail is eight.
119
376000
5000
și numărul mediu de aruncări până obținem cap-pajură-pajură este opt.
06:21
How could that be?
120
381000
2000
Cum se poate acest lucru?
06:24
Anything different about the two patterns?
121
384000
3000
Există ceva diferit la cele două modele?
06:30
There is. Head-tail-head overlaps itself.
122
390000
5000
Există. Cap-pajură-cap se suprapune.
06:35
If you went head-tail-head-tail-head, you can cunningly get two occurrences
123
395000
4000
Dacă ați obținut cap-pajură-cap-pajură-cap, puteți obține cu viclenie două apariții
06:39
of the pattern in only five tosses.
124
399000
3000
ale modelului numai din cinci aruncări.
06:42
You can't do that with head-tail-tail.
125
402000
2000
Nu puteți face asta cu cap-pajură-pajură.
06:44
That turns out to be important.
126
404000
2000
Asta se dovedește a fi important.
06:46
There are two ways of thinking about this.
127
406000
2000
Există două modalități de a te uita la asta.
06:48
I'll give you one of them.
128
408000
2000
Vă voi da una dintre ele.
06:50
So imagine -- let's suppose we're doing it.
129
410000
2000
Așadar imaginați-vă -- să presupunem că facem asta.
06:52
On this side -- remember, you're excited about head-tail-tail;
130
412000
2000
În partea asta -- țineți minte, sunteți entuziasmați de cap-pajură-pajură,
06:54
you're excited about head-tail-head.
131
414000
2000
aici sunteți entuziasmați de cap-pajură-pajură.
06:56
We start tossing a coin, and we get a head --
132
416000
3000
Începem să aruncăm o monedă, și obținem cap --
06:59
and you start sitting on the edge of your seat
133
419000
1000
iar voi vă mutați pe marginea scaunului
07:00
because something great and wonderful, or awesome, might be about to happen.
134
420000
5000
deoarece ceva extraordinar și minunat, sau excepțional, ar putea fi pe cale să se întâmple.
07:05
The next toss is a tail -- you get really excited.
135
425000
2000
Rezultatul următoarei aruncări este pajură - vă entuziasmați foarte mult.
07:07
The champagne's on ice just next to you; you've got the glasses chilled to celebrate.
136
427000
4000
Șampania este la gheață chiar lângă voi, ați pregătit paharele reci pentru a sărbători.
07:11
You're waiting with bated breath for the final toss.
137
431000
2000
Așteptați cu respirația tăiată ultima aruncare.
07:13
And if it comes down a head, that's great.
138
433000
2000
Iar dacă ea arată cap, este nemaipomenit.
07:15
You're done, and you celebrate.
139
435000
2000
Ați terminat, și puteți sărbători.
07:17
If it's a tail -- well, rather disappointedly, you put the glasses away
140
437000
2000
Dacă este pajură -- ei bine, oarecum dezamăgiți, vă scoateți ochelarii
07:19
and put the champagne back.
141
439000
2000
și puneți șampania la loc.
07:21
And you keep tossing, to wait for the next head, to get excited.
142
441000
3000
Și continuați să aruncați moneda, să așteptați până cade din nou cap, să vă entuziasmați.
07:25
On this side, there's a different experience.
143
445000
2000
În partea aceasta are loc o experiență diferită.
07:27
It's the same for the first two parts of the sequence.
144
447000
3000
Este la fel pentru primele două părți ale succesiunii.
07:30
You're a little bit excited with the first head --
145
450000
2000
Sunteți puțin entuziasmați de primul cap --
07:32
you get rather more excited with the next tail.
146
452000
2000
deveniți ceva mai entuziasmați odată cu următoarea pajură.
07:34
Then you toss the coin.
147
454000
2000
Apoi aruncați moneda.
07:36
If it's a tail, you crack open the champagne.
148
456000
3000
Dacă este pajură, desfaceți șampania.
07:39
If it's a head you're disappointed,
149
459000
2000
Dacă este cap sunteți dezamăgiți,
07:41
but you're still a third of the way to your pattern again.
150
461000
3000
dar din nou încă vă aflați la o treime din drumul către modelul vostru.
07:44
And that's an informal way of presenting it -- that's why there's a difference.
151
464000
4000
Iar acesta este un mod informal de a-l prezenta -- de aceea există o diferență.
07:48
Another way of thinking about it --
152
468000
2000
Un alt mod de a vă gândi la el --
07:50
if we tossed a coin eight million times,
153
470000
2000
dacă am aruncat deja moneda de un milion de ori,
07:52
then we'd expect a million head-tail-heads
154
472000
2000
atunci ne-am aștepta la un milion de cap-pajură-capete
07:54
and a million head-tail-tails -- but the head-tail-heads could occur in clumps.
155
474000
7000
și un milion de cap-pajuri-pajuri -- însă cap-pajură-capete ar putea apărea în grupuri.
08:01
So if you want to put a million things down amongst eight million positions
156
481000
2000
Deci dacă vreți să așezați un milion de lucruri pe opt milioane de poziții
08:03
and you can have some of them overlapping, the clumps will be further apart.
157
483000
5000
iar unele dintre ele se pot suprapune, grupurile vor fi mai îndepărtate.
08:08
It's another way of getting the intuition.
158
488000
2000
E un alt mod de a obține intuiția.
08:10
What's the point I want to make?
159
490000
2000
Ce vreau să subliniez de fapt?
08:12
It's a very, very simple example, an easily stated question in probability,
160
492000
4000
Este un exemplu foarte, foarte simplu, o întrebare formulată cu ușurință în probabilitate,
08:16
which every -- you're in good company -- everybody gets wrong.
161
496000
3000
pe care toată - sunteți într-o companie bună - toată lumea o înțelege greșit.
08:19
This is my little diversion into my real passion, which is genetics.
162
499000
4000
Aceasta este mica mea diversiune către pasiunea reală, care este genetica.
08:23
There's a connection between head-tail-heads and head-tail-tails in genetics,
163
503000
3000
Există o legătură între cap-pajură-capete și cap-pajură-pajuri în genetică,
08:26
and it's the following.
164
506000
3000
aceasta fiind următoarea.
08:29
When you toss a coin, you get a sequence of heads and tails.
165
509000
3000
Când aruncați o monedă, obțineți o succesiune de capete și pajuri.
08:32
When you look at DNA, there's a sequence of not two things -- heads and tails --
166
512000
3000
Când vă uitați la ADN, există o secvență nu de două lucruri -- capete și pajuri --
08:35
but four letters -- As, Gs, Cs and Ts.
167
515000
3000
ci de patru litere -- A, G, C și T.
08:38
And there are little chemical scissors, called restriction enzymes
168
518000
3000
Și există mici foarfece chimice, numite enzime de restricție
08:41
which cut DNA whenever they see particular patterns.
169
521000
2000
care taie ADN-ul oricând văd un anumit model.
08:43
And they're an enormously useful tool in modern molecular biology.
170
523000
4000
Iar ele sunt o unealtă extrem de utilă în biologia moleculară modernă.
08:48
And instead of asking the question, "How long until I see a head-tail-head?" --
171
528000
3000
Și în locul întrebării "Cât mai durează până când voi vedea cap-pajură-cap?" --
08:51
you can ask, "How big will the chunks be when I use a restriction enzyme
172
531000
3000
vă puteți întreba "Cât de mari vor fi bucățile când folosesc o enzimă de restricție
08:54
which cuts whenever it sees G-A-A-G, for example?
173
534000
4000
care taie de fiecare dată când vede, spre exemplu, G-A-A-G?
08:58
How long will those chunks be?"
174
538000
2000
Cât de lungi vor fi acele bucăți?"
09:00
That's a rather trivial connection between probability and genetics.
175
540000
5000
Aceasta este o legătură oarecum trivială între probabilitate și genetică.
09:05
There's a much deeper connection, which I don't have time to go into
176
545000
3000
Există o legătură mult mai profundă, despre care nu am timp acum să vorbesc
09:08
and that is that modern genetics is a really exciting area of science.
177
548000
3000
și anume că genetica e un domeniu științific foarte interesant.
09:11
And we'll hear some talks later in the conference specifically about that.
178
551000
4000
Vom auzi câteva discursuri mai târziu în conferința dedicată în mod special acestui lucru.
09:15
But it turns out that unlocking the secrets in the information generated by modern
179
555000
4000
Însă reiese că deblocarea secretelor din informația generată de tehnologii
09:19
experimental technologies, a key part of that has to do with fairly sophisticated --
180
559000
5000
experimentale moderne, o parte esențială a acesteia are de-a face cu foarte sofisticata --
09:24
you'll be relieved to know that I do something useful in my day job,
181
564000
3000
veți fi ușurați să aflați că fac ceva util la serviciul meu zilnic,
09:27
rather more sophisticated than the head-tail-head story --
182
567000
2000
ceva mai sofisticat decât povestea despre cap-pajură-cap --
09:29
but quite sophisticated computer modelings and mathematical modelings
183
569000
4000
dar destul de sofisticatele modelări computerizate și modelări matematice
09:33
and modern statistical techniques.
184
573000
2000
și tehnici statistice moderne.
09:35
And I will give you two little snippets -- two examples --
185
575000
3000
Și vă voi prezenta două fragmente -- două exemple --
09:38
of projects we're involved in in my group in Oxford,
186
578000
3000
de proiecte în care suntem implicați în grupul meu din Oxford,
09:41
both of which I think are rather exciting.
187
581000
2000
și cred că amândouă sunt destul de interesante.
09:43
You know about the Human Genome Project.
188
583000
2000
Știți despre Proiectul Genomul Uman.
09:45
That was a project which aimed to read one copy of the human genome.
189
585000
4000
Acela a fost un proiect care țintea spre citirea unei copii a genomului uman.
09:51
The natural thing to do after you've done that --
190
591000
2000
Lucrul pe care ar trebui în mod natural să îl faceți după ce ați terminat cu asta --
09:53
and that's what this project, the International HapMap Project,
191
593000
2000
și la asta se referă acest proiect, Proiectul Internațional HapMap,
09:55
which is a collaboration between labs in five or six different countries.
192
595000
5000
reprezentând o colaborare între laboratoare din cinci sau șase țări diferite.
10:00
Think of the Human Genome Project as learning what we've got in common,
193
600000
4000
Gândiți-vă la Proiectul Genomului uman în care aflați despre ce aveți în comun,
10:04
and the HapMap Project is trying to understand
194
604000
2000
iar Proiectul HapMap încearcă să deslușească
10:06
where there are differences between different people.
195
606000
2000
unde există diferențe între diferiți oameni.
10:08
Why do we care about that?
196
608000
2000
De ce ne interesază asta?
10:10
Well, there are lots of reasons.
197
610000
2000
Ei bine, sunt o mulțime de motive.
10:12
The most pressing one is that we want to understand how some differences
198
612000
4000
Cel mai presant dintre toate este acela că vrem să înțelegem modul în care anumite diferențe
10:16
make some people susceptible to one disease -- type-2 diabetes, for example --
199
616000
4000
fac anumite persoane să fie predispuse la o boală -- diabet tip 2, de exemplu --
10:20
and other differences make people more susceptible to heart disease,
200
620000
5000
iar alte diferențe fac oamenii mult mai predispuși la boli de inima
10:25
or stroke, or autism and so on.
201
625000
2000
sau infarct sau autism și așa mai departe.
10:27
That's one big project.
202
627000
2000
Acesta este un proiect mare.
10:29
There's a second big project,
203
629000
2000
Există un al doilea mare proiect,
10:31
recently funded by the Wellcome Trust in this country,
204
631000
2000
finanțat de curând de Wellcome Trust din această țară,
10:33
involving very large studies --
205
633000
2000
implicând studii foarte mari --
10:35
thousands of individuals, with each of eight different diseases,
206
635000
3000
mii de indivizi, fiecare cu o boală din opt diferite,
10:38
common diseases like type-1 and type-2 diabetes, and coronary heart disease,
207
638000
4000
boli obișnuite precum diabet tip-1 si tip-2, și boli de inimiă coronariene,
10:42
bipolar disease and so on -- to try and understand the genetics.
208
642000
4000
boli bipolare și așa mai departe -- pentru a încerca să înțelegem genetica.
10:46
To try and understand what it is about genetic differences that causes the diseases.
209
646000
3000
Pentru a încerca să înțelegem ce anume din diferențele genetice cauzează boli.
10:49
Why do we want to do that?
210
649000
2000
De ce vrem să facem asta?
10:51
Because we understand very little about most human diseases.
211
651000
3000
Deoarece înțelegem foarte puțin despre majoritatea bolilor umane.
10:54
We don't know what causes them.
212
654000
2000
Nu știm ce le cauzează.
10:56
And if we can get in at the bottom and understand the genetics,
213
656000
2000
Și dacă putem intra în profunzime și înțelege genetica,
10:58
we'll have a window on the way the disease works,
214
658000
3000
vom avea o fereastră spre modul în care funcționează bolile.
11:01
and a whole new way about thinking about disease therapies
215
661000
2000
Și un mod cu totul nou despre cum să ne gândim la terapiile pentru boli
11:03
and preventative treatment and so on.
216
663000
3000
și tratamente preventive si așa mai departe.
11:06
So that's, as I said, the little diversion on my main love.
217
666000
3000
Deci aceasta este, după cum am spus, mica diversiune către principala mea dragoste.
11:09
Back to some of the more mundane issues of thinking about uncertainty.
218
669000
5000
Să ne întoarcem la niște chestiuni ceva mai terestre legate de gândirea despre incertitudine.
11:14
Here's another quiz for you --
219
674000
2000
Iată un alt chestionar pentru voi --
11:16
now suppose we've got a test for a disease
220
676000
2000
imaginați-vă că ați făcut un test pentru o boală
11:18
which isn't infallible, but it's pretty good.
221
678000
2000
care nu e infailibil, dar e destul de aproape.
11:20
It gets it right 99 percent of the time.
222
680000
3000
Iese corect în 99 la sută din cazuri.
11:23
And I take one of you, or I take someone off the street,
223
683000
3000
Și iau pe cineva din rândul vostru sau iau pe cineva de pe stradă,
11:26
and I test them for the disease in question.
224
686000
2000
și îi testez pentru boala în cauză.
11:28
Let's suppose there's a test for HIV -- the virus that causes AIDS --
225
688000
4000
Să presupunem că este un test pentru HIV -- virusul care cauzează SIDA --
11:32
and the test says the person has the disease.
226
692000
3000
iar testul spune că persoana are o boală.
11:35
What's the chance that they do?
227
695000
3000
Care este șansa ca ei să o aibă?
11:38
The test gets it right 99 percent of the time.
228
698000
2000
Testul iese corect 99 la sută din timp.
11:40
So a natural answer is 99 percent.
229
700000
4000
Deci un răspuns natural este 99 la sută.
11:44
Who likes that answer?
230
704000
2000
Cui îi place acest răspuns?
11:46
Come on -- everyone's got to get involved.
231
706000
1000
Haideți -- toată lumea trebuie să se implice.
11:47
Don't think you don't trust me anymore.
232
707000
2000
Nu cred că nu mai aveți încredere în mine.
11:49
(Laughter)
233
709000
1000
(Râsete)
11:50
Well, you're right to be a bit skeptical, because that's not the answer.
234
710000
3000
Ei bine, aveți dreptate să fiți un pic sceptici pentru că nu acesta este răspunsul.
11:53
That's what you might think.
235
713000
2000
S-ar putea să gândiți asta.
11:55
It's not the answer, and it's not because it's only part of the story.
236
715000
3000
Nu e răspunsul, și nu doar pentru că e parte din poveste.
11:58
It actually depends on how common or how rare the disease is.
237
718000
3000
Depinde de fapt de cât de comună sau de rară e boala.
12:01
So let me try and illustrate that.
238
721000
2000
Dați-mi voie să ilustrez acest lucru.
12:03
Here's a little caricature of a million individuals.
239
723000
4000
Iată o mică caricatură ce reprezintă un milion de indivizi.
12:07
So let's think about a disease that affects --
240
727000
3000
Să ne găndim deci la o boală care afectează --
12:10
it's pretty rare, it affects one person in 10,000.
241
730000
2000
este destul de rară, afectează o persoană din 10,000.
12:12
Amongst these million individuals, most of them are healthy
242
732000
3000
Din aceste milioane de oameni, majoritatea sunt sănătoși
12:15
and some of them will have the disease.
243
735000
2000
iar unii dintre ei vor avea boala.
12:17
And in fact, if this is the prevalence of the disease,
244
737000
3000
Și de fapt, dacă asta reprezintă răspândirea bolii,
12:20
about 100 will have the disease and the rest won't.
245
740000
3000
aproximativ 100 vor avea boala, iar restul nu.
12:23
So now suppose we test them all.
246
743000
2000
Deci să presupunem acum că îi testați pe toți.
12:25
What happens?
247
745000
2000
Ce se întâmplă?
12:27
Well, amongst the 100 who do have the disease,
248
747000
2000
Ei bine, printre cei 100 care au această boală,
12:29
the test will get it right 99 percent of the time, and 99 will test positive.
249
749000
5000
testul va ieși corect in 99 la sută din cazuri, iar 99 vor ieși pozitivi.
12:34
Amongst all these other people who don't have the disease,
250
754000
2000
Printre toți ceilalți oameni care nu au boala,
12:36
the test will get it right 99 percent of the time.
251
756000
3000
testul va ieși corect 99 la sută din timp.
12:39
It'll only get it wrong one percent of the time.
252
759000
2000
Va ieși greșit numai unu la sută din timp.
12:41
But there are so many of them that there'll be an enormous number of false positives.
253
761000
4000
Însă sunt atât de mulți că va fi un număr enorm de rezultate pozitive eronate.
12:45
Put that another way --
254
765000
2000
Gândiți-vă astfel --
12:47
of all of them who test positive -- so here they are, the individuals involved --
255
767000
5000
dintre toți cei care au rezultat pozitiv -- iată-i aici, indivizi implicați --
12:52
less than one in 100 actually have the disease.
256
772000
5000
mai puțin de unu din 100 au într-adevăr această boală.
12:57
So even though we think the test is accurate, the important part of the story is
257
777000
4000
Deci deși credem că testul e corect, partea importantă a poveștii e
13:01
there's another bit of information we need.
258
781000
3000
aceea că există o altă bucată de informație de care avem nevoie.
13:04
Here's the key intuition.
259
784000
2000
Iată intuiția cheie.
13:07
What we have to do, once we know the test is positive,
260
787000
3000
Ceea ce trebuie să facem, odată ce știm că testul este pozitiv
13:10
is to weigh up the plausibility, or the likelihood, of two competing explanations.
261
790000
6000
este să cântărim plauzibilitatea sau probabilitatea a două explicații concurente.
13:16
Each of those explanations has a likely bit and an unlikely bit.
262
796000
3000
Fiecare din aceste explicații are o parte probabilă și una improbabilă.
13:19
One explanation is that the person doesn't have the disease --
263
799000
3000
O explicație e aceea că persoana nu are boala --
13:22
that's overwhelmingly likely, if you pick someone at random --
264
802000
3000
aceste lucru este copleșitor de probabil, dacă alegi o persoană aleatoriu --
13:25
but the test gets it wrong, which is unlikely.
265
805000
3000
însă testul iese greșit, ceea ce este puțin probabil.
13:29
The other explanation is that the person does have the disease -- that's unlikely --
266
809000
3000
Cealaltă explicație e că persoana are boala -- asta e puțin probabli --
13:32
but the test gets it right, which is likely.
267
812000
3000
dar testul iese pozitiv, ceea ce e posibil.
13:35
And the number we end up with --
268
815000
2000
Iar numărul pe care îl avem la final --
13:37
that number which is a little bit less than one in 100 --
269
817000
3000
acel număr care e un pic mai mic decât unu din 100 --
13:40
is to do with how likely one of those explanations is relative to the other.
270
820000
6000
are legătură cu cât de probabilă e una din aceste explicații relativ la cealaltă.
13:46
Each of them taken together is unlikely.
271
826000
2000
Fiecare dintre ele luate împreună este puțin probabilă.
13:49
Here's a more topical example of exactly the same thing.
272
829000
3000
Iată un exemplu ceva mai actual al exact aceluiași lucru.
13:52
Those of you in Britain will know about what's become rather a celebrated case
273
832000
4000
Cei care sunteți din Marea Britanie veți ști despre cazul care a devenit oarecum celebru
13:56
of a woman called Sally Clark, who had two babies who died suddenly.
274
836000
5000
al unei femei pe nume Sally Clark, care avea doi copii care au decedați subit.
14:01
And initially, it was thought that they died of what's known informally as "cot death,"
275
841000
4000
Și inițial s-a crezut că au murit de ceea e numit informal "moarte infantilă"
14:05
and more formally as "Sudden Infant Death Syndrome."
276
845000
3000
și mai formal drept Sindromul Morții Infantile Bruște.
14:08
For various reasons, she was later charged with murder.
277
848000
2000
Din motive diverse, a fost mai târziu acuzată de crimă.
14:10
And at the trial, her trial, a very distinguished pediatrician gave evidence
278
850000
4000
Iar la proces, procesul ei, un pediatru foarte cunoscut a dovedit
14:14
that the chance of two cot deaths, innocent deaths, in a family like hers --
279
854000
5000
că șansa a două morți infantile, morți inocente, într-o familie ca a ei --
14:19
which was professional and non-smoking -- was one in 73 million.
280
859000
6000
de profesie și nefumători -- era una la 73 de milioane.
14:26
To cut a long story short, she was convicted at the time.
281
866000
3000
Mai pe scurt, la acel moment ea a fost condamnată.
14:29
Later, and fairly recently, acquitted on appeal -- in fact, on the second appeal.
282
869000
5000
Mai târziu, și destul de recent, achitată în urma unui apel -- de fapt al doilea apel.
14:34
And just to set it in context, you can imagine how awful it is for someone
283
874000
4000
Și doar pentru a crea context, vă puteți imagina cât de îngrozitor e pentru cineva
14:38
to have lost one child, and then two, if they're innocent,
284
878000
3000
să piardă un copil și apoi doi, dacă sunt nevinovați,
14:41
to be convicted of murdering them.
285
881000
2000
să fie condamnată că i-ar fi ucis.
14:43
To be put through the stress of the trial, convicted of murdering them --
286
883000
2000
Să fie supusă stresului unui proces, condamnată pentru uciderea lor --
14:45
and to spend time in a women's prison, where all the other prisoners
287
885000
3000
și să petreacă timp într-o închisoare pentru femei, unde toate celelalte deținute
14:48
think you killed your children -- is a really awful thing to happen to someone.
288
888000
5000
cred ca și-a ucis copiii -- e un lucru îngrozitor să i se întâmple cuiva.
14:53
And it happened in large part here because the expert got the statistics
289
893000
5000
Și s-a întâmplat în mare parte în acest caz pentru că expertul a greșit statisticile
14:58
horribly wrong, in two different ways.
290
898000
3000
în mod oribil, în două moduri diferite.
15:01
So where did he get the one in 73 million number?
291
901000
4000
Deci de unde a obținut el numărul de unu la 73 de milioane?
15:05
He looked at some research, which said the chance of one cot death in a family
292
905000
3000
S-a uitat peste niște cercetări, care spuneau că șansele unui deces infantil într-o familie
15:08
like Sally Clark's is about one in 8,500.
293
908000
5000
ca cea a lui Sally Clark este de aproape 1 la 850,000.
15:13
So he said, "I'll assume that if you have one cot death in a family,
294
913000
4000
Drept care el a spus: "Voi presupune că dacă aveți o moarte infantilă într-o familie,
15:17
the chance of a second child dying from cot death aren't changed."
295
917000
4000
șansele ca un al doilea copil să moară de moarte infantilă nu se schimbă."
15:21
So that's what statisticians would call an assumption of independence.
296
921000
3000
Deci asta este ceea ce statisticienii ar numi o presupunere de independență.
15:24
It's like saying, "If you toss a coin and get a head the first time,
297
924000
2000
Este ca și cum ai spune, "Dacă aruncați o monedă și obțineți cap prima dată,
15:26
that won't affect the chance of getting a head the second time."
298
926000
3000
acest lucru nu va afecta șansele de a obține cap a doua oară."
15:29
So if you toss a coin twice, the chance of getting a head twice are a half --
299
929000
5000
Deci dacă aruncați moneda de două ori, șansele să obțineți cap de două ori sunt jumătate --
15:34
that's the chance the first time -- times a half -- the chance a second time.
300
934000
3000
șansa pentru prima dată -- înmulțit cu jumătate -- șansa pentru a doua oară.
15:37
So he said, "Here,
301
937000
2000
Așa că a spus "Iată, să presupunem --
15:39
I'll assume that these events are independent.
302
939000
4000
voi presupune că aceste evenimente sunt independente.
15:43
When you multiply 8,500 together twice,
303
943000
2000
Când multiplicați 850,000 de două ori împreună,
15:45
you get about 73 million."
304
945000
2000
obțineți în jur de 73 de milioane."
15:47
And none of this was stated to the court as an assumption
305
947000
2000
Și nici una dintre acestea nu a fost prezentată la tribunal drept o presupunere
15:49
or presented to the jury that way.
306
949000
2000
sau prezentată juriului în acest mod.
15:52
Unfortunately here -- and, really, regrettably --
307
952000
3000
Din păcate aici -- și chiar în mod regretabil --
15:55
first of all, in a situation like this you'd have to verify it empirically.
308
955000
4000
mai intâi, într-o situație ca aceasta ar trebui să verificați empiric.
15:59
And secondly, it's palpably false.
309
959000
2000
Și în al doilea rând, este în mod palpabil fals.
16:02
There are lots and lots of things that we don't know about sudden infant deaths.
310
962000
5000
Sunt o mulțime de lucruri pe care nu le știm despre morțile infantile subite.
16:07
It might well be that there are environmental factors that we're not aware of,
311
967000
3000
S-ar putea să existe factori de mediu pe care nu îi conștientizăm,
16:10
and it's pretty likely to be the case that there are
312
970000
2000
și este destul de probabil să fie cazul unor
16:12
genetic factors we're not aware of.
313
972000
2000
factori genetici pe care să nu îi conștientizăm.
16:14
So if a family suffers from one cot death, you'd put them in a high-risk group.
314
974000
3000
Așadar dacă o familie suferă de moarte infantilă, i-ați pune într-un grup cu risc foarte înalt.
16:17
They've probably got these environmental risk factors
315
977000
2000
Probabil că au acești factori de risc de mediu
16:19
and/or genetic risk factors we don't know about.
316
979000
3000
și/sau factori de risc genetic despre care nu știm.
16:22
And to argue, then, that the chance of a second death is as if you didn't know
317
982000
3000
Și să spui atunci că șansa apariției celei de-a doua morți e ca și cum nu ai ști
16:25
that information is really silly.
318
985000
3000
acea informație e o prostie.
16:28
It's worse than silly -- it's really bad science.
319
988000
4000
E mai rău decât prostie -- e chiar știință proastă.
16:32
Nonetheless, that's how it was presented, and at trial nobody even argued it.
320
992000
5000
Însă așa a fost prezentată și la proces nimeni nu a combătut-o.
16:37
That's the first problem.
321
997000
2000
Aceasta e prima problemă.
16:39
The second problem is, what does the number of one in 73 million mean?
322
999000
4000
Cea de-a doua problemă e: ce reprezintă numărul de unu la 73 de milioane?
16:43
So after Sally Clark was convicted --
323
1003000
2000
După ce Sally Clark a fost condamnată --
16:45
you can imagine, it made rather a splash in the press --
324
1005000
4000
vă puteți imagina, a făcut furori în presă --
16:49
one of the journalists from one of Britain's more reputable newspapers wrote that
325
1009000
7000
unul dintre jurnaliștii de la un ziar onorabil din Marea Britanie a scris că
16:56
what the expert had said was,
326
1016000
2000
ce a spun expertul a fost
16:58
"The chance that she was innocent was one in 73 million."
327
1018000
5000
"Șansa ca ea să fi fost inocentă era de unu la 73 de milioane."
17:03
Now, that's a logical error.
328
1023000
2000
Acum, aceasta e o eroare logică.
17:05
It's exactly the same logical error as the logical error of thinking that
329
1025000
3000
E exact aceeași eroare logică ca și a gândi că
17:08
after the disease test, which is 99 percent accurate,
330
1028000
2000
după testul de boală, care este corect in procent de 99 la sută,
17:10
the chance of having the disease is 99 percent.
331
1030000
4000
șansa de a avea boala este de 99 la sută.
17:14
In the disease example, we had to bear in mind two things,
332
1034000
4000
În exemplul cu boala, a trebuit să ținem cont de două lucruri,
17:18
one of which was the possibility that the test got it right or not.
333
1038000
4000
dintre care unul era posibilitatea ca testul să fie sau nu corect.
17:22
And the other one was the chance, a priori, that the person had the disease or not.
334
1042000
4000
Iar celălalt era șansa ca, a priori, acea persoană să aibă sau nu boala.
17:26
It's exactly the same in this context.
335
1046000
3000
Este exact același context.
17:29
There are two things involved -- two parts to the explanation.
336
1049000
4000
Sunt două lucruri implicate -- două părți ale explicației.
17:33
We want to know how likely, or relatively how likely, two different explanations are.
337
1053000
4000
Vrem să știm cât de probabile, sau relativ probabile, sunt două explicații.
17:37
One of them is that Sally Clark was innocent --
338
1057000
3000
Una dintre ele e aceea că Sally Clark era nevinovată --
17:40
which is, a priori, overwhelmingly likely --
339
1060000
2000
ceea ce e, a priori, copleșitor de probabil --
17:42
most mothers don't kill their children.
340
1062000
3000
majoritatea mamelor nu își ucid copiii.
17:45
And the second part of the explanation
341
1065000
2000
Iar a doua parte a explicației
17:47
is that she suffered an incredibly unlikely event.
342
1067000
3000
e că ea a suferit un eveniment incredibil de improbabil.
17:50
Not as unlikely as one in 73 million, but nonetheless rather unlikely.
343
1070000
4000
Nu la fel de improbabil ca unu la 73 de milioane, însă destul de improbabil.
17:54
The other explanation is that she was guilty.
344
1074000
2000
Cealaltă explicație e aceea că ea era vinovată.
17:56
Now, we probably think a priori that's unlikely.
345
1076000
2000
Acum, probabil că ne gândim, a priori, că acest lucru nu e posibil.
17:58
And we certainly should think in the context of a criminal trial
346
1078000
3000
Și în mod cert ar trebui să ne gândim în contextul unui proces penal
18:01
that that's unlikely, because of the presumption of innocence.
347
1081000
3000
că acest lucru e improbabil, datorită prezumției de nevinovăție.
18:04
And then if she were trying to kill the children, she succeeded.
348
1084000
4000
Iar apoi dacă ea a încercat să omoare copiii, a reușit.
18:08
So the chance that she's innocent isn't one in 73 million.
349
1088000
4000
Deci șansa ca ea să fie nevinovată nu este de unu la 73 de milioane.
18:12
We don't know what it is.
350
1092000
2000
Nu știm care este.
18:14
It has to do with weighing up the strength of the other evidence against her
351
1094000
4000
Are legătură cu cântărirea tăriei celeilate dovezi împotriva ei
18:18
and the statistical evidence.
352
1098000
2000
și dovada statistică.
18:20
We know the children died.
353
1100000
2000
Știm că au murit copiii.
18:22
What matters is how likely or unlikely, relative to each other,
354
1102000
4000
Ce contează e cât de probabile sau improbabile sunt cele două explicații
18:26
the two explanations are.
355
1106000
2000
una față de cealaltă.
18:28
And they're both implausible.
356
1108000
2000
Și sunt amândouă neplauzibile.
18:31
There's a situation where errors in statistics had really profound
357
1111000
4000
Există o situație în care erorile din statistică au avut consecințe foarte profunde
18:35
and really unfortunate consequences.
358
1115000
3000
și cu adevărat nefericite.
18:38
In fact, there are two other women who were convicted on the basis of the
359
1118000
2000
De fapt, există alte două femei care au fost condamnate pe baza
18:40
evidence of this pediatrician, who have subsequently been released on appeal.
360
1120000
4000
dovezilor acestui pediatru, care au fost eliberate ulterior la recurs.
18:44
Many cases were reviewed.
361
1124000
2000
Multe cazuri au fost revizuite.
18:46
And it's particularly topical because he's currently facing a disrepute charge
362
1126000
4000
Și e în special de actualitate deoarece acum el se confruntă cu o condamnare pentru proastă reputație
18:50
at Britain's General Medical Council.
363
1130000
3000
la Consilliul Medical General al Marii Britanii.
18:53
So just to conclude -- what are the take-home messages from this?
364
1133000
4000
Deci în concluzie -- care sunt mesajele pe care să le luăm cu noi din acest caz?
18:57
Well, we know that randomness and uncertainty and chance
365
1137000
4000
Ei bine, caracterul aleatoriu, și nesiguranța, și șansa
19:01
are very much a part of our everyday life.
366
1141000
3000
sunt foarte mult o parte din viața noastră zilnică.
19:04
It's also true -- and, although, you, as a collective, are very special in many ways,
367
1144000
5000
Este de asemenea adevărat -- și, deși voi, ca grup, sunteți foarte speciali în multe privințe,
19:09
you're completely typical in not getting the examples I gave right.
368
1149000
4000
sunteți complet tipici în a nu înțelege exemplele pe care vi le-am oferit.
19:13
It's very well documented that people get things wrong.
369
1153000
3000
Este foarte bine documentat faptul că oamenii înțeleg greșit unele lucruri.
19:16
They make errors of logic in reasoning with uncertainty.
370
1156000
3000
Ei fac erori de logică în înțelegerea incertitudinii.
19:20
We can cope with the subtleties of language brilliantly --
371
1160000
2000
Facem față subtilităților de limbaj în mod strălucit --
19:22
and there are interesting evolutionary questions about how we got here.
372
1162000
3000
și sunt întrebări evolutiive interesante despre cum am ajuns aici.
19:25
We are not good at reasoning with uncertainty.
373
1165000
3000
Nu suntem buni la a înțelege incertitudinea.
19:28
That's an issue in our everyday lives.
374
1168000
2000
Aceasta e o chestiune prezentă în viața noastră zilnică.
19:30
As you've heard from many of the talks, statistics underpins an enormous amount
375
1170000
3000
După cum ați auzit din multe discursuri, stastica stă la baza unui procent enorm
19:33
of research in science -- in social science, in medicine
376
1173000
3000
de cercetări științifice -- în știința socială, în medicină
19:36
and indeed, quite a lot of industry.
377
1176000
2000
și într-adevăr, într-un număr foarte mare de industrii.
19:38
All of quality control, which has had a major impact on industrial processing,
378
1178000
4000
Întregul control al calității, care a avut un impact major asupra procesului industrial,
19:42
is underpinned by statistics.
379
1182000
2000
este susținut de statistici.
19:44
It's something we're bad at doing.
380
1184000
2000
E ceva ce nu ne pricepem să facem.
19:46
At the very least, we should recognize that, and we tend not to.
381
1186000
3000
Cel puțin, ar trebui să recunoaștem acest lucru și tindem să nu o facem.
19:49
To go back to the legal context, at the Sally Clark trial
382
1189000
4000
Ca să revenim la contextul legal, la procesul lui Sally Clark
19:53
all of the lawyers just accepted what the expert said.
383
1193000
4000
toți avocații au acceptat ca atare ce a spus expertul.
19:57
So if a pediatrician had come out and said to a jury,
384
1197000
2000
Deci dacă un pediatru ar fi mers în față și i-ar fi spus juriului
19:59
"I know how to build bridges. I've built one down the road.
385
1199000
3000
"Știu cum să construiesc poduri. Am construit unul peste drum.
20:02
Please drive your car home over it,"
386
1202000
2000
Vă rog să îl traversați cu mașina în drum spre casă",
20:04
they would have said, "Well, pediatricians don't know how to build bridges.
387
1204000
2000
ei ar fi spun "Păi, pediatrii nu știu să construiască poduri.
20:06
That's what engineers do."
388
1206000
2000
Asta fac inginerii."
20:08
On the other hand, he came out and effectively said, or implied,
389
1208000
3000
Pe de altă parte, a ieșit în față și a spus în mod eficient, sau a sugerat,
20:11
"I know how to reason with uncertainty. I know how to do statistics."
390
1211000
3000
"Știu cum să argumentez incertitudinea. Știu cum să fac statistici."
20:14
And everyone said, "Well, that's fine. He's an expert."
391
1214000
3000
Și toată lumea a spus, "Păi, este în regulă. Este un expert."
20:17
So we need to understand where our competence is and isn't.
392
1217000
3000
Deci trebuie să înțelegem unde se încadrează competența noastră și unde nu.
20:20
Exactly the same kinds of issues arose in the early days of DNA profiling,
393
1220000
4000
Exact aceleași tipuri de chestiuni ridicate în zilele de început ale profilării ADN,
20:24
when scientists, and lawyers and in some cases judges,
394
1224000
4000
când oamenii de știință, avocații și în unele cazuri judecătorii,
20:28
routinely misrepresented evidence.
395
1228000
3000
în mod rutinier au prezentat greșit dovezile.
20:32
Usually -- one hopes -- innocently, but misrepresented evidence.
396
1232000
3000
De obicei -- se speră -- inocent, dar greșit prezentată dovada.
20:35
Forensic scientists said, "The chance that this guy's innocent is one in three million."
397
1235000
5000
Oamenii de știință juridică spun, "Șansa ca acest om să fie nevinovat e unu la trei milioane.
20:40
Even if you believe the number, just like the 73 million to one,
398
1240000
2000
Chiar dacă dați crezare numărului, ca și 73 de milioane la unu,
20:42
that's not what it meant.
399
1242000
2000
nu asta a însemnat.
20:44
And there have been celebrated appeal cases
400
1244000
2000
Și au existat cazuri celebre de recurs
20:46
in Britain and elsewhere because of that.
401
1246000
2000
în Marea Britanie și în alte părți din acest motiv.
20:48
And just to finish in the context of the legal system.
402
1248000
3000
Și doar pentru a încheia în contextul sistemului legal.
20:51
It's all very well to say, "Let's do our best to present the evidence."
403
1251000
4000
Este foarte bine să spunem, "Să facem tot posibilul pentru a prezenta dovada."
20:55
But more and more, in cases of DNA profiling -- this is another one --
404
1255000
3000
Însă din ce în ce mai mult, în cazul profilării ADN -- acesta este altul --
20:58
we expect juries, who are ordinary people --
405
1258000
3000
ne așteptăm ca jurații, care sunt oameni obișnuiți --
21:01
and it's documented they're very bad at this --
406
1261000
2000
și este documentat că nu sunt buni la asta --
21:03
we expect juries to be able to cope with the sorts of reasoning that goes on.
407
1263000
4000
ne așteptăm ca jurații să fie capabili să facă față tipurilor de raționament care au loc.
21:07
In other spheres of life, if people argued -- well, except possibly for politics --
408
1267000
5000
În alte sfere ale vieții, dacă oamenii se contrazic -- bine, exceptând, posibil, în politică.
21:12
but in other spheres of life, if people argued illogically,
409
1272000
2000
Însă în alte sfere ale vieții, dacă oamenii se contrazic în mod ilogic,
21:14
we'd say that's not a good thing.
410
1274000
2000
am spune că nu este un lucru bun.
21:16
We sort of expect it of politicians and don't hope for much more.
411
1276000
4000
Cumva ne așteptăm la asta de la politicieni și nu sperăm la mai mult.
21:20
In the case of uncertainty, we get it wrong all the time --
412
1280000
3000
În cazul incertitudinii, greșim tot timpul --
21:23
and at the very least, we should be aware of that,
413
1283000
2000
și cel puțin, ar trebui să fim conștienți de asta.
21:25
and ideally, we might try and do something about it.
414
1285000
2000
Și, ideal, ar trebui să încercăm să facem ceva în privința asta.
21:27
Thanks very much.
415
1287000
1000
Vă mulţumesc foarte mult.
Despre acest site

Acest site vă va prezenta videoclipuri de pe YouTube care sunt utile pentru a învăța limba engleză. Veți vedea lecții de engleză predate de profesori de top din întreaga lume. Faceți dublu clic pe subtitrările în limba engleză afișate pe fiecare pagină video pentru a reda videoclipul de acolo. Subtitrările se derulează în sincron cu redarea videoclipului. Dacă aveți comentarii sau solicitări, vă rugăm să ne contactați folosind acest formular de contact.

https://forms.gle/WvT1wiN1qDtmnspy7