下の英語字幕をダブルクリックすると動画を再生できます。
翻訳: Tamami Inoue
校正: Masaki Yanagishita
00:25
As other speakers have said, it's a rather daunting experience --
0
25000
2000
他の講演者の方も話されましたが
00:27
a particularly daunting experience -- to be speaking in front of this audience.
1
27000
3000
この観客の前で話すのは
手ごわい経験です
00:30
But unlike the other speakers, I'm not going to tell you about
2
30000
3000
しかし 私がお話しするのは
他の方たちの様に
00:33
the mysteries of the universe, or the wonders of evolution,
3
33000
2000
宇宙の謎や
進化の神秘
00:35
or the really clever, innovative ways people are attacking
4
35000
4000
世界の不平等を解消する
革新的方法や
00:39
the major inequalities in our world.
5
39000
2000
また 現代のグローバル経済における―
00:41
Or even the challenges of nation-states in the modern global economy.
6
41000
5000
国家的課題などではありません
00:46
My brief, as you've just heard, is to tell you about statistics --
7
46000
4000
私は統計学について-
00:50
and, to be more precise, to tell you some exciting things about statistics.
8
50000
3000
より正確に言うと
統計学のワクワクするような話をします
00:53
And that's --
9
53000
1000
それは —
00:54
(Laughter)
10
54000
1000
(笑)
00:55
-- that's rather more challenging
11
55000
2000
他の講演者たちよりも
00:57
than all the speakers before me and all the ones coming after me.
12
57000
2000
随分と努力が必要です
00:59
(Laughter)
13
59000
1000
(笑)
01:01
One of my senior colleagues told me, when I was a youngster in this profession,
14
61000
5000
私が若輩者だった頃
先輩が誇らしげに教えてくれたのは
01:06
rather proudly, that statisticians were people who liked figures
15
66000
4000
統計学者は数字が得意だけれども
01:10
but didn't have the personality skills to become accountants.
16
70000
3000
会計士になれるほど
人格者ではないことです
01:13
(Laughter)
17
73000
2000
(笑)
01:15
And there's another in-joke among statisticians, and that's,
18
75000
3000
もう1つ 統計学者が
内輪で言っているジョークが
01:18
"How do you tell the introverted statistician from the extroverted statistician?"
19
78000
3000
「性格が内向的な統計学者と
外向的な統計学者を見分けるには?」
01:21
To which the answer is,
20
81000
2000
答えは
01:23
"The extroverted statistician's the one who looks at the other person's shoes."
21
83000
5000
「外向的統計学者は
相手の身なりをよく見ている」です
01:28
(Laughter)
22
88000
3000
(笑)
01:31
But I want to tell you something useful -- and here it is, so concentrate now.
23
91000
5000
今から役立つことを伝えたいので
よく聞いてください
01:36
This evening, there's a reception in the University's Museum of Natural History.
24
96000
3000
今夜 大学の自然史博物館で
パーティーがあります
01:39
And it's a wonderful setting, as I hope you'll find,
25
99000
2000
お気に召せばいいですが ―
01:41
and a great icon to the best of the Victorian tradition.
26
101000
5000
素晴らしい場所で
伝統あるビクトリア時代の象徴です
01:46
It's very unlikely -- in this special setting, and this collection of people --
27
106000
5000
そんな会場に
こんな方々と一緒にいても
01:51
but you might just find yourself talking to someone you'd rather wish that you weren't.
28
111000
3000
この人とは話したくない
という相手もいるかもしれません
01:54
So here's what you do.
29
114000
2000
こうすれば良いのです
01:56
When they say to you, "What do you do?" -- you say, "I'm a statistician."
30
116000
4000
「ご職業は?」と聞かれたら
「統計学者です」と答えてください
02:00
(Laughter)
31
120000
1000
(笑)
02:01
Well, except they've been pre-warned now, and they'll know you're making it up.
32
121000
4000
ここでネタをばらしてしまったので
今回は見え見えになってしまいましたが
02:05
And then one of two things will happen.
33
125000
2000
普通 次のどちらかのことが起きます
02:07
They'll either discover their long-lost cousin in the other corner of the room
34
127000
2000
久しぶりのイトコが
あそこにいるので
02:09
and run over and talk to them.
35
129000
2000
話してきますといって去るか
02:11
Or they'll suddenly become parched and/or hungry -- and often both --
36
131000
3000
突然 のどの渇きや空腹が襲ってきて
02:14
and sprint off for a drink and some food.
37
134000
2000
飲み物や食べ物を急いで取りに行くのです
02:16
And you'll be left in peace to talk to the person you really want to talk to.
38
136000
4000
あなたは 落ち着いて
本当に話したい人の元へと向かえます
02:20
It's one of the challenges in our profession to try and explain what we do.
39
140000
3000
統計学者が何をするか説明するのは
努力を要することの1つです
02:23
We're not top on people's lists for dinner party guests and conversations and so on.
40
143000
5000
統計学者はパーティーや会談の
主賓としては招待されません
02:28
And it's something I've never really found a good way of doing.
41
148000
2000
良い説明方法は
いまだに見つかっていません
02:30
But my wife -- who was then my girlfriend --
42
150000
3000
私の妻は まだガールフレンドだった頃に
02:33
managed it much better than I've ever been able to.
43
153000
3000
私よりも上手く
その質問を切り抜けたことがありました
02:36
Many years ago, when we first started going out, she was working for the BBC in Britain,
44
156000
3000
付き合い始めた時
彼女はイギリスで BBCに勤めていました
02:39
and I was, at that stage, working in America.
45
159000
2000
私はその頃 アメリカで働いていました
02:41
I was coming back to visit her.
46
161000
2000
私が彼女を訪ねに来たときのことです
02:43
She told this to one of her colleagues, who said, "Well, what does your boyfriend do?"
47
163000
6000
「彼氏の職業は?」と聞かれたとき
彼女は同僚にこう答えたのです
02:49
Sarah thought quite hard about the things I'd explained --
48
169000
2000
サラは私の説明を一生懸命
思いだそうとしました
02:51
and she concentrated, in those days, on listening.
49
171000
4000
当時の彼女は 私の言うことを
ちゃんと聞いていましたから
02:55
(Laughter)
50
175000
2000
(笑)
02:58
Don't tell her I said that.
51
178000
2000
これは内緒にしておいてください
03:00
And she was thinking about the work I did developing mathematical models
52
180000
4000
私の仕事は
進化と現代的遺伝学を理解するために
03:04
for understanding evolution and modern genetics.
53
184000
3000
数学的モデルを発展させることだと
彼女は考えていました
03:07
So when her colleague said, "What does he do?"
54
187000
3000
ですから 彼女は同僚から
「彼氏の職業は?」と聞かれた時
03:10
She paused and said, "He models things."
55
190000
4000
間をおいて こう言いました
「彼はモデルをするの」
03:14
(Laughter)
56
194000
1000
(笑)
03:15
Well, her colleague suddenly got much more interested than I had any right to expect
57
195000
4000
予期しなかったのですが
その同僚は突然 興味津々になり
03:19
and went on and said, "What does he model?"
58
199000
3000
続けてこう言ったのです
「なんのモデルをしているの?」
03:22
Well, Sarah thought a little bit more about my work and said, "Genes."
59
202000
3000
で サラはちょっと考えて答えました
「ジーンズ(遺伝子)よ」
03:25
(Laughter)
60
205000
4000
(笑)
03:29
"He models genes."
61
209000
2000
「彼はジーンズのモデルをするの」
03:31
That is my first love, and that's what I'll tell you a little bit about.
62
211000
4000
これで本当に彼女が好きになりましたね
統計学者の仕事の話を続けましょう
03:35
What I want to do more generally is to get you thinking about
63
215000
4000
より一般的な事例を挙げて
皆さんに世の中の
03:39
the place of uncertainty and randomness and chance in our world,
64
219000
3000
不確定で 不規則で 偶然な
出来事を考えてもらい
03:42
and how we react to that, and how well we do or don't think about it.
65
222000
5000
それにどう反応するか 適切に考えることが
できるかを検討してほしいのです
03:47
So you've had a pretty easy time up till now --
66
227000
2000
なので ここで
今までのデートの話で
03:49
a few laughs, and all that kind of thing -- in the talks to date.
67
229000
2000
笑うような気楽な時間は終了です
03:51
You've got to think, and I'm going to ask you some questions.
68
231000
3000
皆さんには
いくつか問題を出したいと思います
03:54
So here's the scene for the first question I'm going to ask you.
69
234000
2000
第一問
こういう状況です
03:56
Can you imagine tossing a coin successively?
70
236000
3000
繰り返しコインを投げます
03:59
And for some reason -- which shall remain rather vague --
71
239000
3000
ある理由があって―
それには特に触れませんが
04:02
we're interested in a particular pattern.
72
242000
2000
私たちはある特徴的パターンに
興味を持ちます
04:04
Here's one -- a head, followed by a tail, followed by a tail.
73
244000
3000
これが そのパターンです
コインの表が出て 次に裏・裏
04:07
So suppose we toss a coin repeatedly.
74
247000
3000
コインを何度も
繰り返し投げることにします
04:10
Then the pattern, head-tail-tail, that we've suddenly become fixated with happens here.
75
250000
5000
すると 注目している
表・裏・裏のパターンがここで起こります
04:15
And you can count: one, two, three, four, five, six, seven, eight, nine, 10 --
76
255000
4000
数えられますね
1 2 3 4 5 6 7 8 9 10
04:19
it happens after the 10th toss.
77
259000
2000
10回目のコイントスの後の結果です
04:21
So you might think there are more interesting things to do, but humor me for the moment.
78
261000
3000
他にも興味深いことがと思うかもしれません
でもちょっとお待ちください
04:24
Imagine this half of the audience each get out coins, and they toss them
79
264000
4000
観客を半分に分けて
表・裏・裏のパターンが出るまで
04:28
until they first see the pattern head-tail-tail.
80
268000
3000
各々がコインを投げると思ってください
04:31
The first time they do it, maybe it happens after the 10th toss, as here.
81
271000
2000
1度目には このように10回投げた後の結果はこうなり
04:33
The second time, maybe it's after the fourth toss.
82
273000
2000
2度目は4回のトスで
起こるかもしれません
04:35
The next time, after the 15th toss.
83
275000
2000
その次は 15回目のトスの後で
04:37
So you do that lots and lots of times, and you average those numbers.
84
277000
3000
それを何度も何度も行って
平均回数を出してください
04:40
That's what I want this side to think about.
85
280000
3000
それが こちら側の半分の人に
やってもらいたいことです
04:43
The other half of the audience doesn't like head-tail-tail --
86
283000
2000
もう半数の観客は
表・裏・裏が好きじゃありません
04:45
they think, for deep cultural reasons, that's boring --
87
285000
3000
彼らは深遠な文化的理由から
そんなのつまらないと思い
04:48
and they're much more interested in a different pattern -- head-tail-head.
88
288000
3000
他のパターンの方に興味を持ちました
表・裏・表です
04:51
So, on this side, you get out your coins, and you toss and toss and toss.
89
291000
3000
こちらの方たちはコインを取り出して
トスを何回も繰り返して
04:54
And you count the number of times until the pattern head-tail-head appears
90
294000
3000
表・裏・表が出るまで
投げた回数を数えて
04:57
and you average them. OK?
91
297000
3000
その平均を出してください
いいですね?
05:00
So on this side, you've got a number --
92
300000
2000
こちらの方たちは
コイントスを繰り返して
05:02
you've done it lots of times, so you get it accurately --
93
302000
2000
表・裏・裏が出るまでの
05:04
which is the average number of tosses until head-tail-tail.
94
304000
3000
平均回数を正確に導きだしてください
05:07
On this side, you've got a number -- the average number of tosses until head-tail-head.
95
307000
4000
こちらの皆さんは同様に
表・裏・表の平均回数を出して下さい
05:11
So here's a deep mathematical fact --
96
311000
2000
数学的事実は以下の通りです
05:13
if you've got two numbers, one of three things must be true.
97
313000
3000
2つの平均回数が導き出せたら
次の3つの内1つが真実のはずです
05:16
Either they're the same, or this one's bigger than this one,
98
316000
3000
2つとも同じ数か
こちら側の数が多いか
05:19
or this one's bigger than that one.
99
319000
1000
反対側の数が多いか
05:20
So what's going on here?
100
320000
3000
さて どうなるでしょう?
05:23
So you've all got to think about this, and you've all got to vote --
101
323000
2000
皆さんがこの問題を理解して
投票して欲しいと思います
05:25
and we're not moving on.
102
325000
1000
それまで 次へは進みません
05:26
And I don't want to end up in the two-minute silence
103
326000
2000
2分間静かに考えて
全員が答えを出して下さいね
05:28
to give you more time to think about it, until everyone's expressed a view. OK.
104
328000
4000
もっと時間が必要だ
という状況にはしたくありません
05:32
So what you want to do is compare the average number of tosses until we first see
105
332000
4000
では 最初に表・裏・表が出た
コイントス回数と
05:36
head-tail-head with the average number of tosses until we first see head-tail-tail.
106
336000
4000
表・裏・裏が出た回数を
比べましょう
05:41
Who thinks that A is true --
107
341000
2000
Aが真実だと思う人はいますか?
05:43
that, on average, it'll take longer to see head-tail-head than head-tail-tail?
108
343000
4000
「平均で表・裏・表の方が
表・裏・裏より回数が多い」です
05:47
Who thinks that B is true -- that on average, they're the same?
109
347000
3000
Bが真実だと思う人は?
「平均回数は同じ」
05:51
Who thinks that C is true -- that, on average, it'll take less time
110
351000
2000
Cが真実だと思う人は?
「平均で表・裏・表の方が
05:53
to see head-tail-head than head-tail-tail?
111
353000
3000
表・裏・裏より回数が少ない」
05:57
OK, who hasn't voted yet? Because that's really naughty -- I said you had to.
112
357000
3000
まだ投票してない人はいますか?
それはだめですよ
06:00
(Laughter)
113
360000
1000
(笑)
06:02
OK. So most people think B is true.
114
362000
3000
ほとんどの人が
Bを真実だと思っていますので
06:05
And you might be relieved to know even rather distinguished mathematicians think that.
115
365000
3000
超優秀な数学者もそう考えると知れば
少しは安心ですよね
06:08
It's not. A is true here.
116
368000
4000
ところが Aが真実なのです
06:12
It takes longer, on average.
117
372000
2000
こちらの平均回数の方が多いのです
06:14
In fact, the average number of tosses till head-tail-head is 10
118
374000
2000
実は 表・裏・表が出るまで
平均回数は10回で
06:16
and the average number of tosses until head-tail-tail is eight.
119
376000
5000
表・裏・裏の平均は8回です
06:21
How could that be?
120
381000
2000
どうしてこうなったのでしょう?
06:24
Anything different about the two patterns?
121
384000
3000
2つのパターンに違いはあるのか?
06:30
There is. Head-tail-head overlaps itself.
122
390000
5000
表・裏・表はそれ自身に
重なっているのです
06:35
If you went head-tail-head-tail-head, you can cunningly get two occurrences
123
395000
4000
表・裏・表・裏・表と出たら
たった5回のトスで
06:39
of the pattern in only five tosses.
124
399000
3000
そのパターンが2回発生しています
06:42
You can't do that with head-tail-tail.
125
402000
2000
表・裏・裏ではそんなことは起こりません
06:44
That turns out to be important.
126
404000
2000
それが肝です
06:46
There are two ways of thinking about this.
127
406000
2000
そこには2つの考え方があります
06:48
I'll give you one of them.
128
408000
2000
その1つを説明しましょう
06:50
So imagine -- let's suppose we're doing it.
129
410000
2000
先ほどやったことを思い出してください
06:52
On this side -- remember, you're excited about head-tail-tail;
130
412000
2000
こちら側の皆さんは
表・裏・裏を期待していました
06:54
you're excited about head-tail-head.
131
414000
2000
反対側は表・裏・表を期待していました
06:56
We start tossing a coin, and we get a head --
132
416000
3000
コインを投げたら
表が出ました
06:59
and you start sitting on the edge of your seat
133
419000
1000
皆さんは椅子に座り直します
07:00
because something great and wonderful, or awesome, might be about to happen.
134
420000
5000
何か凄くて素晴らしくて
ステキなことが起こりそうだからです
07:05
The next toss is a tail -- you get really excited.
135
425000
2000
次のトスは裏です
嬉しいですね
07:07
The champagne's on ice just next to you; you've got the glasses chilled to celebrate.
136
427000
4000
氷の上のシャンパンがそばにあります
お祝いの冷えたシャンパングラスがあります
07:11
You're waiting with bated breath for the final toss.
137
431000
2000
息をのんで
最後のトスを待ちます
07:13
And if it comes down a head, that's great.
138
433000
2000
次に表が出たら素晴らしい!
07:15
You're done, and you celebrate.
139
435000
2000
やった!お祝いだ!
07:17
If it's a tail -- well, rather disappointedly, you put the glasses away
140
437000
2000
裏だったら 少々ガッカリして
シャンパングラスを退け
07:19
and put the champagne back.
141
439000
2000
シャンパンを返却します
07:21
And you keep tossing, to wait for the next head, to get excited.
142
441000
3000
そして 次の表が出るまで
興奮するためのコイントスを続けます
07:25
On this side, there's a different experience.
143
445000
2000
こちらは違う経験です
07:27
It's the same for the first two parts of the sequence.
144
447000
3000
最初の2つの結果は同じです
07:30
You're a little bit excited with the first head --
145
450000
2000
最初に表が出た時は少し興奮します
07:32
you get rather more excited with the next tail.
146
452000
2000
次に裏が出たらもっと興奮します
07:34
Then you toss the coin.
147
454000
2000
そして コインを投げます
07:36
If it's a tail, you crack open the champagne.
148
456000
3000
裏が出たら
シャンパンを開けます
07:39
If it's a head you're disappointed,
149
459000
2000
もし表が出たらガッカリです
07:41
but you're still a third of the way to your pattern again.
150
461000
3000
それでも パターンの
3分の1は達成しているのです
07:44
And that's an informal way of presenting it -- that's why there's a difference.
151
464000
4000
くだけた感じの説明でしたが
2つのパターンが違うはこのためです
07:48
Another way of thinking about it --
152
468000
2000
もう1つの考え方は
07:50
if we tossed a coin eight million times,
153
470000
2000
もし 800万回コイントスをして
07:52
then we'd expect a million head-tail-heads
154
472000
2000
表・裏・表も
表・裏・裏も
07:54
and a million head-tail-tails -- but the head-tail-heads could occur in clumps.
155
474000
7000
100万回出ると予測しますが
表・裏・表は塊で出ることが可能です
08:01
So if you want to put a million things down amongst eight million positions
156
481000
2000
800万ヶ所に
100万個のものを置きたいなら
08:03
and you can have some of them overlapping, the clumps will be further apart.
157
483000
5000
そのいくつかは重なることもできます
すると塊はもっと離れることになります
08:08
It's another way of getting the intuition.
158
488000
2000
これが直感的に理解する
もう1つの方法なのです
08:10
What's the point I want to make?
159
490000
2000
お伝えしたいポイントは
この問題が
08:12
It's a very, very simple example, an easily stated question in probability,
160
492000
4000
確率における
とても単純で簡潔な例題であり
08:16
which every -- you're in good company -- everybody gets wrong.
161
496000
3000
ここにいる皆さんまでもが
間違いを犯すものだということです
08:19
This is my little diversion into my real passion, which is genetics.
162
499000
4000
私が本当に興味を持っている遺伝学にも
同じようなことがあります
08:23
There's a connection between head-tail-heads and head-tail-tails in genetics,
163
503000
3000
遺伝学でも表・裏・表と
表・裏・裏に関連があります
08:26
and it's the following.
164
506000
3000
以下の通りです
08:29
When you toss a coin, you get a sequence of heads and tails.
165
509000
3000
コインを投げると 表・裏の
順番が発生します
08:32
When you look at DNA, there's a sequence of not two things -- heads and tails --
166
512000
3000
DNAを観察すると順番がありますが
それは表・裏の2つではなく
08:35
but four letters -- As, Gs, Cs and Ts.
167
515000
3000
A G C Tの4文字からなるものです
08:38
And there are little chemical scissors, called restriction enzymes
168
518000
3000
そして そこには「制限酵素」と呼ばれる
小さい化学的ハサミがあります
08:41
which cut DNA whenever they see particular patterns.
169
521000
2000
このハサミは あるパターンに遭遇すると
そこでDNAを切ります
08:43
And they're an enormously useful tool in modern molecular biology.
170
523000
4000
現代分子生物学で
このハサミは非常に便利な道具です
08:48
And instead of asking the question, "How long until I see a head-tail-head?" --
171
528000
3000
そして「表・裏・表が出るまでの長さは?」
という質問ではなく
08:51
you can ask, "How big will the chunks be when I use a restriction enzyme
172
531000
3000
「G-A-A-Gパターンが出た時に
08:54
which cuts whenever it sees G-A-A-G, for example?
173
534000
4000
制御酵素で切るとして
その塊の長さは?」と―
08:58
How long will those chunks be?"
174
538000
2000
質問できるわけです
09:00
That's a rather trivial connection between probability and genetics.
175
540000
5000
これは確率と遺伝学の間の
些細な問題ですが
09:05
There's a much deeper connection, which I don't have time to go into
176
545000
3000
説明する時間が無いのですが
そこには もっと深い関連があります
09:08
and that is that modern genetics is a really exciting area of science.
177
548000
3000
だから現代遺伝学は
本当にワクワクする科学分野なのです
09:11
And we'll hear some talks later in the conference specifically about that.
178
551000
4000
この後にも同じことについての
TEDトークがありますよ
09:15
But it turns out that unlocking the secrets in the information generated by modern
179
555000
4000
現代の実験技術から生まれた情報で
09:19
experimental technologies, a key part of that has to do with fairly sophisticated --
180
559000
5000
解明した結果の重要部分は
かなり洗練されています
09:24
you'll be relieved to know that I do something useful in my day job,
181
564000
3000
皆さんご安心ください
私の日常の仕事は
09:27
rather more sophisticated than the head-tail-head story --
182
567000
2000
表裏よりも
もっと高等で有益なことです
09:29
but quite sophisticated computer modelings and mathematical modelings
183
569000
4000
とても複雑なコンピューターモデリングと
数学的モデリングと
09:33
and modern statistical techniques.
184
573000
2000
統計学的モデリングをしています
09:35
And I will give you two little snippets -- two examples --
185
575000
3000
では 皆さんにオックスフォード大学の
私の研究チームが
09:38
of projects we're involved in in my group in Oxford,
186
578000
3000
参加している2つのプロジェクトを
少しご説明します
09:41
both of which I think are rather exciting.
187
581000
2000
2つともとても面白いですよ
09:43
You know about the Human Genome Project.
188
583000
2000
ヒトゲノム計画はご存知でしょう
09:45
That was a project which aimed to read one copy of the human genome.
189
585000
4000
それは一人分のゲノム全体を
読み解くことを目的としていました
09:51
The natural thing to do after you've done that --
190
591000
2000
それが完了したので
次は
09:53
and that's what this project, the International HapMap Project,
191
593000
2000
国際HapMap計画です
09:55
which is a collaboration between labs in five or six different countries.
192
595000
5000
これは5~6カ国の研究室が
共同で行っています
10:00
Think of the Human Genome Project as learning what we've got in common,
193
600000
4000
ヒトゲノム計画では
人類共通の遺伝情報について解析しましたが
10:04
and the HapMap Project is trying to understand
194
604000
2000
HapMap計画は民族集団の間にある違いを
10:06
where there are differences between different people.
195
606000
2000
解明しようとしています
10:08
Why do we care about that?
196
608000
2000
何故それが必要なのでしょうか?
10:10
Well, there are lots of reasons.
197
610000
2000
その理由は沢山あります
10:12
The most pressing one is that we want to understand how some differences
198
612000
4000
最も緊急な課題は
どの遺伝子の違いが
10:16
make some people susceptible to one disease -- type-2 diabetes, for example --
199
616000
4000
2型糖尿病や心臓病
脳卒中 自閉症などの
10:20
and other differences make people more susceptible to heart disease,
200
620000
5000
疾患を発症しやすくさせるかということを
10:25
or stroke, or autism and so on.
201
625000
2000
解明することです
10:27
That's one big project.
202
627000
2000
これが1つの大きなプロジェクトです
10:29
There's a second big project,
203
629000
2000
2番目の大きなプロジェクトは
10:31
recently funded by the Wellcome Trust in this country,
204
631000
2000
最近 ウェルカム・トラスト
(研究者支援団体)から
10:33
involving very large studies --
205
633000
2000
研究費提供を受けています
10:35
thousands of individuals, with each of eight different diseases,
206
635000
3000
1型および 2型糖尿病
冠動脈性心疾患 双極性障害 など
10:38
common diseases like type-1 and type-2 diabetes, and coronary heart disease,
207
638000
4000
頻度の高い8つの疾患の
それぞれの患者が何千人も協力して
10:42
bipolar disease and so on -- to try and understand the genetics.
208
642000
4000
その遺伝子を解析するという
大がかりなものです
10:46
To try and understand what it is about genetic differences that causes the diseases.
209
646000
3000
その疾患を引き起こす
遺伝子の違いを解析するのです
10:49
Why do we want to do that?
210
649000
2000
なぜ そんなことをしたいのか?
10:51
Because we understand very little about most human diseases.
211
651000
3000
なぜなら ヒトの疾患について
ほとんど 解明されていないからです
10:54
We don't know what causes them.
212
654000
2000
疾患の原因を知らないのです
10:56
And if we can get in at the bottom and understand the genetics,
213
656000
2000
もしも 人類が遺伝学について
その基本を理解したなら
10:58
we'll have a window on the way the disease works,
214
658000
3000
病気の仕組みが理解できて
11:01
and a whole new way about thinking about disease therapies
215
661000
2000
治療や予防的措置などについての
11:03
and preventative treatment and so on.
216
663000
3000
考え方が一新するでしょう
11:06
So that's, as I said, the little diversion on my main love.
217
666000
3000
前にも言ったようにこれが
私の情熱の一端です
11:09
Back to some of the more mundane issues of thinking about uncertainty.
218
669000
5000
もっとありふれた
「不確かさ」について考える問題に戻りましょう
11:14
Here's another quiz for you --
219
674000
2000
皆さんにもう1つクイズがあります
11:16
now suppose we've got a test for a disease
220
676000
2000
あなたはある病気に対して
完全ではないが
11:18
which isn't infallible, but it's pretty good.
221
678000
2000
かなり良い検査を受けました
11:20
It gets it right 99 percent of the time.
222
680000
3000
その検査は99%正確です
11:23
And I take one of you, or I take someone off the street,
223
683000
3000
私は皆さんの内の1人
もしくは通行人から数人を選んで
11:26
and I test them for the disease in question.
224
686000
2000
その検査をしたとします
11:28
Let's suppose there's a test for HIV -- the virus that causes AIDS --
225
688000
4000
例えばHIV(エイズウィルス)の
検査だとしましょう
11:32
and the test says the person has the disease.
226
692000
3000
そして 検査結果は
陽性(感染あり)だったとします
11:35
What's the chance that they do?
227
695000
3000
彼らが本当にHIVに罹っている可能性は?
11:38
The test gets it right 99 percent of the time.
228
698000
2000
99%正確なテストですよ
11:40
So a natural answer is 99 percent.
229
700000
4000
99%と答えるのが当たり前ですね
11:44
Who likes that answer?
230
704000
2000
そうだと思う人は?
11:46
Come on -- everyone's got to get involved.
231
706000
1000
皆さん参加して下さいよ!
11:47
Don't think you don't trust me anymore.
232
707000
2000
誰一人として
私を信用していないとは思いませんが
11:49
(Laughter)
233
709000
1000
(笑)
11:50
Well, you're right to be a bit skeptical, because that's not the answer.
234
710000
3000
皆さんは
「少し疑った方が良いかも 答えは違うのです」
11:53
That's what you might think.
235
713000
2000
そう思っているかも知れません
11:55
It's not the answer, and it's not because it's only part of the story.
236
715000
3000
答えは違います
何故なら 話はまだ一部だからです
11:58
It actually depends on how common or how rare the disease is.
237
718000
3000
実は 罹患率の高さで
この答えは変わってきます
12:01
So let me try and illustrate that.
238
721000
2000
詳しく説明しましょう
12:03
Here's a little caricature of a million individuals.
239
723000
4000
ここに100万人を表した図があります
12:07
So let's think about a disease that affects --
240
727000
3000
1万人に1人しか罹らない
12:10
it's pretty rare, it affects one person in 10,000.
241
730000
2000
とても罹患率の低い病気を考えましょう
12:12
Amongst these million individuals, most of them are healthy
242
732000
3000
100万人のうち
ほとんどは健康で
12:15
and some of them will have the disease.
243
735000
2000
わずかの人数がその患者です
12:17
And in fact, if this is the prevalence of the disease,
244
737000
3000
先ほどの罹患率で言えば
12:20
about 100 will have the disease and the rest won't.
245
740000
3000
100人だけが病気です
12:23
So now suppose we test them all.
246
743000
2000
では 全員を検査するとして
12:25
What happens?
247
745000
2000
どうなるでしょう?
12:27
Well, amongst the 100 who do have the disease,
248
747000
2000
病気にかかっている100人の内で
12:29
the test will get it right 99 percent of the time, and 99 will test positive.
249
749000
5000
99%正確な検査なので
99人の検査が陽性となります
12:34
Amongst all these other people who don't have the disease,
250
754000
2000
残りの病気じゃない人たちにも
12:36
the test will get it right 99 percent of the time.
251
756000
3000
99%正確な検査ですので
12:39
It'll only get it wrong one percent of the time.
252
759000
2000
1%に間違った結果が出ます
12:41
But there are so many of them that there'll be an enormous number of false positives.
253
761000
4000
結果 多くの数の人たちが
偽陽性になってしまうのです
12:45
Put that another way --
254
765000
2000
こうも考えられます―
12:47
of all of them who test positive -- so here they are, the individuals involved --
255
767000
5000
陽性の結果が出た全員の内で
―こちらの人たちです―
12:52
less than one in 100 actually have the disease.
256
772000
5000
実際の患者は
100分の1よりも低い確率です
12:57
So even though we think the test is accurate, the important part of the story is
257
777000
4000
ですから 正確だと思える検査でも
そのほとんどの場合で
13:01
there's another bit of information we need.
258
781000
3000
もっと情報が必要なのです
13:04
Here's the key intuition.
259
784000
2000
これがキーなのです
13:07
What we have to do, once we know the test is positive,
260
787000
3000
検査で陽性と出た時に
やらなければないけないことは
13:10
is to weigh up the plausibility, or the likelihood, of two competing explanations.
261
790000
6000
その妥当性や もっともらしさ(尤度)を
対立する2つの仮説から評価することです
13:16
Each of those explanations has a likely bit and an unlikely bit.
262
796000
3000
その仮説にはそれぞれ
少しずつ成立する時としない時があります
13:19
One explanation is that the person doesn't have the disease --
263
799000
3000
ランダムに1人を選んだ場合
一方の仮説では
13:22
that's overwhelmingly likely, if you pick someone at random --
264
802000
3000
その人が病気でない尤度は
非常に高いが
13:25
but the test gets it wrong, which is unlikely.
265
805000
3000
検査結果が間違い(偽陽性)である
尤度は低い
13:29
The other explanation is that the person does have the disease -- that's unlikely --
266
809000
3000
もう一方の仮説は
その人が病気である尤度は低いが
13:32
but the test gets it right, which is likely.
267
812000
3000
検査結果が正しい(真陽性)
尤度は高いというものです
13:35
And the number we end up with --
268
815000
2000
最終的に統計学者が出すのは
13:37
that number which is a little bit less than one in 100 --
269
817000
3000
その可能性が100分の1より低いかどうか
13:40
is to do with how likely one of those explanations is relative to the other.
270
820000
6000
つまり どちらの仮説が他方より
高い尤度をもつかということです
13:46
Each of them taken together is unlikely.
271
826000
2000
いずれの仮説も総合的には尤度が低いのです
13:49
Here's a more topical example of exactly the same thing.
272
829000
3000
もっと話題になるような例を出してみましょう
13:52
Those of you in Britain will know about what's become rather a celebrated case
273
832000
4000
イギリス人ならサリー・クラークの
有名な事例をご存知でしょう
13:56
of a woman called Sally Clark, who had two babies who died suddenly.
274
836000
5000
彼女には赤ん坊が2人いましたが
突然 亡くなってしまいました
14:01
And initially, it was thought that they died of what's known informally as "cot death,"
275
841000
4000
当初 その2人は「コット・デス」
つまり 新生児突然死症候群で
14:05
and more formally as "Sudden Infant Death Syndrome."
276
845000
3000
亡くなったと考えられていました
14:08
For various reasons, she was later charged with murder.
277
848000
2000
しかし いろいろあって
サリーは殺人者にさせられたのです
14:10
And at the trial, her trial, a very distinguished pediatrician gave evidence
278
850000
4000
裁判では とても著名な小児科医が
こう証言しました
14:14
that the chance of two cot deaths, innocent deaths, in a family like hers --
279
854000
5000
「サリーの様に専門的職業を持ち
かつ非喫煙者の家庭にコット・デスが
14:19
which was professional and non-smoking -- was one in 73 million.
280
859000
6000
非犯罪的に2回も起こる確率は
7,300万分の1である」
14:26
To cut a long story short, she was convicted at the time.
281
866000
3000
端折りますが
サリーは有罪判決を受けました
14:29
Later, and fairly recently, acquitted on appeal -- in fact, on the second appeal.
282
869000
5000
その後つい最近になって
控訴審で無罪になりました
14:34
And just to set it in context, you can imagine how awful it is for someone
283
874000
4000
その人の身になって考えてみて下さい
我が子を2人も
14:38
to have lost one child, and then two, if they're innocent,
284
878000
3000
たて続けに亡くした人が
2人を殺したとして有罪になる
14:41
to be convicted of murdering them.
285
881000
2000
この事件が犯罪でなかったとしたら
どれだけひどいことでしょう
14:43
To be put through the stress of the trial, convicted of murdering them --
286
883000
2000
裁判を通しての精神的重圧や
殺人と判決されること
14:45
and to spend time in a women's prison, where all the other prisoners
287
885000
3000
女性刑務所で過ごす間
他の犯罪者に子どもを殺したと思われることは
14:48
think you killed your children -- is a really awful thing to happen to someone.
288
888000
5000
当事者にとって
本当に悲劇と言いようがありません
14:53
And it happened in large part here because the expert got the statistics
289
893000
5000
そんなことが実際に起こったのです
何故ならその専門家は2つの方法で
14:58
horribly wrong, in two different ways.
290
898000
3000
統計を間違って解釈したのです
15:01
So where did he get the one in 73 million number?
291
901000
4000
その小児科医は7,300万分の1という数字を
どこから出したのでしょう?
15:05
He looked at some research, which said the chance of one cot death in a family
292
905000
3000
彼が読んだいくつかの研究には
サリーと似たような家庭内で起こる
15:08
like Sally Clark's is about one in 8,500.
293
908000
5000
コット・デスは約8,500分の1とあったのです
15:13
So he said, "I'll assume that if you have one cot death in a family,
294
913000
4000
ですから 彼はこう言いました
「家庭内のコット・デスが一度 起きた場合と
15:17
the chance of a second child dying from cot death aren't changed."
295
917000
4000
2度目のコット・デスが起こる確率は
変わらないと仮定する」
15:21
So that's what statisticians would call an assumption of independence.
296
921000
3000
統計学者はこれを
「事象が独立である」と言い
15:24
It's like saying, "If you toss a coin and get a head the first time,
297
924000
2000
「コイントスをして 最初に表が出ても
15:26
that won't affect the chance of getting a head the second time."
298
926000
3000
2回目も表が出る確率に影響しない」
と言うことです
15:29
So if you toss a coin twice, the chance of getting a head twice are a half --
299
929000
5000
つまり コインを2回トスして
2回とも表になる可能性は
15:34
that's the chance the first time -- times a half -- the chance a second time.
300
934000
3000
1回目の確率の50%で
0.5 × 0.5になるのです
15:37
So he said, "Here,
301
937000
2000
だから 彼はこう言いました
15:39
I'll assume that these events are independent.
302
939000
4000
「2つの出来事は独立していると仮定する
15:43
When you multiply 8,500 together twice,
303
943000
2000
8,500を二乗すれば
15:45
you get about 73 million."
304
945000
2000
7,300万になる」
15:47
And none of this was stated to the court as an assumption
305
947000
2000
それが 仮定だとは
裁判で語られませんでしたし
15:49
or presented to the jury that way.
306
949000
2000
陪審員にも
そのように伝えていませんでした
15:52
Unfortunately here -- and, really, regrettably --
307
952000
3000
とても残念です
15:55
first of all, in a situation like this you'd have to verify it empirically.
308
955000
4000
まず最初に この状況では
その仮定が経験的に妥当か確かめるべきでした
15:59
And secondly, it's palpably false.
309
959000
2000
第二に それは明白な誤りです
16:02
There are lots and lots of things that we don't know about sudden infant deaths.
310
962000
5000
新生児の突然死には
解明されていないことが山ほどあります
16:07
It might well be that there are environmental factors that we're not aware of,
311
967000
3000
まだ 発見されていない
環境因子があるかもしれませんし
16:10
and it's pretty likely to be the case that there are
312
970000
2000
まだ発見されていない
遺伝学的因子により
16:12
genetic factors we're not aware of.
313
972000
2000
引き起こされた可能性も高いのです
16:14
So if a family suffers from one cot death, you'd put them in a high-risk group.
314
974000
3000
ですから コット・デスが起こった家族は
ハイリスク群に属するかも知れません
16:17
They've probably got these environmental risk factors
315
977000
2000
そこには まだ知られていない
環境的危険因子があったり
16:19
and/or genetic risk factors we don't know about.
316
979000
3000
その上 遺伝学的危険因子が
あるかもしれないのです
16:22
And to argue, then, that the chance of a second death is as if you didn't know
317
982000
3000
こういう情報を知らないかのように
2番目の死亡の確率を語るのは
16:25
that information is really silly.
318
985000
3000
本当に愚かなことです
16:28
It's worse than silly -- it's really bad science.
319
988000
4000
愚かであるよりも
実に悪質な科学です
16:32
Nonetheless, that's how it was presented, and at trial nobody even argued it.
320
992000
5000
それなのに あんなことが裁判で示され
誰もそのことを議論しなかった
16:37
That's the first problem.
321
997000
2000
それが最初の問題です
16:39
The second problem is, what does the number of one in 73 million mean?
322
999000
4000
2番目の問題は7,300万分の1という
数字の意味するところです
16:43
So after Sally Clark was convicted --
323
1003000
2000
サリー・クラークが有罪になった後
16:45
you can imagine, it made rather a splash in the press --
324
1005000
4000
それが報道で波紋を呼んだというのは
想像に難くありません
16:49
one of the journalists from one of Britain's more reputable newspapers wrote that
325
1009000
7000
イギリスで影響力のある新聞社の
記者はこう書きました
16:56
what the expert had said was,
326
1016000
2000
「専門家が言うことには―
16:58
"The chance that she was innocent was one in 73 million."
327
1018000
5000
『この女が無罪である確率は
7,300万分の1』とのこと」
17:03
Now, that's a logical error.
328
1023000
2000
そう これは論理的エラーです
17:05
It's exactly the same logical error as the logical error of thinking that
329
1025000
3000
この論理的エラーは
先ほどの99%確実な検査なら
17:08
after the disease test, which is 99 percent accurate,
330
1028000
2000
病気に罹っている確率も99%だという
17:10
the chance of having the disease is 99 percent.
331
1030000
4000
論理的エラーと全く同じものです
17:14
In the disease example, we had to bear in mind two things,
332
1034000
4000
その例から 覚えておくべきことは
2つです
17:18
one of which was the possibility that the test got it right or not.
333
1038000
4000
1つはその検査が
正しいか正しくないかの可能性
17:22
And the other one was the chance, a priori, that the person had the disease or not.
334
1042000
4000
もう1つは
その人が病気にかかっている可能性の推測
17:26
It's exactly the same in this context.
335
1046000
3000
この状況では全く同じことです
17:29
There are two things involved -- two parts to the explanation.
336
1049000
4000
そこにも2段階の説明が必要です
17:33
We want to know how likely, or relatively how likely, two different explanations are.
337
1053000
4000
2つの異なった事象の尤度がどれほどか
また関連して起こる尤度はどうでしょう?
17:37
One of them is that Sally Clark was innocent --
338
1057000
3000
1つ目の事象はサリーが無罪であること
17:40
which is, a priori, overwhelmingly likely --
339
1060000
2000
それは常識的に圧倒的に高尤度です
17:42
most mothers don't kill their children.
340
1062000
3000
ほとんどの母親は我が子を殺しません
17:45
And the second part of the explanation
341
1065000
2000
2つ目の事象は
17:47
is that she suffered an incredibly unlikely event.
342
1067000
3000
彼女がこの非常に低尤度な出来事に
遭遇したこと
17:50
Not as unlikely as one in 73 million, but nonetheless rather unlikely.
343
1070000
4000
7,300万分の1の数字程ではありませんが
いずれにしても 起きにくいことです
17:54
The other explanation is that she was guilty.
344
1074000
2000
対する事象はサリーが有罪ということです
17:56
Now, we probably think a priori that's unlikely.
345
1076000
2000
今ならそれが普通に考えて
低尤度だと思うでしょう
17:58
And we certainly should think in the context of a criminal trial
346
1078000
3000
刑事裁判として
尤度が低いと考えるべきです
18:01
that that's unlikely, because of the presumption of innocence.
347
1081000
3000
なぜなら 推定無罪の原則があるからです
18:04
And then if she were trying to kill the children, she succeeded.
348
1084000
4000
もしも 彼女が我が子を殺そうとしたのなら
成功しました
18:08
So the chance that she's innocent isn't one in 73 million.
349
1088000
4000
サリーが無罪である可能性は
7300万分の1ではありません
18:12
We don't know what it is.
350
1092000
2000
それがどういう数字になるのか分りません
18:14
It has to do with weighing up the strength of the other evidence against her
351
1094000
4000
サリーを有罪とする
根拠の確からしさと
18:18
and the statistical evidence.
352
1098000
2000
その統計学的根拠で決まります
18:20
We know the children died.
353
1100000
2000
分かっているのは
子どもたちが死んだことです
18:22
What matters is how likely or unlikely, relative to each other,
354
1102000
4000
争点は2人の死―2つの事象―には
どれほど関連が
18:26
the two explanations are.
355
1106000
2000
ありうるかということです
18:28
And they're both implausible.
356
1108000
2000
この2つは両方ともありえないことです
18:31
There's a situation where errors in statistics had really profound
357
1111000
4000
そこには本当に理解しがたく
悲劇的結果を生んだ
18:35
and really unfortunate consequences.
358
1115000
3000
統計学に関してのエラーでした
18:38
In fact, there are two other women who were convicted on the basis of the
359
1118000
2000
この小児科医の論拠が採用されて
他にも2人の女性が
18:40
evidence of this pediatrician, who have subsequently been released on appeal.
360
1120000
4000
有罪にされましたが
裁判によって結果的に釈放されています
18:44
Many cases were reviewed.
361
1124000
2000
多くの事件が再調査されました
18:46
And it's particularly topical because he's currently facing a disrepute charge
362
1126000
4000
この小児科医は現在イギリス医学会議で
18:50
at Britain's General Medical Council.
363
1130000
3000
査問にかけられていることが
話題になっています
18:53
So just to conclude -- what are the take-home messages from this?
364
1133000
4000
では まとめます
このことから何を学びましたか?
18:57
Well, we know that randomness and uncertainty and chance
365
1137000
4000
そうです
不規則や不確定 偶然は
19:01
are very much a part of our everyday life.
366
1141000
3000
日常的によくあることだということです
19:04
It's also true -- and, although, you, as a collective, are very special in many ways,
367
1144000
5000
また 皆さんは多くの場合で
集団としてとても特別なのです
19:09
you're completely typical in not getting the examples I gave right.
368
1149000
4000
皆さんがこれらの例を理解できないのは
当たり前のことです
19:13
It's very well documented that people get things wrong.
369
1153000
3000
人々が物事を間違って解釈することは
実証済みです
19:16
They make errors of logic in reasoning with uncertainty.
370
1156000
3000
人は不確実な理由付けで
論理的エラーを犯します
19:20
We can cope with the subtleties of language brilliantly --
371
1160000
2000
言語の微妙さへの対処は
得意なのですが
19:22
and there are interesting evolutionary questions about how we got here.
372
1162000
3000
そこにどのようにして到達したかについては
興味深い進化的問題があります
19:25
We are not good at reasoning with uncertainty.
373
1165000
3000
私たちは 不確かさについて
論証することが苦手なので
19:28
That's an issue in our everyday lives.
374
1168000
2000
日々の生活での難問となります
19:30
As you've heard from many of the talks, statistics underpins an enormous amount
375
1170000
3000
多くのTEDトークでわかるように
統計学は広範な科学研究を裏付けます
19:33
of research in science -- in social science, in medicine
376
1173000
3000
その分野は社会科学や 医学だけでなく
19:36
and indeed, quite a lot of industry.
377
1176000
2000
多くの産業にも渡ります
19:38
All of quality control, which has had a major impact on industrial processing,
378
1178000
4000
生産過程に大きな影響を与えてきた
品質管理は
19:42
is underpinned by statistics.
379
1182000
2000
全て統計に裏付けられています
19:44
It's something we're bad at doing.
380
1184000
2000
それを理解するのは
私たちが不得意とするところです
19:46
At the very least, we should recognize that, and we tend not to.
381
1186000
3000
私たちはそれを無視しがちですが
最低限認識はすべきです
19:49
To go back to the legal context, at the Sally Clark trial
382
1189000
4000
サリー・クラークの裁判に立ち返ると
19:53
all of the lawyers just accepted what the expert said.
383
1193000
4000
全ての法律家が
専門家の言いなりになったのです
19:57
So if a pediatrician had come out and said to a jury,
384
1197000
2000
ですから
ある小児科医が陪審員に
19:59
"I know how to build bridges. I've built one down the road.
385
1199000
3000
「私は橋の建設方法を知っています
この先に橋を作りましたから
20:02
Please drive your car home over it,"
386
1202000
2000
その橋を通って帰宅してください」
と言ったら
20:04
they would have said, "Well, pediatricians don't know how to build bridges.
387
1204000
2000
きっとこう返事するでしょう
「小児科医が橋の建設だって?
20:06
That's what engineers do."
388
1206000
2000
それはエンジニアがすることだ」
20:08
On the other hand, he came out and effectively said, or implied,
389
1208000
3000
それなのに 彼のこんな発言は
説得力を発揮しました
20:11
"I know how to reason with uncertainty. I know how to do statistics."
390
1211000
3000
「不確かさの扱いかたを知っています
私は統計を理解しているのですから」
20:14
And everyone said, "Well, that's fine. He's an expert."
391
1214000
3000
すると 皆はこう言ったのです
「結構ですね 彼は専門家ですから」
20:17
So we need to understand where our competence is and isn't.
392
1217000
3000
ですから 私たちは自分はなにが得意かを
理解する必要があります
20:20
Exactly the same kinds of issues arose in the early days of DNA profiling,
393
1220000
4000
全く同じ様な問題がDNA鑑定の
初期に発生しました
20:24
when scientists, and lawyers and in some cases judges,
394
1224000
4000
科学者も法律家も
時には裁判官たちまでも
20:28
routinely misrepresented evidence.
395
1228000
3000
何度も証拠を間違えて提示したのです
20:32
Usually -- one hopes -- innocently, but misrepresented evidence.
396
1232000
3000
たいてい悪意はなく ―そう願います
誤った証拠を提示したのです
20:35
Forensic scientists said, "The chance that this guy's innocent is one in three million."
397
1235000
5000
犯罪学者がこう言いました
「無罪である確率は300万分の1だ」
20:40
Even if you believe the number, just like the 73 million to one,
398
1240000
2000
7300万分の1の数字同様
その数字自体を信じたとしても
20:42
that's not what it meant.
399
1242000
2000
そういう意味ではないのです
20:44
And there have been celebrated appeal cases
400
1244000
2000
おかげで イギリスやほかの国でも
20:46
in Britain and elsewhere because of that.
401
1246000
2000
よく知られた控訴例が続出しています
20:48
And just to finish in the context of the legal system.
402
1248000
3000
法律制度の話として締めくくりますと
20:51
It's all very well to say, "Let's do our best to present the evidence."
403
1251000
4000
「証拠を提出するのに最善を尽くしましょう」
とはよく言われますが
20:55
But more and more, in cases of DNA profiling -- this is another one --
404
1255000
3000
DNA鑑定のような場合
何度も同じようなことが起こります
20:58
we expect juries, who are ordinary people --
405
1258000
3000
陪審員は一般人ですし
21:01
and it's documented they're very bad at this --
406
1261000
2000
検証は苦手だと実証されているのに
21:03
we expect juries to be able to cope with the sorts of reasoning that goes on.
407
1263000
4000
私たちは陪審員が繰り返し出て来る
論証法に対処できることを期待してしまいます
21:07
In other spheres of life, if people argued -- well, except possibly for politics --
408
1267000
5000
多分 政治に関する場合を除いて
ある生活側面では論理的に議論し
21:12
but in other spheres of life, if people argued illogically,
409
1272000
2000
他の側面では論理的でない議論をしたら
21:14
we'd say that's not a good thing.
410
1274000
2000
それは良くないことだと思うでしょう
21:16
We sort of expect it of politicians and don't hope for much more.
411
1276000
4000
政治家には起こることかもしれませんが
それ以外で起こってほしくはありません
21:20
In the case of uncertainty, we get it wrong all the time --
412
1280000
3000
しかし 不確かさを扱う場合
私たちはいつも間違いを犯します
21:23
and at the very least, we should be aware of that,
413
1283000
2000
私たちは
最低限それに気づく必要があります
21:25
and ideally, we might try and do something about it.
414
1285000
2000
理想を言えば
何か策を講じられればよいのですが
21:27
Thanks very much.
415
1287000
1000
ありがとうございました
New videos
このウェブサイトについて
このサイトでは英語学習に役立つYouTube動画を紹介します。世界中の一流講師による英語レッスンを見ることができます。各ビデオのページに表示される英語字幕をダブルクリックすると、そこからビデオを再生することができます。字幕はビデオの再生と同期してスクロールします。ご意見・ご要望がございましたら、こちらのお問い合わせフォームよりご連絡ください。