Bruce Bueno de Mesquita predicts Iran's future

141,700 views ・ 2009-04-07

TED


אנא לחץ פעמיים על הכתוביות באנגלית למטה כדי להפעיל את הסרטון.

מתרגם: Yifat Adler מבקר: Shlomi Agmon
00:18
What I'm going to try to do is explain to you
0
18330
3000
מה שאנסה להסביר לכם
00:21
quickly how to predict,
1
21330
2000
בזריזות, הוא כיצד לחזות,
00:23
and illustrate it with some predictions
2
23330
2000
ואמחיש זאת עם כמה תחזיות
00:25
about what Iran is going to do in the next couple of years.
3
25330
5000
למהלכים של אירן בשנים הקרובות.
00:30
In order to predict effectively,
4
30330
3000
בכדי לחזות ביעילות,
00:33
we need to use science.
5
33330
3000
עלינו להשתמש במדע.
00:36
And the reason that we need to use science
6
36330
3000
אנו זקוקים למדע, כי באמצעותו
00:39
is because then we can reproduce what we're doing;
7
39330
2000
אנו יכולים לשחזר את הפעולות שלנו --
00:41
it's not just wisdom or guesswork.
8
41330
3000
אין המדובר רק בחוכמה או בניחושים.
00:44
And if we can predict,
9
44330
3000
ואם אנחנו יכולים לחזות מראש,
00:47
then we can engineer the future.
10
47330
2000
אנחנו יכולים לעצב את העתיד.
00:49
So if you are concerned to influence energy policy,
11
49330
4000
כך שאם אתם רוצים להשפיע על מדיניות האנרגיה,
00:53
or you are concerned to influence national security policy,
12
53330
5000
או אם אתם רוצים להשפיע על מדיניות הביטחון הלאומי,
00:58
or health policy, or education,
13
58330
3000
או על מדיניות הבריאות, או החינוך -
01:01
science -- and a particular branch of science -- is a way to do it,
14
61330
4000
המדע - ענף מסויים של המדע - יאפשר לכם לעשות זאת,
01:05
not the way we've been doing it,
15
65330
2000
ולא באופן בו עשינו זאת בעבר,
01:07
which is seat-of-the-pants wisdom.
16
67330
2000
שהיה שליפה מן המותן.
01:09
Now before I get into how to do it
17
69330
2000
לפני שאכנס לפרטים -
01:11
let me give you a little truth in advertising,
18
71330
3000
הנה עובדה לגבי עולם הפירסום:
01:14
because I'm not engaged in the business of magic.
19
74330
3000
מכיוון שאני לא בעסקי הקסמים,
01:17
There are lots of thing that the approach I take can predict,
20
77330
4000
ישנם דברים רבים שהגישה שלי יכולה לחזות,
01:21
and there are some that it can't.
21
81330
2000
וישנם כאלה שלא.
01:23
It can predict complex negotiations
22
83330
3000
היא יכולה לחזות משאים ומתנים מורכבים
01:26
or situations involving coercion --
23
86330
3000
או מצבים שמעורב בהם כוח.
01:29
that is in essence everything that has to do with politics,
24
89330
4000
כלומר, כל דבר שקשור לפוליטיקה,
01:33
much of what has to do with business,
25
93330
2000
הרבה ממה שקשור לעסקים,
01:35
but sorry, if you're looking to speculate in the stock market,
26
95330
6000
אבל, מצטער, אם אתם רוצים לשחק בשוק המניות,
01:41
I don't predict stock markets -- OK,
27
101330
2000
אני לא האיש המתאים. אוקיי -
01:43
it's not going up any time really soon.
28
103330
3000
הוא לא עומד לעלות בקרוב,
01:46
But I'm not engaged in doing that.
29
106330
3000
אבל אני לא עוסק בכך.
01:49
I'm not engaged in predicting random number generators.
30
109330
3000
אני לא עוסק בחיזוי של מחוללי מספרים אקראיים.
01:52
I actually get phone calls from people
31
112330
2000
למעשה, אנשים מתקשרים אלי
01:54
who want to know what lottery numbers are going to win.
32
114330
3000
בכדי לברר אילו מספרי לוטו יעלו בגורל.
01:57
I don't have a clue.
33
117330
3000
אין לי שמץ של מושג.
02:00
I engage in the use of game theory, game theory is a branch of mathematics
34
120330
4000
אני עוסק ביישום של תורת המשחקים, שהיא ענף מתמטי.
02:04
and that means, sorry, that even in the study of politics,
35
124330
4000
אני מצטער, אך פירושו של דבר שאפילו בלימודי הפוליטיקה,
02:08
math has come into the picture.
36
128330
3000
המתמטיקה נכנסת לתמונה.
02:11
We can no longer pretend that we just speculate about politics,
37
131330
4000
אנחנו כבר לא יכולים להעמיד פנים שאנחנו רק משערים אודות פוליטיקה,
02:15
we need to look at this in a rigorous way.
38
135330
3000
עלינו להביט על העניין בצורה מעמיקה ויסודית.
02:18
Now, what is game theory about?
39
138330
3000
ובכן, מהי תורת המשחקים?
02:21
It assumes that people are looking out for what's good for them.
40
141330
5000
תורת המשחקים מניחה שאנשים שואפים למה שטוב בעבורם.
02:26
That doesn't seem terribly shocking --
41
146330
2000
זה לא נשמע כל כך מפתיע -
02:28
although it's controversial for a lot of people --
42
148330
2000
על אף שבעיני רבים זה שנוי במחלוקת -
02:30
that we are self-interested.
43
150330
4000
שהמניעים שלנו אנוכיים.
02:34
In order to look out for what's best for them
44
154330
2000
כדי להשיג את מה שהכי טוב עבורם,
02:36
or what they think is best for them,
45
156330
2000
או את מה שהם חושבים שהוא הכי טוב עבורם -
02:38
people have values -- they identify what they want, and what they don't want.
46
158330
4000
לאנשים יש ערכים - הם מזהים מה הם רוצים, ומה הם לא רוצים.
02:42
And they have beliefs about what other people want,
47
162330
3000
ויש להם אמונות על מה שאנשים אחרים רוצים,
02:45
and what other people don't want, how much power other people have,
48
165330
3000
ועל מה שאנשים אחרים לא רוצים, על גודל הכוח שיש לאנשים אחרים,
02:48
how much those people could get in the way of whatever it is that you want.
49
168330
4000
ועל המידה בה אנשים אחרים יכולים להיות למכשול לרצונות שלהם.
02:52
And they face limitations, constraints,
50
172330
4000
עומדות בפניהם מגבלות ואילוצים.
02:56
they may be weak, they may be located in the wrong part of the world,
51
176330
3000
הם עלולים להיות חלשים, או ממוקמים בחלק הלא נכון של העולם.
02:59
they may be Einstein, stuck away farming
52
179330
3000
הם עלולים להיות איינשטיין, תקוע כאיכר
03:02
someplace in a rural village in India not being noticed,
53
182330
4000
בכפר נידח בהודו, בלי שאף אחד לא יבחין בו,
03:06
as was the case for Ramanujan for a long time,
54
186330
3000
כפי שהיה רמנוג'ן במשך זמן רב -
03:09
a great mathematician but nobody noticed.
55
189330
3000
מתמטיקאי ענק שאף אחד לא הבחין בו.
03:12
Now who is rational?
56
192330
2000
מי פועל בהגיון?
03:14
A lot of people are worried about what is rationality about?
57
194330
3000
אנשים רבים מוטרדים מהשאלה מהי רציונליות?
03:17
You know, what if people are rational?
58
197330
2000
אנשים פועלים בהגיון.
03:19
Mother Theresa, she was rational.
59
199330
3000
אמא תרזה פעלה בהגיון.
03:22
Terrorists, they're rational.
60
202330
4000
טרוריסטים פועלים בהגיון.
03:26
Pretty much everybody is rational.
61
206330
3000
רוב האנשים פועלים בהגיון.
03:29
I think there are only two exceptions that I'm aware of --
62
209330
3000
ישנם רק שני יוצאי דופן שאני מודע אליהם -
03:32
two-year-olds, they are not rational,
63
212330
2000
בני שנתיים. הם לא פועלים בהגיון.
03:34
they have very fickle preferences,
64
214330
3000
ההעדפות שלהם מאוד הפכפכות,
03:37
they switch what they think all the time,
65
217330
2000
והם משנים את דעתם כל הזמן.
03:39
and schizophrenics are probably not rational,
66
219330
3000
וקרוב לודאי שגם סכיזופרנים לא פועלים בהגיון.
03:42
but pretty much everybody else is rational.
67
222330
2000
אבל כמעט כל שאר האנשים פועלים בהגיון.
03:44
That is, they are just trying to do
68
224330
2000
כלומר, הם בסה"כ מנסים לעשות
03:46
what they think is in their own best interest.
69
226330
5000
את מה שהם חושבים שיביא להם את התועלת הרבה ביותר.
03:51
Now in order to work out what people are going to do
70
231330
2000
כדי לפענח מה אנשים יעשו
03:53
to pursue their interests,
71
233330
2000
בכדי להשיג את האינטרסים שלהם,
03:55
we have to think about who has influence in the world.
72
235330
2000
עלינו לחשוב מיהם בעלי ההשפעה בעולם.
03:57
If you're trying to influence corporations to change their behavior,
73
237330
5000
אם אתם מנסים להשפיע על תאגידים לשנות את התנהגותם
04:02
with regard to producing pollutants,
74
242330
3000
בנוגע לייצור חומרים מזהמים -
04:05
one approach, the common approach,
75
245330
2000
אז גישה אחת, השכיחה יותר, היא
04:07
is to exhort them to be better,
76
247330
2000
להטיף להם לשפר את התנהגותם,
04:09
to explain to them what damage they're doing to the planet.
77
249330
3000
ולהסביר להם איזה נזק הם גורמים לכדור הארץ.
04:12
And many of you may have noticed that doesn't have
78
252330
2000
רבים מכם אולי הבחינו שאין לכך
04:14
as big an effect, as perhaps you would like it to have.
79
254330
4000
השפעה גדולה, כמו שאולי הייתם רוצים שתהיה.
04:18
But if you show them that it's in their interest,
80
258330
3000
אבל אם מראים להם שהם יפיקו מכך תועלת -
04:21
then they're responsive.
81
261330
2000
הם מגיבים בצורה חיובית.
04:23
So, we have to work out who influences problems.
82
263330
3000
אם כך, עלינו לגלות מי משפיע על הבעיות.
04:26
If we're looking at Iran, the president of the United States
83
266330
2000
אם נתבונן באירן, למשל -
04:28
we would like to think, may have some influence --
84
268330
3000
היינו רוצים לחשוב שלנשיא ארה"ב יש השפעה כלשהי.
04:31
certainly the president in Iran has some influence --
85
271330
4000
ודאי שלנשיא אירן יש השפעה כלשהי.
04:35
but we make a mistake if we just pay attention
86
275330
3000
אבל אנחנו נטעה אם רק נשים לב
04:38
to the person at the top of the power ladder
87
278330
3000
לאדם שנמצא בראש סולם הכוח.
04:41
because that person doesn't know much about Iran,
88
281330
3000
מכיוון שהאדם הזה לא יודע כל כך הרבה על אירן,
04:44
or about energy policy,
89
284330
2000
או על מדיניות האנרגיה,
04:46
or about health care,
90
286330
2000
או על הבריאות,
04:48
or about any particular policy.
91
288330
2000
או על כל מדיניות שהיא.
04:50
That person surrounds himself or herself with advisers.
92
290330
5000
האדם הזה מקיף את עצמו או עצמה ביועצים.
04:55
If we're talking about national security problems,
93
295330
2000
אם נדון בבעיות של בטחון לאומי,
04:57
maybe it's the Secretary of State,
94
297330
2000
אולי זהו מזכיר המדינה,
04:59
maybe it's the Secretary of Defense,
95
299330
2000
אולי זהו שר ההגנה,
05:01
the Director of National Intelligence,
96
301330
2000
ראש המודיעין הלאומי,
05:03
maybe the ambassador to the United Nations, or somebody else
97
303330
2000
אולי השגריר באו"ם, או מישהו אחר
05:05
who they think is going to know more about the particular problem.
98
305330
4000
שהם חושבים שידע יותר על הבעיה המסויימת.
05:09
But let's face it, the Secretary of State doesn't know much about Iran.
99
309330
3000
אבל בואו נכיר בעובדות - מזכיר המדינה לא יודע הרבה על אירן.
05:12
The secretary of defense doesn't know much about Iran.
100
312330
3000
גם שר ההגנה לא יודע הרבה על אירן.
05:15
Each of those people in turn
101
315330
3000
לכל אחד מהאנשים האלה בתורו
05:18
has advisers who advise them,
102
318330
2000
יש יועצים שמייעצים לו,
05:20
so they can advise the president.
103
320330
3000
וכך הם יכולים לייעץ לנשיא.
05:23
There are lots of people shaping decisions
104
323330
3000
אנשים רבים משפיעים על ההחלטות.
05:26
and so if we want to predict correctly
105
326330
2000
ולכן אם אנו רוצים לחזות בצורה נכונה,
05:28
we have to pay attention to everybody
106
328330
3000
אנחנו צריכים לשים לב לכל
05:31
who is trying to shape the outcome,
107
331330
2000
מי שמנסה להשפיע על התוצאה,
05:33
not just the people at the pinnacle
108
333330
3000
ולא רק לאנשים שנמצאים
05:36
of the decision-making pyramid.
109
336330
4000
בראש פירמידת קבלת ההחלטות.
05:40
Unfortunately, a lot of times we don't do that.
110
340330
2000
לרוע המזל, הרבה פעמים אנחנו לא עושים זאת.
05:42
There's a good reason that we don't do that,
111
342330
2000
יש סיבה טובה לכך שאיננו עושים זאת,
05:44
and there's a good reason that using game theory and computers,
112
344330
3000
אך יש גם סיבה טובה לכך ששימוש בתורת המשחקים ובמחשבים,
05:47
we can overcome the limitation
113
347330
3000
יוכל לעזור לנו להתגבר על המגבלות
05:50
of just looking at a few people.
114
350330
2000
בבדיקה של אפילו רק מספר קטן של אנשים.
05:52
Imagine a problem with just five decision-makers.
115
352330
4000
דמיינו בעיה שכוללת רק חמישה מקבלי החלטות.
05:56
Imagine for example
116
356330
2000
דמיינו לדוגמא,
05:58
that Sally over here,
117
358330
2000
שסאלי כאן
06:00
wants to know what Harry, and Jane,
118
360330
3000
רוצה לדעת מה הארי וג'יין
06:03
and George and Frank are thinking,
119
363330
3000
וג'ורג' ופרנק חושבים.
06:06
and sends messages to those people.
120
366330
2000
היא שולחת הודעות לאנשים האלה.
06:08
Sally's giving her opinion to them,
121
368330
2000
סאלי אומרת להם מה דעתה,
06:10
and they're giving their opinion to Sally.
122
370330
3000
והם אומרים בחזרה לסאלי מה דעתם.
06:13
But Sally also wants to know
123
373330
2000
אבל סאלי גם רוצה לדעת
06:15
what Harry is saying to these three,
124
375330
3000
מה הארי אומר לשלושת האחרים,
06:18
and what they're saying to Harry.
125
378330
2000
ומה הם אומרים להארי.
06:20
And Harry wants to know
126
380330
2000
והארי רוצה לדעת
06:22
what each of those people are saying to each other, and so on,
127
382330
3000
מה כל האחרים אומרים זה לזה, וכך הלאה,
06:25
and Sally would like to know what Harry thinks those people are saying.
128
385330
3000
וסאלי רוצה לדעת מה הארי חושב שהאנשים האלה אומרים.
06:28
That's a complicated problem; that's a lot to know.
129
388330
3000
זוהי בעיה מורכבת; יש בה הרבה דברים שצריך לדעת.
06:31
With five decision-makers
130
391330
3000
עם חמישה מקבלי החלטות
06:34
there are a lot of linkages --
131
394330
2000
ישנם קשרים רבים -
06:36
120, as a matter of fact,
132
396330
2000
למעשה, 120 קשרים,
06:38
if you remember your factorials.
133
398330
2000
אם תיזכרו בפעולת העצרת.
06:40
Five factorial is 120.
134
400330
2000
חמש עצרת (!5) זה 120.
06:42
Now you may be surprised to know
135
402330
2000
אולי תופתעו לדעת
06:44
that smart people can keep 120 things straight
136
404330
3000
שאנשים פיקחים מסוגלים לזכור כהלכה 120 פרטים
06:47
in their head.
137
407330
2000
בראשם.
06:49
Suppose we double the number of influencers
138
409330
2000
אם נכפיל את מספר המשפיעים
06:51
from five to 10.
139
411330
2000
מחמישה לעשרה.
06:53
Does that mean we've doubled the number of pieces of information
140
413330
4000
האם זאת אומרת שהכפלנו את מספר פריטי המידע
06:57
we need to know, from 120 to 240?
141
417330
2000
שעלינו לדעת מ-120 ל-240?
06:59
No. How about 10 times?
142
419330
2000
לא. ומה לגבי פי 10?
07:01
To 1,200? No.
143
421330
3000
ל-1,200? לא.
07:04
We've increased it to 3.6 million.
144
424330
3000
הגדלנו אותו ל-3.6 מיליון.
07:07
Nobody can keep that straight in their head.
145
427330
2000
אף אחד לא יכול לשמור את כל זה בראש.
07:09
But computers,
146
429330
3000
אבל מחשבים
07:12
they can. They don't need coffee breaks,
147
432330
3000
הם יכולים. הם לא זקוקים להפסקות קפה,
07:15
they don't need vacations,
148
435330
3000
הם לא צריכים חופשות,
07:18
they don't need to go to sleep at night,
149
438330
2000
הם לא צריכים לישון בלילה,
07:20
they don't ask for raises either.
150
440330
3000
הם גם לא מבקשים העלאות במשכורת.
07:23
They can keep this information straight
151
443330
2000
הם יכולים לשמור את המידע בשלמותו
07:25
and that means that we can process the information.
152
445330
3000
ולפיכך אנחנו יכולים לעבד אותו.
07:28
So I'm going to talk to you about how to process it,
153
448330
2000
אסביר לכם על אופן עיבוד הנתונים,
07:30
and I'm going to give you some examples out of Iran,
154
450330
3000
ואציג בפניכם כמה דוגמאות לגבי אירן,
07:33
and you're going to be wondering,
155
453330
2000
ואתם תתהו לעצמכם,
07:35
"Why should we listen to this guy?
156
455330
2000
"למה שנקשיב לברנש הזה?
07:37
Why should we believe what he's saying?"
157
457330
3000
למה שנאמין למה שהוא אומר?"
07:40
So I'm going to show you a factoid.
158
460330
4000
אציג בפניכם אמונה רווחת.
07:44
This is an assessment by the Central Intelligence Agency
159
464330
3000
זוהי הערכה של סוכנות הביון המרכזית (CIA)
07:47
of the percentage of time
160
467330
2000
לאחוז המקרים
07:49
that the model I'm talking about
161
469330
2000
שבהם המודל שעליו אני מדבר
07:51
is right in predicting things whose outcome is not yet known,
162
471330
3000
צודק בחזיית דברים שהתוצאה שלהם עדיין לא ידועה,
07:54
when the experts who provided the data inputs
163
474330
4000
כאשר המומחים שסיפקו את הנתונים
07:58
got it wrong.
164
478330
2000
טעו ב-90% מהמקרים.
08:00
That's not my claim, that's a CIA claim -- you can read it,
165
480330
3000
זאת לא הטענה שלי, זאת הטענה של ה-CIA - אתם יכולים לקרוא אותה.
08:03
it was declassified a while ago. You can read it in a volume edited by
166
483330
3000
הסיווג שלה הוסר לא מזמן. תוכלו לקרוא אותה בספר
08:06
H. Bradford Westerfield, Yale University Press.
167
486330
3000
שנערך ע"י ה. בראדפורד ווסטרפילד, בהוצאת אוניברסיטת ייל.
08:09
So, what do we need to know
168
489330
2000
אם כך, מה נצטרך לדעת
08:11
in order to predict?
169
491330
2000
בשביל לבצע תחזיות?
08:13
You may be surprised to find out we don't need to know very much.
170
493330
3000
בוודאי תופתעו לגלות שאנחנו לא צריכים לדעת כל כך הרבה.
08:16
We do need to know who has a stake
171
496330
3000
אנחנו צריכים לדעת מיהם בעלי העניין
08:19
in trying to shape the outcome of a decision.
172
499330
5000
שינסו להשפיע על תוצאות ההחלטה.
08:24
We need to know what they say they want,
173
504330
3000
אנחנו צריכים לדעת את מה שהם אומרים שהם רוצים.
08:27
not what they want in their heart of hearts,
174
507330
3000
לא את מה שהם רוצים בסתר ליבם,
08:30
not what they think they can get,
175
510330
2000
ולא את מה שהם חושבים שהם יכולים להשיג,
08:32
but what they say they want, because that is a strategically chosen position,
176
512330
3000
אלא מה הם אומרים שהם רוצים, מכיוון שזוהי עמדה שנבחרה אסטרטגית,
08:35
and we can work backwards from that
177
515330
2000
ואנחנו יכולים לעבוד אחורנית מהעמדה הזאת
08:37
to draw inferences about important features of their decision-making.
178
517330
4000
בכדי להסיק מכך מאפיינים חשובים בתהליכי קבלת ההחלטות שלהם.
08:41
We need to know how focused they are
179
521330
2000
אנחנו צריכים לדעת עד כמה הם ממוקדים
08:43
on the problem at hand.
180
523330
2000
בבעיה הנדונה.
08:45
That is, how willing are they to drop what they're doing when the issue comes up,
181
525330
3000
כלומר, עד כמה הם מוכנים לזנוח את עיסוקיהם ברגע שהנושא עולה,
08:48
and attend to it instead of something else that's on their plate --
182
528330
4000
ולהתעסק בה, במקום בדברים אחרים שעומדים על הפרק.
08:52
how big a deal is it to them?
183
532330
2000
מה רמת החשיבות של העניין בעיניהם?
08:54
And how much clout could they bring to bear
184
534330
3000
וכמה כוח הם יוכלו להפעיל
08:57
if they chose to engage on the issue?
185
537330
5000
אם הם יבחרו להיכנס לעובי הקורה.
09:02
If we know those things
186
542330
2000
אם נדע את הדברים האלה
09:04
we can predict their behavior by assuming that everybody
187
544330
3000
נוכל לחזות את ההתנהגות שלהם בהנחה
09:07
cares about two things on any decision.
188
547330
5000
שיש שני דברים שחשובים לכל אחד במהלך קבלת החלטות:
09:12
They care about the outcome. They'd like an outcome as close to
189
552330
2000
אכפת להם מה תהיה התוצאה - הם רוצים שהתוצאה תהיה
09:14
what they are interested in as possible.
190
554330
3000
קרובה ככל האפשר לתוצאה בה הם מעוניינים.
09:17
They're careerists, they also care about getting credit --
191
557330
3000
הם אנשי קריירה - חשוב להם גם לקבל קרדיט.
09:20
there's ego involvement,
192
560330
2000
גם האגו מעורב.
09:22
they want to be seen as important in shaping the outcome,
193
562330
4000
הם רוצים להיראות חשובים בעיצוב התוצאה,
09:26
or as important, if it's their druthers, to block an outcome.
194
566330
5000
או חשובים בסיכול התוצאה, אם זוהי מטרתם.
09:31
And so we have to figure out how they balance those two things.
195
571330
3000
ולכן עלינו להבין כיצד הם מאזנים בין שני הדברים.
09:34
Different people trade off
196
574330
2000
אנשים שונים נעים
09:36
between standing by their outcome,
197
576330
3000
בין דביקות בתוצאה אליה הם שואפים
09:39
faithfully holding to it, going down in a blaze of glory,
198
579330
3000
בהתמדה ובמסירות, וקבלת תבוסה בהדרת כבוד,
09:42
or giving it up, putting their finger in the wind,
199
582330
3000
לבין ויתור עליה, בדיקה לאן נושבת הרוח,
09:45
and doing whatever they think is going to be a winning position.
200
585330
3000
ומעבר לעמדה שנראית להם כמנצחת.
09:48
Most people fall in between, and if we can work out where they fall
201
588330
3000
רוב האנשים הם באמצע, ואם נוכל להבין איפה הם נמצאים,
09:51
we can work out how to negotiate with them
202
591330
2000
נוכל להבין כיצד לשאת ולתת איתם
09:53
to change their behavior.
203
593330
2000
כדי לשנות את התנהגותם.
09:55
So with just that little bit of input
204
595330
3000
וכך באמצעות נתונים מעטים אלו בלבד
09:58
we can work out what the choices are that people have,
205
598330
3000
אנו יכולים להבין מהן האפשרויות העומדות בפני אנשים,
10:01
what the chances are that they're willing to take,
206
601330
3000
אילו סיכונים הם מוכנים לקחת,
10:04
what they're after, what they value, what they want,
207
604330
3000
מה המטרות שלהם, מה הם מעריכים, מה הם רוצים,
10:07
and what they believe about other people.
208
607330
3000
ומה האמונות שלהם לגבי אנשים אחרים.
10:10
You might notice what we don't need to know:
209
610330
4000
אולי שמתם לב אילו נתונים אינם דרושים לנו.
10:14
there's no history in here.
210
614330
2000
אין כאן נתונים לגבי העבר.
10:16
How they got to where they are
211
616330
2000
האופן בו הם הגיעו לעמדתם הנוכחית
10:18
may be important in shaping the input information,
212
618330
2000
עשוי להיות חשוב בבניית נתוני הקלט,
10:20
but once we know where they are
213
620330
2000
אך מרגע שעמדתם ידועה,
10:22
we're worried about where they're going to be headed in the future.
214
622330
3000
אנו רוצים לגלות לאן מועדות פניהם בעתיד.
10:25
How they got there turns out not to be terribly critical in predicting.
215
625330
4000
מסתבר שהאופן בו הגיעו לעמדתם הנוכחית איננו בעל חשיבות רבה לצורך החיזוי.
10:29
I remind you of that 90 percent accuracy rate.
216
629330
4000
אני מזכיר לכם שיש לנו 90 אחוזי דיוק.
10:33
So where are we going to get this information?
217
633330
2000
איפה נוכל להשיג את הנתונים האלה?
10:35
We can get this information
218
635330
3000
אנחנו יכולים להשיג את הנתונים
10:38
from the Internet, from The Economist,
219
638330
3000
מהאינטרנט, מהאקונומיסט,
10:41
The Financial Times, The New York Times,
220
641330
3000
מהפייננשל טיימס, מהניו-יורק טיימס,
10:44
U.S. News and World Report, lots of sources like that,
221
644330
3000
מהיו.אס. ניוז אנד וורלד ריפורט, וממקורות רבים כאלה,
10:47
or we can get it from asking experts
222
647330
2000
או שאנחנו יכולים לתשאל מומחים
10:49
who spend their lives studying places and problems,
223
649330
3000
שמקדישים את חייהם למחקר על מקומות ובעיות,
10:52
because those experts know this information.
224
652330
3000
מכיוון שהמומחים יודעים את הנתונים האלה.
10:55
If they don't know, who are the people trying to influence the decision,
225
655330
3000
אם הם לא יודעים מי האנשים שמנסים להשפיע על ההחלטה,
10:58
how much clout do they have,
226
658330
2000
כמה כוח יש להם,
11:00
how much they care about this issue, and what do they say they want,
227
660330
3000
כמה אכפת להם מהנושא, ומה הם אומרים שהם רוצים,
11:03
are they experts? That's what it means to be an expert,
228
663330
3000
אז האם הם מומחים? הרי זוהי המשמעות של להיות מומחה,
11:06
that's the basic stuff an expert needs to know.
229
666330
4000
אלו הם הדברים הבסיסיים שמומחה צריך לדעת.
11:10
Alright, lets turn to Iran.
230
670330
2000
נחזור לאירן.
11:12
Let me make three important predictions --
231
672330
3000
יש לי שלוש תחזיות חשובות -
11:15
you can check this out, time will tell.
232
675330
3000
תוכלו לבדוק אותן. ימים יגידו.
11:18
What is Iran going to do about its nuclear weapons program?
233
678330
8000
מה תעשה אירן עם תוכנית הנשק הגרעיני שלה?
11:26
How secure is the theocratic regime in Iran?
234
686330
3000
עד כמה יציב המשטר התיאוקרטי באירן?
11:29
What's its future?
235
689330
2000
מה העתיד שלו?
11:31
And everybody's best friend,
236
691330
3000
והחבר הכי טוב של כולנו,
11:34
Ahmadinejad. How are things going for him?
237
694330
3000
אחמדי-נג'אד. מה צפוי לו?
11:37
How are things going to be working out for him in the next year or two?
238
697330
6000
מה צפוי לו בשנה-שנתיים הבאות?
11:43
You take a look at this, this is not based on statistics.
239
703330
3000
התבוננו בזה. זה לא מבוסס על סטטיסטיקות.
11:46
I want to be very clear here. I'm not projecting some past data into the future.
240
706330
5000
אני רוצה לחדד את הנקודה. אינני משליך על העתיד מנתוני העבר.
11:51
I've taken inputs on positions and so forth,
241
711330
3000
אספתי נתונים על עמדות וכו',
11:54
run it through a computer model
242
714330
2000
הרצתי אותן במודל ממוחשב
11:56
that had simulated the dynamics of interaction,
243
716330
3000
שדימה את הדינאמיקה של האינטראקציה,
11:59
and these are the simulated dynamics,
244
719330
2000
ואלו הן הדינמיקות שהתקבלו מהסימולציה,
12:01
the predictions about the path of policy.
245
721330
3000
התחזיות לגבי ההתפתחויות במדיניות.
12:04
So you can see here on the vertical axis,
246
724330
3000
אתם יכולים לראות כאן על הציר האנכי,
12:07
I haven't shown it all the way down to zero,
247
727330
2000
שלא הצגתי עד לאפס למטה,
12:09
there are lots of other options, but here I'm just showing you the prediction,
248
729330
3000
יש אפשרויות רבות נוספות, אבל כאן אני מציג רק את התחזית,
12:12
so I've narrowed the scale.
249
732330
2000
אז צמצמתי את סולם הערכים.
12:14
Up at the top of the axis, "Build the Bomb."
250
734330
3000
בראש הציר - "יבנו את הפצצה".
12:17
At 130, we start somewhere above 130,
251
737330
4000
אנחנו מתחילים קצת מעל ל-130,
12:21
between building a bomb, and making enough weapons-grade fuel
252
741330
3000
בין "יבנו את הפצצה" ו"ייצרו דלק בדרגת נשק
12:24
so that you could build a bomb.
253
744330
2000
בכמות שתאפשר להם לבנות פצצה".
12:26
That's where, according to my analyses,
254
746330
3000
זאת הנקודה, לפי הניתוחים שלי,
12:29
the Iranians were at the beginning of this year.
255
749330
3000
בה האירנים היו בתחילת השנה.
12:32
And then the model makes predictions down the road.
256
752330
3000
המודל עושה תחזיות עתידיות,
12:35
At 115 they would only produce enough weapons grade fuel
257
755330
4000
ב-115 הם רק ייצרו מספיק דלק בדרגת נשק
12:39
to show that they know how, but they wouldn't build a weapon:
258
759330
2000
בכדי להראות שהם יודעים לעשות זאת, אבל הם לא יבנו נשק,
12:41
they would build a research quantity.
259
761330
2000
הם ייצרו כמות מחקרית.
12:43
It would achieve some national pride,
260
763330
2000
זה יביא להם גאווה לאומית,
12:45
but not go ahead and build a weapon.
261
765330
3000
אבל הם לא יתקדמו לבניית נשק.
12:48
And down at 100 they would build civilian nuclear energy,
262
768330
2000
למטה ב-100 הם ייצרו אנרגיה גרעינית לשימושים אזרחיים,
12:50
which is what they say is their objective.
263
770330
4000
שזהו לדבריהם היעד שלהם.
12:54
The yellow line shows us the most likely path.
264
774330
3000
הקו הצהוב מסמן את המסלול הסביר ביותר.
12:57
The yellow line includes an analysis
265
777330
1000
הקו הצהוב כולל ניתוח
12:58
of 87 decision makers in Iran,
266
778330
3000
של 87 מקבלי החלטות באירן,
13:01
and a vast number of outside influencers
267
781330
3000
ושל מספר גדול של משפיעים מבחוץ
13:04
trying to pressure Iran into changing its behavior,
268
784330
3000
המנסים ללחוץ על אירן לשנות את התנהגותה.
13:07
various players in the United States, and Egypt,
269
787330
3000
גורמים שונים בארה"ב, מצרים,
13:10
and Saudi Arabia, and Russia, European Union,
270
790330
2000
ערב הסעודית, רוסיה, האיחוד האירופי,
13:12
Japan, so on and so forth.
271
792330
2000
יפן ונוספים.
13:14
The white line reproduces the analysis
272
794330
4000
הקו הלבן מציג את הניתוח
13:18
if the international environment
273
798330
2000
אם הסביבה הבינלאומית
13:20
just left Iran to make its own internal decisions,
274
800330
3000
תאפשר לאירן לקבל את החלטותיה הפנימיות בעצמה,
13:23
under its own domestic political pressures.
275
803330
2000
תחת הלחצים הפוליטים הפנימיים שלה.
13:25
That's not going to be happening,
276
805330
2000
זה לא יקרה,
13:27
but you can see that the line comes down faster
277
807330
4000
אבל אתם יכולים לראות שהקו יורד מהר יותר
13:31
if they're not put under international pressure,
278
811330
3000
אם הם לא נתונים ללחץ בינלאומי,
13:34
if they're allowed to pursue their own devices.
279
814330
2000
אם מניחים אותם לנפשם.
13:36
But in any event, by the end of this year,
280
816330
3000
אבל, בכל מקרה, עד סוף השנה הנוכחית,
13:39
beginning of next year, we get to a stable equilibrium outcome.
281
819330
3000
או תחילת השנה הבאה, נקבל תוצאה של שיווי-משקל יציב.
13:42
And that equilibrium is not what the United States would like,
282
822330
4000
שיווי-משקל זה אינו מה שארה"ב היתה רוצה,
13:46
but it's probably an equilibrium that the United States can live with,
283
826330
3000
אבל קרוב לודאי שזהו שיווי-משקל שארה"ב יכולה לחיות איתו,
13:49
and that a lot of others can live with.
284
829330
2000
ושמדינות רבות אחרות יכולות לחיות איתו.
13:51
And that is that Iran will achieve that nationalist pride
285
831330
4000
אירן תשיג את הגאווה הלאומית
13:55
by making enough weapons-grade fuel, through research,
286
835330
4000
על ידי שתיצור מספיק דלק בדרגת נשק, באמצעות מחקר,
13:59
so that they could show that they know how to make weapons-grade fuel,
287
839330
4000
כך שהם יוכלו להראות שהם יודעים כיצד ליצור דלק בדרגת נשק,
14:03
but not enough to actually build a bomb.
288
843330
5000
אך לא מספיק בכדי ממש לבנות פצצה.
14:08
How is this happening?
289
848330
2000
כיצד זה קורה?
14:10
Over here you can see this is the distribution
290
850330
4000
כאן אתם יכולים לראות את התפלגות
14:14
of power in favor of civilian nuclear energy today,
291
854330
5000
הכוח שמצדד באנרגיה גרעינית אזרחית היום,
14:19
this is what that power block is predicted to be like
292
859330
3000
וזאת התחזית לגודל הכוח הזה
14:22
by the late parts of 2010, early parts of 2011.
293
862330
6000
בסוף 2010, תחילת 2011.
14:28
Just about nobody supports research on weapons-grade fuel today,
294
868330
4000
היום כמעט שאין תמיכה במחקר על דלק בדרגת נשק,
14:32
but by 2011 that gets to be a big block,
295
872330
3000
אבל ב-2011 הבלוק הזה נעשה גדול.
14:35
and you put these two together, that's the controlling influence in Iran.
296
875330
4000
אם מחברים את שניהם, מקבלים את ההשפעה השולטת באירן.
14:39
Out here today, there are a bunch of people --
297
879330
3000
היום, יש קבוצה של אנשים,
14:42
Ahmadinejad for example --
298
882330
2000
כמו אחמדינג'אד, לדוגמא,
14:44
who would like not only to build a bomb,
299
884330
2000
שהיו רוצים לא רק לבנות פצצה,
14:46
but test a bomb.
300
886330
2000
אלא גם לנסות אותה.
14:48
That power disappears completely;
301
888330
2000
הכוח הזה נעלם לחלוטין,
14:50
nobody supports that by 2011.
302
890330
3000
אף אחד לא תומך בכך ב-2011.
14:53
These guys are all shrinking,
303
893330
2000
כל החבורה הזאת מתכווצת.
14:55
the power is all drifting out here,
304
895330
3000
הכוח עובר כולו לכאן
14:58
so the outcome is going to be the weapons-grade fuel.
305
898330
3000
והתוצאה תהיה דלק בדרגת נשק גרעיני.
15:01
Who are the winners and who are the losers in Iran?
306
901330
3000
מי המנצחים ומי המפסידים באירן?
15:04
Take a look at these guys, they're growing in power,
307
904330
3000
תסתכלו על החבר'ה האלה. הכוח שלהם עולה.
15:07
and by the way, this was done a while ago
308
907330
3000
ודרך אגב, המחקר נעשה לפני זמן מה
15:10
before the current economic crisis,
309
910330
2000
לפני המשבר הכלכלי הנוכחי
15:12
and that's probably going to get steeper.
310
912330
2000
וככל הנראה זה יהיה יותר תלול.
15:14
These folks are the moneyed interests in Iran,
311
914330
2000
החבר'ה האלה הם אנשי ההון באירן,
15:16
the bankers, the oil people, the bazaaries.
312
916330
4000
הבנקאים, אנשי הנפט, אנשי הבזארים.
15:20
They are growing in political clout,
313
920330
3000
הכוח הפוליטי שלהם נמצא בעלייה,
15:23
as the mullahs are isolating themselves --
314
923330
3000
בעוד המולות מבודדים את עצמם,
15:26
with the exception of one group of mullahs,
315
926330
2000
חוץ מקבוצה אחת של מולות,
15:28
who are not well known to Americans.
316
928330
2000
שלא כל כך מוכרת לאמריקאים.
15:30
That's this line here, growing in power,
317
930330
2000
זה הקו הזה פה, שכוחו גדל,
15:32
these are what the Iranians call the quietists.
318
932330
4000
אלה הם מה שהאירנים מכנים "הקוויטיסטים". [פילוסופיה נוצרית]
15:36
These are the Ayatollahs, mostly based in Qom,
319
936330
3000
אלה הם האייטולות, שנמצאים ברובם בקום.
15:39
who have great clout in the religious community,
320
939330
4000
יש להם כוח רב בקהילה הדתית.
15:43
have been quiet on politics and are going to be getting louder,
321
943330
3000
הם היו שקטים בענייני פוליטיקה ועומדים לעשות יותר רעש,
15:46
because they see Iran going in an unhealthy direction,
322
946330
2000
מכיוון שהם רואים את אירן הולכת לכיוון לא בריא,
15:48
a direction contrary
323
948330
2000
כיוון המנוגד
15:50
to what Khomeini had in mind.
324
950330
4000
לזה שחומייני חתר אליו.
15:54
Here is Mr. Ahmadinejad.
325
954330
2000
הנה אדון אחמדינג'אד.
15:56
Two things to notice: he's getting weaker,
326
956330
3000
שימו לב לשני דברים - הוא נחלש,
15:59
and while he gets a lot of attention in the United States,
327
959330
2000
ובעוד הוא מקבל תשומת לב רבה בארה"ב,
16:01
he is not a major player in Iran.
328
961330
2000
הוא לא גורם מרכזי באירן,
16:03
He is on the way down.
329
963330
2000
הוא בדרכו למטה.
16:05
OK, so I'd like you to take a little away from this.
330
965330
4000
אוקיי, נתרחק קצת מאירן.
16:09
Everything is not predictable: the stock market
331
969330
2000
לא כל דבר ניתן לחיזוי,
16:11
is, at least for me, not predictable,
332
971330
3000
שוק המניות לא ניתן לחיזוי, לפחות עבורי,
16:14
but most complicated negotiations are predictable.
333
974330
5000
אבל משאים ומתנים מורכבים ביותר כן ניתנים לחיזוי.
16:19
Again, whether we're talking health policy, education,
334
979330
4000
ושוב, בין אם מדובר על מדיניות בריאות, חינוך,
16:23
environment, energy,
335
983330
3000
סביבה, אנרגיה,
16:26
litigation, mergers,
336
986330
2000
התדיינות משפטית, או מיזוגים -
16:28
all of these are complicated problems
337
988330
2000
כל אלה הן בעיות סבוכות
16:30
that are predictable,
338
990330
2000
הניתנות לחיזוי
16:32
that this sort of technology can be applied to.
339
992330
4000
שסוג הטכנולוגיה הזה ישים לגביהן.
16:36
And the reason that being able to predict those things is important,
340
996330
5000
חשוב לדעת לבצע תחזיות עבור הדברים האלה,
16:41
is not just because you might run a hedge fund and make money off of it,
341
1001330
3000
ולא רק בשביל לנסות להפיק רווחים מקרנות גידור,
16:44
but because if you can predict what people will do,
342
1004330
3000
אלא מכיוון שאם תוכלו לחזות מה אנשים יעשו,
16:47
you can engineer what they will do.
343
1007330
3000
אתם תוכלו לעצב את מה שהם יעשו,
16:50
And if you engineer what they do you can change the world,
344
1010330
2000
וכך אתם יכולים לשנות את העולם,
16:52
you can get a better result.
345
1012330
2000
ולקבל תוצאות טובות יותר.
16:54
I would like to leave you with one thought, which is
346
1014330
3000
ברצוני להשאיר אתכם עם מחשבה אחת,
16:57
for me, the dominant theme of this gathering,
347
1017330
5000
שעבורי היא המוטיב המרכזי של האסיפה הזאת,
17:02
and is the dominant theme of this way of thinking about the world.
348
1022330
3000
והיא הנושא העיקרי של דרך החשיבה הזאת על העולם.
17:05
When people say to you,
349
1025330
3000
כאשר אנשים אומרים לכם,
17:08
"That's impossible,"
350
1028330
2000
"זה בלתי אפשרי",
17:10
you say back to them,
351
1030330
2000
תאמרו להם בחזרה,
17:12
"When you say 'That's impossible,'
352
1032330
2000
"כשאתם אומרים 'זה בלתי אפשרי',
17:14
you're confused with,
353
1034330
2000
אתם מתבלבלים עם,
17:16
'I don't know how to do it.'"
354
1036330
3000
'אנו לא יודעים כיצד לעשות זאת.'"
17:19
Thank you.
355
1039330
2000
תודה.
17:21
(Applause)
356
1041330
4000
[מחיאות כפיים]
17:25
Chris Anderson: One question for you.
357
1045330
2000
כריס אנדרסן: יש לי שאלה אחת אליך.
17:27
That was fascinating.
358
1047330
3000
זה היה מרתק.
17:30
I love that you put it out there.
359
1050330
3000
אני שמח שדיברת על הנושא.
17:33
I got very nervous halfway through the talk though,
360
1053330
2000
אבל באמצע ההרצאה התחלתי להיכנס לפאניקה,
17:35
just panicking whether you'd included in your model, the possibility that
361
1055330
3000
ושאלתי את עצמי האם כללת במודל שלך את האפשרות
17:38
putting this prediction out there might change the result.
362
1058330
4000
שפרסום התחזית עלול לשנות את התוצאה.
17:42
We've got 800 people in Tehran who watch TEDTalks.
363
1062330
3000
יש לנו 800 איש בטהרן שצופים ב-TEDTalks.
17:45
Bruce Bueno de Mesquita: I've thought about that,
364
1065330
2000
ברוס בואנו דה מסקיטה: חשבתי על זה.
17:47
and since I've done a lot of work for the intelligence community,
365
1067330
4000
עבדתי הרבה עבור קהילת המודיעין,
17:51
they've also pondered that.
366
1071330
2000
וגם הם שקלו את הנושא.
17:53
It would be a good thing if
367
1073330
3000
זה היה טוב
17:56
people paid more attention, took seriously,
368
1076330
3000
אילו אנשים היו מקדישים יותר תשומת לב, מתייחסים ברצינות,
17:59
and engaged in the same sorts of calculations,
369
1079330
2000
ועוסקים בחישובים דומים,
18:01
because it would change things. But it would change things in two beneficial ways.
370
1081330
4000
מכיוון שזה היה משנה דברים. דברים היו משתנים בשתי דרכים מועילות:
18:05
It would hasten how quickly people arrive at an agreement,
371
1085330
6000
אנשים היו מגיעים להסכם במהירות רבה יותר,
18:11
and so it would save everybody a lot of grief and time.
372
1091330
3000
והרבה זמן וצער היה נחסך לכולם.
18:14
And, it would arrive at an agreement that everybody was happy with,
373
1094330
4000
בנוסף, הם היו מגיעים להסכם שכולם שמחים איתו,
18:18
without having to manipulate them so much --
374
1098330
3000
בלי צורך בכל כך הרבה מניפולציות -
18:21
which is basically what I do, I manipulate them.
375
1101330
3000
שזה בעצם מה שאני עושה, אני מפעיל עליהם מניפולציות.
18:24
So it would be a good thing.
376
1104330
2000
כך שזה היה דבר טוב.
18:26
CA: So you're kind of trying to say, "People of Iran, this is your destiny, lets go there."
377
1106330
4000
כא: אז אתה בעצם מנסה לומר, "אנשי אירן, זהו גורלכם, בואו נלך לשם."
18:30
BBM: Well, people of Iran, this is what many of you are going to evolve to want,
378
1110330
6000
בבמ: ובכן, אנשי אירן, זה מה שרבים מכם ירצו במשך הזמן.
18:36
and we could get there a lot sooner,
379
1116330
2000
נוכל להגיע לשם מהר יותר,
18:38
and you would suffer a lot less trouble from economic sanctions,
380
1118330
3000
ואתם תסבלו הרבה פחות מסנקציות כלכליות,
18:41
and we would suffer a lot less fear of the use of military force on our end,
381
1121330
6000
ואנחנו נסבול הרבה פחות מחשש משימוש בכוח צבאי מצידנו,
18:47
and the world would be a better place.
382
1127330
2000
והעולם יהיה מקום טוב יותר.
18:49
CA: Here's hoping they hear it that way. Thank you very much Bruce.
383
1129330
3000
כא: אני מקווה שהם שומעים את זה בדרך הזאת. תודה רבה לך ברוס.
18:52
BBM: Thank you.
384
1132330
2000
בבמ: תודה.
18:54
(Applause)
385
1134330
5000
[מחיאות כפיים]
על אתר זה

אתר זה יציג בפניכם סרטוני YouTube המועילים ללימוד אנגלית. תוכלו לראות שיעורי אנגלית המועברים על ידי מורים מהשורה הראשונה מרחבי העולם. לחץ פעמיים על הכתוביות באנגלית המוצגות בכל דף וידאו כדי להפעיל את הסרטון משם. הכתוביות גוללות בסנכרון עם הפעלת הווידאו. אם יש לך הערות או בקשות, אנא צור איתנו קשר באמצעות טופס יצירת קשר זה.

https://forms.gle/WvT1wiN1qDtmnspy7