Bruce Bueno de Mesquita predicts Iran's future

141,700 views ・ 2009-04-07

TED


Vă rugăm să faceți dublu clic pe subtitrările în limba engleză de mai jos pentru a reda videoclipul.

Traducător: Cristina Târşoagă Corector: Lucian BIBO
00:18
What I'm going to try to do is explain to you
0
18330
3000
Ceea ce voi încerca să fac este să vă explic
00:21
quickly how to predict,
1
21330
2000
repede, cum se fac previziuni,
00:23
and illustrate it with some predictions
2
23330
2000
şi vă voi ilustra cu nişte previziuni
00:25
about what Iran is going to do in the next couple of years.
3
25330
5000
cu privire la ceea ce va face Iranul în următorii câţiva ani.
00:30
In order to predict effectively,
4
30330
3000
Pentru a face o previziune utilă,
00:33
we need to use science.
5
33330
3000
trebuie să ne folosim de ştiinţă.
00:36
And the reason that we need to use science
6
36330
3000
Şi motivul pentru care trebuie să folosim ştiinţa
00:39
is because then we can reproduce what we're doing;
7
39330
2000
este fiindcă atunci putem reproduce ceea ce facem,
00:41
it's not just wisdom or guesswork.
8
41330
3000
nu este doar înţelepciune sau supoziţii.
00:44
And if we can predict,
9
44330
3000
Şi dacă putem prezice,
00:47
then we can engineer the future.
10
47330
2000
atunci putem construi viitorul.
00:49
So if you are concerned to influence energy policy,
11
49330
4000
Deci dacă eşti interesat să influenţezi politica energetică,
00:53
or you are concerned to influence national security policy,
12
53330
5000
sau eşti interesat să modifici politica de securitate naţională,
00:58
or health policy, or education,
13
58330
3000
sau politica de sănătate, sau educaţie,
01:01
science -- and a particular branch of science -- is a way to do it,
14
61330
4000
ştiinţa, mai exact o anumită ramură a ştiinţei este o calea de urmat,
01:05
not the way we've been doing it,
15
65330
2000
nu cum am făcut noi până acum,
01:07
which is seat-of-the-pants wisdom.
16
67330
2000
adică bazându-ne pe bun-simţ.
01:09
Now before I get into how to do it
17
69330
2000
Acum înainte de a intra în detalii cu privire la cum facem aceasta
01:11
let me give you a little truth in advertising,
18
71330
3000
lăsaţi-mă să vă împărtăşesc un mic adevăr legat de publicitate,
01:14
because I'm not engaged in the business of magic.
19
74330
3000
pentru că nu implicat în afacerile cu farmece,
01:17
There are lots of thing that the approach I take can predict,
20
77330
4000
sunt multe lucruri pe care prin abordarea mea pot fi prezise,
01:21
and there are some that it can't.
21
81330
2000
dar sunt şi unele care nu pot.
01:23
It can predict complex negotiations
22
83330
3000
Pot prezice rezultatul unor negocieri complexe,
01:26
or situations involving coercion --
23
86330
3000
sau al situaţiilor ce implică constrângere,
01:29
that is in essence everything that has to do with politics,
24
89330
4000
adică în esenţă cam tot ce ţine de politică,
01:33
much of what has to do with business,
25
93330
2000
dintre care multe au legătură cu afacerile,
01:35
but sorry, if you're looking to speculate in the stock market,
26
95330
6000
dar imi pare rău, dacă urmăreaţi să speculaţi bursa de valori,
01:41
I don't predict stock markets -- OK,
27
101330
2000
nu prezic evoluţia burselor -- OK,
01:43
it's not going up any time really soon.
28
103330
3000
nu va creşte prea curând.
01:46
But I'm not engaged in doing that.
29
106330
3000
Dar nu sunt implicat în acest lucru.
01:49
I'm not engaged in predicting random number generators.
30
109330
3000
Nu nu sunt implicat în prezicerea generatoarelor de numere aleatoare,
01:52
I actually get phone calls from people
31
112330
2000
chiar primesc telefoane de la oameni
01:54
who want to know what lottery numbers are going to win.
32
114330
3000
care vor să ştie ce numere vor ieşi câştigătoare la loterie.
01:57
I don't have a clue.
33
117330
3000
Habar n-am!
02:00
I engage in the use of game theory, game theory is a branch of mathematics
34
120330
4000
Sunt implicat în folosirea teoriei jocurilor, teoria jocurilor este o ramură a matematicii
02:04
and that means, sorry, that even in the study of politics,
35
124330
4000
şi aceasta înseamnă, scuze, că chiar şi în studiul politicii,
02:08
math has come into the picture.
36
128330
3000
matematica a intrat pe scenă.
02:11
We can no longer pretend that we just speculate about politics,
37
131330
4000
Nu mai putem pretinde că facem numai speculaţii cu privire la politică,
02:15
we need to look at this in a rigorous way.
38
135330
3000
trebuie să privim această problemă într-un mod riguros.
02:18
Now, what is game theory about?
39
138330
3000
Acum, cu ce se ocupă teoria jocurilor?
02:21
It assumes that people are looking out for what's good for them.
40
141330
5000
Presupune că oamenii îşi urmăresc propriul interes.
02:26
That doesn't seem terribly shocking --
41
146330
2000
Ceea ce nu pare extraordinar de şocant--
02:28
although it's controversial for a lot of people --
42
148330
2000
deşi este un fapt controversat pentru mulţi--
02:30
that we are self-interested.
43
150330
4000
că ne urmărim interesul.
02:34
In order to look out for what's best for them
44
154330
2000
Pentru a putea să facă ceea ce este mai bine pentru ei,
02:36
or what they think is best for them,
45
156330
2000
sau ce cred ei că e mai bine pentru ei,
02:38
people have values -- they identify what they want, and what they don't want.
46
158330
4000
oamenii au valori -- identifică ce îşi doresc şi ce nu îşi doresc.
02:42
And they have beliefs about what other people want,
47
162330
3000
Şi au păreri cu privire la ce îşi doresc alţi oameni,
02:45
and what other people don't want, how much power other people have,
48
165330
3000
şi ce nu îşi doresc alţi oameni, la câtă putere au alţi oameni,
02:48
how much those people could get in the way of whatever it is that you want.
49
168330
4000
în ce măsură acei oameni ar putea sta în calea a ceea ce îţi doreşti.
02:52
And they face limitations, constraints,
50
172330
4000
Şi sunt confruntaţi cu limitări, constrângeri,
02:56
they may be weak, they may be located in the wrong part of the world,
51
176330
3000
pot fi slabi, se pot afla în partea nepotrivită a lumii,
02:59
they may be Einstein, stuck away farming
52
179330
3000
pot fi Einstein, arând câmpul
03:02
someplace in a rural village in India not being noticed,
53
182330
4000
undeva într-un sat din India nefiind remarcaţi,
03:06
as was the case for Ramanujan for a long time,
54
186330
3000
cum a fost cazul lui Ramanujan pentru mult timp,
03:09
a great mathematician but nobody noticed.
55
189330
3000
un mare matematician dar pe care nimeni nu-l remarcase.
03:12
Now who is rational?
56
192330
2000
Acum, cine e raţional?
03:14
A lot of people are worried about what is rationality about?
57
194330
3000
Mulţi oameni sunt preocupaţi de ce înseamnă raţionalitatea.
03:17
You know, what if people are rational?
58
197330
2000
Oamenii sunt raţionali.
03:19
Mother Theresa, she was rational.
59
199330
3000
Maica Theresa era raţională.
03:22
Terrorists, they're rational.
60
202330
4000
Teroriştii, sunt raţionali.
03:26
Pretty much everybody is rational.
61
206330
3000
Cam toată lumea e raţională.
03:29
I think there are only two exceptions that I'm aware of --
62
209330
3000
Cred că sunt numai două excepţii de care ştiu eu --
03:32
two-year-olds, they are not rational,
63
212330
2000
copiii de 2 ani, ei nu sunt raţionali,
03:34
they have very fickle preferences,
64
214330
3000
ei au preferinţe foarte schimbătoare,
03:37
they switch what they think all the time,
65
217330
2000
tot timpul schimbă la ce se gândesc,
03:39
and schizophrenics are probably not rational,
66
219330
3000
şi schizofrenicii sunt probabil iraţionali,
03:42
but pretty much everybody else is rational.
67
222330
2000
dar în mare cam toţi ceilalţi sunt raţionali.
03:44
That is, they are just trying to do
68
224330
2000
Adică, pur şi simplu încearcă să facă
03:46
what they think is in their own best interest.
69
226330
5000
ceea ce cred că este în interesul lor.
03:51
Now in order to work out what people are going to do
70
231330
2000
Deci, pentru a determina ceea ce vor face oamenii
03:53
to pursue their interests,
71
233330
2000
pentru a-şi urmări interesul,
03:55
we have to think about who has influence in the world.
72
235330
2000
trebuie să ne gândim la cine are influenţă în lume.
03:57
If you're trying to influence corporations to change their behavior,
73
237330
5000
Dacă încerci să influenţezi corporaţiile să-şi schimbe comportamentul,
04:02
with regard to producing pollutants,
74
242330
3000
în ceea ce priveşte emisiile de substanţe poluante,
04:05
one approach, the common approach,
75
245330
2000
o abordare, abordarea comună,
04:07
is to exhort them to be better,
76
247330
2000
este să le îndemni să fie mai bune,
04:09
to explain to them what damage they're doing to the planet.
77
249330
3000
să le explici ce rău fac planetei.
04:12
And many of you may have noticed that doesn't have
78
252330
2000
Şi mulţi dintre voi poate aţi observat că asta nu are
04:14
as big an effect, as perhaps you would like it to have.
79
254330
4000
un efect prea mare, cum probabil v-ar plăcea să aibă,
04:18
But if you show them that it's in their interest,
80
258330
3000
dar dacă le arătaţi că este în beneficiul lor
04:21
then they're responsive.
81
261330
2000
atunci sunt receptive.
04:23
So, we have to work out who influences problems.
82
263330
3000
Deci, trebuie să descoperim cine are influenţează problemele.
04:26
If we're looking at Iran, the president of the United States
83
266330
2000
Dacă ne-am uita la Iran, preşedintele Statelor Unite
04:28
we would like to think, may have some influence --
84
268330
3000
ne-ar plăcea să credem că ar putea avea ceva influenţă --
04:31
certainly the president in Iran has some influence --
85
271330
4000
cu siguranţă preşedintele din Iran are influenţă --
04:35
but we make a mistake if we just pay attention
86
275330
3000
dar facem o mare greşeală dacă ne îndreptăm atenţia
04:38
to the person at the top of the power ladder
87
278330
3000
numai asupra persoanelor din vârful ierarhiei
04:41
because that person doesn't know much about Iran,
88
281330
3000
pentru că acea persoană nu ştie prea multe despre Iran,
04:44
or about energy policy,
89
284330
2000
sau despre politica energetică,
04:46
or about health care,
90
286330
2000
sau despre sănătate,
04:48
or about any particular policy.
91
288330
2000
sau despre orice altă politică.
04:50
That person surrounds himself or herself with advisers.
92
290330
5000
Acea persoană se înconjoară cu consilieri.
04:55
If we're talking about national security problems,
93
295330
2000
Dacă vorbim de probleme de siguranţă naţională,
04:57
maybe it's the Secretary of State,
94
297330
2000
poate că este secretarul de stat,
04:59
maybe it's the Secretary of Defense,
95
299330
2000
poate că este secretarul pe probleme de apărare,
05:01
the Director of National Intelligence,
96
301330
2000
directorul serviciului de informaţii,
05:03
maybe the ambassador to the United Nations, or somebody else
97
303330
2000
poate ambasadorul la Naţiunile Unite, sau altcineva
05:05
who they think is going to know more about the particular problem.
98
305330
4000
despre care cred că va şti mai multe într-un anumit domeniu.
05:09
But let's face it, the Secretary of State doesn't know much about Iran.
99
309330
3000
Dar să fim realişti. secretarul de stat nu ştie prea multe despre Iran.
05:12
The secretary of defense doesn't know much about Iran.
100
312330
3000
Secretarul pe probleme de apărare nu ştie multe despre Iran.
05:15
Each of those people in turn
101
315330
3000
Fiecare dintre aceşti oameni, la rândul lui,
05:18
has advisers who advise them,
102
318330
2000
are consilieri care îl sfătuiesc,
05:20
so they can advise the president.
103
320330
3000
astfel încât să îl poată sfătui pe preşedinte.
05:23
There are lots of people shaping decisions
104
323330
3000
Sunt mulţi oameni care conturează deciziile
05:26
and so if we want to predict correctly
105
326330
2000
astfel încât pentru o predicţie corectă
05:28
we have to pay attention to everybody
106
328330
3000
trebuie să fim atenţi la toţi
05:31
who is trying to shape the outcome,
107
331330
2000
cei care încearcă să modeleze rezultatul,
05:33
not just the people at the pinnacle
108
333330
3000
nu numai la cei din vârful
05:36
of the decision-making pyramid.
109
336330
4000
piramidei decizionale.
05:40
Unfortunately, a lot of times we don't do that.
110
340330
2000
Din păcate, în multe situaţii nu facem asta.
05:42
There's a good reason that we don't do that,
111
342330
2000
Există un motiv întemeiat pentru care nu facem asta,
05:44
and there's a good reason that using game theory and computers,
112
344330
3000
şi există un motiv bun pentru care utilizând teoria jocurilor şi computerele
05:47
we can overcome the limitation
113
347330
3000
putem depăşi limitările
05:50
of just looking at a few people.
114
350330
2000
în a urmări numai câţiva oameni.
05:52
Imagine a problem with just five decision-makers.
115
352330
4000
Imaginaţi-vă o problemă cu numai cinci decidenţi.
05:56
Imagine for example
116
356330
2000
Imaginaţi-vă spre exemplu
05:58
that Sally over here,
117
358330
2000
că Sally de aici,
06:00
wants to know what Harry, and Jane,
118
360330
3000
vrea să ştie ce gândesc Harry şi Jane
06:03
and George and Frank are thinking,
119
363330
3000
şi George şi Frank
06:06
and sends messages to those people.
120
366330
2000
şi trimite mesaje acestor oameni.
06:08
Sally's giving her opinion to them,
121
368330
2000
Sally le împărtăşeşte părerile ei,
06:10
and they're giving their opinion to Sally.
122
370330
3000
şi ei îi împărtăşesc lui Sally, opiniile lor.
06:13
But Sally also wants to know
123
373330
2000
Dar Sally vrea să ştie şi
06:15
what Harry is saying to these three,
124
375330
3000
ce le zice Harry celorlaţi trei,
06:18
and what they're saying to Harry.
125
378330
2000
şi ce îi spun ei lui Harry.
06:20
And Harry wants to know
126
380330
2000
Şi Harry vrea să ştie
06:22
what each of those people are saying to each other, and so on,
127
382330
3000
ce îşi spun toţi ceilalţi oameni între ei, şi aşa mai departe,
06:25
and Sally would like to know what Harry thinks those people are saying.
128
385330
3000
şi lui Sally i-ar plăcea să afle ce crede Harry că spun ceilalţi oameni.
06:28
That's a complicated problem; that's a lot to know.
129
388330
3000
Este o problemă complicată, sunt multe de ştiut.
06:31
With five decision-makers
130
391330
3000
Cu cinci decidenţi
06:34
there are a lot of linkages --
131
394330
2000
sunt multe legături --
06:36
120, as a matter of fact,
132
396330
2000
120 de fapt
06:38
if you remember your factorials.
133
398330
2000
dacă mai tineţi minte matematica combinatorică.
06:40
Five factorial is 120.
134
400330
2000
5 factorial este egal cu 120.
06:42
Now you may be surprised to know
135
402330
2000
Veţi fi surprinşi să aflaţi
06:44
that smart people can keep 120 things straight
136
404330
3000
că oamenii deştepţi pot reţine 120 de lucruri, fără să le încurce,
06:47
in their head.
137
407330
2000
mintal.
06:49
Suppose we double the number of influencers
138
409330
2000
Să presupunem că dublă numărul de decidenţi
06:51
from five to 10.
139
411330
2000
de la 5 la 10.
06:53
Does that mean we've doubled the number of pieces of information
140
413330
4000
Asta înseamnă că am dublat numărul informaţiilor
06:57
we need to know, from 120 to 240?
141
417330
2000
pe care trebuie să le aflăm de la 120 la 240?
06:59
No. How about 10 times?
142
419330
2000
Nu, l-am crescut de 10 ori?
07:01
To 1,200? No.
143
421330
3000
La 1200? Nu.
07:04
We've increased it to 3.6 million.
144
424330
3000
L-am crescut la 3,6 milioane.
07:07
Nobody can keep that straight in their head.
145
427330
2000
Nimeni nu poate reţine atâtea lucruri fără să le amestece.
07:09
But computers,
146
429330
3000
Dar computerele,
07:12
they can. They don't need coffee breaks,
147
432330
3000
ele pot. Nu au nevoie de pauze de cafea,
07:15
they don't need vacations,
148
435330
3000
nu au nevoie de vacanţe,
07:18
they don't need to go to sleep at night,
149
438330
2000
nu trebuie să doarmă noaptea,
07:20
they don't ask for raises either.
150
440330
3000
şi nici nu cer măriri de salariu.
07:23
They can keep this information straight
151
443330
2000
Pot stoca aceste informaţii
07:25
and that means that we can process the information.
152
445330
3000
şi asta înseamnă că noi putem procesa aceste informaţii.
07:28
So I'm going to talk to you about how to process it,
153
448330
2000
Deci vă voi vorbi în continuare despre se procesează acestea,
07:30
and I'm going to give you some examples out of Iran,
154
450330
3000
şi vă voi da nişte exemple legate de Iran,
07:33
and you're going to be wondering,
155
453330
2000
şi vă veţi întreba,
07:35
"Why should we listen to this guy?
156
455330
2000
"De ce l-am asculta pe tipul ăsta?
07:37
Why should we believe what he's saying?"
157
457330
3000
De ce am crede ceea ce zice?"
07:40
So I'm going to show you a factoid.
158
460330
4000
Vă voi arăta ceva ce este presupus adevărat.
07:44
This is an assessment by the Central Intelligence Agency
159
464330
3000
Aceasta este o evaluare a CIA
07:47
of the percentage of time
160
467330
2000
a procentului de cazuri în care
07:49
that the model I'm talking about
161
469330
2000
modelul despre care vă vorbesc
07:51
is right in predicting things whose outcome is not yet known,
162
471330
3000
este corect în a prezice lucruri, a căror finalitate nu este cunoscută încă,
07:54
when the experts who provided the data inputs
163
474330
4000
în momentul în care experţii care furnizau datele de intrare
07:58
got it wrong.
164
478330
2000
s-au înşelat.
08:00
That's not my claim, that's a CIA claim -- you can read it,
165
480330
3000
Nu pretind eu asta, este ceea ce pretinde CIA-ul -- puteţi citi acest raport,
08:03
it was declassified a while ago. You can read it in a volume edited by
166
483330
3000
a fost desecretizat de ceva vreme. Îl puteţi citi într-un volum editat de
08:06
H. Bradford Westerfield, Yale University Press.
167
486330
3000
H. Bradford Westerfield, Yale University Press.
08:09
So, what do we need to know
168
489330
2000
Deci, ce trebuie să ştim
08:11
in order to predict?
169
491330
2000
pentru a face o previziune?
08:13
You may be surprised to find out we don't need to know very much.
170
493330
3000
Veţi fi surprinşi să aflaţi că nu trebuie să ştim prea multe.
08:16
We do need to know who has a stake
171
496330
3000
Trebuie să ştim cu adevărat cine are un interes
08:19
in trying to shape the outcome of a decision.
172
499330
5000
în a încerca să modeleze rezultatul unei decizii.
08:24
We need to know what they say they want,
173
504330
3000
Trebuie să ştim ceea ce pretind că vor,
08:27
not what they want in their heart of hearts,
174
507330
3000
nu ceea ce vor cu adevărat,
08:30
not what they think they can get,
175
510330
2000
nu ceea ce cred că pot obţine,
08:32
but what they say they want, because that is a strategically chosen position,
176
512330
3000
dar ceea ce spun că vor, pentru că aceasta este o poziţie strategică aleasă,
08:35
and we can work backwards from that
177
515330
2000
şi putem face o analiză înapoi, plecând de la acest lucru,
08:37
to draw inferences about important features of their decision-making.
178
517330
4000
pentru a face deducţii cu privire la caracteristicile importante ale procesului lor decizional.
08:41
We need to know how focused they are
179
521330
2000
Trebuie să ştim cât sunt de concentraţi
08:43
on the problem at hand.
180
523330
2000
pe problemele la îndemână.
08:45
That is, how willing are they to drop what they're doing when the issue comes up,
181
525330
3000
Adică, cât sunt de dispuşi să renunţe la ceea ce fac la un moment dat când se pune problema
08:48
and attend to it instead of something else that's on their plate --
182
528330
4000
şi să se ocupe de rezolvarea acesteia în loc de altele aflate în ordinea de zi --
08:52
how big a deal is it to them?
183
532330
2000
cât de importantă este pentru ei o afacere?
08:54
And how much clout could they bring to bear
184
534330
3000
Şi câtă influenţă ar putea să aducă la masă
08:57
if they chose to engage on the issue?
185
537330
5000
dacă ar decide să se implice în această problemă.
09:02
If we know those things
186
542330
2000
Dacă ştim aceste lucruri
09:04
we can predict their behavior by assuming that everybody
187
544330
3000
le putem prezice comportamentul presupunând că tuturor
09:07
cares about two things on any decision.
188
547330
5000
le pasă de două lucruri în luarea oricărei decizii.
09:12
They care about the outcome. They'd like an outcome as close to
189
552330
2000
Le pasă de rezultat. Şi-ar dori un rezultat cât mai apropiat
09:14
what they are interested in as possible.
190
554330
3000
de ceea ce îi interesează, pe cât posibil.
09:17
They're careerists, they also care about getting credit --
191
557330
3000
Sunt carierişti, preocupaţi de asemenea de a căpăta credibilitate --
09:20
there's ego involvement,
192
560330
2000
este implicarea ego-ului,
09:22
they want to be seen as important in shaping the outcome,
193
562330
4000
vor să fie văzuţi ca având un rol important în modelarea rezultatului,
09:26
or as important, if it's their druthers, to block an outcome.
194
566330
5000
sau importanţi, dacă asta este ceea ce preferă, în a bloca un rezultat.
09:31
And so we have to figure out how they balance those two things.
195
571330
3000
Şi deci trebuie să ne dăm seama cum echilibrează cele două lucruri.
09:34
Different people trade off
196
574330
2000
Unii oameni fac un compromis
09:36
between standing by their outcome,
197
576330
3000
între a-şi susţine rezultatul,
09:39
faithfully holding to it, going down in a blaze of glory,
198
579330
3000
cu îndârjire, căzând acoperiţi de glorie,
09:42
or giving it up, putting their finger in the wind,
199
582330
3000
sau a renunţa la el, a se orienta după cum bate vântul,
09:45
and doing whatever they think is going to be a winning position.
200
585330
3000
şi adoptând acea decizie pe care ei o cred câştigătoare
09:48
Most people fall in between, and if we can work out where they fall
201
588330
3000
Cei mai mulţi oameni adoptă însă calea de mijloc şi dacă ne putem da seama de orientarea lor,
09:51
we can work out how to negotiate with them
202
591330
2000
ne putem da seama cum să negociem cu ei
09:53
to change their behavior.
203
593330
2000
şi să le schimbăm comportamentul.
09:55
So with just that little bit of input
204
595330
3000
Deci cu aceste puţine informaţii iniţiale
09:58
we can work out what the choices are that people have,
205
598330
3000
putem determina ce alegeri au oamenii,
10:01
what the chances are that they're willing to take,
206
601330
3000
care este riscul pe care sunt dispuşi să şi-l asume,
10:04
what they're after, what they value, what they want,
207
604330
3000
ce urmăresc, ce preţuiesc, ce vor,
10:07
and what they believe about other people.
208
607330
3000
şi ce cred despre alţi oameni.
10:10
You might notice what we don't need to know:
209
610330
4000
Puteţi observa ce nu e nevoie să ştim,
10:14
there's no history in here.
210
614330
2000
nu este implicată istoria aici.
10:16
How they got to where they are
211
616330
2000
Cum au ajuns unde sunt
10:18
may be important in shaping the input information,
212
618330
2000
poate fi important în a modela informaţiile de intrare,
10:20
but once we know where they are
213
620330
2000
dar o dată ce ştim punctul în care se află
10:22
we're worried about where they're going to be headed in the future.
214
622330
3000
sunt preocupaţi de ceea ce vor decide să facă pe viitor.
10:25
How they got there turns out not to be terribly critical in predicting.
215
625330
4000
Cum au ajuns până acolo nu este extrem de important pentru predicţie.
10:29
I remind you of that 90 percent accuracy rate.
216
629330
4000
Vă reamintesc de acurateţea de 90% a modelului.
10:33
So where are we going to get this information?
217
633330
2000
Deci de unde vom face rost de aceste informaţii?
10:35
We can get this information
218
635330
3000
Putem lua aceste informaţii
10:38
from the Internet, from The Economist,
219
638330
3000
de pe Internat, din The Economist,
10:41
The Financial Times, The New York Times,
220
641330
3000
The Financial Times, The New York Times,
10:44
U.S. News and World Report, lots of sources like that,
221
644330
3000
U.S. News sau World Report, multe surse de genul acesta,
10:47
or we can get it from asking experts
222
647330
2000
sau putem întreba experţi
10:49
who spend their lives studying places and problems,
223
649330
3000
care îşi petrec viaţa studiind locuri şi probleme,
10:52
because those experts know this information.
224
652330
3000
deoarece acei experţi cunosc aceste informaţii.
10:55
If they don't know, who are the people trying to influence the decision,
225
655330
3000
Dacă nu ştiu, cine sunt acei oameni care încearcă să influenţeze decizia,
10:58
how much clout do they have,
226
658330
2000
cât de multe cunosc,
11:00
how much they care about this issue, and what do they say they want,
227
660330
3000
cât de mult le pasă de acea problemă şi ce afirmă că vor,
11:03
are they experts? That's what it means to be an expert,
228
663330
3000
sunt experţi? Asta înseamnă să fii expert,
11:06
that's the basic stuff an expert needs to know.
229
666330
4000
astea sunt lucrurile de bază pe care un expert trebuie să le cunoască.
11:10
Alright, lets turn to Iran.
230
670330
2000
În regulă, să ne întoarcem la Iran.
11:12
Let me make three important predictions --
231
672330
3000
Să facem trei predicţii importante --
11:15
you can check this out, time will tell.
232
675330
3000
puteţi să verificaţi, timpul va confirma.
11:18
What is Iran going to do about its nuclear weapons program?
233
678330
8000
Ce va face Iranul cu privire la programul armelor nucleare?
11:26
How secure is the theocratic regime in Iran?
234
686330
3000
Cât de sigur este regimul teocratic în Iran?
11:29
What's its future?
235
689330
2000
Care este viitorul acestuia?
11:31
And everybody's best friend,
236
691330
3000
Şi cel mai bun prieten al tuturor,
11:34
Ahmadinejad. How are things going for him?
237
694330
3000
Ahmadi-Nejad. Cum îi merge?
11:37
How are things going to be working out for him in the next year or two?
238
697330
6000
Ce se va întâmpla cu el în următorii un an sau doi?
11:43
You take a look at this, this is not based on statistics.
239
703330
3000
Uitaţi-vă la acest grafic, nu este bazat pe statistici.
11:46
I want to be very clear here. I'm not projecting some past data into the future.
240
706330
5000
Vreau să fie foarte clar. Nu proiectez nişte date din trecut, în viitor.
11:51
I've taken inputs on positions and so forth,
241
711330
3000
Am luat date de intrare cu privire la poziţii şi aşa mai departe,
11:54
run it through a computer model
242
714330
2000
le-am rulat printr-un model computerizat
11:56
that had simulated the dynamics of interaction,
243
716330
3000
care a simulat dinamica interacţiunilor,
11:59
and these are the simulated dynamics,
244
719330
2000
iar acestea sunt rezultatele situlării,
12:01
the predictions about the path of policy.
245
721330
3000
predicţiile cu privire la evoluţia politicilor.
12:04
So you can see here on the vertical axis,
246
724330
3000
Deci puteţi vedea aici, pe axa verticală,
12:07
I haven't shown it all the way down to zero,
247
727330
2000
nu am reprezentat-o până la 0,
12:09
there are lots of other options, but here I'm just showing you the prediction,
248
729330
3000
sunt multe alte posibilităţi, dar aici vă arăt numai predicţia,
12:12
so I've narrowed the scale.
249
732330
2000
aşa că am restrâns scara,
12:14
Up at the top of the axis, "Build the Bomb."
250
734330
3000
în partea superioară a axei, "Construirea unei bombe".
12:17
At 130, we start somewhere above 130,
251
737330
4000
La 130, începem de undeva mai sus de 130,
12:21
between building a bomb, and making enough weapons-grade fuel
252
741330
3000
între a construi o bombă şi a produce suficient combustibil nuclear
12:24
so that you could build a bomb.
253
744330
2000
pentru a se putea construi o bombă.
12:26
That's where, according to my analyses,
254
746330
3000
În acest punct, potrivit analizei mele,
12:29
the Iranians were at the beginning of this year.
255
749330
3000
se situa Iranul la începutul acestui an.
12:32
And then the model makes predictions down the road.
256
752330
3000
Apoi, conform modelului se poate observa o scădere,
12:35
At 115 they would only produce enough weapons grade fuel
257
755330
4000
la 115 - vor produce suficient combustibil nuclear
12:39
to show that they know how, but they wouldn't build a weapon:
258
759330
2000
pentru a arăta că pot face asta, dar nu vor construi o bombă,
12:41
they would build a research quantity.
259
761330
2000
vor produce în scop de cercetare.
12:43
It would achieve some national pride,
260
763330
2000
Asta le-ar aduce mândrie naţională,
12:45
but not go ahead and build a weapon.
261
765330
3000
dar nu s-ar apuca să construiască o armă.
12:48
And down at 100 they would build civilian nuclear energy,
262
768330
2000
Şi jos la 100 ar produce energie nucleară pentru civili,
12:50
which is what they say is their objective.
263
770330
4000
ceea ce ei susţin că ar fi obiectivul lor.
12:54
The yellow line shows us the most likely path.
264
774330
3000
Linia galbenă ne arată scenariul cel mai probabil.
12:57
The yellow line includes an analysis
265
777330
1000
Linia galbenă include o analiză
12:58
of 87 decision makers in Iran,
266
778330
3000
a 87 de decidenţi din Iran,
13:01
and a vast number of outside influencers
267
781330
3000
şi număr vast de persoane influente din străinătate
13:04
trying to pressure Iran into changing its behavior,
268
784330
3000
care încearcă să preseze Iranul pentru a-şi schimba comportamentul,
13:07
various players in the United States, and Egypt,
269
787330
3000
diverşi jucători din Statele Unite şi Egipt,
13:10
and Saudi Arabia, and Russia, European Union,
270
790330
2000
şi Arabia Saudită şi Rusia, Uniunea Europeană,
13:12
Japan, so on and so forth.
271
792330
2000
Japonia şi aşa mai departe.
13:14
The white line reproduces the analysis
272
794330
4000
Linia albă reproduce analiza
13:18
if the international environment
273
798330
2000
în situaţia în care mediul internaţional
13:20
just left Iran to make its own internal decisions,
274
800330
3000
ar lăsa Iranul să ia propriile decizii pe plan intern,
13:23
under its own domestic political pressures.
275
803330
2000
sub propriile presiuni politice interne --
13:25
That's not going to be happening,
276
805330
2000
ceea ce nu se va întâmpla --
13:27
but you can see that the line comes down faster
277
807330
4000
dar puteţi vedea că linia coboară mai brusc
13:31
if they're not put under international pressure,
278
811330
3000
dacă nu sunt supuşi presiunii internaţionale,
13:34
if they're allowed to pursue their own devices.
279
814330
2000
dacă sunt lăsaţi să-şi urmărească propriile mecanisme.
13:36
But in any event, by the end of this year,
280
816330
3000
Dar în orice caz, până la sfârşitul acestui an,
13:39
beginning of next year, we get to a stable equilibrium outcome.
281
819330
3000
începutul anului următor, vom ajunge la un echilibru stabil.
13:42
And that equilibrium is not what the United States would like,
282
822330
4000
Iar echilibrul nu este ceea ce şi-ar fi dorit Statele Unite,
13:46
but it's probably an equilibrium that the United States can live with,
283
826330
3000
dar este un echilibru cu care Statele Unite se pot împăca,
13:49
and that a lot of others can live with.
284
829330
2000
şi cu care mulţi alţii se vor împăca.
13:51
And that is that Iran will achieve that nationalist pride
285
831330
4000
Şi asta este că Iranul va obţine mândria naţionalistă
13:55
by making enough weapons-grade fuel, through research,
286
835330
4000
producând suficient combustibil nuclear, pentru cercetare,
13:59
so that they could show that they know how to make weapons-grade fuel,
287
839330
4000
pentru a arăta că pot produce combustibil nuclear,
14:03
but not enough to actually build a bomb.
288
843330
5000
dar insuficient pentru a construi în realitate o bombă.
14:08
How is this happening?
289
848330
2000
Cum se va întâmpla asta?
14:10
Over here you can see this is the distribution
290
850330
4000
Aici puteţi observa distribuţia
14:14
of power in favor of civilian nuclear energy today,
291
854330
5000
puterii în favoarea energiei nuclear în scop civil, în prezent,
14:19
this is what that power block is predicted to be like
292
859330
3000
aşa se prezice că va arăta blocul de putere
14:22
by the late parts of 2010, early parts of 2011.
293
862330
6000
spre sfârşitul anului 2010, începutul anului 2011.
14:28
Just about nobody supports research on weapons-grade fuel today,
294
868330
4000
Aproape nimeni nu susţine cercetarea cu privire la combustibilul nuclear în prezent,
14:32
but by 2011 that gets to be a big block,
295
872330
3000
dar până în 2011 acesta va ajunge să fie un grup considerabil,
14:35
and you put these two together, that's the controlling influence in Iran.
296
875330
4000
şi corelândd cele două lucruri, aceata este influenţa determinantă în Iran.
14:39
Out here today, there are a bunch of people --
297
879330
3000
Există în acest moment un grup de oameni --
14:42
Ahmadinejad for example --
298
882330
2000
Ahmadinejad spre exemplu --
14:44
who would like not only to build a bomb,
299
884330
2000
cărora le-ar plăcea nu numai să construiască o bombă,
14:46
but test a bomb.
300
886330
2000
dar să testeze o bombă.
14:48
That power disappears completely;
301
888330
2000
Această putere va dispărea complet,
14:50
nobody supports that by 2011.
302
890330
3000
nimeni nu va mai susţine asta în 2011.
14:53
These guys are all shrinking,
303
893330
2000
Aceşti oameni devin tot mai slabi,
14:55
the power is all drifting out here,
304
895330
3000
Toată puterea se mută aici
14:58
so the outcome is going to be the weapons-grade fuel.
305
898330
3000
astfel încât rezultatul va fi combustibilul nuclear.
15:01
Who are the winners and who are the losers in Iran?
306
901330
3000
Cine sunt câştigătorii şi care sunt perdanţii în Iran?
15:04
Take a look at these guys, they're growing in power,
307
904330
3000
Uitaţi-vă la aceşti oameni, puterea lor creşte,
15:07
and by the way, this was done a while ago
308
907330
3000
şi apropopo, acest model a fost făcut acum ceva vreme
15:10
before the current economic crisis,
309
910330
2000
înainte de criza economica
15:12
and that's probably going to get steeper.
310
912330
2000
care probabil va înrăutăţi situaţia.
15:14
These folks are the moneyed interests in Iran,
311
914330
2000
Aceşti oameni sunt deţinătorii puterii economice în Iran,
15:16
the bankers, the oil people, the bazaaries.
312
916330
4000
bancheri, moguli ai petrolului, comercianţi,
15:20
They are growing in political clout,
313
920330
3000
cresc în influenţă politică,
15:23
as the mullahs are isolating themselves --
314
923330
3000
pe măsură ce mulahii se izolează --
15:26
with the exception of one group of mullahs,
315
926330
2000
cu excepţia unui singur grup de mulahi,
15:28
who are not well known to Americans.
316
928330
2000
care sunt foarte cunoscuţi americanilor.
15:30
That's this line here, growing in power,
317
930330
2000
Este această linie de aici, crescând în influenţă,
15:32
these are what the Iranians call the quietists.
318
932330
4000
sunt ceea ce iranienii numesc Liniştitori.
15:36
These are the Ayatollahs, mostly based in Qom,
319
936330
3000
Aceştia sunt Ayatolahii, în special localizaţi în Qom,
15:39
who have great clout in the religious community,
320
939330
4000
care au o mare influenţă în comunitatea religioasă,
15:43
have been quiet on politics and are going to be getting louder,
321
943330
3000
au fost discreti in politica dar se vor face auziţi,
15:46
because they see Iran going in an unhealthy direction,
322
946330
2000
pentru că văd Iranul îndreptându-se într-o direcţie nesănătoasă,
15:48
a direction contrary
323
948330
2000
o direcţie contrară
15:50
to what Khomeini had in mind.
324
950330
4000
celei la care se gândeau Khomeini.
15:54
Here is Mr. Ahmadinejad.
325
954330
2000
Aici este Dl. Ahmadinejad.
15:56
Two things to notice: he's getting weaker,
326
956330
3000
Două lucruri de observat, devine mai slab,
15:59
and while he gets a lot of attention in the United States,
327
959330
2000
şi în ciuda faptului că primeşte multă atenţie din partea Statelor Unite,
16:01
he is not a major player in Iran.
328
961330
2000
nu este un jucător important în Iran,
16:03
He is on the way down.
329
963330
2000
se prăbuşeşte.
16:05
OK, so I'd like you to take a little away from this.
330
965330
4000
OK, deci mi-ar plăcea să rămâneţi cu ceva.
16:09
Everything is not predictable: the stock market
331
969330
2000
Nu toate lucrurile sunt predictibile, bursa de valori
16:11
is, at least for me, not predictable,
332
971330
3000
este, cel puţin pentru mine, impredictibilă,
16:14
but most complicated negotiations are predictable.
333
974330
5000
dar cele mai complexe negocieri pot fi prezise.
16:19
Again, whether we're talking health policy, education,
334
979330
4000
Din nou, vorbind despree politica de sănătate, educaţie,
16:23
environment, energy,
335
983330
3000
mediu, energie,
16:26
litigation, mergers,
336
986330
2000
procese, fuziuni,
16:28
all of these are complicated problems
337
988330
2000
toate acestea sunt probleme complicate
16:30
that are predictable,
338
990330
2000
care pentru care se poate face o predicţie,
16:32
that this sort of technology can be applied to.
339
992330
4000
pentru care poate fi aplicat acest model.
16:36
And the reason that being able to predict those things is important,
340
996330
5000
Motivul pentru care este important că putem prezice aceste lucruri,
16:41
is not just because you might run a hedge fund and make money off of it,
341
1001330
3000
nu este pentru a putea dezvolta un fond de investiţii şi să faci bani din asta,
16:44
but because if you can predict what people will do,
342
1004330
3000
ci că putem prezice ce vor face oamenii,
16:47
you can engineer what they will do.
343
1007330
3000
putem proiecta ce vor face.
16:50
And if you engineer what they do you can change the world,
344
1010330
2000
Iar dacă descoperim ce vor face, putem schimba lumea
16:52
you can get a better result.
345
1012330
2000
putem obţine un rezultat mai bune.
16:54
I would like to leave you with one thought, which is
346
1014330
3000
As vrea să vă las cu o problemă de gândire, care reprezintă
16:57
for me, the dominant theme of this gathering,
347
1017330
5000
pentru mine, tema principală a acestei întâlniri,
17:02
and is the dominant theme of this way of thinking about the world.
348
1022330
3000
şi tema dominantă a acestui mod de a privi lumea.
17:05
When people say to you,
349
1025330
3000
Când cineva vă spune,
17:08
"That's impossible,"
350
1028330
2000
"Asta este imposibil,"
17:10
you say back to them,
351
1030330
2000
să-i răspundeţi
17:12
"When you say 'That's impossible,'
352
1032330
2000
"Când spuneţi <Este imposibil>"
17:14
you're confused with,
353
1034330
2000
faceţi confuzie cu
17:16
'I don't know how to do it.'"
354
1036330
3000
<Nu ştiu cum să fac asta.>
17:19
Thank you.
355
1039330
2000
Mulţumesc.
17:21
(Applause)
356
1041330
4000
(Aplauze)
17:25
Chris Anderson: One question for you.
357
1045330
2000
Chris Anderson: O întrebare pentru dumneavoastră.
17:27
That was fascinating.
358
1047330
3000
A fost fascinant.
17:30
I love that you put it out there.
359
1050330
3000
Mă bucur că aţi făcut-o publică.
17:33
I got very nervous halfway through the talk though,
360
1053330
2000
Am devenit foarte neliniştit pe la mijlocul discuţiei însă,
17:35
just panicking whether you'd included in your model, the possibility that
361
1055330
3000
gândindu-mă cu teamă dacă veţi include în model, posibilitatea ca
17:38
putting this prediction out there might change the result.
362
1058330
4000
publicarea acestei predicţii ar putea schimba rezultatul.
17:42
We've got 800 people in Tehran who watch TEDTalks.
363
1062330
3000
Avem 800 de persoane în Teheran care urmăresc discuţiile TED.
17:45
Bruce Bueno de Mesquita: I've thought about that,
364
1065330
2000
Bruce Bueno de Mesquita: M-am gândit la asta,
17:47
and since I've done a lot of work for the intelligence community,
365
1067330
4000
de vreme ce am lucrat multă vreme pentru comunitatea de informaţii,
17:51
they've also pondered that.
366
1071330
2000
şi ei au luat asta în considerare.
17:53
It would be a good thing if
367
1073330
3000
Ar fi un lucru bun dacă
17:56
people paid more attention, took seriously,
368
1076330
3000
oamenii ar fi mai atenţi, ar lua în serios,
17:59
and engaged in the same sorts of calculations,
369
1079330
2000
şi s-ar implica în acelaşi tip de calcule,
18:01
because it would change things. But it would change things in two beneficial ways.
370
1081330
4000
pentru că asta ar schimba anumite lucruri. Dar ar schimba lucrurile în două moduri pozitive.
18:05
It would hasten how quickly people arrive at an agreement,
371
1085330
6000
Ar scurta timpul în care oamenii ajung la o înţelegere,
18:11
and so it would save everybody a lot of grief and time.
372
1091330
3000
şi asta ar scuti pe toată lumea de multă suferinţă şi pierdere de timp.
18:14
And, it would arrive at an agreement that everybody was happy with,
373
1094330
4000
Şi ar ajunge la o înţelegere cu care toată lumea este mulţumită,
18:18
without having to manipulate them so much --
374
1098330
3000
fără a fi nevoie să manipulăm atât de mult --
18:21
which is basically what I do, I manipulate them.
375
1101330
3000
adică ceea ce fac, eu de fapt, îi manipulez.
18:24
So it would be a good thing.
376
1104330
2000
Deci ar fi un lucru bun.
18:26
CA: So you're kind of trying to say, "People of Iran, this is your destiny, lets go there."
377
1106330
4000
CA: Deci încerci de fapt să spui, "Oameni din Iran, acesta este destinul vostru, hai să ajungem acolo."
18:30
BBM: Well, people of Iran, this is what many of you are going to evolve to want,
378
1110330
6000
BBM: De fapt, oameni din Iran, asta este ceea ce multi dintre voi vor ajunge să îşi dorească
18:36
and we could get there a lot sooner,
379
1116330
2000
şi am putea ajunge la acest rezultat mult mai curând,
18:38
and you would suffer a lot less trouble from economic sanctions,
380
1118330
3000
şi aţi suferi mult mai puţin din cauza sancţiunilor economice,
18:41
and we would suffer a lot less fear of the use of military force on our end,
381
1121330
6000
iar noi am avea mai puţină teamă că va fi folosită forţa militară din partea voastră,
18:47
and the world would be a better place.
382
1127330
2000
iar lumea ar fi un loc mai bun.
18:49
CA: Here's hoping they hear it that way. Thank you very much Bruce.
383
1129330
3000
CA: Sper să fie percepută în acest mod. Mulţumesc foarte mult Bruce.
18:52
BBM: Thank you.
384
1132330
2000
BBM: Mulţumesc.
18:54
(Applause)
385
1134330
5000
(Aplauze)
Despre acest site

Acest site vă va prezenta videoclipuri de pe YouTube care sunt utile pentru a învăța limba engleză. Veți vedea lecții de engleză predate de profesori de top din întreaga lume. Faceți dublu clic pe subtitrările în limba engleză afișate pe fiecare pagină video pentru a reda videoclipul de acolo. Subtitrările se derulează în sincron cu redarea videoclipului. Dacă aveți comentarii sau solicitări, vă rugăm să ne contactați folosind acest formular de contact.

https://forms.gle/WvT1wiN1qDtmnspy7