Don't fear superintelligent AI | Grady Booch

270,234 views ・ 2017-03-13

TED


Lütfən, videonu oynamaq üçün aşağıdakı ingiliscə altyazılara iki dəfə klikləyin.

Translator: Adil Aliyev Reviewer: Ziyaddin Sadigov
00:12
When I was a kid, I was the quintessential nerd.
0
12580
3840
Mən uşaq ikən, hədsiz dərəcədə "nerd" idim.
00:17
I think some of you were, too.
1
17140
2176
Düşünürəm ki, elə bəziləriniz də.
00:19
(Laughter)
2
19340
1216
(Gülüş)
00:20
And you, sir, who laughed the loudest, you probably still are.
3
20580
3216
Və siz, yüksəkdən gülən cənab, böyük ehtimal hələ də eləsiniz.
00:23
(Laughter)
4
23820
2256
(Gülüş)
00:26
I grew up in a small town in the dusty plains of north Texas,
5
26100
3496
Mən Teksasın şimalında tozlu düzənliklərdə yerləşən kiçik qəsəbədə böyümüşəm.
00:29
the son of a sheriff who was the son of a pastor.
6
29620
3336
Babam keşiş, atam isə şerif idi.
00:32
Getting into trouble was not an option.
7
32980
1920
Başıma dərd açmaq kimi bir seçimim yox idi.
00:35
And so I started reading calculus books for fun.
8
35860
3256
Ona görə də məzə üçün riyaziyyat kitablarını oxumağa başladım.
00:39
(Laughter)
9
39140
1536
(Gülüş)
00:40
You did, too.
10
40700
1696
Siz də elə etmisiniz.
00:42
That led me to building a laser and a computer and model rockets,
11
42420
3736
Bu mənim lazer, kompüter və raket modelləri düzəltməyimə gətirib çıxardı.
00:46
and that led me to making rocket fuel in my bedroom.
12
46180
3000
Ona gətirib çıxardı ki, mən öz yataq otağımda raket yanacağı düzəltdim.
00:49
Now, in scientific terms,
13
49780
3656
İndi, elmi nöqteyi-nəzərdən
00:53
we call this a very bad idea.
14
53460
3256
biz bunu "pis fikir" adlandırırıq.
00:56
(Laughter)
15
56740
1216
(Gülüş)
00:57
Around that same time,
16
57980
2176
Təxminən həmin zaman,
01:00
Stanley Kubrick's "2001: A Space Odyssey" came to the theaters,
17
60180
3216
Stenli Kubrik-in "2001: Kosmik Odissey" filmi kinoteatr ekranlarına gəldi
01:03
and my life was forever changed.
18
63420
2200
və mənim həyatım həmişəlik dəyişdi.
01:06
I loved everything about that movie,
19
66100
2056
Mən filmdəki hər şeyi sevdim,
01:08
especially the HAL 9000.
20
68180
2536
xüsusilə də HAL 9000-i.
01:10
Now, HAL was a sentient computer
21
70740
2056
Deməli, HAL ağıllı kompüter idi.
01:12
designed to guide the Discovery spacecraft
22
72820
2456
Discovery kosmik gəmisinə
01:15
from the Earth to Jupiter.
23
75300
2536
Yerdən Yupiterə qədər bələdçilik üçün dizayn olunmuşdu.
01:17
HAL was also a flawed character,
24
77860
2056
HAL həmçinin qüsurlu bir personaj idi.
01:19
for in the end he chose to value the mission over human life.
25
79940
4280
Məqsəd üçün o öz missiyasını insan həyatından daha üstün tutdu.
01:24
Now, HAL was a fictional character,
26
84660
2096
HAL uydurma bir personaj olsa da,
01:26
but nonetheless he speaks to our fears,
27
86780
2656
bizim qorxularımızdan bəhs edir.
01:29
our fears of being subjugated
28
89460
2096
Hansısa hissiyyatı olmayan süni intellektə
01:31
by some unfeeling, artificial intelligence
29
91580
3016
tabe edilmə qorxularımızdan bəhs edir.
01:34
who is indifferent to our humanity.
30
94620
1960
O bizim insanlığa yad biridir.
01:37
I believe that such fears are unfounded.
31
97700
2576
Bu qorxuların əsassız olduğu qənaətindəyəm.
01:40
Indeed, we stand at a remarkable time
32
100300
2696
Biz insanlıq tarixinin gözəl bir
01:43
in human history,
33
103020
1536
zamanındayıq.
01:44
where, driven by refusal to accept the limits of our bodies and our minds,
34
104580
4976
Öz vücud və ağlımızın məhdudiyyətlərini qəbul etməyərək
01:49
we are building machines
35
109580
1696
maşınlar düzəldirik.
01:51
of exquisite, beautiful complexity and grace
36
111300
3616
İncə, gözəl və qəliz maşınlar
01:54
that will extend the human experience
37
114940
2056
insanın imkanlarını düşündüyümüzdən də
01:57
in ways beyond our imagining.
38
117020
1680
artıq genişləndirir.
01:59
After a career that led me from the Air Force Academy
39
119540
2576
Hava Qüvvələri Akademiyasındakı
02:02
to Space Command to now,
40
122140
1936
Kosmik Əməliyyatlar fəaliyyətindən sonra
02:04
I became a systems engineer,
41
124100
1696
Mən sistem mühəndisi oldum.
02:05
and recently I was drawn into an engineering problem
42
125820
2736
Bu yaxınlarda yeni bir mühəndislik layihəsinə qoşuldum ki,
02:08
associated with NASA's mission to Mars.
43
128580
2576
NASA-nın Mars missiyası ilə əlaqəlidir.
02:11
Now, in space flights to the Moon,
44
131180
2496
Beləliklə, Aya uçuş üçün
02:13
we can rely upon mission control in Houston
45
133700
3136
biz Hyustondakı uçuşa nəzarət məntəqəsinə arxayın ola bilərik,
02:16
to watch over all aspects of a flight.
46
136860
1976
uçuşun bütün aspektlərini izləyə bilərik.
02:18
However, Mars is 200 times further away,
47
138860
3536
Lakin, Mars 200 dəfə daha uzaqdır
02:22
and as a result it takes on average 13 minutes
48
142420
3216
və nəticə etibarilə bir siqnalın Yerdən Marsa çatması üçün
02:25
for a signal to travel from the Earth to Mars.
49
145660
3136
orta hesabla 13 dəqiqə vaxt lazımdır.
02:28
If there's trouble, there's not enough time.
50
148820
3400
Hər hansı bir problem olarsa, zaman bəs etməz.
02:32
And so a reasonable engineering solution
51
152660
2496
Ona görə də uyğun bir mühəndis həlli tələb edir ki,
02:35
calls for us to put mission control
52
155180
2576
Orion kosmik gəmisində
02:37
inside the walls of the Orion spacecraft.
53
157780
3016
nəzarət məntəqəsi yerləşdirək.
02:40
Another fascinating idea in the mission profile
54
160820
2896
Uçuş missiyasındakı başqa bir maraqlı ideya də odur ki,
02:43
places humanoid robots on the surface of Mars
55
163740
2896
Marsın səthinə humanoid robotları göndərilsin ki,
02:46
before the humans themselves arrive,
56
166660
1856
insanların özlərinin oraya gəlib çatmasından
02:48
first to build facilities
57
168540
1656
öncə şərait qursunlar
02:50
and later to serve as collaborative members of the science team.
58
170220
3360
və sonra tədqiqat komandasının üzvləri kimi çalışsınlar.
02:55
Now, as I looked at this from an engineering perspective,
59
175220
2736
Beləliklə, bu məsələyə mühəndis gözü ilə baxdıqda
02:57
it became very clear to me that what I needed to architect
60
177980
3176
aydın oldu ki, mən elə bir sistem inşa etməliyəm ki,
03:01
was a smart, collaborative,
61
181180
2176
ağıllı, əməkdaşlıq edən,
03:03
socially intelligent artificial intelligence.
62
183380
2376
sosial məsuliyyətli süni intellekt olsun.
03:05
In other words, I needed to build something very much like a HAL
63
185780
4296
Başqa sözlə, mən HAL-a bənzər bir şey qurmalıyam, amma
03:10
but without the homicidal tendencies.
64
190100
2416
adam öldürməyə meyli olmayan birini.
03:12
(Laughter)
65
192540
1360
(Gülüş)
03:14
Let's pause for a moment.
66
194740
1816
Bir qədər fasilə verək.
03:16
Is it really possible to build an artificial intelligence like that?
67
196580
3896
Həqiqətən belə bir süni intellekt yaratmaq mükündürmü?
03:20
Actually, it is.
68
200500
1456
Əslində, mümkündür.
03:21
In many ways,
69
201980
1256
Ümumiyyətlə, bu qəliz
03:23
this is a hard engineering problem
70
203260
1976
bir mühəndislik problemidir ki,
03:25
with elements of AI,
71
205260
1456
süni intellekt elementlərinə malikdir.
03:26
not some wet hair ball of an AI problem that needs to be engineered.
72
206740
4696
Heç də qurulması bəsit bir süni intellekt məsələsi deyil.
03:31
To paraphrase Alan Turing,
73
211460
2656
Alan Türinqdən sitat gətirsək,
03:34
I'm not interested in building a sentient machine.
74
214140
2376
Hissiyatlı bir maşın düzəltmək fikrində deyiləm.
03:36
I'm not building a HAL.
75
216540
1576
Mən HAL robotu yaratmıram.
03:38
All I'm after is a simple brain,
76
218140
2416
İstədiyim yalnız sadə bir beyindir,
03:40
something that offers the illusion of intelligence.
77
220580
3120
nə cürsə intellektin illüziyalarını yaratsın.
03:44
The art and the science of computing have come a long way
78
224820
3136
HAL ekranlara çıxandan bəri İnformatika elmi uzun
03:47
since HAL was onscreen,
79
227980
1496
bir yol keçmişdir.
03:49
and I'd imagine if his inventor Dr. Chandra were here today,
80
229500
3216
Təsəvvür edin onun ixtiraçısı Dr. Çandra burada olsaydı
03:52
he'd have a whole lot of questions for us.
81
232740
2336
bizə çoxlu suallar verərdi.
03:55
Is it really possible for us
82
235100
2096
Həqiqətən də mümkündürmü ki,
03:57
to take a system of millions upon millions of devices,
83
237220
4016
milyonlarla qurğudan ibarət bir sistem quraq və
04:01
to read in their data streams,
84
241260
1456
məlumatları oxuyaraq
04:02
to predict their failures and act in advance?
85
242740
2256
xətaları müəyyən etsin və öncədən tədbir görsün?
04:05
Yes.
86
245020
1216
Bəli.
04:06
Can we build systems that converse with humans in natural language?
87
246260
3176
Elə bir sistem qura bilərik ki, insanların dilində danışsın?
04:09
Yes.
88
249460
1216
Bəli.
04:10
Can we build systems that recognize objects, identify emotions,
89
250700
2976
Elə sistem qura bilərik ki, obyektləri tanısın, hisləri anlasın,
04:13
emote themselves, play games and even read lips?
90
253700
3376
öz emosiyalarını ifadə etsin, oyun oynasın və hətta dodaqlarımızı oxusun?
04:17
Yes.
91
257100
1216
Bəli.
04:18
Can we build a system that sets goals,
92
258340
2136
Elə sistem qura bilərik ki, özünə hədəflər
04:20
that carries out plans against those goals and learns along the way?
93
260500
3616
qoyub onlara çatmaq üçün plan qursun və öyrənsin?
04:24
Yes.
94
264140
1216
Bəli.
04:25
Can we build systems that have a theory of mind?
95
265380
3336
Şüuru olan sistem qura bilərik?
04:28
This we are learning to do.
96
268740
1496
Hazırda bunu öyrənirik.
04:30
Can we build systems that have an ethical and moral foundation?
97
270260
3480
Etik və mənəvi əsasları anlayan sistem qura bilərik?
04:34
This we must learn how to do.
98
274300
2040
Bunu necə edəcəyimizi öyrənməliyik.
04:37
So let's accept for a moment
99
277180
1376
Bir anlığa qəbul edək ki,
04:38
that it's possible to build such an artificial intelligence
100
278580
2896
belə bir süni intellektin bu kimi missiyalar üçün
04:41
for this kind of mission and others.
101
281500
2136
yaradılması mümkündür.
04:43
The next question you must ask yourself is,
102
283660
2536
Özünüzə verəcəyiniz növbəti sual belədir ki,
04:46
should we fear it?
103
286220
1456
biz bundan qorxmalıyıqmı?
04:47
Now, every new technology
104
287700
1976
Ümumiyyətlə, hər bir yeni texnologiya
04:49
brings with it some measure of trepidation.
105
289700
2896
özü ilə müəyyən qədər narahatlıq gətirir.
04:52
When we first saw cars,
106
292620
1696
İlk dəfə avtomobilləri görəndə
04:54
people lamented that we would see the destruction of the family.
107
294340
4016
insanlar narahatçılıq keçirdilər ki, ailələr dağılacaq.
04:58
When we first saw telephones come in,
108
298380
2696
Biz ilk dəfə telefonları görəndə insanlar
05:01
people were worried it would destroy all civil conversation.
109
301100
2896
narahat oldular ki, bütün insan müzakirələrini məhv edəcək.
05:04
At a point in time we saw the written word become pervasive,
110
304020
3936
Nə vaxtsa gördük ki, yazı kəşf edildi
05:07
people thought we would lose our ability to memorize.
111
307980
2496
insanlar hafizələrinin itəcəyini düşündülər.
05:10
These things are all true to a degree,
112
310500
2056
Bütün bunlar müəyyən dərəcədə həqiqətdir,
05:12
but it's also the case that these technologies
113
312580
2416
amma eyni zamanda, bu texnologiyalar
05:15
brought to us things that extended the human experience
114
315020
3376
özləri ilə müəyyən mənada imkanlarımızı
05:18
in some profound ways.
115
318420
1880
genişləndirən şeylərə gətirib çıxardı.
05:21
So let's take this a little further.
116
321660
2280
Bir az da irəli gedək.
05:24
I do not fear the creation of an AI like this,
117
324940
4736
Mən bu cür Sİ yaradılmasından qorxmuram,
05:29
because it will eventually embody some of our values.
118
329700
3816
çünki zamanla bizim bəzi dəyərlərimizi təcəssüm etdirəcək.
05:33
Consider this: building a cognitive system is fundamentally different
119
333540
3496
Bunu düşünün: süni intellekt sistemi yaratmaq fundamental olaraq
05:37
than building a traditional software-intensive system of the past.
120
337060
3296
ənənəvi proqram təminatı sistemləri yaratmaqdan fərqlidir.
05:40
We don't program them. We teach them.
121
340380
2456
Biz onları proqramlaşdırmırıq. Onları öyrədirik.
05:42
In order to teach a system how to recognize flowers,
122
342860
2656
Sistemin çiçəkləri tanıması üçün
05:45
I show it thousands of flowers of the kinds I like.
123
345540
3016
ona xoşladığım minlərlə çiçək göstərməliyəm.
05:48
In order to teach a system how to play a game --
124
348580
2256
Sistemə oyun oynamağı öyrətmək üçün --
05:50
Well, I would. You would, too.
125
350860
1960
Bəli, edərdim. Elə siz də edərdiniz.
05:54
I like flowers. Come on.
126
354420
2040
Mən gülləri sevirəm. Yaxşı görək.
05:57
To teach a system how to play a game like Go,
127
357260
2856
Sistemi Go oyununu oynamağı öyrətmək üçün
06:00
I'd have it play thousands of games of Go,
128
360140
2056
mən min dəfələrlə Go oyunu oynamalıyam.
06:02
but in the process I also teach it
129
362220
1656
Eyni zamanda öyrənmə vaxtı
06:03
how to discern a good game from a bad game.
130
363900
2416
izah etməliyəm ki, yaxşı və pis oyunu necə ayırsın.
06:06
If I want to create an artificially intelligent legal assistant,
131
366340
3696
Əgər mən süni intellektli hüquq məsləhətçisi yaratmaq istəsəm,
06:10
I will teach it some corpus of law
132
370060
1776
mən ona qanunvericiliyi öyrədəcəm.
06:11
but at the same time I am fusing with it
133
371860
2856
Eyni zamanda öyrədəcəyim həm də
06:14
the sense of mercy and justice that is part of that law.
134
374740
2880
mərhəmət və ədalətdir ki, bu da hüququn bir hissəsidir.
06:18
In scientific terms, this is what we call ground truth,
135
378380
2976
Elmi olaraq, buna əsas istinad həqiqətləri deyirik.
06:21
and here's the important point:
136
381380
2016
Burada əsas məqam odur ki:
06:23
in producing these machines,
137
383420
1456
onları yaradan zaman
06:24
we are therefore teaching them a sense of our values.
138
384900
3416
biz onlara öz dəyərlərimizi də aşılayırıq.
06:28
To that end, I trust an artificial intelligence
139
388340
3136
Bu səbəbdən mən süni intellektə inanıram.
06:31
the same, if not more, as a human who is well-trained.
140
391500
3640
Çox da yox, amma yaxşı öyrədilmiş bir insan kimi.
06:35
But, you may ask,
141
395900
1216
Soruşa bilərsiniz ki,
06:37
what about rogue agents,
142
397140
2616
bəs yaramaz casuslar,
06:39
some well-funded nongovernment organization?
143
399780
3336
maliyyələşdirilmiş bəzi qeyri-hökumət təşkilatları necə?
06:43
I do not fear an artificial intelligence in the hand of a lone wolf.
144
403140
3816
Belə tənhaların əlində olan süni intellektdən qorxmuram.
06:46
Clearly, we cannot protect ourselves against all random acts of violence,
145
406980
4536
Daha dəqiq desək, biz özümüzü bütün təsadüfi zorakılıqlardan qoruya bilmərik.
06:51
but the reality is such a system
146
411540
2136
Həqiqət ondan ibarətdir ki, belə bir sistem
06:53
requires substantial training and subtle training
147
413700
3096
fərdi resurslardan qat-qat artıq olan
06:56
far beyond the resources of an individual.
148
416820
2296
əsaslı təlim və ciddi hazırlıq tələb edir.
06:59
And furthermore,
149
419140
1216
Həm də bu,
07:00
it's far more than just injecting an internet virus to the world,
150
420380
3256
dünyaya bir internet virusunu yoluxdurmağa oxşar bir şey deyil.
07:03
where you push a button, all of a sudden it's in a million places
151
423660
3096
Necə ki, bir düyməyə basmaqla milyonlarla yerə yayılsın
07:06
and laptops start blowing up all over the place.
152
426780
2456
və laptoplar hər yerdə partlamağa başlasın.
07:09
Now, these kinds of substances are much larger,
153
429260
2816
Bu cür şeylər daha qlobaldır
07:12
and we'll certainly see them coming.
154
432100
1715
və zamanla biz onlarla tanış olacağıq.
07:14
Do I fear that such an artificial intelligence
155
434340
3056
Elə bir süni intellektdən qorxurammı ki,
07:17
might threaten all of humanity?
156
437420
1960
o insanlığa təhlükə yarada bilər?
07:20
If you look at movies such as "The Matrix," "Metropolis,"
157
440100
4376
"Matrix", "Metropolis", "Terminator" kimi filmlərdə və ya
07:24
"The Terminator," shows such as "Westworld,"
158
444500
3176
"Westworld" kimi seriallarda bu kimi
07:27
they all speak of this kind of fear.
159
447700
2136
qorxudan bəhs edilir.
07:29
Indeed, in the book "Superintelligence" by the philosopher Nick Bostrom,
160
449860
4296
Təbii ki, filosof Nik Bostromun "Superinellekt" kitabında
07:34
he picks up on this theme
161
454180
1536
bunlardan bəhs edilir
07:35
and observes that a superintelligence might not only be dangerous,
162
455740
4016
və o, superintellektin yalnız təhlükəli olduğunu deyil,
07:39
it could represent an existential threat to all of humanity.
163
459780
3856
hətta insan varlığına böyük təhlükə gətirə biləcəyini qeyd edir.
07:43
Dr. Bostrom's basic argument
164
463660
2216
Dr. Bostrumun əsas arqumenti odur ki,
07:45
is that such systems will eventually
165
465900
2736
bu cür sistemlərdə zamanla
07:48
have such an insatiable thirst for information
166
468660
3256
elə informasiyalara hərislik yaranacaq ki,
07:51
that they will perhaps learn how to learn
167
471940
2896
onlar öyrənməyi də öyrənəcəklər
07:54
and eventually discover that they may have goals
168
474860
2616
və zamanla anlayacaqlar ki, onların hədəfləri
07:57
that are contrary to human needs.
169
477500
2296
insanların əleyhinə ola bilər.
07:59
Dr. Bostrom has a number of followers.
170
479820
1856
Dr. Bostromun çoxlu izləyiciləri var.
08:01
He is supported by people such as Elon Musk and Stephen Hawking.
171
481700
4320
Onu Elon Musk və Stiven Haukinq kimi şəxslər də izləyir.
08:06
With all due respect
172
486700
2400
Bu şəxslərə dərin hörmətim var.
08:09
to these brilliant minds,
173
489980
2016
Buna baxmayaraq inanıram ki,
08:12
I believe that they are fundamentally wrong.
174
492020
2256
onlar fundamental olaraq səhv edirlər.
08:14
Now, there are a lot of pieces of Dr. Bostrom's argument to unpack,
175
494300
3176
Dr. Bostromun bir çox arqumentlərini sadalamaq olardı,
08:17
and I don't have time to unpack them all,
176
497500
2136
amma buna mənim indi vaxtım çatmaz.
08:19
but very briefly, consider this:
177
499660
2696
Ümumi olaraq onu deyim ki:
08:22
super knowing is very different than super doing.
178
502380
3736
super bilik və super bacarıq tamam fərqli şeylərdir.
08:26
HAL was a threat to the Discovery crew
179
506140
1896
HAL Discovery heyəti üçün təhlükə idi
08:28
only insofar as HAL commanded all aspects of the Discovery.
180
508060
4416
çünki HAL Discoverinin bütün idarəsinə məsul idi.
08:32
So it would have to be with a superintelligence.
181
512500
2496
Superintellekt ilə də belədir.
08:35
It would have to have dominion over all of our world.
182
515020
2496
Bütün dünyanı nəzarətinə götürməli idi.
08:37
This is the stuff of Skynet from the movie "The Terminator"
183
517540
2816
Bu eynilə "Terminator" filmindəki Skynetdir.
08:40
in which we had a superintelligence
184
520380
1856
O superintellekt
08:42
that commanded human will,
185
522260
1376
insanları idarə edirdi,
08:43
that directed every device that was in every corner of the world.
186
523660
3856
bütün dünyada olan hər bir qurğunu idarə edirdi.
08:47
Practically speaking,
187
527540
1456
Praktiki baxımdan,
08:49
it ain't gonna happen.
188
529020
2096
bu baş verməyəcək.
08:51
We are not building AIs that control the weather,
189
531140
3056
Biz elə bir Sİ yaratmırıq ki, havanı idarə etsin,
08:54
that direct the tides,
190
534220
1336
axınları yönləndirsin,
08:55
that command us capricious, chaotic humans.
191
535580
3376
bizim kimi, nazlı, xaotik insanları idarə etsin.
08:58
And furthermore, if such an artificial intelligence existed,
192
538980
3896
Hətta, əgər belə bir Sİ olsaydı,
09:02
it would have to compete with human economies,
193
542900
2936
o, insan iqtisadiyyatı ilə rəqabətə girməli olardı
09:05
and thereby compete for resources with us.
194
545860
2520
və bizimlə resurslar uğrunda yarışardı.
09:09
And in the end --
195
549020
1216
Sonda onu deyim ki, --
09:10
don't tell Siri this --
196
550260
1240
bunu Siri-yə söyləməyin --
09:12
we can always unplug them.
197
552260
1376
biz hər zaman onları söndürə bilərik.
09:13
(Laughter)
198
553660
2120
(Gülüş)
09:17
We are on an incredible journey
199
557180
2456
Biz öz maşınlarımızla birgə
09:19
of coevolution with our machines.
200
559660
2496
həyəcanlı bir səyahətdəyik.
09:22
The humans we are today
201
562180
2496
Bu günkü insanlar
09:24
are not the humans we will be then.
202
564700
2536
gələcəkdəkilər kimi deyil.
09:27
To worry now about the rise of a superintelligence
203
567260
3136
Superintellektin yüksəlişi barədə hazırda narahat olmaq
09:30
is in many ways a dangerous distraction
204
570420
3056
təhlükəli bir fikir dağınıqlığıdır.
09:33
because the rise of computing itself
205
573500
2336
Çünki kompüterləşmənin yüksəlişi
09:35
brings to us a number of human and societal issues
206
575860
3016
özü ilə ilə birgə çoxlu fərdi və sosial suallar gətirir ki,
09:38
to which we must now attend.
207
578900
1640
biz onları indi həll etməliyik.
09:41
How shall I best organize society
208
581180
2816
İnsan əməyinə tələbat azaldığı halda
09:44
when the need for human labor diminishes?
209
584020
2336
cəmiyyəti necə idarə edəcəyik?
09:46
How can I bring understanding and education throughout the globe
210
586380
3816
Anlayışı və təhsili bütün dünyaya necə aşılayaq və eyni zamanda
09:50
and still respect our differences?
211
590220
1776
fərqliliklərimizə də hörmət edək?
09:52
How might I extend and enhance human life through cognitive healthcare?
212
592020
4256
Zehni səhiyyə ilə insan həyatını necə uzadaq və yaxşılaşdıraq?
09:56
How might I use computing
213
596300
2856
İnformatikanı necə istifadə edək ki,
09:59
to help take us to the stars?
214
599180
1760
bizi ulduzlara aparsın?
10:01
And that's the exciting thing.
215
601580
2040
Bu çox həyəcanvericidir.
10:04
The opportunities to use computing
216
604220
2336
İnformatikanın insan həyatını
10:06
to advance the human experience
217
606580
1536
yaxşılaşdırmaq üçün imkanları
10:08
are within our reach,
218
608140
1416
bizim əlimizdədir.
10:09
here and now,
219
609580
1856
Bu gün və burada.
10:11
and we are just beginning.
220
611460
1680
Biz hələ başlanğıcdayıq.
10:14
Thank you very much.
221
614100
1216
Təşəkkür edirəm.
10:15
(Applause)
222
615340
4286
(Alqışlar)
Bu sayt haqqında

Bu sayt sizi ingilis dilini öyrənmək üçün faydalı olan YouTube videoları ilə tanış edəcək. Siz dünyanın hər yerindən yüksək səviyyəli müəllimlər tərəfindən tədris olunan ingilis dili dərslərini görəcəksiniz. Videonu oradan oynamaq üçün hər bir video səhifəsində göstərilən ingiliscə altyazılara iki dəfə klikləyin. Subtitrlər videonun oxudulması ilə sinxron şəkildə sürüşdürülür. Hər hansı bir şərhiniz və ya sorğunuz varsa, bu əlaqə formasından istifadə edərək bizimlə əlaqə saxlayın.

https://forms.gle/WvT1wiN1qDtmnspy7