Ray Kurzweil: Get ready for hybrid thinking

530,277 views ・ 2014-06-02

TED


Будь ласка, двічі клацніть на англійські субтитри нижче, щоб відтворити відео.

Перекладач: Утверджено: Oleksiy Pazyuk
00:12
Let me tell you a story.
0
12988
2316
Дозвольте я розкажу вам історію.
00:15
It goes back 200 million years.
1
15304
1799
Вона почалась 200 мільйонів років тому.
00:17
It's a story of the neocortex,
2
17103
1984
Це історія про неокортекс,
00:19
which means "new rind."
3
19087
1974
що значить "нова кора".
00:21
So in these early mammals,
4
21061
2431
Перші ссавці -
00:23
because only mammals have a neocortex,
5
23492
2055
а тільки в них був неокортекс -
00:25
rodent-like creatures.
6
25547
1664
були мишоподібними створіннями.
00:27
It was the size of a postage stamp and just as thin,
7
27211
3579
У них він був розміром, як поштова марка, такий же тонкий,
00:30
and was a thin covering around
8
30790
1439
і створював тонку оболонку навколо
00:32
their walnut-sized brain,
9
32229
2264
їхнього мозку, величиною з волоський горіх,
00:34
but it was capable of a new type of thinking.
10
34493
3701
але він був здатний до нового типу мислення.
00:38
Rather than the fixed behaviors
11
38194
1567
Окрім фіксованої поведінки,
00:39
that non-mammalian animals have,
12
39761
1992
яку демонстрували не ссавці,
00:41
it could invent new behaviors.
13
41753
2692
він міг винаходити нову поведінку.
00:44
So a mouse is escaping a predator,
14
44445
2553
Коли миша втікає від хижака,
00:46
its path is blocked,
15
46998
1540
її шлях блокований
00:48
it'll try to invent a new solution.
16
48538
2129
і вона спробує винайти нове рішення.
00:50
That may work, it may not,
17
50667
1266
Це може спрацювати, а може й ні,
00:51
but if it does, it will remember that
18
51933
1910
але якщо так, вона запам'ятає це
00:53
and have a new behavior,
19
53843
1292
і матиме нову поведінку,
00:55
and that can actually spread virally
20
55135
1457
це може поширюватись як вірус
00:56
through the rest of the community.
21
56592
2195
між рештою виду.
00:58
Another mouse watching this could say,
22
58787
1609
Інша миша, спостерігаючи за цим, могла б сказати:
01:00
"Hey, that was pretty clever, going around that rock,"
23
60396
2704
"О, це дуже розумно, обійти навколо того каменя",
01:03
and it could adopt a new behavior as well.
24
63100
3725
і прийняти нову поведінку до себе.
01:06
Non-mammalian animals
25
66825
1717
Не ссавці
01:08
couldn't do any of those things.
26
68542
1713
не могли робити нічого з того.
01:10
They had fixed behaviors.
27
70255
1215
Вони мали фіксовану поведінку.
01:11
Now they could learn a new behavior
28
71470
1331
Вони могли б засвоїти нову поведінку,
01:12
but not in the course of one lifetime.
29
72801
2576
але не протягом одного життя.
01:15
In the course of maybe a thousand lifetimes,
30
75377
1767
Протягом, можливо, тисячі життів,
01:17
it could evolve a new fixed behavior.
31
77144
3330
може розвинутись нова фіксована поведінка.
01:20
That was perfectly okay 200 million years ago.
32
80474
3377
Це було абсолютно нормально 200 мільйонів років тому.
01:23
The environment changed very slowly.
33
83851
1981
Середовище змінювалось дуже повільно.
01:25
It could take 10,000 years for there to be
34
85832
1554
Проходили 10 000 років,
01:27
a significant environmental change,
35
87386
2092
щоб відбулась значна зміна в середовищі,
01:29
and during that period of time
36
89478
1382
і протягом того періоду часу
01:30
it would evolve a new behavior.
37
90860
2929
створювалась нова поведінка.
01:33
Now that went along fine,
38
93789
1521
І коли все йшло добре,
01:35
but then something happened.
39
95310
1704
щось трапилось.
01:37
Sixty-five million years ago,
40
97014
2246
Шістдесят пять мільйонів років тому,
01:39
there was a sudden, violent change to the environment.
41
99260
2615
трапилась раптова, жорстока зміна в середовищі.
01:41
We call it the Cretaceous extinction event.
42
101875
3505
Ми називаємо її Крейдове вимирання.
01:45
That's when the dinosaurs went extinct,
43
105380
2293
Це було тоді, коли вимерли динозаври
01:47
that's when 75 percent of the
44
107673
3449
разом з 75-ма відсотками
01:51
animal and plant species went extinct,
45
111122
2746
видів тварин і рослин,
01:53
and that's when mammals
46
113868
1745
і ось тоді ссавці
01:55
overtook their ecological niche,
47
115613
2152
заповнили свою екологічну нішу.
01:57
and to anthropomorphize, biological evolution said,
48
117765
3654
І еволюція тоді сказала:
02:01
"Hmm, this neocortex is pretty good stuff,"
49
121419
2025
"О, цей неокортекс непоганий матеріал",
02:03
and it began to grow it.
50
123444
1793
і почала вирощувати його.
02:05
And mammals got bigger,
51
125237
1342
Ссавці почали збільшуватись,
02:06
their brains got bigger at an even faster pace,
52
126579
2915
їх мозок збільшувався ще більшими темпами,
02:09
and the neocortex got bigger even faster than that
53
129494
3807
а неокортекс збільшувався ще швидше за них
02:13
and developed these distinctive ridges and folds
54
133301
2929
і сформував ці складки та звивини,
02:16
basically to increase its surface area.
55
136230
2881
по суті, щоб збільшити свою площу поверхні.
Якщо ви візьмете людський неокортекс
02:19
If you took the human neocortex
56
139111
1819
02:20
and stretched it out,
57
140930
1301
і розтягнете його,
то він буде розміром зі столову серветку,
02:22
it's about the size of a table napkin,
58
142231
1713
02:23
and it's still a thin structure.
59
143944
1306
і усе ще тонкий.
02:25
It's about the thickness of a table napkin.
60
145250
1980
Його товщина приблизно, як в столової серветки.
02:27
But it has so many convolutions and ridges
61
147230
2497
Але в ньому дуже багато звивин і складок,
02:29
it's now 80 percent of our brain,
62
149727
3075
які складають 80 відсотків нашого мозку,
02:32
and that's where we do our thinking,
63
152802
2461
і саме тут проходять наші думки,
02:35
and it's the great sublimator.
64
155263
1761
він також є величезним субліматором.
02:37
We still have that old brain
65
157024
1114
Ми усе ще маємо старий мозок,
02:38
that provides our basic drives and motivations,
66
158138
2764
що відповідає за наші базові прагнення та стимули,
02:40
but I may have a drive for conquest,
67
160902
2716
можливо, в мене є прагнення до підкорення,
02:43
and that'll be sublimated by the neocortex
68
163618
2715
але воно буде сублімоване неокортексом
02:46
into writing a poem or inventing an app
69
166333
2909
у написання поеми, чи розробку додатку,
02:49
or giving a TED Talk,
70
169242
1509
чи презентацію на TED.
02:50
and it's really the neocortex that's where
71
170751
3622
І всі ці дії насправді відбуваються
02:54
the action is.
72
174373
1968
в неокортексі.
П'ятдесят років тому я написав статтю,
02:56
Fifty years ago, I wrote a paper
73
176341
1717
де описав свій погляд на те, як працює мозок,
02:58
describing how I thought the brain worked,
74
178058
1918
02:59
and I described it as a series of modules.
75
179976
3199
і я описав це, як послідовність модулів.
Кожен модуль може працювати згідно шаблону.
03:03
Each module could do things with a pattern.
76
183175
2128
03:05
It could learn a pattern. It could remember a pattern.
77
185303
2746
Він може вивчити шаблон. Він може запам'ятати шаблон.
03:08
It could implement a pattern.
78
188049
1407
Він може реалізувати шаблон.
03:09
And these modules were organized in hierarchies,
79
189456
2679
І ці модулі були ієрархічно організовані,
03:12
and we created that hierarchy with our own thinking.
80
192135
2954
ми створили цю ієрархію власним мисленням.
03:15
And there was actually very little to go on
81
195089
3333
50 років тому цього було замало
03:18
50 years ago.
82
198422
1562
для продовження.
03:19
It led me to meet President Johnson.
83
199984
2115
Це привело мене до зустрічі з президентом Джонсоном.
03:22
I've been thinking about this for 50 years,
84
202099
2173
Я думав про це 50 років,
03:24
and a year and a half ago I came out with the book
85
204272
2828
і півтора року тому я видав книгу
03:27
"How To Create A Mind,"
86
207100
1265
"Як створити Розум,"
03:28
which has the same thesis,
87
208365
1613
в якій була та ж теза,
03:29
but now there's a plethora of evidence.
88
209978
2812
але тепер є безліч доказів.
03:32
The amount of data we're getting about the brain
89
212790
1814
Кількість даних, які ми отримуємо про мозок
03:34
from neuroscience is doubling every year.
90
214604
2203
в нейрології, збільшується вдвічі кожного року.
03:36
Spatial resolution of brainscanning of all types
91
216807
2654
Просторова точність сканування мозку всіх типів
03:39
is doubling every year.
92
219461
2285
подвоюється кожного року.
03:41
We can now see inside a living brain
93
221746
1717
Зараз ми можемо заглянути всередину живого мозку
03:43
and see individual interneural connections
94
223463
2870
і побачити окремі міжнейронні з'єднання,
03:46
connecting in real time, firing in real time.
95
226333
2703
що з'єднуються та роз'єднуються в реальному часі.
Ми можемо бачити, як ваш мозок створює власні думки.
03:49
We can see your brain create your thoughts.
96
229036
2419
03:51
We can see your thoughts create your brain,
97
231455
1575
Ми можемо бачити, як ваші думки створюють ваш мозок,
03:53
which is really key to how it works.
98
233030
1999
що є ключем до того, як він працює.
03:55
So let me describe briefly how it works.
99
235029
2219
Дозвольте я коротко опишу, як він працює.
03:57
I've actually counted these modules.
100
237248
2275
Я підрахував кількість цих модулів.
03:59
We have about 300 million of them,
101
239523
2046
Їх приблизно 300 мільйонів,
04:01
and we create them in these hierarchies.
102
241569
2229
і ми створюємо з них ієрархію.
04:03
I'll give you a simple example.
103
243798
2082
Я дам вам простий приклад.
04:05
I've got a bunch of modules
104
245880
2805
Є велика група модулів,
04:08
that can recognize the crossbar to a capital A,
105
248685
3403
що можуть розпізнавати горизонтальну риску великої літери "Я",
04:12
and that's all they care about.
106
252088
1914
і це все, за що вони відповідають.
04:14
A beautiful song can play,
107
254002
1578
Може грати чудова пісня,
04:15
a pretty girl could walk by,
108
255580
1434
проходити красива дівчина -
їм це байдуже, але коли вони бачать горизонтальну риску великої "Я",
04:17
they don't care, but they see a crossbar to a capital A,
109
257014
2846
04:19
they get very excited and they say "crossbar,"
110
259860
3021
вони збуджуються і говорять "горизонтальна риска",
04:22
and they put out a high probability
111
262881
2112
і вони подають з високою імовірністю
04:24
on their output axon.
112
264993
1634
сигнал на свій вихідний аксон.
04:26
That goes to the next level,
113
266627
1333
Це переходить на наступний рівень,
04:27
and these layers are organized in conceptual levels.
114
267960
2750
ці прошарки організовані в концептуальні рівні.
04:30
Each is more abstract than the next one,
115
270710
1856
Кожен абстрактніший за наступний,
04:32
so the next one might say "capital A."
116
272566
2418
отже наступний може сказати "велика Я".
04:34
That goes up to a higher level that might say "Apple."
117
274984
2891
Це продовжується до вищого рівня, що може сказати "Яблуко."
04:37
Information flows down also.
118
277875
2167
Інформація також проходить вниз.
04:40
If the apple recognizer has seen A-P-P-L,
119
280042
2936
Якщо розпізнавач яблука побачить Я-Б-Л-У-К,
04:42
it'll think to itself, "Hmm, I think an E is probably likely,"
120
282978
3219
то подумає "М-м, я думаю, найімовірніше далі буде О,"
04:46
and it'll send a signal down to all the E recognizers
121
286197
2564
і відправить сигнал до всіх розпізнавачів букви О,
04:48
saying, "Be on the lookout for an E,
122
288761
1619
говорячи, "Будьте напоготові для О,
04:50
I think one might be coming."
123
290380
1556
я думаю, вона може з'явитись."
04:51
The E recognizers will lower their threshold
124
291936
2843
Розпізнавачі О понизять свій поріг
04:54
and they see some sloppy thing, could be an E.
125
294779
1945
і побачать деяку розпливчасту річ, схожу на О.
04:56
Ordinarily you wouldn't think so,
126
296724
1490
Зазвичай, ви б так не думали,
04:58
but we're expecting an E, it's good enough,
127
298214
2009
але ми очікуємо на О, це досить добре,
05:00
and yeah, I've seen an E, and then apple says,
128
300223
1817
і так, я побачив О, і тоді яблуко говорить,
05:02
"Yeah, I've seen an Apple."
129
302040
1728
"Так, я побачив Яблуко."
05:03
Go up another five levels,
130
303768
1746
Піднімемось ще на п'ять рівнів,
05:05
and you're now at a pretty high level
131
305514
1353
зараз ви на досить високому рівні
05:06
of this hierarchy,
132
306867
1569
цієї ієрархії.
05:08
and stretch down into the different senses,
133
308436
2353
Зараз це може стосуватись різних відчуттів,
05:10
and you may have a module that sees a certain fabric,
134
310789
2655
ви можете мати модуль, що бачить певну тканину,
05:13
hears a certain voice quality, smells a certain perfume,
135
313444
2844
чує певний голос, сприймає певний запах,
05:16
and will say, "My wife has entered the room."
136
316288
2513
і каже "Моя дружина увійшла до кімнати."
05:18
Go up another 10 levels, and now you're at
137
318801
1895
Піднімімось ще на 10 рівнів, і ви на
05:20
a very high level.
138
320696
1160
найвищому рівні.
05:21
You're probably in the frontal cortex,
139
321856
1937
Ви, ймовірно, у фронтальному кортексі,
05:23
and you'll have modules that say, "That was ironic.
140
323793
3767
де у вас модулі, що кажуть, "Це було безглуздо.
05:27
That's funny. She's pretty."
141
327560
2370
Це було смішно. Вона мила."
05:29
You might think that those are more sophisticated,
142
329930
2105
Ви можете подумати, що вони більш складні,
05:32
but actually what's more complicated
143
332035
1506
але, насправді, більш складною
05:33
is the hierarchy beneath them.
144
333541
2669
є ієрархія під ними.
05:36
There was a 16-year-old girl, she had brain surgery,
145
336210
2620
16-річній дівчині проводили операцію на мозку,
05:38
and she was conscious because the surgeons
146
338830
2051
і вона була при свідомості, бо хірурги
05:40
wanted to talk to her.
147
340881
1537
хотіли говорити з нею.
05:42
You can do that because there's no pain receptors
148
342418
1822
Це можливо, тому що больові рецептори відсутні
05:44
in the brain.
149
344240
1038
в мозку.
05:45
And whenever they stimulated particular,
150
345278
1800
І як тільки вони стимулювали певні,
05:47
very small points on her neocortex,
151
347078
2463
дуже малі точки її неокортексу,
05:49
shown here in red, she would laugh.
152
349541
2665
показані тут червоним, вона сміялась.
05:52
So at first they thought they were triggering
153
352206
1440
Спочатку вони думали, що перемикали
05:53
some kind of laugh reflex,
154
353646
1720
певний вид рефлексу сміху,
05:55
but no, they quickly realized they had found
155
355366
2519
але ні, вони швидко зрозуміли, що знайшли
05:57
the points in her neocortex that detect humor,
156
357885
3044
точки в неокортексі, що визначають гумор,
06:00
and she just found everything hilarious
157
360929
1969
і їй просто здавалось все смішним
06:02
whenever they stimulated these points.
158
362898
2437
в момент, коли вони стимулювали ці точки.
06:05
"You guys are so funny just standing around,"
159
365335
1925
"Ви, хлопці, такі смішні - стоїте навколо,"
06:07
was the typical comment,
160
367260
1738
- це був типовий коментар,
06:08
and they weren't funny,
161
368998
2302
але вони не були смішні,
06:11
not while doing surgery.
162
371300
3247
не під час операції.
06:14
So how are we doing today?
163
374547
4830
Тож, що ми маємо на сьогодні?
06:19
Well, computers are actually beginning to master
164
379377
3054
Комп'ютери насправді починають засвоювати
06:22
human language with techniques
165
382431
2001
людську мову з допомогою технік,
06:24
that are similar to the neocortex.
166
384432
2867
що схожі до неокортексу.
06:27
I actually described the algorithm,
167
387299
1514
Я, насправді, вже описував алгоритм,
06:28
which is similar to something called
168
388813
2054
який схожий до того, що ми називаємо
06:30
a hierarchical hidden Markov model,
169
390867
2233
ієрархічною прихованою моделлю Маркова,
06:33
something I've worked on since the '90s.
170
393100
3241
дещо, з чим я працював з 90-х.
06:36
"Jeopardy" is a very broad natural language game,
171
396341
3238
"Jeopardy" - дуже поширена лінгвістична гра,
06:39
and Watson got a higher score
172
399579
1892
і Ватсон отримав більше балів,
06:41
than the best two players combined.
173
401471
2000
ніж два найкращі гравці разом.
06:43
It got this query correct:
174
403471
2499
Він зрозумів питання правильно:
06:45
"A long, tiresome speech
175
405970
2085
"Довга, виснажуюча промова,
06:48
delivered by a frothy pie topping,"
176
408055
2152
проголошена пінистою начинкою для торта,"
06:50
and it quickly responded, "What is a meringue harangue?"
177
410207
2796
і він швидко відповів: "Що таке безе просторікувала?"
06:53
And Jennings and the other guy didn't get that.
178
413003
2635
І Дженнінґс, та інший хлопець не зрозуміли цього.
06:55
It's a pretty sophisticated example of
179
415638
1926
Це дуже складний приклад того,
06:57
computers actually understanding human language,
180
417564
1914
як комп'ютери по-справжньому розуміють людську мову,
06:59
and it actually got its knowledge by reading
181
419478
1652
вони отримують знання, читаючи
07:01
Wikipedia and several other encyclopedias.
182
421130
3785
Вікіпедію та декілька інших енциклопедій.
07:04
Five to 10 years from now,
183
424915
2133
Через п'ять чи десять років від сьогодні
07:07
search engines will actually be based on
184
427048
2184
пошукові браузери будуть базуватись
07:09
not just looking for combinations of words and links
185
429232
2794
не тільки на пошуку комбінацій слів та посилань,
07:12
but actually understanding,
186
432026
1914
але й розумінні,
07:13
reading for understanding the billions of pages
187
433940
2411
під час читання, щоб зрозуміти мільярди сторінок
07:16
on the web and in books.
188
436351
2733
в Інтернеті і в книжках.
07:19
So you'll be walking along, and Google will pop up
189
439084
2616
Отже, коли ви гулятимете, Гугл з'явиться
07:21
and say, "You know, Mary, you expressed concern
190
441700
3081
і скаже, "Знаєте, Мері, місяць тому ви висловили
07:24
to me a month ago that your glutathione supplement
191
444781
3019
занепокоєння, що ваші глутатіонові добавки
07:27
wasn't getting past the blood-brain barrier.
192
447800
2231
не проходять гематоенцефалічний бар'єр.
07:30
Well, new research just came out 13 seconds ago
193
450031
2593
13 секунд назад з'явилось нове дослідження,
07:32
that shows a whole new approach to that
194
452624
1711
яке демонструє повністю новий підхід до цього
07:34
and a new way to take glutathione.
195
454335
1993
і новий шлях приймання глутатіону.
07:36
Let me summarize it for you."
196
456328
2562
Дозвольте я зроблю узагальнення для вас."
07:38
Twenty years from now, we'll have nanobots,
197
458890
3684
Через двадцять років в нас будуть наноботи,
07:42
because another exponential trend
198
462574
1627
як наслідок різкого тренду
07:44
is the shrinking of technology.
199
464201
1615
зменшення технологій.
07:45
They'll go into our brain
200
465816
2370
Вони увійдуть в наш мозок
07:48
through the capillaries
201
468186
1703
через капіляри,
07:49
and basically connect our neocortex
202
469889
2477
і взагалі підключать наш неокортекс
07:52
to a synthetic neocortex in the cloud
203
472366
3185
до синтетичного неокортексу в "хмарі",
07:55
providing an extension of our neocortex.
204
475551
3591
забезпечуючи розширення нашого неокортексу.
07:59
Now today, I mean,
205
479142
1578
Сьогодні
08:00
you have a computer in your phone,
206
480720
1530
ви маєте комп'ютер в телефоні,
08:02
but if you need 10,000 computers for a few seconds
207
482250
2754
але якщо вам треба 10 000 комп'ютерів на декілька секунд,
08:05
to do a complex search,
208
485004
1495
щоб здійснити складний пошух,
08:06
you can access that for a second or two in the cloud.
209
486499
3396
ви можете зробити це за секунду чи дві в "хмарі".
08:09
In the 2030s, if you need some extra neocortex,
210
489895
3095
В 2030-х, якщо вам буде потрібен додатковий неокортекс,
08:12
you'll be able to connect to that in the cloud
211
492990
2273
ви зможете під'єднатись до нього через "хмару"
08:15
directly from your brain.
212
495263
1648
прямо з вашого мозку.
08:16
So I'm walking along and I say,
213
496911
1543
Я прогулююсь, і кажу,
08:18
"Oh, there's Chris Anderson.
214
498454
1363
"О, Кріс Андерсон.
08:19
He's coming my way.
215
499817
1525
Він йде мені назустріч.
08:21
I'd better think of something clever to say.
216
501342
2335
Я краще подумаю, що ж розумного сказати.
08:23
I've got three seconds.
217
503677
1524
В мене є три секунди.
08:25
My 300 million modules in my neocortex
218
505201
3097
Мої 300 мільйонів модулів в неокортексі
08:28
isn't going to cut it.
219
508298
1240
не справляться з цим.
08:29
I need a billion more."
220
509538
1246
Мені треба на мільярд більше."
08:30
I'll be able to access that in the cloud.
221
510784
3323
Мені буде доступне все це в "хмарі".
08:34
And our thinking, then, will be a hybrid
222
514107
2812
І наше мислення, в такому випадку, буде гібридом
08:36
of biological and non-biological thinking,
223
516919
3522
біологічного і небіологічного мислення,
08:40
but the non-biological portion
224
520441
1898
проте небіологічна частина
08:42
is subject to my law of accelerating returns.
225
522339
2682
підлягає моєму закону пришвидшеної віддачі.
08:45
It will grow exponentially.
226
525021
2239
Воно розростатиметься експоненціально.
08:47
And remember what happens
227
527260
2016
І пам'ятаєте, що відбулось
08:49
the last time we expanded our neocortex?
228
529276
2645
останнього разу, коли ми розширили неокортекс?
08:51
That was two million years ago
229
531921
1426
Це було два мільйони років тому,
08:53
when we became humanoids
230
533347
1236
коли ми стали гуманоїдами
08:54
and developed these large foreheads.
231
534583
1594
і розвинули ці великі лобні ділянки.
08:56
Other primates have a slanted brow.
232
536177
2583
Інші примати мають похилий лоб.
08:58
They don't have the frontal cortex.
233
538760
1745
В них немає фронтального кортексу.
09:00
But the frontal cortex is not really qualitatively different.
234
540505
3685
Але фронтальний кортекс не відрізняється якісно .
09:04
It's a quantitative expansion of neocortex,
235
544190
2743
Це кількісне розширення неокортексу,
09:06
but that additional quantity of thinking
236
546933
2703
але це додаткове збільшення мислення
09:09
was the enabling factor for us to take
237
549636
1779
стало вирішальним фактором для нас,
09:11
a qualitative leap and invent language
238
551415
3346
щоб зробити якісний стрибок і винайти мову,
09:14
and art and science and technology
239
554761
1967
і мистецтво, і науку, і технологію,
09:16
and TED conferences.
240
556728
1454
і TED-конференції.
09:18
No other species has done that.
241
558182
2131
Жоден з інших видів не зробив цього.
09:20
And so, over the next few decades,
242
560313
2075
І так, протягом наступних кількох десятиліть
09:22
we're going to do it again.
243
562388
1760
ми збираємось зробити це знову.
09:24
We're going to again expand our neocortex,
244
564148
2274
Ми збираємось знову розширити наш неокортекс,
09:26
only this time we won't be limited
245
566422
1756
тільки цього разу ми не будемо обмежувати себе
09:28
by a fixed architecture of enclosure.
246
568178
4280
фіксованою архітектурою оболонки.
09:32
It'll be expanded without limit.
247
572458
3304
Він буде розширений безмежно.
09:35
That additional quantity will again
248
575762
2243
Ця додаткова кількість знову
09:38
be the enabling factor for another qualitative leap
249
578005
3005
буде вирішальним фактором для іншого якісного стрибка
09:41
in culture and technology.
250
581010
1635
в культурі і технології.
09:42
Thank you very much.
251
582645
2054
Дуже дякую.
09:44
(Applause)
252
584699
3086
(Оплески)
Про цей сайт

Цей сайт познайомить вас з відеороликами YouTube, корисними для вивчення англійської мови. Ви побачите уроки англійської мови, які проводять першокласні викладачі з усього світу. Двічі клацніть на англійських субтитрах, що відображаються на кожній сторінці відео, щоб відтворити відео з цієї сторінки. Субтитри прокручуються синхронно з відтворенням відео. Якщо у вас є коментарі або побажання, будь ласка, зв'яжіться з нами за допомогою цієї контактної форми.

https://forms.gle/WvT1wiN1qDtmnspy7