How will AI change the world?

1,778,961 views ・ 2022-12-06

TED-Ed


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

Переводчик: Natalia Savvidi Редактор: Rostislav Golod
В обозримом будущем искусственный интеллект,
00:07
In the coming years, artificial intelligence
0
7336
2169
возможно, изменит не только вашу жизнь, но и всего мира.
00:09
is probably going to change your life, and likely the entire world.
1
9505
3629
Но людям трудно прийти к согласию,
00:13
But people have a hard time agreeing on exactly how.
2
13301
3295
как это будет происходить.
00:16
The following are excerpts from an interview
3
16804
2127
Мы приведём отрывки из интервью для Всемирного экономического форума,
00:18
where renowned computer science professor and AI expert Stuart Russell
4
18931
3504
в котором известный профессор информатики
и специалист по ИИ Стюарт Рассел поможет отделить разумные мысли от вздора.
00:22
helps separate the sense from the nonsense.
5
22435
2586
00:25
There’s a big difference between asking a human to do something
6
25313
3754
Существует большая разница между тем, когда человека просят сделать что-то,
00:29
and giving that as the objective to an AI system.
7
29067
3461
и тем, когда это поручается системе ИИ.
00:32
When you ask a human to get you a cup of coffee,
8
32528
2628
Когда вы просите человека принести чашку кофе,
вы не имеете в виду, что это должно стать задачей его жизни
00:35
you don’t mean this should be their life’s mission,
9
35156
2586
00:37
and nothing else in the universe matters.
10
37742
1960
и ничто другое во вселенной не имеет значения.
00:39
Even if they have to kill everybody else in Starbucks
11
39702
2586
Даже если нужно убить всех остальных в «Старбаксе»
00:42
to get you the coffee before it closes— they should do that.
12
42288
2836
и добыть вам кофе, прежде чем кафе закроется,
он должен это сделать.
00:45
No, that’s not what you mean.
13
45124
1627
Нет, не это имеется в виду.
00:46
All the other things that we mutually care about,
14
46751
2294
Всё, что имеет ценность для нас обоих,
должно учитываться в том числе и в вашем поведении.
00:49
they should factor into your behavior as well.
15
49045
2169
00:51
And the problem with the way we build AI systems now
16
51214
3169
Проблема в том, как мы сегодня создаём системы ИИ, —
00:54
is we give them a fixed objective.
17
54383
1627
мы ставим перед ними фиксированную цель.
00:56
The algorithms require us to specify everything in the objective.
18
56010
3545
Алгоритмы требуют, чтобы мы задавали цель в точности.
00:59
And if you say, can we fix the acidification of the oceans?
19
59555
3420
Допустим, мы задаёмся вопросом: можно ли остановить закисление океана?
01:02
Yeah, you could have a catalytic reaction that does that extremely efficiently,
20
62975
4046
Да, благодаря каталитической реакции это можно сделать очень эффективно,
01:07
but it consumes a quarter of the oxygen in the atmosphere,
21
67021
3253
но для этого потребуется четверть атмосферного кислорода,
01:10
which would apparently cause us to die fairly slowly and unpleasantly
22
70274
3712
что приведёт к медленной и мучительной гибели людей
01:13
over the course of several hours.
23
73986
1752
за каких-то несколько часов.
01:15
So, how do we avoid this problem?
24
75780
3211
Как же разрешить эту проблему?
01:18
You might say, okay, well, just be more careful about specifying the objective—
25
78991
4088
Можно было бы предложить тщательнее определить цель,
01:23
don’t forget the atmospheric oxygen.
26
83079
2544
не забывая об атмосферном кислороде.
01:25
And then, of course, some side effect of the reaction in the ocean
27
85873
3545
Кроме того, конечно же, побочный эффект этой реакции в океане —
01:29
poisons all the fish.
28
89418
1377
отравление всей рыбы.
01:30
Okay, well I meant don’t kill the fish either.
29
90795
2669
Ладно, я имел виду также не убивать рыбу.
01:33
And then, well, what about the seaweed?
30
93464
1919
А водоросли?
01:35
Don’t do anything that’s going to cause all the seaweed to die.
31
95383
2961
Не делать ничего такого, что погубит водоросли.
01:38
And on and on and on.
32
98344
1210
И так далее и тому подобное.
01:39
And the reason that we don’t have to do that with humans is that
33
99679
3920
Причина, по которой нет нужды проделывать это с людьми, состоит в том,
01:43
humans often know that they don’t know all the things that we care about.
34
103599
4505
что люди часто знают, что они не знают обо всём, что важно для нас.
01:48
If you ask a human to get you a cup of coffee,
35
108354
2961
Если вы попросите человека принести вам чашку кофе,
01:51
and you happen to be in the Hotel George Sand in Paris,
36
111315
2878
находясь в отеле «Жорж Санд» в Париже,
01:54
where the coffee is 13 euros a cup,
37
114193
2628
где чашка кофе стоит 13 евро,
01:56
it’s entirely reasonable to come back and say, well, it’s 13 euros,
38
116821
4171
будет разумно, если он вернётся и скажет:
«Здесь кофе стоит 13 евро.
02:00
are you sure you want it, or I could go next door and get one?
39
120992
2961
Будете пить за такие деньги или я мог бы купить его в другом месте?»
02:03
And it’s a perfectly normal thing for a person to do.
40
123953
2878
Для человека такой вопрос был бы совершенно нормальным.
02:07
To ask, I’m going to repaint your house—
41
127039
3003
Нормально также спросить:
«Я собираюсь покрасить ваш дом.
02:10
is it okay if I take off the drainpipes and then put them back?
42
130042
3337
Можно, я вначале сниму водосточные трубы, а потом верну их на место?»
02:13
We don't think of this as a terribly sophisticated capability,
43
133504
3128
Мы не считаем это чем-то исключительно сложным,
02:16
but AI systems don’t have it because the way we build them now,
44
136632
3087
но в настоящее время системы ИИ не обладают такой способностью.
02:19
they have to know the full objective.
45
139719
1793
Они должны знать цель в точности.
02:21
If we build systems that know that they don’t know what the objective is,
46
141721
3753
Если создавать системы, знающие о том, что они не знают цели,
02:25
then they start to exhibit these behaviors,
47
145474
2586
их поведение изменится и они станут спрашивать разрешение,
02:28
like asking permission before getting rid of all the oxygen in the atmosphere.
48
148060
4046
прежде чем избавляться от атмосферного кислорода.
02:32
In all these senses, control over the AI system
49
152565
3378
В этом смысле контроль над системами ИИ
02:35
comes from the machine’s uncertainty about what the true objective is.
50
155943
4463
возникает из-за неопределённости у машины относительно настоящей цели.
02:41
And it’s when you build machines that believe with certainty
51
161282
3086
Когда создаются машины, знающие наверняка,
02:44
that they have the objective,
52
164368
1418
что у них есть цель,
02:45
that’s when you get this sort of psychopathic behavior.
53
165786
2753
они демонстрируют подобие «психопатического поведения».
02:48
And I think we see the same thing in humans.
54
168539
2127
Думаю, что то же самое наблюдается и у людей.
02:50
What happens when general purpose AI hits the real economy?
55
170750
4254
Что произойдёт,
когда в массовое производство поступят универсальные устройства ИИ?
02:55
How do things change? Can we adapt?
56
175379
3587
Как изменится ситуация и сможем ли мы приспособиться?
02:59
This is a very old point.
57
179175
1835
Это очень старый вопрос.
03:01
Amazingly, Aristotle actually has a passage where he says,
58
181010
3587
Удивительно, но Аристотель сделал такое утверждение:
03:04
look, if we had fully automated weaving machines
59
184597
3045
«Если бы у нас были полностью автоматизированные ткацкие машины
03:07
and plectrums that could pluck the lyre and produce music without any humans,
60
187642
3837
и плектры были бы способны играть на лире и создавать музыку без участия человека,
03:11
then we wouldn’t need any workers.
61
191604
2002
нам были бы не нужны работники».
03:13
That idea, which I think it was Keynes
62
193814
2878
По-моему, об этом высказывался Кейнс,
03:16
who called it technological unemployment in 1930,
63
196692
2836
называвший это технологической безработицей в 1930 году,
03:19
is very obvious to people.
64
199528
1919
и это очевидно для людей.
03:21
They think, yeah, of course, if the machine does the work,
65
201447
3086
Они думают, что, конечно же, если машина будет делать работу,
03:24
then I'm going to be unemployed.
66
204533
1669
тогда я окажусь безработным.
03:26
You can think about the warehouses that companies are currently operating
67
206369
3503
Подумайте о магазинах, через которые компании торгуют в интернете, —
03:29
for e-commerce, they are half automated.
68
209872
2711
они наполовину автоматизированы.
03:32
The way it works is that an old warehouse— where you’ve got tons of stuff piled up
69
212583
4046
Раньше на полках в оптовых складах лежали тонны товаров,
03:36
all over the place and humans go and rummage around
70
216629
2461
а работники шли, находили нужный товар,
03:39
and then bring it back and send it off—
71
219090
1877
приносили его и отправляли покупателям.
03:40
there’s a robot who goes and gets the shelving unit
72
220967
3586
А сейчас есть роботы, которые берут с полки некие контейнеры,
03:44
that contains the thing that you need,
73
224553
1919
содержащие нужный товар,
03:46
but the human has to pick the object out of the bin or off the shelf,
74
226472
3629
но человек должен всё равно достать товар из контейнера или снять с полки:
03:50
because that’s still too difficult.
75
230101
1877
это всё ещё слишком сложно для робота.
03:52
But, at the same time,
76
232019
2002
Однако создадите ли вы робот,
03:54
would you make a robot that is accurate enough to be able to pick
77
234021
3921
который с достаточной точностью сможет
выбрать конкретный товар
03:57
pretty much any object within a very wide variety of objects that you can buy?
78
237942
4338
из широкого ассортимента товаров, доступных для покупки?
04:02
That would, at a stroke, eliminate 3 or 4 million jobs?
79
242280
4004
Если да, то это изобретение одним махом
уничтожит от трёх до четырёх миллионов рабочих мест.
04:06
There's an interesting story that E.M. Forster wrote,
80
246409
3336
Эдвард Морган Форстер написал интересный рассказ «Машина останавливается»,
04:09
where everyone is entirely machine dependent.
81
249745
3504
в котором каждый полностью зависит от Машины.
04:13
The story is really about the fact that if you hand over
82
253499
3754
Рассказ на самом деле о том,
что если вы передадите машинам управление своей цивилизацией,
04:17
the management of your civilization to machines,
83
257253
2961
04:20
you then lose the incentive to understand it yourself
84
260214
3504
вы потеряете потребность понимать, как управляют миром,
04:23
or to teach the next generation how to understand it.
85
263718
2544
или обучать этому следующее поколение.
04:26
You can see “WALL-E” actually as a modern version,
86
266262
3003
Мультфильм «ВАЛЛ-И» можно считать современной версией этой идеи —
04:29
where everyone is enfeebled and infantilized by the machine,
87
269265
3628
в этом мире все стали хилыми и инфантильными из-за машин.
04:32
and that hasn’t been possible up to now.
88
272893
1961
Но до сих пор такое было невозможно.
04:34
We put a lot of our civilization into books,
89
274854
2419
Наша цивилизация очень подробно описана нами в книгах,
04:37
but the books can’t run it for us.
90
277273
1626
но книги не могут управлять ею вместо нас.
04:38
And so we always have to teach the next generation.
91
278899
2795
Мы всегда вынуждены обучать следующее поколение.
04:41
If you work it out, it’s about a trillion person years of teaching and learning
92
281736
4212
Если разобраться, мы потратили где-то триллион человеко-лет на обучение и учёбу,
04:45
and an unbroken chain that goes back tens of thousands of generations.
93
285948
3962
и эта непрерывная цепочка уходит в прошлое на десятки тысяч поколений.
04:50
What happens if that chain breaks?
94
290119
1919
Что произойдёт, если эта цепочка прервётся?
04:52
I think that’s something we have to understand as AI moves forward.
95
292038
3461
Думаю, что это надо понимать, развивая ИИ.
04:55
The actual date of arrival of general purpose AI—
96
295624
3587
Невозможно указать точную дату появления универсальных устройств ИИ.
04:59
you’re not going to be able to pinpoint, it isn’t a single day.
97
299211
3087
Невозможно указать какой-то определённый день.
05:02
It’s also not the case that it’s all or nothing.
98
302298
2294
К тому же, это не случится за один день.
05:04
The impact is going to be increasing.
99
304592
2461
Влияние будет постепенно возрастать.
05:07
So with every advance in AI,
100
307053
2043
При каждом новом достижении в сфере ИИ
05:09
it significantly expands the range of tasks.
101
309096
2962
будет существенно расширяться спектр задач.
05:12
So in that sense, I think most experts say by the end of the century,
102
312058
5338
Большинство экспертов считают, что в этом смысле к концу века,
05:17
we’re very, very likely to have general purpose AI.
103
317396
3337
скорее всего, появятся универсальные устройства ИИ.
05:20
The median is something around 2045.
104
320733
3754
По средней оценке экспертов, где-то около 2045 года.
05:24
I'm a little more on the conservative side.
105
324487
2002
Я придерживаюсь более консервативного мнения.
05:26
I think the problem is harder than we think.
106
326489
2085
Я считаю, что эта задача сложнее, чем мы думаем.
05:28
I like what John McAfee, he was one of the founders of AI,
107
328574
3253
Мне нравится, как ответил на этот вопрос
Джон Макафи, один из первых разработчиков ИИ,
05:31
when he was asked this question, he said, somewhere between five and 500 years.
108
331911
3837
он сказал, что на это уйдёт от 5 до 500 лет.
05:35
And we're going to need, I think, several Einsteins to make it happen.
109
335748
3337
И чтобы это произошло, понадобится несколько Эйнштейнов.

Original video on YouTube.com
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7