How will AI change the world?

2,024,306 views ・ 2022-12-06

TED-Ed


Будь ласка, двічі клацніть на англійські субтитри нижче, щоб відтворити відео.

Перекладач: Dariia Berestiuk Утверджено: Ilya Rozenberg
У найближчі роки штучний інтелект,
00:07
In the coming years, artificial intelligence
0
7336
2169
ймовірно, змінить ваше життя, а ймовірно, і весь світ.
00:09
is probably going to change your life, and likely the entire world.
1
9505
3629
Але людям важко вирішити, як саме.
00:13
But people have a hard time agreeing on exactly how.
2
13301
3295
Далі ми покажемо уривки з інтерв’ю Всесвітнього економічного форуму,
00:16
The following are excerpts from an interview
3
16804
2127
00:18
where renowned computer science professor and AI expert Stuart Russell
4
18931
3504
де відомий професор інформатики та експерт зі штучного інтелекту Стюарт Рассел
00:22
helps separate the sense from the nonsense.
5
22435
2586
допомагає відокремити сенс від нісенітниці.
00:25
There’s a big difference between asking a human to do something
6
25313
3754
Існує велика різниця між тим, щоб попросити людину щось зробити
00:29
and giving that as the objective to an AI system.
7
29067
3461
та поставити це завданням системі ШІ.
00:32
When you ask a human to get you a cup of coffee,
8
32528
2628
Коли ви просите людину принести вам чашку кави,
00:35
you don’t mean this should be their life’s mission,
9
35156
2586
ви не маєте на увазі, що це має бути місією усього їхного життя,
00:37
and nothing else in the universe matters.
10
37742
1960
і ніщо інше у світі не має значення.
00:39
Even if they have to kill everybody else in Starbucks
11
39702
2586
Навіть якщо їй потрібно вбити всіх людей у Старбакс,
00:42
to get you the coffee before it closes— they should do that.
12
42288
2836
щоб купити вам каву до закриття — вона мусить це зробити.
00:45
No, that’s not what you mean.
13
45124
1627
Ні, ви не це маєте на увазі.
00:46
All the other things that we mutually care about,
14
46751
2294
Як і усі інші чинники, які нам не байдужі,
00:49
they should factor into your behavior as well.
15
49045
2169
вона також має враховувати вашу поведінку.
00:51
And the problem with the way we build AI systems now
16
51214
3169
І проблема у створенні сучасної системи ШІ полягає в тому,
00:54
is we give them a fixed objective.
17
54383
1627
що ми ставимо перед нею фіксовану ціль.
Алгоритми вимагають, щоб ми формулювали все бажане.
00:56
The algorithms require us to specify everything in the objective.
18
56010
3545
00:59
And if you say, can we fix the acidification of the oceans?
19
59555
3420
І якщо ви запитаєте: чи можемо ми зупинити окиснення океанів?
01:02
Yeah, you could have a catalytic reaction that does that extremely efficiently,
20
62975
4046
Так, каталітична реакція, вирішить все надзвичайно ефективно,
01:07
but it consumes a quarter of the oxygen in the atmosphere,
21
67021
3253
але вона споживатиме чверть кисню в атмосфері,
01:10
which would apparently cause us to die fairly slowly and unpleasantly
22
70274
3712
що, очевидно, призведе до того, що ми помиратимемо досить повільно та неприємно
01:13
over the course of several hours.
23
73986
1752
впродовж наступних кількох годин.
01:15
So, how do we avoid this problem?
24
75780
3211
Отже, як нам уникнути цієї проблеми?
01:18
You might say, okay, well, just be more careful about specifying the objective—
25
78991
4088
Ви можете сказати: гаразд, просто будьте обережнішимив описі цілі —
01:23
don’t forget the atmospheric oxygen.
26
83079
2544
не забудьте згадати про атмосферний кисень.
01:25
And then, of course, some side effect of the reaction in the ocean
27
85873
3545
І тоді, безперечно, якийсь побічний ефект цієї реакції в океані
01:29
poisons all the fish.
28
89418
1377
отруює всю рибу.
01:30
Okay, well I meant don’t kill the fish either.
29
90795
2669
Гаразд, я також не хотів вбивати рибу.
01:33
And then, well, what about the seaweed?
30
93464
1919
Ну, а як щодо водоростей?
01:35
Don’t do anything that’s going to cause all the seaweed to die.
31
95383
2961
Не роби те, що спричинить загибель усіх водоростей.
01:38
And on and on and on.
32
98344
1210
І так далі, і далі, і далі.
01:39
And the reason that we don’t have to do that with humans is that
33
99679
3920
І причина, чому нам не потрібно пояснювати це людям, полягає в тому,
01:43
humans often know that they don’t know all the things that we care about.
34
103599
4505
що самі люди знають, що вони не знають усього, про що потрібно хвилюватись.
01:48
If you ask a human to get you a cup of coffee,
35
108354
2961
Якщо ви попросите людину принести вам чашку кави,
01:51
and you happen to be in the Hotel George Sand in Paris,
36
111315
2878
і ви, наприклад, знаходитесь в готелі Жорж Санд у Парижі,
01:54
where the coffee is 13 euros a cup,
37
114193
2628
де кава коштує 13 євро,
01:56
it’s entirely reasonable to come back and say, well, it’s 13 euros,
38
116821
4171
буде цілком логічно повернутись і сказати: ем, кава коштує 13 євро,
02:00
are you sure you want it, or I could go next door and get one?
39
120992
2961
ти точно хочеш саме цю каву, чи взяти дешевше тут недалеко?
02:03
And it’s a perfectly normal thing for a person to do.
40
123953
2878
І це абсолютно нормальна річ для людини.
02:07
To ask, I’m going to repaint your house—
41
127039
3003
Як і перепитати, наприклад, я фарбуватиму ваш будинок —
02:10
is it okay if I take off the drainpipes and then put them back?
42
130042
3337
нічого, якщо я для цього зніму ринви, а потім поставлю їх назад?
02:13
We don't think of this as a terribly sophisticated capability,
43
133504
3128
Ми не вбачаємо в цьому чогось надзвичайно складного,
02:16
but AI systems don’t have it because the way we build them now,
44
136632
3087
проте системи ШІ на це не спроможні, тому що ми їх створюємо такими,
02:19
they have to know the full objective.
45
139719
1793
щоб вони сприймали ціль у повному обсязі.
02:21
If we build systems that know that they don’t know what the objective is,
46
141721
3753
Якщо ми створюємо системи, які знають, що вони не знають свою ціль,
02:25
then they start to exhibit these behaviors,
47
145474
2586
тоді вони починають демонструвати таку поведінку як,
02:28
like asking permission before getting rid of all the oxygen in the atmosphere.
48
148060
4046
наприклад, запитувати дозвіл перед тим, як позбутися всього кисню в атмосфері.
02:32
In all these senses, control over the AI system
49
152565
3378
У всіх цих сенсах контроль над системою ШІ
02:35
comes from the machine’s uncertainty about what the true objective is.
50
155943
4463
походить від невпевненості машини щодо справжньої цілі.
02:41
And it’s when you build machines that believe with certainty
51
161282
3086
І коли ви створюєте машини, які з упевненістю вірять,
02:44
that they have the objective,
52
164368
1418
що вони мають ціль,
02:45
that’s when you get this sort of psychopathic behavior.
53
165786
2753
саме тоді ви отримуєте таку психопатичну поведінку.
02:48
And I think we see the same thing in humans.
54
168539
2127
І я думаю, що ми бачимо те саме в людях.
02:50
What happens when general purpose AI hits the real economy?
55
170750
4254
Що відбувається, коли ШІ загального призначення потрапляє в реальну економіку?
02:55
How do things change? Can we adapt?
56
175379
3587
Як змінюється ситуація? Чи можемо ми адаптуватися?
02:59
This is a very old point.
57
179175
1835
Ця теза вже існує дуже давно.
03:01
Amazingly, Aristotle actually has a passage where he says,
58
181010
3587
Як не дивно, але в Аристотеля насправді є уривок, де він каже,
03:04
look, if we had fully automated weaving machines
59
184597
3045
дивіться, якби у нас були повністю автоматизовані ткацькі верстати
03:07
and plectrums that could pluck the lyre and produce music without any humans,
60
187642
3837
та медіатори, що защипували б струни ліри та створювали музику без допомоги людини,
03:11
then we wouldn’t need any workers.
61
191604
2002
то нам би не потрібні були працівники.
03:13
That idea, which I think it was Keynes
62
193814
2878
Ця ідея, я думаю, що це був Кейнс,
03:16
who called it technological unemployment in 1930,
63
196692
2836
який у 1930 році назвав це технологічним безробіттям,
03:19
is very obvious to people.
64
199528
1919
для людей є дуже очевидною.
03:21
They think, yeah, of course, if the machine does the work,
65
201447
3086
Люди думають: так, звичайно, якщо машина виконуватиме всю роботу,
03:24
then I'm going to be unemployed.
66
204533
1669
тоді я залишуся без роботи.
03:26
You can think about the warehouses that companies are currently operating
67
206369
3503
Ви можете подумати про склади, якими зараз керують компанії
03:29
for e-commerce, they are half automated.
68
209872
2711
для інтернет-торгівлі, що вони наполовину автоматизовані.
03:32
The way it works is that an old warehouse— where you’ve got tons of stuff piled up
69
212583
4046
Це працює так: це старий склад, де нагромаджено купу речей,
03:36
all over the place and humans go and rummage around
70
216629
2461
де люди ходять і порпаються навколо, потім повертаються з товаром
03:39
and then bring it back and send it off—
71
219090
1877
і відправляють.
03:40
there’s a robot who goes and gets the shelving unit
72
220967
3586
А є ще робот, який дістає стелажний блок,
03:44
that contains the thing that you need,
73
224553
1919
в якому знаходиться те, що вам потрібно,
03:46
but the human has to pick the object out of the bin or off the shelf,
74
226472
3629
Але саме працівник дістає товар з блоку чи з полиці,
03:50
because that’s still too difficult.
75
230101
1877
тому що для робота це все ще важко.
Та, водночас, чи створили би ви робота,
03:52
But, at the same time,
76
232019
2002
03:54
would you make a robot that is accurate enough to be able to pick
77
234021
3921
який був би достатньо точним, щоб мати можливість вибирати
03:57
pretty much any object within a very wide variety of objects that you can buy?
78
237942
4338
майже будь-який предмет із дуже широкого вибору предметів, які ви хочете купити?
04:02
That would, at a stroke, eliminate 3 or 4 million jobs?
79
242280
4004
Який миттєво ліквідує 3-4 мільйони робочих місць?
04:06
There's an interesting story that E.M. Forster wrote,
80
246409
3336
У Едварда Форстера є цікава повість,
04:09
where everyone is entirely machine dependent.
81
249745
3504
в якій люди повністю залежать від машин.
04:13
The story is really about the fact that if you hand over
82
253499
3754
Ця історія насправді про те, що
якщо ви передаєте машинам управління цивілізацією,
04:17
the management of your civilization to machines,
83
257253
2961
04:20
you then lose the incentive to understand it yourself
84
260214
3504
то ви втрачаєте стимул вивчати цю цивілізацію самостійно
04:23
or to teach the next generation how to understand it.
85
263718
2544
або навчати наступне покоління її розуміти.
04:26
You can see “WALL-E” actually as a modern version,
86
266262
3003
Власне, мультфільм «ВОЛЛ-І» - це сучасна версія цієї історії,
04:29
where everyone is enfeebled and infantilized by the machine,
87
269265
3628
де всі ослаблені та зіпсовані впливом машин;
04:32
and that hasn’t been possible up to now.
88
272893
1961
те, що здавалося неможливим — цілком реальне.
04:34
We put a lot of our civilization into books,
89
274854
2419
Ми фіксуємо знання про нашу цивілізацію в книгах,
04:37
but the books can’t run it for us.
90
277273
1626
але книги не можуть керувати нею.
04:38
And so we always have to teach the next generation.
91
278899
2795
І тому саме ми завжди маємо навчати наступне покоління.
04:41
If you work it out, it’s about a trillion person years of teaching and learning
92
281736
4212
Якщо розібратися, це приблизно трильйон людино-років викладання та навчання,
04:45
and an unbroken chain that goes back tens of thousands of generations.
93
285948
3962
та безперервний ланцюг, який тягнеться десятки тисяч поколінь.
04:50
What happens if that chain breaks?
94
290119
1919
Що буде, якщо цей ланцюжок розірветься?
04:52
I think that’s something we have to understand as AI moves forward.
95
292038
3461
Я думаю, що ми мусимо розуміти це в ході розвитку ШІ.
04:55
The actual date of arrival of general purpose AI—
96
295624
3587
Справжню дату появи ШІ загального призначення
04:59
you’re not going to be able to pinpoint, it isn’t a single day.
97
299211
3087
точно не знатиме ніхто, це відбудеться не за один день.
05:02
It’s also not the case that it’s all or nothing.
98
302298
2294
Це також не той випадок, коли все або нічого.
05:04
The impact is going to be increasing.
99
304592
2461
Цей вплив буде зростати.
05:07
So with every advance in AI,
100
307053
2043
Тож із кожним поліпшенням, ШІ
05:09
it significantly expands the range of tasks.
101
309096
2962
значно розширюватиме спектр завдань, які він зможе виконувати.
05:12
So in that sense, I think most experts say by the end of the century,
102
312058
5338
Тож у цьому сенсі, я думаю більшість експертів погодяться, що до кінця століття
05:17
we’re very, very likely to have general purpose AI.
103
317396
3337
ми швидше за все матимемо ШІ загального призначення.
05:20
The median is something around 2045.
104
320733
3754
2045 рік стане медіаною його розвитку.
05:24
I'm a little more on the conservative side.
105
324487
2002
Я все ж більш консервативнивної думки.
05:26
I think the problem is harder than we think.
106
326489
2085
Я думаю, що це завдання складніше, ніж ми уявляємо.
05:28
I like what John McAfee, he was one of the founders of AI,
107
328574
3253
Мені подобається відповідь Джона Макафі, одного із засновників ШІ,
05:31
when he was asked this question, he said, somewhere between five and 500 years.
108
331911
3837
на це ж запитання; він сказав, що це займе від 5 до 500 років.
05:35
And we're going to need, I think, several Einsteins to make it happen.
109
335748
3337
І нам знадобиться, напевно, кілька Ейнштейнів, щоб це сталося.

Original video on YouTube.com
Про цей сайт

Цей сайт познайомить вас з відеороликами YouTube, корисними для вивчення англійської мови. Ви побачите уроки англійської мови, які проводять першокласні викладачі з усього світу. Двічі клацніть на англійських субтитрах, що відображаються на кожній сторінці відео, щоб відтворити відео з цієї сторінки. Субтитри прокручуються синхронно з відтворенням відео. Якщо у вас є коментарі або побажання, будь ласка, зв'яжіться з нами за допомогою цієї контактної форми.

https://forms.gle/WvT1wiN1qDtmnspy7