How will AI change the world?

2,001,378 views ・ 2022-12-06

TED-Ed


Бейнені ойнату үшін төмендегі ағылшын тіліндегі субтитрлерді екі рет басыңыз.

Аудармашы: Акнур Жумабай Редактор: Bakytgul Salykhova
Болашақта жасанды интелект
00:07
In the coming years, artificial intelligence
0
7336
2169
Сіздің өміріңізді және бүкіл әлемді өзгертуі мүмкін
00:09
is probably going to change your life, and likely the entire world.
1
9505
3629
Бірақ бұл қалай болатындығы туралы келіспеушіліктер көп.
00:13
But people have a hard time agreeing on exactly how.
2
13301
3295
Атақты информатика профессоры
00:16
The following are excerpts from an interview
3
16804
2127
00:18
where renowned computer science professor and AI expert Stuart Russell
4
18931
3504
және ЖИ сарапшысы Стюарт Расселдің сұхбатынан үзінді келтіреміз,
00:22
helps separate the sense from the nonsense.
5
22435
2586
ол ненің дұрыс-бұрыс екенін түсінуге көмектеседі.
00:25
There’s a big difference between asking a human to do something
6
25313
3754
Адамнан бірнәрсе жасауын сұрау мен фасадны интеллектке команда
00:29
and giving that as the objective to an AI system.
7
29067
3461
берудің арасында үлкен айырмашылық бар.
00:32
When you ask a human to get you a cup of coffee,
8
32528
2628
Адамнан кофе алып беруін сұрағанда оны
00:35
you don’t mean this should be their life’s mission,
9
35156
2586
өмірлік миссиясына айналдырсын және одан маңызды
00:37
and nothing else in the universe matters.
10
37742
1960
ешнәрсе жоқ дегенді білдірмейді.
00:39
Even if they have to kill everybody else in Starbucks
11
39702
2586
Старбакстағы барлық адамды сізге кофе
00:42
to get you the coffee before it closes— they should do that.
12
42288
2836
алу үшін өлтіруі керек болса да оны жасауы керек.
00:45
No, that’s not what you mean.
13
45124
1627
Жоқ, сіз мұны айтқыңыз келген жоқ.
00:46
All the other things that we mutually care about,
14
46751
2294
Бізді алаңдататын басқа да нәрселер
00:49
they should factor into your behavior as well.
15
49045
2169
іс-әрекетіңізге қатысты болуы керек
00:51
And the problem with the way we build AI systems now
16
51214
3169
ЖИ-ді қазір жасап жатқан тәсілдің минусы
00:54
is we give them a fixed objective.
17
54383
1627
біз оларға нақты мақсат береміз.
00:56
The algorithms require us to specify everything in the objective.
18
56010
3545
Алгоритмде мақсаттың әр қадамын көрсету керек.
00:59
And if you say, can we fix the acidification of the oceans?
19
59555
3420
Мұхиттың қышқылдануын тоқтата аламыз ба? деп сұраңызшы.
01:02
Yeah, you could have a catalytic reaction that does that extremely efficiently,
20
62975
4046
Иә, сіз өте тиімді каталитикалық реакцияны айтуыңыз мүмкін,
01:07
but it consumes a quarter of the oxygen in the atmosphere,
21
67021
3253
бірақ ол атмосферадағы оттегінің 1/4-ін қолданады
01:10
which would apparently cause us to die fairly slowly and unpleasantly
22
70274
3712
және біздің бірнеше сағат бойы баяу
01:13
over the course of several hours.
23
73986
1752
өлуімізге себеп болады.
01:15
So, how do we avoid this problem?
24
75780
3211
Енді, бұл мәселені қалай шешеміз?
01:18
You might say, okay, well, just be more careful about specifying the objective—
25
78991
4088
Мақсатты айқындауда абай болуды ұмытпаңыз деуіңіз мүмкін —
01:23
don’t forget the atmospheric oxygen.
26
83079
2544
атмосфералық оттегін ұмытпаңыз.
01:25
And then, of course, some side effect of the reaction in the ocean
27
85873
3545
Және, әрине, мұхитқа жасалған әрекет әсері
01:29
poisons all the fish.
28
89418
1377
барлық балықты улайды.
01:30
Okay, well I meant don’t kill the fish either.
29
90795
2669
Жақсы, бірақ мен балықты өлтіруге бұйрық бермедім ғой.
01:33
And then, well, what about the seaweed?
30
93464
1919
Сонан соң теңіз балдырлары ше?
01:35
Don’t do anything that’s going to cause all the seaweed to die.
31
95383
2961
Балдырды жоятын ештеңе істеме
01:38
And on and on and on.
32
98344
1210
т.с.с
01:39
And the reason that we don’t have to do that with humans is that
33
99679
3920
Және мұны істеудің қажеті жоқ екенінің себебі мынада: адамдар көбінесе
01:43
humans often know that they don’t know all the things that we care about.
34
103599
4505
бізді қызықтыратын нәрселерді өздерінің білмейтінін біледі.
01:48
If you ask a human to get you a cup of coffee,
35
108354
2961
Адамнан кофе әкелуін сұрасаңыз
01:51
and you happen to be in the Hotel George Sand in Paris,
36
111315
2878
және Париждегі George Sand отельінде болсаңыз,
01:54
where the coffee is 13 euros a cup,
37
114193
2628
онда кофе 13 евро тұрады,
01:56
it’s entirely reasonable to come back and say, well, it’s 13 euros,
38
116821
4171
ол қайтып келіп, кофе 13 евро екен
02:00
are you sure you want it, or I could go next door and get one?
39
120992
2961
“алайын ба әлде келесісіне барайын ба?” деп сұрайды.
02:03
And it’s a perfectly normal thing for a person to do.
40
123953
2878
Бұл адамдар үшін қалыпты жағдай.
02:07
To ask, I’m going to repaint your house—
41
127039
3003
Егер үйіңізді бояп жатсам,
02:10
is it okay if I take off the drainpipes and then put them back?
42
130042
3337
“су құбырларын алып, кейін қайта салсам бола ма?” деп сұраймын.
02:13
We don't think of this as a terribly sophisticated capability,
43
133504
3128
Мұны өте қиын қабілет деп санамаймыз.
02:16
but AI systems don’t have it because the way we build them now,
44
136632
3087
Бірақ ЖИ жүйесінде ол жоқ, себебі оны жасау тәселінде
02:19
they have to know the full objective.
45
139719
1793
олар мақсатты түгел білуі керек.
02:21
If we build systems that know that they don’t know what the objective is,
46
141721
3753
Егер мақсатты білмейтінін білетін жүйе құрсақ
02:25
then they start to exhibit these behaviors,
47
145474
2586
олар сол әрекеттерге барады,
02:28
like asking permission before getting rid of all the oxygen in the atmosphere.
48
148060
4046
ауадағы барлық оттегіден құтылуға рұқсат сұраған секілді.
02:32
In all these senses, control over the AI system
49
152565
3378
ЖИ-ді бақылау қажеттігі
02:35
comes from the machine’s uncertainty about what the true objective is.
50
155943
4463
машинаның дұрыс мақсатты білмеуінен туындайды.
02:41
And it’s when you build machines that believe with certainty
51
161282
3086
Мақсаты бар екеніне сенімді машиналар
02:44
that they have the objective,
52
164368
1418
жасағанда
02:45
that’s when you get this sort of psychopathic behavior.
53
165786
2753
осы секілді ақылға сыйымсыз әрекет жасалады.
02:48
And I think we see the same thing in humans.
54
168539
2127
Осыны адамдарда да көреміз деп ойлаймын.
02:50
What happens when general purpose AI hits the real economy?
55
170750
4254
Егер ЖИ экономикаға зиян әкелсе ше?
02:55
How do things change? Can we adapt?
56
175379
3587
Не өзгереді? Біз оны икемдей аламыз ба?
02:59
This is a very old point.
57
179175
1835
Бұл бұрыннан кете жатқан мәселе.
03:01
Amazingly, Aristotle actually has a passage where he says,
58
181010
3587
Таңғаларлығы Аристотель бір еңбегінде былай жазған:
03:04
look, if we had fully automated weaving machines
59
184597
3045
егер бізде толық автоматтандырылған тоқыма құрылғылары және
03:07
and plectrums that could pluck the lyre and produce music without any humans,
60
187642
3837
адамсыз музыка шығаратын плектумдар болса
03:11
then we wouldn’t need any workers.
61
191604
2002
бізге ешқандай жұмысшы керек емес.
03:13
That idea, which I think it was Keynes
62
193814
2878
Бұл идея Кейнестікі
03:16
who called it technological unemployment in 1930,
63
196692
2836
ол мұны 1930-дағы технологиялық жұмыссыздық деп атады,
03:19
is very obvious to people.
64
199528
1919
адамдар мұны анық біледі.
03:21
They think, yeah, of course, if the machine does the work,
65
201447
3086
Адамдар машина жұмыс жасайды, ал мен
03:24
then I'm going to be unemployed.
66
204533
1669
жұмыссыз қаламын деп ойлайды.
03:26
You can think about the warehouses that companies are currently operating
67
206369
3503
Қазір компаниялар қолданысындағы эл.қызметке арналған жартылай
03:29
for e-commerce, they are half automated.
68
209872
2711
автоматтандырылған қойманы қарасаңыз болады.
03:32
The way it works is that an old warehouse— where you’ve got tons of stuff piled up
69
212583
4046
Жұмыс жасау тәртібі: барлық жерінде тонналап зат тұратын
03:36
all over the place and humans go and rummage around
70
216629
2461
ескі қоймадан адамдар
03:39
and then bring it back and send it off—
71
219090
1877
заттарды алып, басқа жерге жөнелтеді.
03:40
there’s a robot who goes and gets the shelving unit
72
220967
3586
ондағы робот сізге қажет зат бар
03:44
that contains the thing that you need,
73
224553
1919
сөрені тауып, затты көрсетіп береді
03:46
but the human has to pick the object out of the bin or off the shelf,
74
226472
3629
Бірақ адам сөредегі не жәшіктегі затты алуы керек.
03:50
because that’s still too difficult.
75
230101
1877
Себебі мұны жасау әлі өте қиын.
03:52
But, at the same time,
76
232019
2002
Бірақ сонымен бірге
03:54
would you make a robot that is accurate enough to be able to pick
77
234021
3921
сіз сатып алатын затты өте көп зат арасынан таба алатын
03:57
pretty much any object within a very wide variety of objects that you can buy?
78
237942
4338
робот жасайтын ба едіңіз?
04:02
That would, at a stroke, eliminate 3 or 4 million jobs?
79
242280
4004
Бұл 3-4 милион жұмыс орнын азайтатын еді.
04:06
There's an interesting story that E.M. Forster wrote,
80
246409
3336
E.M.Froster-дің жазған қызық оқиғасы бар,
04:09
where everyone is entirely machine dependent.
81
249745
3504
онда барлығы машинаға тәуелді.
04:13
The story is really about the fact that if you hand over
82
253499
3754
Бұл оқиғада, егер халықты басқаруды машиналардың
04:17
the management of your civilization to machines,
83
257253
2961
қолына берсеңіз
04:20
you then lose the incentive to understand it yourself
84
260214
3504
оны өзіңіз түсінуге және келер ұрпаққа үйретуге
04:23
or to teach the next generation how to understand it.
85
263718
2544
деген ниетіңізді жоғалтатыңыз туралы айтылады.
04:26
You can see “WALL-E” actually as a modern version,
86
266262
3003
Заманауи үлгі ретінде “WALL-E”ні алсақ
04:29
where everyone is enfeebled and infantilized by the machine,
87
269265
3628
Онда бәрі әлсіз және машиналар бәрін жасайды,
04:32
and that hasn’t been possible up to now.
88
272893
1961
бүгінге дейін бұл мүмкін болмаған еді.
04:34
We put a lot of our civilization into books,
89
274854
2419
Кітаптарға өркениетімізді енгіздік, бірақ
04:37
but the books can’t run it for us.
90
277273
1626
олар оны біз үшін жүргізе алмайды.
04:38
And so we always have to teach the next generation.
91
278899
2795
Сондықтан біз әрқашан келер ұрпақты үйретуіміз керек.
04:41
If you work it out, it’s about a trillion person years of teaching and learning
92
281736
4212
Бұл трилиондаған жылдар бойы келе жатқан үйрету мен үйрену,
04:45
and an unbroken chain that goes back tens of thousands of generations.
93
285948
3962
бұл он мыңдаған ұрпақ бойы жалғасқан тізбек.
04:50
What happens if that chain breaks?
94
290119
1919
Бұл тізбекті бұзсақ не болмақ?
04:52
I think that’s something we have to understand as AI moves forward.
95
292038
3461
ЖИ дамуымен бірнәрсені түсінуіміз керек
04:55
The actual date of arrival of general purpose AI—
96
295624
3587
ЖИ-дің пайда болуының мақсатын
04:59
you’re not going to be able to pinpoint, it isn’t a single day.
97
299211
3087
анықтай алмайсыз. Бұл бір күндік жұмыс емес.
05:02
It’s also not the case that it’s all or nothing.
98
302298
2294
Сондай-ақ бәрі не ештеңе деген таңдау да емес.
05:04
The impact is going to be increasing.
99
304592
2461
Бұл әсер көбейе түседі.
05:07
So with every advance in AI,
100
307053
2043
ЖИ-дағы әр жаңалық
05:09
it significantly expands the range of tasks.
101
309096
2962
тапсырманы кәдімгідей көбейтеді.
05:12
So in that sense, I think most experts say by the end of the century,
102
312058
5338
Сондықтан көптеген сарапшылар осы ғасырдың аяғында
05:17
we’re very, very likely to have general purpose AI.
103
317396
3337
ЖИ-дің жалпы мақсатына жетуіміз мүмкін дейді.
05:20
The median is something around 2045.
104
320733
3754
Ортасы, 2045 жылдың айналасында
05:24
I'm a little more on the conservative side.
105
324487
2002
мен көбіне консервативті жағын қолдаймын.
05:26
I think the problem is harder than we think.
106
326489
2085
Мәселе біз ойлағаннан да қиын сияқты.
05:28
I like what John McAfee, he was one of the founders of AI,
107
328574
3253
ЖИ негізін салушылардың бірі Жон McAfee-дің осы сұраққа жауабы:
05:31
when he was asked this question, he said, somewhere between five and 500 years.
108
331911
3837
“Шамамен 5-500 жыл аралығында.
05:35
And we're going to need, I think, several Einsteins to make it happen.
109
335748
3337
Мұны жүзеге асыру үшін бізге бірнеше Айнштайн керек.

Original video on YouTube.com
Осы веб-сайт туралы

Бұл сайт ағылшын тілін үйренуге пайдалы YouTube бейнелерімен таныстырады. Сіз әлемнің түкпір-түкпірінен келген үздік оқытушылар жүргізетін ағылшын тілі сабақтарын көресіз. Бейнені сол жерден ойнату үшін әрбір бейне бетінде көрсетілетін ағылшын тіліндегі субтитрлерді екі рет басыңыз. Субтитрлер бейнені ойнатумен синхрондалады. Егер сізде қандай да бір ескертулер немесе сұраулар болса, осы байланыс формасы арқылы бізге хабарласыңыз.

https://forms.gle/WvT1wiN1qDtmnspy7