How will AI change the world?

2,024,306 views ・ 2022-12-06

TED-Ed


ဗီဒီယိုကိုဖွင့်ရန် အောက်ပါ အင်္ဂလိပ်စာတန်းများကို နှစ်ချက်နှိပ်ပါ။

Translator: Sanntint Tint Reviewer: Myo Aung
00:07
In the coming years, artificial intelligence
0
7336
2169
လာမယ့်နှစ်တွေမှာ ဉာဏ်ရည်တုက
00:09
is probably going to change your life, and likely the entire world.
1
9505
3629
သင့်ဘဝနဲ့ ကမ္ဘာတစ်ခုလုံးကို ပြောင်းလဲသွားနိုင်ဖွယ်ရှိတယ်။
00:13
But people have a hard time agreeing on exactly how.
2
13301
3295
ဒါပေမဲ့ ဘယ်လိုဆိုတာကို လူတွေက အတိအကျ သဘောတူဖို့ ခက်နေတယ်။
00:16
The following are excerpts from an interview
3
16804
2127
အောက်ပါကောက်နှုတ်ချက်တွေက ထင်ရှားတဲ့
00:18
where renowned computer science professor and AI expert Stuart Russell
4
18931
3504
ကွန်ပျူတာသိပ္ပံပါမောက္ခနဲ့ AI ပညာရှင် Stuart Russell က အဓိပ္ပါယ်မဲ့မှုကနေ
00:22
helps separate the sense from the nonsense.
5
22435
2586
အဓိပ္ပာယ်ကို ခွဲခြားကူညီတဲ့ အင်တာဗျူးတစ်ခုကပါ။
00:25
There’s a big difference between asking a human to do something
6
25313
3754
လူသားတစ်ယောက် တစ်စုံတစ်ခု လုပ်ခိုင်းတာနဲ့ AI စနစ်အတွက်
00:29
and giving that as the objective to an AI system.
7
29067
3461
ရည်ရွယ်ချက်အဖြစ် ပေးတာကြားမှာ ဧရာမ ကွာခြားချက်ရှိတယ်။
00:32
When you ask a human to get you a cup of coffee,
8
32528
2628
လူတစ်ယောက်ကို ကော်ဖီတစ်ခွက် ဝယ်ခိုင်းတဲ့အခါ
00:35
you don’t mean this should be their life’s mission,
9
35156
2586
ဒါက သူရဲ့ဘဝ တာဝန်ဖြစ်သင့်တယ်၊ စကြဝဠာထဲမှာ
00:37
and nothing else in the universe matters.
10
37742
1960
တခြားဘာကမှ အရေးမကြီးဘူးလို့ မဆိုလိုပါဘူး။
00:39
Even if they have to kill everybody else in Starbucks
11
39702
2586
ဆိုင်မပိတ်ခင်မှာ ကော်ဖီရဖို့ Starbucks မှာရှိတဲ့
00:42
to get you the coffee before it closes— they should do that.
12
42288
2836
တခြားလူတွေကို သတ်ပစ်ရ မယ်ဆိုရင်တောင်မှ ဒါကို သူ လုပ်သင့်တယ်။
00:45
No, that’s not what you mean.
13
45124
1627
မဟုတ်ဘူး၊ သင်ရည်ရွယ်တာ ဒါမဟုတ်ဘူး။
00:46
All the other things that we mutually care about,
14
46751
2294
နှစ်ဦးနှစ်ဖက် အလေးထားတဲ့ အခြားအရာအားလုံး၊
00:49
they should factor into your behavior as well.
15
49045
2169
သင့် အပြုအမူကိုလည်း ထည့်သွင်းသင့်တယ်။
00:51
And the problem with the way we build AI systems now
16
51214
3169
AI စနစ်တွေကို တည်ဆောက်ပုံနဲ့ အခု ပြဿနာက ဒါတွေကို
00:54
is we give them a fixed objective.
17
54383
1627
ပုံသေ ရည်ရွယ်ချက်တစ်ခု ပေးတာပါ။
00:56
The algorithms require us to specify everything in the objective.
18
56010
3545
အယ်လဂိုရီသမ်တွေက ရည်မှန်းချက်မှာ အရာအားလုံးကို သတ်မှတ်ဖို့လိုတယ်။
00:59
And if you say, can we fix the acidification of the oceans?
19
59555
3420
သမုဒ္ဒရာတွေရဲ့ အက်စစ် သဘာဝ ရှိလာမှုကို ပြုပြင်နိုင်လားလို့ ပြောရင်
01:02
Yeah, you could have a catalytic reaction that does that extremely efficiently,
20
62975
4046
ဒါကို အလွန်ထိရောက်စွာ လုပ်ဆောင်နိုင်တဲ့ ဓာတ်ပြုတုံ့ပြန်မှုတစ်ခုရှိနိုင်ပေမဲ့
01:07
but it consumes a quarter of the oxygen in the atmosphere,
21
67021
3253
ဒါက လေထုထဲက အောက်ဆီဂျင်ရဲ့ လေးပုံတစ်ပုံကို စားသုံးပြီး
01:10
which would apparently cause us to die fairly slowly and unpleasantly
22
70274
3712
သိသာတာက နာရီပေါင်းများစွာကြာတဲ့အထိ ကျွန်ုပ်တို့ကို အတော် နှေးကွေးပြီး
01:13
over the course of several hours.
23
73986
1752
မနှစ်မြို့ဖွယ် သေဆုံးစေမှာပါ။
01:15
So, how do we avoid this problem?
24
75780
3211
ဒီတော့ ဒီပြဿနာကို ဘယ်လိုရှောင်ကြမလဲ။
01:18
You might say, okay, well, just be more careful about specifying the objective—
25
78991
4088
ကောင်းပြီ၊ ရည်မှန်းချက်ကို သတ်မှတ်တာအတွက် ပိုသတိထား၊ လေထုဆိုင်ရာ
01:23
don’t forget the atmospheric oxygen.
26
83079
2544
အောက်ဆီဂျင်ကို မမေ့နဲ့လို့ပြောနိုင်တယ်။
01:25
And then, of course, some side effect of the reaction in the ocean
27
85873
3545
ဒီနောက် သမုဒ္ဒရာအတွင်းက တုံ့ပြန်မှုရဲ့ ဘေးထွက်ဆိုးကျိုးတချို့က
01:29
poisons all the fish.
28
89418
1377
ငါးအားလုံးကိုအဆိပ်ဖြစ်စေတယ်။
01:30
Okay, well I meant don’t kill the fish either.
29
90795
2669
ပြောချင်တာက ငါးတွေကိုလည်းမသတ်နဲ့။
01:33
And then, well, what about the seaweed?
30
93464
1919
ပင်လယ်ရေမှော်တွေကျတော့ရော။
01:35
Don’t do anything that’s going to cause all the seaweed to die.
31
95383
2961
ပင်လယ်ရေမှော်တွေအားလုံးကို သေစေစေမယ့် ဘာကိုမှ မလုပ်ပါနဲ့။
01:38
And on and on and on.
32
98344
1210
အစရှိသဖြင့်ပေါ့။
01:39
And the reason that we don’t have to do that with humans is that
33
99679
3920
လူသားတွေနဲ့ ဒီလိုလုပ်ဖို့ မလိုဘူးဆိုတဲ့ အကြောင်းပြချက်က
01:43
humans often know that they don’t know all the things that we care about.
34
103599
4505
ကျွန်တော်တို့ အလေးထားတာအားလုံးကို သူတို့ မသိဘူးဆိုတာ လူသားတွေက မကြာခဏ သိနေလို့ပါ။
01:48
If you ask a human to get you a cup of coffee,
35
108354
2961
လူသားတစ်ယောက်ကို ကော်ဖီတစ်ခွက် ဝယ်ခိုင်းပြီး
01:51
and you happen to be in the Hotel George Sand in Paris,
36
111315
2878
ကော်ဖီတစ်ခွက်ကို ၁၃ ယူရိုပေးရတဲ့
01:54
where the coffee is 13 euros a cup,
37
114193
2628
ပါရီကHotel George Sand မှာ ရောက်သွားရင်
01:56
it’s entirely reasonable to come back and say, well, it’s 13 euros,
38
116821
4171
ကော်ဖီတစ်ခွက် ၁၃ ယူရို၊ လိုချင်တာသေချာလား ဒါမှမဟုတ် ဘေးအိမ်ကသွားဝယ်လို့ရလားဆိုပြီး
02:00
are you sure you want it, or I could go next door and get one?
39
120992
2961
ပြန်လာပြောတာက လုံးဝ ကျိုးကြောင်းဆီလျော်တယ်။
02:03
And it’s a perfectly normal thing for a person to do.
40
123953
2878
ဒါက လူတစ်​​ယောက်​အတွက်​ လုံးဝ ပုံမှန်​ လုပ်​​ဆောင်​ရတာပါ။
02:07
To ask, I’m going to repaint your house—
41
127039
3003
မေးစရာက မင်းအိမ်ကို ငါ ဆေးပြန်သုတ်မယ်၊
02:10
is it okay if I take off the drainpipes and then put them back?
42
130042
3337
ရေပိုက်တွေကို ဖြုတ်ပြီး ပြန်ထည့်ရင် အဆင်ပြေပါ့မလား။
02:13
We don't think of this as a terribly sophisticated capability,
43
133504
3128
ဒါကို ဆန်းပြားတဲ့ စွမ်းရည်တစ်ခုလို့ ကျွန်တော်တို့ မယူဆပေမဲ့
02:16
but AI systems don’t have it because the way we build them now,
44
136632
3087
AI စနစ်တွေ တည်ဆောက်ပုံမှာ ရည်မှန်းချက် အပြည့်အစုံ သိရမှာဆိုတော့
02:19
they have to know the full objective.
45
139719
1793
AI စနစ်တွေမှာ ဒါမရှိဘူး။
02:21
If we build systems that know that they don’t know what the objective is,
46
141721
3753
ရည်ရွယ်ချက်က ဘာဆိုတာမသိတဲ့ စနစ်တွေကို ဆောက်မယ်ဆိုရင်
02:25
then they start to exhibit these behaviors,
47
145474
2586
လေထုထဲက အောက်ဆီဂျင်အားလုံးကို မဖယ်ရှားခင်
02:28
like asking permission before getting rid of all the oxygen in the atmosphere.
48
148060
4046
ခွင့်ပြုချက်တောင်းခြင်းလိုမျိုး ဒါတွေက ဒီအပြုအမူတွေကို စတင်ပြသပါတယ်။
02:32
In all these senses, control over the AI system
49
152565
3378
ဒီအာရုံခံတွေအားလုံးမှာ ရည်မှန်းချက်အစစ်က
02:35
comes from the machine’s uncertainty about what the true objective is.
50
155943
4463
ဘာဆိုတာနဲ့ ပတ်သက်တဲ့ စက်ရဲ့မသေချာမှု ကနေ လာတဲ့ AI စနစ်ကို ထိန်းချုပ်ပါ။
02:41
And it’s when you build machines that believe with certainty
51
161282
3086
ဒါက ဒါတွေမှာ ရည်မှန်းချက်ရှိတာကို အသေအချာ ယုံကြည်တဲ့
02:44
that they have the objective,
52
164368
1418
စက်တွေကို တည်ဆောက်တဲ့အခါ
02:45
that’s when you get this sort of psychopathic behavior.
53
165786
2753
ဒီလို စိတ်ရောဂါ အမူအကျင့်မျိုး သင် ရလာတဲ့အခါမှာပါ။
02:48
And I think we see the same thing in humans.
54
168539
2127
လူသားတွေမှာလည်း အတူတူပဲလို့ ထင်ပါတယ်။
02:50
What happens when general purpose AI hits the real economy?
55
170750
4254
ယေဘုယျ ရည်ရွယ်ချက်က AI က စစ်မှန်တဲ့ စီးပွားရေးကို ထိမှန်တဲ့အခါ ဘာဖြစ်သွားလဲ။
02:55
How do things change? Can we adapt?
56
175379
3587
အရာတွေ ဘယ်လိုပြောင်းမလဲ။ လိုက်လျောညီထွေအောင် လုပ်နိုင်လား။
02:59
This is a very old point.
57
179175
1835
ဒါက အလွန်ဟောင်းတဲ့ အချက်ပါ။
03:01
Amazingly, Aristotle actually has a passage where he says,
58
181010
3587
အံ့သြစရာက အပြည့်အဝ အလိုအလျောက် ယက်ကန်းစက်တွေနဲ့ လူသားမပါဘဲ
03:04
look, if we had fully automated weaving machines
59
184597
3045
စောင်ကိုတီးခတ်ပြီး တေးဂီတ ထုတ်လုပ်တဲ့ လက်ခတ်တွေ ရှိနေရင်၊
03:07
and plectrums that could pluck the lyre and produce music without any humans,
60
187642
3837
အလုပ်သမားတွေ မလိုအပ်တော့ဘူးလို့
03:11
then we wouldn’t need any workers.
61
191604
2002
Aristotle က ပြောထားတဲ့ စကားတစ်ခွန်းရှိတယ်။
03:13
That idea, which I think it was Keynes
62
193814
2878
၁၉၃၀ မှာ နည်းပညာ အလုပ်လက်မဲ့လို့ ခေါ်တဲ့
03:16
who called it technological unemployment in 1930,
63
196692
2836
Keynes လို့ ထင်ရတဲ့ ဒီအယူအဆဟာ
03:19
is very obvious to people.
64
199528
1919
လူတွေအတွက် အလွန်ထင်ရှားပါတယ်။
03:21
They think, yeah, of course, if the machine does the work,
65
201447
3086
သူတို့ ထင်တာက စက်က အလုပ်လုပ်ရင်
03:24
then I'm going to be unemployed.
66
204533
1669
ကျွန်တော် အလုပ်လက်မဲ့ဖြစ်မယ်ပေါ့။
03:26
You can think about the warehouses that companies are currently operating
67
206369
3503
e-commerce အတွက် ကုမ္ပဏီတွေ၊ လက်ရှိ လည်ပတ်နေတဲ့ ကုန်လှောင်ရုံတွေအကြောင်း
03:29
for e-commerce, they are half automated.
68
209872
2711
သင် တွေးကြည့်နိုင်တယ်။ ဒါတွေက လူအစားထိုးစက် တစ်ဝက်ခန့်ပါ။
03:32
The way it works is that an old warehouse— where you’ve got tons of stuff piled up
69
212583
4046
အလုပ်လုပ်ပုံက ကုန်လှောင်ရုံဟောင်းတစ်ခု၊ နေရာအနှံ့မှာ ပစ္စည်းအမြောက်အမြား
03:36
all over the place and humans go and rummage around
70
216629
2461
စုပုံထားပြီး လူသားတွေ သွားရောက် လှန်လှော၊
03:39
and then bring it back and send it off—
71
219090
1877
ပြန်ယူလာပြီး ဒါကို ပို့ပေးတယ်၊
03:40
there’s a robot who goes and gets the shelving unit
72
220967
3586
သင်လိုအပ်တာ ပါဝင်တဲ့ စင်လုပ်တဲ့ပစ္စည်း ယူနစ်ကို
03:44
that contains the thing that you need,
73
224553
1919
သွားယူတဲ့ စက်ရုပ်တစ်ရုပ်ရှိပေမဲ့
03:46
but the human has to pick the object out of the bin or off the shelf,
74
226472
3629
ခက်လွန်းနေသေးတာကြောင့်လူသားက အရာဝတ္ထုကို ပုံး
03:50
because that’s still too difficult.
75
230101
1877
သို့မဟုတ်စင်ပေါ်ကနေ ရွေးချယ်ရမှာပါ။
03:52
But, at the same time,
76
232019
2002
ဒါပေမဲ့ တစ်ချိန်တည်းမှာ
03:54
would you make a robot that is accurate enough to be able to pick
77
234021
3921
သင်ဝယ်နိုင်တဲ့ အရာဝတ္တုမျိုးစုံထဲက အရာဝတ္တုများစွာကို ရွေးယူနိုင်လောက်အောင်
03:57
pretty much any object within a very wide variety of objects that you can buy?
78
237942
4338
တိကျတဲ့ စက်ရုပ်တစ်ရုပ်ကို ဖန်တီးနိုင်မလား။
04:02
That would, at a stroke, eliminate 3 or 4 million jobs?
79
242280
4004
ဒါက တစ်ချက်တည်းနဲ့ အလုပ် ၃ သန်း ဒါမှမဟုတ် ၄ သန်းလောက် ပျောက်သွားမှာလား။
04:06
There's an interesting story that E.M. Forster wrote,
80
246409
3336
E.M. Forster ရေးခဲ့တဲ့ လူတိုင်းက စက်ကို
04:09
where everyone is entirely machine dependent.
81
249745
3504
လုံးဝ မှီခိုနေရတဲ့ စိတ်ဝင်စားစရာ ဇာတ်လမ်းတစ်ပုဒ်ရှိတယ်။
04:13
The story is really about the fact that if you hand over
82
253499
3754
ဇာတ်လမ်းက သင်က ယဉ်ကျေးမှုရဲ့ စီမံမှုကို စက်တွေဆီ လွှဲပြောင်းပေးလိုက်ရင်
04:17
the management of your civilization to machines,
83
257253
2961
သင်ကိုယ်တိုင်ကို နားလည်ဖို့ ဒါမှမဟုတ် နောင်လာနောက်သားတွေကို
04:20
you then lose the incentive to understand it yourself
84
260214
3504
ဒါကို နားလည်အောင် သင်ပေးဖို့ အားပေးမှု ဆုံးရှုံးသွားတယ်ဆိုတဲ့
04:23
or to teach the next generation how to understand it.
85
263718
2544
အချက်ကို တကယ် အကြောင်းပြုတာပါ။
04:26
You can see “WALL-E” actually as a modern version,
86
266262
3003
“WALL-E” ကို ခေတ်မီမူကွဲအဖြစ် သင်တွေ့မြင်နိုင်တယ်၊
04:29
where everyone is enfeebled and infantilized by the machine,
87
269265
3628
အဲဒီမှာ စက်ကြောင့် လူတိုင်းသည် ချိနဲ့နေကာ အလိုလိုက်ခံနေရပြီး
04:32
and that hasn’t been possible up to now.
88
272893
1961
အခုအချိန်အထိတော့ မဖြစ်နိုင်သေးပါဘူး။
04:34
We put a lot of our civilization into books,
89
274854
2419
ယဉ်ကျေးမှုကို စာအုပ်တွေထဲမှာ ထည့်သွင်းထားပေမဲ့
04:37
but the books can’t run it for us.
90
277273
1626
စာအုပ်တွေက လူတွေအတွက် မလုပ်နိုင်ဘူး။
04:38
And so we always have to teach the next generation.
91
278899
2795
ဒါကြောင့် မျိုးဆက်သစ်တွေကို အမြဲ သင်ပေးရမှာပါ။
04:41
If you work it out, it’s about a trillion person years of teaching and learning
92
281736
4212
ဒါကို အဖြေရှာရင် ဒါက လူတစ်ထရီလျံရဲ့ နှစ်ပေါင်းများစွာ သင်ကြားမှု၊သင်ယူမှုနဲ့
04:45
and an unbroken chain that goes back tens of thousands of generations.
93
285948
3962
မျိုးဆက် သောင်းချီ ပြန်သွားမယ့် မပြတ်သေးတဲ့ ကွင်းဆက်တစ်ခုပါ။
04:50
What happens if that chain breaks?
94
290119
1919
ဒီကွင်းဆက်ပြတ်သွားရင် ဘာဖြစ်မလဲ။
04:52
I think that’s something we have to understand as AI moves forward.
95
292038
3461
AI က ရှေ့ကို ဆက်သွားနေတာကြောင့် ဒါကို နားလည်ထားသင့်တယ်လို့ ထင်တယ်။
04:55
The actual date of arrival of general purpose AI—
96
295624
3587
ယေဘုယျ ရည်ရွယ်ချက် AI အမှန်တကယ်ရောက်ရှိတဲ့
04:59
you’re not going to be able to pinpoint, it isn’t a single day.
97
299211
3087
ရက်စွဲကို သတ်မှတ်နိုင်မှာမဟုတ်ဘူး၊ ဒါက တစ်ရက်တည်းမဟုတ်ဘူး။
05:02
It’s also not the case that it’s all or nothing.
98
302298
2294
ဒါကက ပုံအောရမယ့်ကိစ္စလည်း မဟုတ်ဘူး။
05:04
The impact is going to be increasing.
99
304592
2461
သက်ရောက်မှုက ပိုများလာမှာပါ။
05:07
So with every advance in AI,
100
307053
2043
ဒီတော့ AI ထဲက တိုးတက်မှုတိုင်းနဲ့ဆို
05:09
it significantly expands the range of tasks.
101
309096
2962
ဒါက လုပ်ဆောင်စရာ ပမာဏကို သိသိသာသာ ချဲ့ထွင်တယ်။
05:12
So in that sense, I think most experts say by the end of the century,
102
312058
5338
ဒါကြောင့် ရာစုနှစ်အကုန်မှာ ယေဘုယျ ရည်ရွယ် ချက် AI ရှိဖို့ အလားအလာသိပ်ရှိနိုင်တယ်လို့
05:17
we’re very, very likely to have general purpose AI.
103
317396
3337
ကျွမ်းကျင်သူအများစုက ယူဆပါတယ်။
05:20
The median is something around 2045.
104
320733
3754
ပျမ်းမျှက ၂၀၄၅ ခုနှစ်ဝန်းကျင်ပါ။
05:24
I'm a little more on the conservative side.
105
324487
2002
ရှေးရိုးဆန်တဲ့ဘက်မှာ နည်းနည်းပိုရှိနေတယ်။
05:26
I think the problem is harder than we think.
106
326489
2085
ပြဿနာက ထင်တာထက် ပိုခက်တယ်လို့ ထင်တယ်။
05:28
I like what John McAfee, he was one of the founders of AI,
107
328574
3253
John McAfee ပြောတာကို သဘောကျတယ်၊ AI ကို တည်ထောင်သူတွေထဲက တစ်ယောက်ပါ၊
05:31
when he was asked this question, he said, somewhere between five and 500 years.
108
331911
3837
ဒီမေးခွန်း သူ့ကို မေးတော့ အနှစ် ၅၀ ကနေ ၅၀၀ ကြား တစ်နေရာရာမှာ ဆိုပါတယ်။
05:35
And we're going to need, I think, several Einsteins to make it happen.
109
335748
3337
ဒါဖြစ်မြောက်ဖို့ အိုင်းစတိုင်း တော်တော်များများ လိုအပ်မယ်ထင်တယ်။

Original video on YouTube.com
ဤဝဘ်ဆိုဒ်အကြောင်း

ဤဆိုက်သည် သင့်အား အင်္ဂလိပ်စာလေ့လာရန်အတွက် အသုံးဝင်သော YouTube ဗီဒီယိုများနှင့် မိတ်ဆက်ပေးပါမည်။ ကမ္ဘာတစ်ဝှမ်းမှ ထိပ်တန်းဆရာများ သင်ကြားပေးသော အင်္ဂလိပ်စာသင်ခန်းစာများကို သင်တွေ့မြင်ရပါမည်။ ဗီဒီယိုစာမျက်နှာတစ်ခုစီတွင် ပြသထားသည့် အင်္ဂလိပ်စာတန်းထိုးများကို နှစ်ချက်နှိပ်ပါ။ စာတန်းထိုးများသည် ဗီဒီယိုပြန်ဖွင့်ခြင်းနှင့်အတူ ထပ်တူပြု၍ လှိမ့်သွားနိုင်သည်။ သင့်တွင် မှတ်ချက်များ သို့မဟုတ် တောင်းဆိုမှုများရှိပါက ဤဆက်သွယ်ရန်ပုံစံကို အသုံးပြု၍ ကျွန်ုပ်တို့ထံ ဆက်သွယ်ပါ။

https://forms.gle/WvT1wiN1qDtmnspy7