Don't fear superintelligent AI | Grady Booch

270,465 views ・ 2017-03-13

TED


ဗီဒီယိုကိုဖွင့်ရန် အောက်ပါ အင်္ဂလိပ်စာတန်းများကို နှစ်ချက်နှိပ်ပါ။

Translator: Myo Aung Reviewer: sann tint
00:12
When I was a kid, I was the quintessential nerd.
0
12580
3840
ကျွန်တော် ကလေးဘဝတုန်းက စံပြုလောက်တဲ့ ချာတိတ် ဖြစ်ခဲ့တယ်။
00:17
I think some of you were, too.
1
17140
2176
ခင်ဗျားတို့ တချို့လည်း အလားတူ ဖြစ်ခဲ့ကြမှာပါ။
00:19
(Laughter)
2
19340
1216
(ရယ်မောသံများ)
00:20
And you, sir, who laughed the loudest, you probably still are.
3
20580
3216
ခုနက အကျယ်ဆုံး ရယ်လိုက်သူကတော့ အခုထက်ထိ အဲဒီလို ရှိနေပုံ ရတယ်။
00:23
(Laughter)
4
23820
2256
(ရယ်မောသံများ)
00:26
I grew up in a small town in the dusty plains of north Texas,
5
26100
3496
Texas မြောက်ပိုင်း ဖုန်ထူတဲ့ လွင်ပြင်က မြို့လေးမှာ ကြီးလာခဲ့ပြီး
00:29
the son of a sheriff who was the son of a pastor.
6
29620
3336
သင်းအုပ်ဆရာရဲ့ သားဖြစ်သူ ရဲအရာရှိမှ မွေးခဲ့တဲ့ သားတစ်ယောက်ပါ။
00:32
Getting into trouble was not an option.
7
32980
1920
သူများ ဘဝကို ခက်ခဲအောင် မလုပ်တတ်ခဲ့ပါ။
00:35
And so I started reading calculus books for fun.
8
35860
3256
ဒါ့အကြောင့် ကျွန်တော်ဟာ calculus အကြောင်း စာအုပ်တွေ ဖတ်လာခဲ့တယ်။
00:39
(Laughter)
9
39140
1536
(ရယ်မောသံများ)
00:40
You did, too.
10
40700
1696
ခင်ဗျားတို့လည်းဖတ်ခဲ့ကြမှာပါ။
00:42
That led me to building a laser and a computer and model rockets,
11
42420
3736
ဒါနဲ့ ကျွန်တော်ဟာ လေဆာနဲ့ ကွန်ပျူတာတွေ၊ ဒုံးပျံပုံစံတွေ ဆောက်လာတတ်ခဲ့တယ်၊
00:46
and that led me to making rocket fuel in my bedroom.
12
46180
3000
အဲဒီကနေပြီး ကိုယ့်အိပ်ခန်းထဲမှာ ဒုံးပျံလောင်စာကို တီထွင်ခဲ့တယ်။
00:49
Now, in scientific terms,
13
49780
3656
အခုတော့၊ သိပ္ပံပညာ အမြင်အရ
00:53
we call this a very bad idea.
14
53460
3256
သိပ်ကို ဆိုးတဲ့ အရာကြီးပေါ့။
00:56
(Laughter)
15
56740
1216
(ရယ်မောသံများ)
00:57
Around that same time,
16
57980
2176
အဲဒီ အချိန် ဝန်းကျင်မှာပဲ၊
01:00
Stanley Kubrick's "2001: A Space Odyssey" came to the theaters,
17
60180
3216
Stanley Kubrick ရဲ့ "2001: A Space Odyssey" ရုပ်ရှင် ထွက်လာခဲ့ရာ
01:03
and my life was forever changed.
18
63420
2200
ကျွန်တော့ဘဝဟာ ထာဝရအတွက် ပြောင်းလဲသွားတော့တယ်။
01:06
I loved everything about that movie,
19
66100
2056
အဲဒီ ရုပ်ရှင်ထဲက အရာရာတိုင်းကို၊
01:08
especially the HAL 9000.
20
68180
2536
အထူးသဖြင့် HAL ၉၀၀၀ ကို သိပ်ကို နှစ်ခြိုက်ခဲ့တယ်။
01:10
Now, HAL was a sentient computer
21
70740
2056
အဲဒီ HAL ဟာ အာရုံခံစားနိုင်ခဲ့တဲ့
01:12
designed to guide the Discovery spacecraft
22
72820
2456
ကွန်ပျူတာ ဖြစ်ခဲ့ပြီး အာကာသယာဉ်ကို ကမ္ဘာဂြိုဟ်မှ
01:15
from the Earth to Jupiter.
23
75300
2536
ဂျူပီတာအထိ လမ်းညွှန်ပေးရန် ထုတ်လုပ်ခဲ့တဲ့ ကွန်ပျူတာပါ။
01:17
HAL was also a flawed character,
24
77860
2056
HAL ဟာ စိတ်ဓာတ် အားနည်ခဲ့သူပါ၊
01:19
for in the end he chose to value the mission over human life.
25
79940
4280
နောက်ဆုံးတွင် ၎င်းဟာ လူသားရဲ့ အသက်ထက် တာဝန်ကို တန်ဖိုးထားရန် ရွေးခဲ့လို့ပါ။
01:24
Now, HAL was a fictional character,
26
84660
2096
HAL ဟာ စိတ်ကူးယဉ် ဖန်တီးလိုက်တဲ့ ဇာတ်ကောင်ပါ၊
01:26
but nonetheless he speaks to our fears,
27
86780
2656
ဒါတောင် ၎င်းဟာ ကျွန်တော်တို့ရဲ့ စိုးရိမ်ချက်တွေကို၊
01:29
our fears of being subjugated
28
89460
2096
ခံစားနိုင်စွမ်းမရှိတဲ့၊ လူသားတွေကို
01:31
by some unfeeling, artificial intelligence
29
91580
3016
ဂရုမစိုက်တဲ့ ဦးနှောက် အတုပိုင်ရှင်ဘက်မှ ချုပ်ချယ်ခံရမယ့်
01:34
who is indifferent to our humanity.
30
94620
1960
စိုးရိမ်မှုတွေကို ထုတ်ဖေါ် ပြောခဲ့ပါတယ်။
01:37
I believe that such fears are unfounded.
31
97700
2576
အဲဒီကြောက်ရွံမှုတွေ အခြေအမြစ် မရှိဘူးလို့ ယုံကြည်တယ်။
01:40
Indeed, we stand at a remarkable time
32
100300
2696
တကယ်တမ်းတွင်၊ ကျွန်ုပ်တို့ဟာ လူသား သမိုင်းမှာ
01:43
in human history,
33
103020
1536
မှတ်သားစရာ ကာလထဲ ရှိနေကြပါတယ်၊
01:44
where, driven by refusal to accept the limits of our bodies and our minds,
34
104580
4976
ကျွန်ုပ်တို့ ခန္ဓာကိုယ်နဲ့ ဦးနှောက်ရဲ့ ကန့်သတ်ချက်တွေကို လက်မခံနိုင်ကြလို့
01:49
we are building machines
35
109580
1696
ကျွန်ုပ်တို့ဟာ သိမ်မွေ့၊ လှပ ရှုပ်ထွေး
01:51
of exquisite, beautiful complexity and grace
36
111300
3616
ကျော့ရှင်းကြတဲ့ စက်ပစ္စည်းတွေကို ထုတ်လုပ်လာခဲ့ကြရာ ၎င်းတို့ဟာ စိတ်ကူးလို့
01:54
that will extend the human experience
37
114940
2056
ရနိုင်တဲ့ လူတွေ လုပ်ကိုင်နိုင်ကြတာထက်ကို
01:57
in ways beyond our imagining.
38
117020
1680
များစွာမှ သာလွန်သွားကြမှာပါ။
01:59
After a career that led me from the Air Force Academy
39
119540
2576
ကျွန်တော်ဟာ Air Force Academy မှာ လုပ်ကိုင်ရင်းကနေပြီး
02:02
to Space Command to now,
40
122140
1936
အခု Space Command ကို ရောက်လာလို့
02:04
I became a systems engineer,
41
124100
1696
စနစ်များရဲ့ အင်ဂျင်နီယာဖြစ်လာတယ်၊
02:05
and recently I was drawn into an engineering problem
42
125820
2736
မကြာခင်မီတွင် NASA ရဲ့ အင်္ဂါသို့ သွားရေး လုပ်ငန်းကြီးနဲ့
02:08
associated with NASA's mission to Mars.
43
128580
2576
ဆက်စပ်နေတဲ့ အင်ဂျင်နီယာ ပြဿနာကို လေ့လာလာရပါတယ်။
02:11
Now, in space flights to the Moon,
44
131180
2496
လဆီကို သွားမယ့် ပျံသန်းမှုတွေ ဆိုရင် ပျံသန်းမှု
02:13
we can rely upon mission control in Houston
45
133700
3136
ကိစ္စတွေအတွက် Houston ရှိနေတဲ့ ထိန်းချုပ်ရေးဌာနကို
02:16
to watch over all aspects of a flight.
46
136860
1976
အားကိုးလို့ ရနိုင်တာ ရှင်းနေပါတယ်။
02:18
However, Mars is 200 times further away,
47
138860
3536
ဒါပေမဲ့ အင်္ဂါဂြိုဟ်ကျတော့ အဆ ၂၀၀ အထိကို ပိုဝေးနေပါတယ်၊
02:22
and as a result it takes on average 13 minutes
48
142420
3216
အဲဒါကြောင့် ကမ္ဘာဂြိုဟ်မှနေပြီး အင်္ဂါဂြိုဟ်ဆီ ပို့လိုက်တဲ့
02:25
for a signal to travel from the Earth to Mars.
49
145660
3136
အချက်ပြမှု အနေနဲ့ ရောက်ဖို့ အချိန် ပျမ်းမျှ ၁၃ မိနစ် ကြာပါတယ်။
02:28
If there's trouble, there's not enough time.
50
148820
3400
ပြဿနာ တစ်ခုခု ပေါ်လာရင် အချိန် မလောက်နိုင်ပါ။
02:32
And so a reasonable engineering solution
51
152660
2496
အဲဒါကြောင့် ပျံသန်းမှု ထိန်းချုပ်ရေးကို
02:35
calls for us to put mission control
52
155180
2576
Orion အာကာသယာဉ်ရဲ့ နံရံများအတွင်းမှာကို ထည့်သွင်းရန်
02:37
inside the walls of the Orion spacecraft.
53
157780
3016
အင်ဂျင်နီယာ နည်းပညာက တောင်းဆိုလာပါတယ်။
02:40
Another fascinating idea in the mission profile
54
160820
2896
အဲဒီပျံသန်းမှု ပရိုဖိုင်တွင် အင်္ဂါဂြိုဟ် ပေါ်တွင် လူသားပုံစံ
02:43
places humanoid robots on the surface of Mars
55
163740
2896
robot တွေိကို နေရာချပေးရေး အံ့ဖွယ် စိတ်ကူးလည်း ပါရှိပါတယ်။
02:46
before the humans themselves arrive,
56
166660
1856
လူတွေ အဲဒီကို မရောက်ခင်တွင် လိုအပ်တာတွေ
02:48
first to build facilities
57
168540
1656
ဆောက်လုပ်ရန်နဲ့ နောက်ပိုင်းတွင်
02:50
and later to serve as collaborative members of the science team.
58
170220
3360
သိပ္ပံအဖွဲ့ထဲမှာ ပူးတွဲကူညီပေးမယ့် လုပ်အားအဖြစ် ထားရှိရန်ဖြစ်တယ်။
02:55
Now, as I looked at this from an engineering perspective,
59
175220
2736
အဲဒါကို အင်ဂျင်နီယာ ရှုထောင့်မှ ကျွန်တော် သုံးသပ်ကြည့်ရာ၊
02:57
it became very clear to me that what I needed to architect
60
177980
3176
ကျွန်တော် ပုံစံထုတ်ပေးရမယ့်ဟာက တော်ပြီး လက်တွဲလုပ်ကိုင်နိုင်မယ့်၊
03:01
was a smart, collaborative,
61
181180
2176
လူမှုရေးအရ တော်ရမယ့်
03:03
socially intelligent artificial intelligence.
62
183380
2376
အသိပညာ အတုစားမျိုး ဖြစ်ရပါမယ်။
03:05
In other words, I needed to build something very much like a HAL
63
185780
4296
တစ်မျိုးကို ရှင်းပြရပါက၊ ကျွန်တော်ဟာ HAL နဲ့ ဆင်တူဟာမျိုးကို ဆောက်လုပ်ပေးရမယ်၊
03:10
but without the homicidal tendencies.
64
190100
2416
ကိုယ့်ကိုကိုယ် လုပ်ကြံရေး စိတ်တွေက လွဲလျက်ပေါ့လေ။
03:12
(Laughter)
65
192540
1360
(ရယ်မောသံများ)
03:14
Let's pause for a moment.
66
194740
1816
ဒီနေရာမှာ ခဏ ရပ်လိုက်ကြပါစို့။
03:16
Is it really possible to build an artificial intelligence like that?
67
196580
3896
artificial intelligence (ဦးနှောက် အတု)ကို အဲဒီလို ဆောက်လုပ် နိုင်ပါသလား။
03:20
Actually, it is.
68
200500
1456
လက်တွေ့တွင် ရနိုင်ပါတယ်။
03:21
In many ways,
69
201980
1256
နည်းအမျိုးမျိုး ရှိတယ်၊
03:23
this is a hard engineering problem
70
203260
1976
ဒါဟာ ခဲယဉ်းတဲ့ အင်ဂျင်နီယာ ပြဿနာဖြစ်ပြီး
03:25
with elements of AI,
71
205260
1456
AI အစိတ်အပိုင်းတွေ ပါမယ်၊
03:26
not some wet hair ball of an AI problem that needs to be engineered.
72
206740
4696
ဖြေရှင်းပေးရမယ့် AI ပြဿနာတွေဟာ အသေးအမွှားတွေ မဟုတ်ကြပါ။
03:31
To paraphrase Alan Turing,
73
211460
2656
Alan Turing ပြောခဲ့ဘူးတာကို တမျိုး ပြန်ပြောရရင်၊
အာရုံခံစားနိုင်စွမ်း ရှိမယ့် စက် ဆောက်လုပ်ရန် စိတ်မဝင်စားပါ။
03:34
I'm not interested in building a sentient machine.
74
214140
2376
03:36
I'm not building a HAL.
75
216540
1576
ကျွန်တော်ဟာ HAL တည်ဆောက်မှာ မဟုတ်ပါ။
03:38
All I'm after is a simple brain,
76
218140
2416
ကျွန်တော် စဉ်းစားနေတာက သာမန် ဦးနှောက်ပါ၊
03:40
something that offers the illusion of intelligence.
77
220580
3120
အသိပညာ ရှိသလို ခံစားရမယ့်ဟာ တစ်ခုခုကိုပါ။
03:44
The art and the science of computing have come a long way
78
224820
3136
HAL ကို ရုပ်ရှင်ထဲ မြင်ခဲ့ရတဲ့ နောက်ပိုင်း နှစ်များ အတွင်းမှာ
03:47
since HAL was onscreen,
79
227980
1496
တွက်ချက်မှု ပညာဟာ အတော်လေး ခရီးပေါက်ခဲ့လို့၊
03:49
and I'd imagine if his inventor Dr. Chandra were here today,
80
229500
3216
ဒီနေ့သာ တီထွင်ရှင် Dr. Chandra သာ ဒီမှာ ရှိနေခဲ့ရင် ကျွန်တော်တို့အား
03:52
he'd have a whole lot of questions for us.
81
232740
2336
မေးလိုက်မယ့် မေးခွန်းတွေ အတော့်ကို များမှာပါ။
03:55
Is it really possible for us
82
235100
2096
စက်ကိရိယာတွေ သန်းပေါင်းများစွာ ရှိကြမယ့်
03:57
to take a system of millions upon millions of devices,
83
237220
4016
စနစ်ကို အတူယူသွားပြီး ၎င်းတို့ရဲ့ ချွတ်ယွင်းချက်တွကို ခန့်မှန်းလျက်
ကြိုတင်ပြီး အရေးယူဆောင်ရွက်နိုင်အောင်
04:01
to read in their data streams,
84
241260
1456
04:02
to predict their failures and act in advance?
85
242740
2256
၎င်းတို့ရဲ့ ဒေတာကို ဖတ်ပြီး လုပ်နိုင်မလား။
04:05
Yes.
86
245020
1216
ရတယ်။
04:06
Can we build systems that converse with humans in natural language?
87
246260
3176
လူသားတွေနဲ့ ပုံမှန် ဘာသာစကားဖြင့် ဆက်သွယ်မယ့် စနစ်တွေ ဆောက်နိုင်မလား။
04:09
Yes.
88
249460
1216
ရတယ်။
04:10
Can we build systems that recognize objects, identify emotions,
89
250700
2976
အရာတွေကို သိမှတ်နိုင်ကာ စိတ်ခံစားမှုကို ဖေါ်ထုတ်လျက် ၎င်းတို့ ကိုယ်တိုင်
04:13
emote themselves, play games and even read lips?
90
253700
3376
ခံစားချက်ကို ပြကာ ဂိမ်းတွေ ကစားလျက် နှုတ်ခမ်းဖတ်မယ့် စနစ်တွေ ဆောက်နိုင်မလား။
04:17
Yes.
91
257100
1216
ရတယ်။
04:18
Can we build a system that sets goals,
92
258340
2136
ကျွန်ုပ်တို့ဟာ ပန်းတိုင်တွေကို ချမှတ်လျက်
04:20
that carries out plans against those goals and learns along the way?
93
260500
3616
ပန်းတိုင်များအတွက် စီမံကိန်းတွေ လုပ်ကိုင် ရင်း သင်ယူနိုင်တဲ့ စနစ် ဆောက်နိုင်လား။
04:24
Yes.
94
264140
1216
ရတယ်။
04:25
Can we build systems that have a theory of mind?
95
265380
3336
စိတ်ဆိုတဲ့ သီအိုရီ ပါရှိမယ့် စနစ်တွေကို ဆောက်နိုင်လား။
04:28
This we are learning to do.
96
268740
1496
အဲဒါကို လုပ်နိင်ရန် သင်နေကြတယ်။
04:30
Can we build systems that have an ethical and moral foundation?
97
270260
3480
ကျင့်စဉ် နဲ့ စိတ်ဓာတ်ဆိုင်ရာ အုတ်မြစ် ပါမယ့် စနစ်တွေကို ဆောက်နိုင်သလား။
04:34
This we must learn how to do.
98
274300
2040
အဲဒါ ဘယ်လို လုပ်ရမှာကို သင်ကြရပါမယ်။
04:37
So let's accept for a moment
99
277180
1376
အဲဒီလို တာဝန်များနဲ့ အခြား
04:38
that it's possible to build such an artificial intelligence
100
278580
2896
တာဝန်များအတွက် အသိဉာဏ်အတုကို ဆောက်လုပ်လို့
04:41
for this kind of mission and others.
101
281500
2136
ရနိုင်တယ်လို့ ခဏ​လေး ခံယူကြပါစို့။
04:43
The next question you must ask yourself is,
102
283660
2536
အဲနောက်မှာ ကိုယ့်ကိုကိုယ် မေးရမယ့် မေးခွန်းက အဲဒါကို
04:46
should we fear it?
103
286220
1456
ကျွန်ုပ်တို့ ကြောက်သင့်လား။
04:47
Now, every new technology
104
287700
1976
တကယ်တော့ နည်းပညာသစ် မှန်သမျှဟာ
04:49
brings with it some measure of trepidation.
105
289700
2896
စိုးရိမ်စရာ တစ်စုံတစ်ခုနဲ့ စတင်တာချည်းပါပဲ။
04:52
When we first saw cars,
106
292620
1696
ကားတွေကို ပထမဦးဆုံး မြင်တွေ့ခဲ့ရစဉ်
04:54
people lamented that we would see the destruction of the family.
107
294340
4016
မိသားစုတွေ ပြိုလဲကျတော့မယ်လို့ စိုးရိမ်နေခဲ့ကြတယ်။
04:58
When we first saw telephones come in,
108
298380
2696
တယ်လီဖုန်းတွေ ဘဝထဲ ခြေချဝင်လာတော့၊
05:01
people were worried it would destroy all civil conversation.
109
301100
2896
လူတွေ စကားဝိုင်းဖွဲ့ ပြောဆိုမှု ချုပ်ငြိမ်းတော့မယ် ထင်ခဲ့တယ်။
05:04
At a point in time we saw the written word become pervasive,
110
304020
3936
စာတွေကို ပုံနှိပ်ထုတ်ဝေမှု ပေါ်လာတော့ ကျွန်ုပ်တို့ဟာ မှတ်ဉာဏ်တွေ
05:07
people thought we would lose our ability to memorize.
111
307980
2496
ဆုံးရှုံးကြတော့မှာဘဲလို့ ထင်မြင်ခဲ့ကြတယ်။
05:10
These things are all true to a degree,
112
310500
2056
အဲဒီလို အရာတွေဟာ တစ်စုံတစ်ရာအထိ မှန်ကန်တယ်၊
05:12
but it's also the case that these technologies
113
312580
2416
ဒါပေမဲ့ အဲဒီတချိန်တည်းမှာ အဲဒီလို နည်းပညာတွေဟာ
05:15
brought to us things that extended the human experience
114
315020
3376
လူတွေရဲ့ ဘဝအတွေ့အကြုံကို အံ့ဖွယ် နည်းလမ်းများဖြင့် မြှင့်တင်ပေး
05:18
in some profound ways.
115
318420
1880
ခဲ့ကြတာကိုပါ အသိအမှတ် ပြုကြရပါမယ်။
05:21
So let's take this a little further.
116
321660
2280
ဒီအကြောင်းကို ရှေ့ဆက် ကြည့်ကြရအောင်။
05:24
I do not fear the creation of an AI like this,
117
324940
4736
ခုနကလို AI ဖန်တီးပေးမယ်ဆိုရင် ကျွန်ုပ်တို့ရဲ့ တန်ဖိုးထားချက်တွေ
05:29
because it will eventually embody some of our values.
118
329700
3816
အဲဒီမှာ ထည့်သွင်းပါရှိမှာမို့ အဲဒါကို ကျွန်တော် မကြောက်ပါဘူး။
05:33
Consider this: building a cognitive system is fundamentally different
119
333540
3496
သိမြင်နိုင်တဲ့ စနစ်ကို ဆောက်လုပ်မှုဟာ အခြေခံအရကိုက
05:37
than building a traditional software-intensive system of the past.
120
337060
3296
အတိတ်ကာလက ဆော့ဝဲ အများအပြားကို သုံးတဲ့ သမရိုးကျ စနစ်နဲ့ ခြားနားတယ်။
05:40
We don't program them. We teach them.
121
340380
2456
၎င်းတို့အတွက် ပရိုဂရမ်ကို မရေးဆွဲဘဲ သင်ပေးကြတယ်။
05:42
In order to teach a system how to recognize flowers,
122
342860
2656
စနစ်တစ်ခုအား ပန်းတွေကို သိမှတ်လာရန် ကျွန်တော်ဟာ
05:45
I show it thousands of flowers of the kinds I like.
123
345540
3016
ကျွန်တော် ကြိုက်တဲ့ ပန်းတွေကို ထောင်ချီ ပြပေးပါတယ်။
05:48
In order to teach a system how to play a game --
124
348580
2256
စနစ်တစ်ခုအနေနဲ့ ဂိမ်း ကစားလာတတ်ရန် ကျွန်တော်
05:50
Well, I would. You would, too.
125
350860
1960
လုပ်နိုင်၊ ခင်ဗျားတို့လည်း လုပ်နိုင်တယ်။
05:54
I like flowers. Come on.
126
354420
2040
ကျွန်တော်က ပန်းတွေကို ကြိုက်တယ်။ တကယ်ပါ။
05:57
To teach a system how to play a game like Go,
127
357260
2856
စနစ်တစ်ခုအနေနဲ့ Go လို ဂိမ်းကို ကစားလာနိုင်ရန် အတွက်
06:00
I'd have it play thousands of games of Go,
128
360140
2056
ကျွန်တော်ဟာ Go ဂိမ်းကို ထောင်ချီ ကစားပြရင်း
06:02
but in the process I also teach it
129
362220
1656
ကောင်းတဲ့ ဂိမ်းနဲ့ ဆိုးတဲ့ ဂိမ်း
06:03
how to discern a good game from a bad game.
130
363900
2416
ခွဲခြားနိုင်ရေးကိုပါ သင်ပေးရမယ်။
06:06
If I want to create an artificially intelligent legal assistant,
131
366340
3696
တကယ်လို့ ကျွန်တော်ဟာ ဥပဒေရေးရာထဲ ကူညီပေးရမယ့် ဉာဏ်အတုကို ဖန်တီးချင်ရင်၊
06:10
I will teach it some corpus of law
132
370060
1776
ဥပဒေတွေ အများကြီးကို သင်ပေးရင်း
06:11
but at the same time I am fusing with it
133
371860
2856
ဥပဒေနဲ့ ခွဲခြားမရနိုင်တဲ့ ကရုဏာနဲ့ တရားမျှတမှု ဆိုတဲ့
06:14
the sense of mercy and justice that is part of that law.
134
374740
2880
သဘောတရားတွေကိုပါ ရိုက်သွင်းပေးဖို့ ကြိုးစားရပါမယ်။
06:18
In scientific terms, this is what we call ground truth,
135
378380
2976
သိပ္ပံပညာရှင်တွေက အဲဒါကို အခြေခံ အမှန်တရားလို့ ခေါ်ကြတယ်၊
06:21
and here's the important point:
136
381380
2016
ဒီမှာ အရေးကြီးတဲ့ အချက်က-
06:23
in producing these machines,
137
383420
1456
ဒီလို စက်တွေကို ထုတ်လုပ်ရာတွင်
06:24
we are therefore teaching them a sense of our values.
138
384900
3416
ကျွန်ုပ်တို့ဟာ ကျွန်ုပ်တို့ တန်ဖိုးတွေရဲ့ အနှစ်သာရကို သင်ပေးရမယ်။
06:28
To that end, I trust an artificial intelligence
139
388340
3136
အဲဒီနောက်မှာတော့၊ ကျွန်တော်ဟာ အသိဉာဏ်အတုကို ကောင်းမွန်စွာ
06:31
the same, if not more, as a human who is well-trained.
140
391500
3640
သင်တန်းပေးထားတဲ့ လူသားနည်းတူ၊ ပိုတောင် ပုပြီး ယုံကြည်မှာပါ။
06:35
But, you may ask,
141
395900
1216
ဒါပေမဲ့၊ ကောက်ကျစ်တဲ့
06:37
what about rogue agents,
142
397140
2616
ဆိုးဝါးတဲ့ အေဂျင့်တွေ၊
06:39
some well-funded nongovernment organization?
143
399780
3336
ငွေကြေး အများအပြားရကြတဲ့ အစိုးရ မဟုတ်တဲ့ အဖွဲ့အစည်းတွေ ကျတော့ကော။
06:43
I do not fear an artificial intelligence in the hand of a lone wolf.
144
403140
3816
လူဆိုး တစ်ယောက်ရဲ့ လက်ထဲက အသိဉာဏ်အတုကို ကျွန်တော် မကြောက်ပါ။
06:46
Clearly, we cannot protect ourselves against all random acts of violence,
145
406980
4536
ကျွန်ုပ်တို့ဟာ အမှတ်တမဲ့ ဖြစ်လာနိုင်တဲ့ အကြမ်းဖက်မှုများမှ ကာကွယ် မရနိုင်ပေမဲ့၊
06:51
but the reality is such a system
146
411540
2136
တကယ်ကျတော့ အဲဒီလို စနစ်ပေါ်လာဖို့
06:53
requires substantial training and subtle training
147
413700
3096
အတော့်ကို စနစ်တကျ လေ့ကျင့် သင်တန်း ပေးရန်လိုအပ်တာမို့လို့၊
06:56
far beyond the resources of an individual.
148
416820
2296
လူပုဂ္ဂိုလ် တစ်ဦးဦးအနေနဲ့ တတ်နိုင်ရန် မလွယ်ပါ။
06:59
And furthermore,
149
419140
1216
ဒီထက်ပိုပြီး၊
07:00
it's far more than just injecting an internet virus to the world,
150
420380
3256
အဲဒါဟာ ဗိုင်းရပ်စ်ကို ခလုတ် တစ်ချက် နှိပ်ရုံနဲ့ တစ်ကမ္ဘာလုံးမှာ
07:03
where you push a button, all of a sudden it's in a million places
151
423660
3096
ပျံ့နှံ့သွားစေလျက် နေရာတိုင်းရှိ လက်တော့ သန်းချီ ပေါက်ကွဲစေရန်
07:06
and laptops start blowing up all over the place.
152
426780
2456
ကူးစက်နိုင်စေတာမျိုးနဲ့ လုံးဝမတူပါ။
07:09
Now, these kinds of substances are much larger,
153
429260
2816
အခုပြောနေတဲ့ အရာတွေဟာ များစွာမှ ပိုပြီး ကြီးမားကြမှာပါ၊
07:12
and we'll certainly see them coming.
154
432100
1715
လာကြတာကို ကျွန်ုပ်တို့ မြင်ကြရမယ်။
07:14
Do I fear that such an artificial intelligence
155
434340
3056
အဲဒီလို အသိဉာဏ် အတုက လူသား တစ်ရပ်လုံးအား
07:17
might threaten all of humanity?
156
437420
1960
ခြိမ်းခြောက်မှာကို ကျွန်တော် ကြောက်ပါသလား။
07:20
If you look at movies such as "The Matrix," "Metropolis,"
157
440100
4376
ခင်ဗျားတို့ဟာ "The Matrix"၊ "Metropolis"၊ "The Terminator"၊
07:24
"The Terminator," shows such as "Westworld,"
158
444500
3176
ရုပ်ရှင်တွေနဲ့ "Westworld"လို ရှိုးတွေကို ကြည့်ကြည့်ပါက၊
07:27
they all speak of this kind of fear.
159
447700
2136
၎င်းတို့ထဲမှာ ခုန ကြောက်စိတ် အကြောင်းပါတယ်။
07:29
Indeed, in the book "Superintelligence" by the philosopher Nick Bostrom,
160
449860
4296
ဒဿနိက ပညာရှင် Nick Bostrom ရဲ့ "Superintelligence" စာအုပ်ထဲတွင်
07:34
he picks up on this theme
161
454180
1536
အဲဒီအကြောင်းကို တင်ပြထားပြီး
07:35
and observes that a superintelligence might not only be dangerous,
162
455740
4016
ဆူပါအသိဉာဏ်ဟာ အန္တရာယ်များရုံသာမက
07:39
it could represent an existential threat to all of humanity.
163
459780
3856
လူသားတို့အတွက် တကယ့်ခြိမ်းခြောက်မှု ဖြစ်လာမယ်လို့ ဆိုထားပါတယ်။
07:43
Dr. Bostrom's basic argument
164
463660
2216
Dr. Bostrom ရဲ့ အဓိက ဆင်ခြေက
07:45
is that such systems will eventually
165
465900
2736
အဲဒီလို စနစ်တွေဟာ အချက်အလက်တွေကို
07:48
have such an insatiable thirst for information
166
468660
3256
တိုးတိုး ရယူချင်ကြမှာ မို့လို့ ၎င်းတို့ဟာ
07:51
that they will perhaps learn how to learn
167
471940
2896
ဘယ်လို သင်ယူနိုင်သလဲဆိုတာကို သင်ယူနိုင်ကြပြီး
07:54
and eventually discover that they may have goals
168
474860
2616
အဆုံးမှာ သူတို့ဆီမှာ ပေါ်ပေါက်လာကြမယ့် ပန်းတိုင်များဟာ
07:57
that are contrary to human needs.
169
477500
2296
လူသားရဲ့ လိုအပ်ချက်များနဲ့ ဆန့်ကျင်ဘက် ဖြစ်လာမယ်။
07:59
Dr. Bostrom has a number of followers.
170
479820
1856
Dr. Bostrom ကို ထောက်ခံသူ များပါတယ်။
08:01
He is supported by people such as Elon Musk and Stephen Hawking.
171
481700
4320
သူ့ကို Elon Musk နှင့် Stephen Hawking လို ပုဂ္ဂိုလ်တွေ ထောက်ခံကြတယ်။
08:06
With all due respect
172
486700
2400
အဲဒီမဟာပုဂ္ဂိုလ်ကြီးတွေရဲ့ အမြော်အမြင်ကို
08:09
to these brilliant minds,
173
489980
2016
ထိုက်တန်စွာ လေးစားပေမဲ့၊
08:12
I believe that they are fundamentally wrong.
174
492020
2256
အခြေခံအရ သူတို့ မှားနေတယ်လို့ ကျွန်တော် ထင်တယ်။
08:14
Now, there are a lot of pieces of Dr. Bostrom's argument to unpack,
175
494300
3176
Dr. Bostrom ရဲ့ အဆိုကို အသေးစိတ် ဆင်ခြေပေးရန် အချိန် အများကြီး
08:17
and I don't have time to unpack them all,
176
497500
2136
လိုမှာမို့လို့ တိုတိုနဲ့ ပြောရရင်
08:19
but very briefly, consider this:
177
499660
2696
ဒီလို စဉ်းစားကြည့်စေလိုပါတယ်-
08:22
super knowing is very different than super doing.
178
502380
3736
ဆူပါ အသိဉာဏ်ဟာ ဆူပါ လုပ်ကိုင်မှုနဲ့ လုံးဝမတူ တခြားစီးပါ။
HAL ဟာ Discovery တဖွဲ့လုံးအတွက် ခြိမ်းခြောက်မှုပါ
08:26
HAL was a threat to the Discovery crew
179
506140
1896
08:28
only insofar as HAL commanded all aspects of the Discovery.
180
508060
4416
Discovery ရဲ့ မျက်နှာစာအားလုံးကို HAL က အမိန့်ပေးနေသရွေ့ မှန်ခဲ့တယ်။
08:32
So it would have to be with a superintelligence.
181
512500
2496
အဲဒါကြောင့်မို့လို့ ၎င်းဟာ ဆူပါဦးနှောက် ဖြစ်ခဲ့တာပါ။
08:35
It would have to have dominion over all of our world.
182
515020
2496
ကျွန်ုပ်တို့ ကမ္ဘာကြီးထဲ အားလုံး ချုပ်ကိုင်ခဲ့မှာ။
08:37
This is the stuff of Skynet from the movie "The Terminator"
183
517540
2816
တဖန် "The Terminator" ထဲက Skynet ဆိုတဲ့ထဲမှာလည်း
08:40
in which we had a superintelligence
184
520380
1856
ဆူပါဦးနှောက် ရှိနေခဲ့ပြီး လူတွေရဲ့
08:42
that commanded human will,
185
522260
1376
စိတ်ဆန္ဒကို အမိန့်ခဲ့တယ်၊
08:43
that directed every device that was in every corner of the world.
186
523660
3856
ကမ္ဘာကြီးရဲ့ ဘယ်နေရာမှာပဲ ရှိရှိ ကိရိယာတိုင်းကို ၎င်းက ညွှန်ကြားခဲ့တယ်။
08:47
Practically speaking,
187
527540
1456
လက်တွေ့တွင်
08:49
it ain't gonna happen.
188
529020
2096
ဒါတွေ ဖြစ်လာမှာ မဟုတ်ပါဘူး။
08:51
We are not building AIs that control the weather,
189
531140
3056
ကျွန်ုပ်တို့ဟာ ရာသီဥတုကို ထိန်းချုပ်ခဲ့မယ့်၊
08:54
that direct the tides,
190
534220
1336
ဒီရေတွေကို ညွှန်ကြားပေးမယ့်၊
08:55
that command us capricious, chaotic humans.
191
535580
3376
ပြောင်းလွယ်ပြီး ပရမ်းပတာနိုင်တဲ့ လူတွေကို အမိန့်ပေးဖို့ ဆောက်နေတာ မဟုတ်။
08:58
And furthermore, if such an artificial intelligence existed,
192
538980
3896
အဲဒီအပြင်၊ အဲဒီလို ဆူပါဦးနှောက်တု ရှိခဲ့မယ်ဆိုရင်၊
09:02
it would have to compete with human economies,
193
542900
2936
၎င်းဟာ လူသားရဲ့ စီးပွားရေးနဲ့ ပြိုင်ဆိုင်ဖို့ လိုအပ်လာမယ်၊
09:05
and thereby compete for resources with us.
194
545860
2520
ကျွန်ုပ်တို့နဲ့အတူ အရင်းအမြစ်များ အတွက် တိုက်ပွဲဝင်ရမယ်။
09:09
And in the end --
195
549020
1216
နောက်ဆုံးမှာတော့၊
09:10
don't tell Siri this --
196
550260
1240
အဲဒါ Siri ကို မပြောပါနဲ့-
09:12
we can always unplug them.
197
552260
1376
ကျွန်ုပ်တို့ အချိန်မရွေး ပိတ်ပစ်နိုင်တယ်။
09:13
(Laughter)
198
553660
2120
(ရယ်မောသံများ)
ကျွန်ုပ်တို့ဟာ ကျွန်ုပ်တို့ရဲ့ စက်တွေနဲ့ အတူ
09:17
We are on an incredible journey
199
557180
2456
09:19
of coevolution with our machines.
200
559660
2496
ပူးတွဲလျက် ဆင့်ကဲ ပြောင်းလဲရေး အံ့ဖွယ် ခရီးကို နှင်နေကြတယ်။
09:22
The humans we are today
201
562180
2496
ဒီနေ့ ကျွန်ုပ်တို့ လူသားတွေဟာ
09:24
are not the humans we will be then.
202
564700
2536
လာမယ့် နောင်လူသားတွေ မဟုတ်ပါ။
09:27
To worry now about the rise of a superintelligence
203
567260
3136
ဒီအချိန်မှာ ဆူပါဦးနှောက်တု ပေါ်ပေါက် လာမှာကို စိုးရိမ်နေခြင်းဟာ
09:30
is in many ways a dangerous distraction
204
570420
3056
အန္တရာယ်များတဲ့ အာရုံလွှဲပြောင်းမှု ဖြစ်တယ်လို့ ဆိုချင်တယ်၊
09:33
because the rise of computing itself
205
573500
2336
ကွန်ပျူးတင်းတွေ ပေါ်ပေါက်လာခဲ့ကြလို့
09:35
brings to us a number of human and societal issues
206
575860
3016
လူသားနဲ့ လူမှုရေး ပြဿနာတွေ တပုံကြီး ပေါ်လာခဲ့ကြရာ
09:38
to which we must now attend.
207
578900
1640
အဲဒါတွေကို ကျွန်ုပ်တို့ ဂရုစိုက်ဖို့လိုတယ်။
09:41
How shall I best organize society
208
581180
2816
လူသားရဲ့ လုပ်အား လိုအပ်ချက် နည်းလာတဲ့ အခါမှာ
ကျွန်ုပ်တို့ လူ့အဖွဲ့အစည်းကို ဘယ်လို စည်းရုံးကြမလဲ။
09:44
when the need for human labor diminishes?
209
584020
2336
09:46
How can I bring understanding and education throughout the globe
210
586380
3816
ကျွန်ုပ်တို့ဟာ ကျွန်ုပ်တို့ရဲ့ မတူ ကွဲပြားမှုတွေကို လေးစားရင်း
နားလည်မှုရှိရန် ပညာသင်နိုင်ရန် ဘယ်လို လုပ်ကြမလဲ။
09:50
and still respect our differences?
211
590220
1776
09:52
How might I extend and enhance human life through cognitive healthcare?
212
592020
4256
သိမှတ်မှု ကျန်းမာရေး စနစ်ဖြင့် ကျွန်ုပ်တို့ လူ့ဘဝကို ဘယ်လို မြှင့်တင်မလဲ။
09:56
How might I use computing
213
596300
2856
ကွန်ပျူတာသုံးပြီး ကျွန်ုပ်တို့ ကြယ်တွေဆီ
09:59
to help take us to the stars?
214
599180
1760
သွားနိုင်အောင် ဘယ်လို လုပ်ကိုင်ကြမလဲ။
10:01
And that's the exciting thing.
215
601580
2040
အဲဒါတွေကမှ စိတ်လှုပ်ရှားစရာတွေပါ။
10:04
The opportunities to use computing
216
604220
2336
လူသားတွေရဲ့ ဘဝကို မြှင့်တင်ပေးနိုင်မယ့်
10:06
to advance the human experience
217
606580
1536
ကွန်ပျူတာတွေရဲ့ အလားအလာတွေကို
10:08
are within our reach,
218
608140
1416
ကျွန်ုပ်တို့ လက်လှမ်းမှီတယ်၊
10:09
here and now,
219
609580
1856
ဟိုမှာ ဒီမှာ ပြည့်နေကြတယ်၊
10:11
and we are just beginning.
220
611460
1680
ပြီးတော့ ကျွန်ုပ်တို့ စရုံပဲ ရှိသေးတယ်။
10:14
Thank you very much.
221
614100
1216
အထူး ကျေးဇူးတင်ပါတယ်။
10:15
(Applause)
222
615340
4286
(လက်ခုပ်တီးသံများ)
ဤဝဘ်ဆိုဒ်အကြောင်း

ဤဆိုက်သည် သင့်အား အင်္ဂလိပ်စာလေ့လာရန်အတွက် အသုံးဝင်သော YouTube ဗီဒီယိုများနှင့် မိတ်ဆက်ပေးပါမည်။ ကမ္ဘာတစ်ဝှမ်းမှ ထိပ်တန်းဆရာများ သင်ကြားပေးသော အင်္ဂလိပ်စာသင်ခန်းစာများကို သင်တွေ့မြင်ရပါမည်။ ဗီဒီယိုစာမျက်နှာတစ်ခုစီတွင် ပြသထားသည့် အင်္ဂလိပ်စာတန်းထိုးများကို နှစ်ချက်နှိပ်ပါ။ စာတန်းထိုးများသည် ဗီဒီယိုပြန်ဖွင့်ခြင်းနှင့်အတူ ထပ်တူပြု၍ လှိမ့်သွားနိုင်သည်။ သင့်တွင် မှတ်ချက်များ သို့မဟုတ် တောင်းဆိုမှုများရှိပါက ဤဆက်သွယ်ရန်ပုံစံကို အသုံးပြု၍ ကျွန်ုပ်တို့ထံ ဆက်သွယ်ပါ။

https://forms.gle/WvT1wiN1qDtmnspy7