Can machines read your emotions? - Kostas Karpouzis

333,964 views ・ 2016-11-29

TED-Ed


ဗီဒီယိုကိုဖွင့်ရန် အောက်ပါ အင်္ဂလိပ်စာတန်းများကို နှစ်ချက်နှိပ်ပါ။

Translator: Sanntint Tint Reviewer: Myo Aung
00:07
With every year, machines surpass humans in more and more activities
0
7052
4590
တစ်ချိန်က လုပ်နိုင်စွမ်းရှိတယ်လို့ပဲ ထင်ခဲ့တဲ့ လုပ်ဆောင်ချက်တွေမှာ နှစ်စဉ်
00:11
we once thought only we were capable of.
1
11642
3206
စက်ယန္တရားတွေက လူသားတွေကို ကျော်လွန်သွားတယ်။
00:14
Today's computers can beat us in complex board games,
2
14848
3575
ယနေ့ ကွန်ပြူတာတွေက ရှုပ်ထွေးတဲ့ ဘုတ်ဂိမ်းတွေမှာ လူတွေကိုအနိုင်ယူနိုင်တယ်၊
00:18
transcribe speech in dozens of languages,
3
18423
2871
စကားကို ဘာသာစကားများစွာ အဖြစ်ပြောင်းနိုင်ပြီး
00:21
and instantly identify almost any object.
4
21294
3452
အရာတိုင်းနီးပါးကို ချက်ချင်းဖော်ထုတ်နိုင်တယ်။
00:24
But the robots of tomorrow may go futher
5
24746
2366
ဒါပေမဲ့ မနက်ဖြန်ရဲ့ စက်ရုပ်တွေဟာ
00:27
by learning to figure out what we're feeling.
6
27112
3131
လူတွေ ခံစားနေရတာကို အဖြေရှာဖို့ သင်ယူရင်းနဲ့ ပိုတိုးတက်လာနိုင်တယ်။
00:30
And why does that matter?
7
30243
2138
ဒါက ဘာကြောင့် အရေးကြီးတာလဲ။
00:32
Because if machines and the people who run them
8
32381
2292
စက်တွေနဲ ဒါတွေကို မောင်းနှင်နေသူတွေက
00:34
can accurately read our emotional states,
9
34673
2550
လူတွေရဲ့ စိတ်ခံစားမှု အခြေအနေကို တိကျစွာဖတ်နိုင်ရင်
00:37
they may be able to assist us or manipulate us
10
37223
2970
၎င်းတို့က မထင်မှတ်တဲ့ အတိုင်းအတာတွေနဲ့ လူတွေကို ကူညီ(သို့)
00:40
at unprecedented scales.
11
40193
2909
ခြယ်လှယ်နိုင်တာကြောင့်ပါ။
00:43
But before we get there,
12
43102
1512
ဒါပေမဲ့ ဒီကို မရောက်ခင်
00:44
how can something so complex as emotion be converted into mere numbers,
13
44614
5039
ဂဏန်းများအဖြစ်သာ ပြောင်းလဲတဲ့ ဘာသာစကား စက်တွေသာ နားလည်နိုင်တဲ့ စိတ်ခံစားမှုလို
00:49
the only language machines understand?
14
49653
3600
ရှုပ်ထွေးတဲ့ အရာက ဘယ်လိုဖြစ်နိုင်မလဲ။
00:53
Essentially the same way our own brains interpret emotions,
15
53253
3590
အခြေခံအနေနဲ့ လူ့ဦးနှောက်တွေဟာ စိတ်ခံစားမှုတွေကို ရှာဖွေပုံကို သင်ယူရင်း
00:56
by learning how to spot them.
16
56843
2151
ဒါတွေကို အလားတူ အဓိပ္ပါယ် ဖွင့်ဆိုတယ်။
00:58
American psychologist Paul Ekman identified certain universal emotions
17
58994
5126
အမေရိကန် စိတ်ပညာရှင် Paul Ekman က ယဉ်ကျေးမှု အသီးသီးမှာ
01:04
whose visual cues are understood the same way across cultures.
18
64120
5054
အမြင်အာရုံအချက်ပြမှုတွေကို အလားတူနားလည်တဲ့ ဖြစ်နေကျ ခံစားမှုတချို့ကို ဖော်ထုတ်ခဲ့တယ်။
01:09
For example, an image of a smile signals joy to modern urban dwellers
19
69174
5019
ဥပမာ ပြုံးတဲ့ပုံက ခေတ်မီမြို့သားတွေကို ရှေးတိုင်းရင်းသား လူမျိုးစုတွေလိုပဲ
01:14
and aboriginal tribesmen alike.
20
74193
2772
ပျော်ရွှင်မှုကို ညွှန်ပြတယ်။
01:16
And according to Ekman,
21
76965
1129
Ekman ရဲ့အဆိုအရ
01:18
anger,
22
78094
729
01:18
disgust,
23
78823
710
ဒေါသ၊ ရွံရှာမှု၊ ကြောက်ရွံ့မှု၊ ပျော်ရွှင်မှု၊
01:19
fear,
24
79533
742
01:20
joy,
25
80275
817
01:21
sadness,
26
81092
756
01:21
and surprise are equally recognizable.
27
81848
3585
ဝမ်းနည်းမှုနဲ့ အံ့သြမှုတွေကို အညီအမျှ အသိအမှတ်ပြုနိုင်တယ်။
01:25
As it turns out, computers are rapidly getting better at image recognition
28
85433
4403
ဖြစ်သွားတာက ကွန်ပျူတာတွေဟာ အာရုံကြော ကွန်ရက်တွေလို စက်သင်ယူမှု
01:29
thanks to machine learning algorithms, such as neural networks.
29
89836
4179
အယ်လဂိုရီသမ်တွေကြောင့် ရုပ်ပုံမှတ်မိရာမှာ အလျင်အမြန် ပိုတော်လာနေတယ်။
ဒါတွေမှာ ချိတ်ဆက်မှုတွေ ဖွဲ့ကာ သတင်း အချက်အလက် ဖလှယ်တာကနေ
01:34
These consist of artificial nodes that mimic our biological neurons
30
94015
4190
01:38
by forming connections and exchanging information.
31
98205
3579
ဇီဝနျူရွန်တွေကို တုပတဲ့ ဖန်တီးထားတဲ့ အဖုလေးတွေ ပါဝင်တယ်။
01:41
To train the network, sample inputs pre-classified into different categories,
32
101784
4501
ကွန်ရက်ကို လေ့ကျင့်ပေးဖို့ ပျော်ရွှင်မှု သို့မဟုတ် ဝမ်းနည်းမှု အမှတ်အသားပြုထားတဲ့
01:46
such as photos marked happy or sad,
33
106285
2890
ဓာတ်ပုံတွေလို မတူတဲ့ အမျိုးအစားတွေကို ကြိုတင်ခွဲထားတဲ့ နမူနာ
01:49
are fed into the system.
34
109175
2110
ထည့်သွင်းမှုတွေကို စနစ်ထဲမှာ ဖြည့်သွင်းတယ်။
01:51
The network then learns to classify those samples
35
111285
2460
ဒီနောက် ကွန်ရက်က သီးခြား အင်္ဂါရပ်တွေအတွက်
01:53
by adjusting the relative weights assigned to particular features.
36
113745
4660
သတ်မှတ်တဲ့ သက်ဆိုင်ရာ အလေးချိန်တွေကို ညှိ ရင်း နမူနာတွေကို မျိုးတူစုခွဲဖို့သင်ယူတယ်။
01:58
The more training data it's given,
37
118405
1620
ဒေတာ ပိုလေ့ကျင့်ပေးလေလေ၊
02:00
the better the algorithm becomes at correctly identifying new images.
38
120025
4770
ပုံအသစ်တွေကို မှန်ကန်စွာ ဖော်ထုတ်ရာမှာ အယ်လဂိုရီသမ် ပိုကောင်းလေလေပါ။
02:04
This is similar to our own brains,
39
124795
1732
ဒါက လှုံ့ဆော်မှုအသစ်တွေကို
02:06
which learn from previous experiences to shape how new stimuli are processed.
40
126527
5198
ပုံဖော်ဖို့ ယခင်အတွေ့အကြုံတွေကနေ သင်ယူတဲ့ လူ့ဦးနှောက်နဲ့ ဆင်တူတယ်။
02:11
Recognition algorithms aren't just limited to facial expressions.
41
131725
3741
အသိအမှတ်ပြုမှုဆိုင်ရာ အယ်လဂိုရီသမ်တွေက မျက်နှာအမူအရာတွေအတွက်ပဲ ကန့်သတ်မထားဘူး။
02:15
Our emotions manifest in many ways.
42
135466
2420
စိတ်ခံစားမှုတွေက ပုံစံများစွာနဲ့ ပေါ်လာတယ်။
02:17
There's body language and vocal tone,
43
137886
2230
ခန္ဓာကိုယ် ဘာသာစကားနဲ့ အသံနေအသံထား၊
02:20
changes in heart rate, complexion, and skin temperature,
44
140116
3121
နှလုံးခုန်နှုန်း၊ အသားအရေနဲ့ အရေပြား အပူချိန်၊
02:23
or even word frequency and sentence structure in our writing.
45
143237
4809
သို့မဟုတ် အရေးအသားထဲက စကားလုံး ကြိမ်နှုန်းနဲ့ ဝါကျဖွဲ့စည်းပုံတောင်ပါ။
02:28
You might think that training neural networks to recognize these
46
148046
3159
ဒါတွေကို အသိအမှတ်ပြုဖို့ အာရုံကြော ကွန်ရက်တွေကို လေ့ကျင့်ပေးတာက
02:31
would be a long and complicated task
47
151205
2432
ဒေတာ ဘယ်လောက်ရှိတာနဲ့ ခေတ်မီ ကွန်ပြူတာတွေ ဘယ်လောက်
02:33
until you realize just how much data is out there,
48
153637
3329
မြန်မြန် လုပ်ဆောင်နိုင်တာကို သဘောပေါက်တဲ့အထိ ရှည်လျားရှုပ်ထွေးတဲ့
02:36
and how quickly modern computers can process it.
49
156966
3409
အလုပ်တစ်ခုဖြစ်မယ်လို့ သင် ထင်ကောင်းထင်နိုင်တယ်။
02:40
From social media posts,
50
160375
1542
ဆိုရှယ်မီဒီယာ ပို့စ်တွေ၊
02:41
uploaded photos and videos,
51
161917
1669
တင်လိုက်တဲ့ ဓာတ်ပုံနဲ့ ဗီဒီယိုတွေ၊
02:43
and phone recordings,
52
163586
1401
ဖုန်း အသံဖမ်းတာတွေကနေ
02:44
to heat-sensitive security cameras
53
164987
1780
အပူတုံ့ပြန်တဲ့ လုံခြုံရေးကင်မရာတွေ၊
02:46
and wearables that monitor physiological signs,
54
166767
3670
ဇီဝကမ္မလက္ခဏာတွေကို စောင့်ကြည့်တဲ့ ဝတ်ဆင်နိုင်သော ကိရိယာတွေအထိ
02:50
the big question is not how to collect enough data,
55
170437
2510
ကြီးမားတဲ့ ပြဿနာက ဒေတာအလုံအလောက် စုဆောင်းပုံမဟုတ်ဘဲ
02:52
but what we're going to do with it.
56
172947
2308
ဒါနဲ့ လုပ်ဆောင်မယ့်ပုံပါ။
02:55
There are plenty of beneficial uses for computerized emotion recognition.
57
175255
4451
ကွန်ပြူတာနဲ့ စိတ်ခံစားချက်ကို မှတ်သားတာ အတွက် အကျိုးရှိတဲ့ အသုံးတွေရှိတယ်။
02:59
Robots using algorithms to identify facial expressions
58
179706
2921
မျက်နှာအမူအရာတွေကို ခွဲခြားဖို့ အယ်လဂိုရီသမ် သုံးထားတဲ့
03:02
can help children learn
59
182627
1619
စက်ရုပ်တွေက ကလေးတွေကို သင်ယူဖို့
03:04
or provide lonely people with a sense of companionship.
60
184246
3390
သို့မဟုတ် အထီးကျန်သူတွေကို အဖော်အဖြစ် ထောက်ပံ့ဖို့ ကူညီနိုင်တယ်။
03:07
Social media companies are considering using algorithms
61
187636
3001
ဆိုရှယ်မီဒီယာ ကုမ္ပဏီတွေက တိကျတဲ့ စကားလုံး(သို့)စကားစုတွေပါတဲ့
03:10
to help prevent suicides by flagging posts that contain specific words or phrases.
62
190637
6410
ပို့စ်တွေကို သတိပေးရင်း သတ်သေတာကနေ ကူညီ ကာကွယ်ဖို့အယ်လဂိုရီသမ်သုံးတာကိုစဉ်းစားတယ်။
03:17
And emotion recognition software can help treat mental disorders
63
197047
4240
စိတ်ခံစားမှု မှတ်မိတဲ့ ဆော့ဖ်ဝဲလ်က စိတ်ရောဂါတွေကို ကုသဖို့
03:21
or even provide people with low-cost automated psychotherapy.
64
201287
4291
သို့မဟုတ် ကုန်ကျစရိတ်သက်သာတဲ့ အလိုအလျောက် စိတ်ပညာကုထုံးကိုတောင် ပေးနိုင်တယ်။
03:25
Despite the potential benefits,
65
205578
1610
အကျိုးကျေးဇူး အလားအလာတွေရှိပေမဲ့
03:27
the prospect of a massive network automatically scanning our photos,
66
207188
3681
ဓာတ်ပုံတွေ၊ ဆက်သွယ်ရေးနဲ့ ဇီဝကမ္မလက္ခဏာတွေကို အလိုအလျောက်
03:30
communications,
67
210869
1089
စကင်န်လုပ်ထားတဲ့
03:31
and physiological signs is also quite disturbing.
68
211958
4919
ကွန်ရက်ကြီးတစ်ခုရဲ့ အလားအလာက အတော် အနှောက်အယှက်ဖြစ်စေတယ်။
03:36
What are the implications for our privacy when such impersonal systems
69
216877
3919
ကြော်ငြာကနေ ခံစားမှုတွေကို အသုံးချဖို့ လုပ်ငန်းတွေက ဒီလို ခံစားမှုကင်းတဲ့
03:40
are used by corporations to exploit our emotions through advertising?
70
220796
4412
စနစ်တွေကိုသုံးတဲ့အခါ လူတွေရဲ့ကိုယ်ရေးကိုယ် တာ အတွက် ဂယက်ရိုက်မှုတွေက ဘာတွေလဲ။
03:45
And what becomes of our rights
71
225208
1510
အာဏာပိုင်တွေက ရာဇ၀တ်မှု
03:46
if authorities think they can identify the people likely to commit crimes
72
226718
4019
ကျူးလွန်နိုင်ခြေရှိတဲ့သူတွေကို အရေးယူဖို့ သတိရှိရှိ ဆုံးဖြတ်ချက်မချခင်တောင်
03:50
before they even make a conscious decision to act?
73
230737
4190
ဖော်ထုတ်နိုင်မယ်လို့ထင်ရင် လူတွေရဲ့ ရပိုင်ခွင့်တွေက ဘာဖြစ်လာမလဲ။
03:54
Robots currently have a long way to go
74
234927
2223
လူတစ်ယောက်ကို ဘယ်လောက် ပျော်ရွှင် သို့မဟုတ်
03:57
in distinguishing emotional nuances, like irony,
75
237150
3108
ဝမ်းနည်းစေတာဖြစ်ဖြစ် စက်ရုပ်တွေက လောလောဆယ် ထေ့ငေါ့တာနဲ့
04:00
and scales of emotions, just how happy or sad someone is.
76
240258
4500
စိတ်ခံစားမှုအတိုင်းအတာတွေလို စိတ်ပိုင်း ကွဲလွဲမှုတွေကို ခွဲခြားဖို့က ဝေးပါသေးတယ်။
04:04
Nonetheless, they may eventually be able to accurately read our emotions
77
244758
4530
ဘယ်လိုဖြစ်ဖြစ် နောက်ဆုံးမှာ စက်တွေက လူတွေရဲ့ စိတ်ခံစားချက်တွေကို တိကျစွာ
04:09
and respond to them.
78
249288
1850
ဖတ်နိုင်ပြီး တုံ့ပြန်နိုင်မှာပါ။
04:11
Whether they can empathize with our fear of unwanted intrusion, however,
79
251138
4251
ဒါပေမဲ့ စက်တွေက မလိုလားတဲ့ ကျူးကျော်မှုကို ကြောက်ရွံ့စိတ်နဲ့အတူ စာနာနိုင်မလားဆိုတာက
04:15
that's another story.
80
255389
1498
ဒါက တခြားဇာတ်လမ်းတစ်ပုဒ်ပါ။
ဤဝဘ်ဆိုဒ်အကြောင်း

ဤဆိုက်သည် သင့်အား အင်္ဂလိပ်စာလေ့လာရန်အတွက် အသုံးဝင်သော YouTube ဗီဒီယိုများနှင့် မိတ်ဆက်ပေးပါမည်။ ကမ္ဘာတစ်ဝှမ်းမှ ထိပ်တန်းဆရာများ သင်ကြားပေးသော အင်္ဂလိပ်စာသင်ခန်းစာများကို သင်တွေ့မြင်ရပါမည်။ ဗီဒီယိုစာမျက်နှာတစ်ခုစီတွင် ပြသထားသည့် အင်္ဂလိပ်စာတန်းထိုးများကို နှစ်ချက်နှိပ်ပါ။ စာတန်းထိုးများသည် ဗီဒီယိုပြန်ဖွင့်ခြင်းနှင့်အတူ ထပ်တူပြု၍ လှိမ့်သွားနိုင်သည်။ သင့်တွင် မှတ်ချက်များ သို့မဟုတ် တောင်းဆိုမှုများရှိပါက ဤဆက်သွယ်ရန်ပုံစံကို အသုံးပြု၍ ကျွန်ုပ်တို့ထံ ဆက်သွယ်ပါ။

https://forms.gle/WvT1wiN1qDtmnspy7