What's it like to be a robot? | Leila Takayama

92,193 views ・ 2018-02-16

TED


വീഡിയോ പ്ലേ ചെയ്യാൻ ചുവടെയുള്ള ഇംഗ്ലീഷ് സബ്‌ടൈറ്റിലുകളിൽ ഡബിൾ ക്ലിക്ക് ചെയ്യുക.

Translator: Ajay Balachandran Reviewer: Netha Hussain
00:12
You only get one chance to make a first impression,
0
12760
2656
നമ്മെപ്പറ്റി ഒരു നല്ല ധാരണയുണ്ടാക്കാൻ ഒരേയൊരവസരമേ ലഭിക്കൂ
00:15
and that's true if you're a robot as well as if you're a person.
1
15440
3176
നിങ്ങൾ ഒരു യന്ത്രമനുഷ്യനാണെങ്കിലും മനുഷ്യനാണെങ്കിലും ഇതാണ് അവസ്ഥ
00:18
The first time that I met one of these robots
2
18640
3016
ഞാൻ ആദ്യമായി ഇത്തരമൊരു റോബോട്ടിനെ കണ്ടത്
00:21
was at a place called Willow Garage in 2008.
3
21680
2896
2008-ൽ വില്ലോ ഗരാജ് എന്ന സ്ഥലത്താണ്
00:24
When I went to visit there, my host walked me into the building
4
24600
3016
അവിടെ എന്റെ ആതിഥേയൻ എന്നെ ഒരു കെട്ടിടത്തിലേയ്ക്ക് കൊണ്ടുപോയി
00:27
and we met this little guy.
5
27640
1576
ഈ ചെറിയ വ്യക്തിയെ കണ്ടുമുട്ടി
00:29
He was rolling into the hallway,
6
29240
1656
ഇടനാഴിയിൽ ഉരുണ്ട് വരികയായിരുന്ന
00:30
came up to me, sat there,
7
30920
1816
അവൻ എന്റെ അടുത്ത് വന്ന് ഇരുന്ന്
00:32
stared blankly past me,
8
32760
2256
വികാരമില്ലാതെ എനിക്കപ്പുറത്തേയ്ക്ക് നോക്കി
00:35
did nothing for a while,
9
35040
1656
അൽപ്പനേരം ഒന്നും ചെയ്തില്ല
00:36
rapidly spun his head around 180 degrees
10
36720
1936
പെട്ടെന്ന് തല 180 ഡിഗ്രി തിരിച്ച്
00:38
and then ran away.
11
38680
1536
ഓടിപ്പോയി.
00:40
And that was not a great first impression.
12
40240
2176
ഇത് ഒരു നല്ല പ്രാഥമിക ധാരണയല്ല നൽകിയത്
00:42
The thing that I learned about robots that day
13
42440
2176
റോബോട്ടുകളെപ്പറ്റി ഞാൻ അന്ന് അറിഞ്ഞത്
00:44
is that they kind of do their own thing,
14
44640
2176
സ്വന്തം ഇഷ്ടത്തിൽ കാര്യങ്ങൾ ചെയ്യുമെന്നും
00:46
and they're not totally aware of us.
15
46840
2136
നമ്മെപ്പറ്റി പൂർണ്ണ ബോധമുള്ളവരല്ല എന്നുമാണ്
00:49
And I think as we're experimenting with these possible robot futures,
16
49000
3239
എന്റെ തോന്നലിൽ നാം യന്ത്രമനുഷ്യരുള്ള സംഭാവ്യമായ ഭാവികളെപ്പറ്റി
00:52
we actually end up learning a lot more about ourselves
17
52263
2673
പരീക്ഷണം നടത്തുന്നതിലൂടെ നമ്മെപ്പറ്റി പല കാര്യങ്ങൾ
00:54
as opposed to just these machines.
18
54960
1656
അറിയുന്നു. ഈ യന്ത്രളെ മാത്രമല്ല
00:56
And what I learned that day
19
56640
1336
ഞാൻ അന്ന് മനസ്സിലാക്കിയത്
00:58
was that I had pretty high expectations for this little dude.
20
58000
3416
എനിക്ക് ഈ കൊച്ചു വ്യക്തിയെപ്പറ്റി അധിക പ്രതീക്ഷ ഉണ്ടായിരുന്നു എന്നാണ്
01:01
He was not only supposed to be able to navigate the physical world,
21
61440
3176
അവന് ഭൗതിക ലോകത്തിൽ സ്വന്തം വഴി കണ്ടെത്താൻ സാധിക്കുമെന്ന് മാത്രമല്ല
01:04
but also be able to navigate my social world --
22
64640
2656
എന്റെ സാമൂഹിക ലോകത്തിലും അത് കഴിയുമെന്ന് ഞാൻ കരുതി.
01:07
he's in my space; it's a personal robot.
23
67320
2176
എന്റെ ഇടത്തിലെ സ്വകാര്യ യന്ത്രവ്യക്തി
01:09
wWhy didn't it understand me?
24
69520
2016
എന്തുകൊണ്ട് അത് എന്നെ മനസ്സിലാക്കിയില്ല?
01:11
My host explained to me,
25
71560
1256
ആതിഥേയൻ അത് വിശദീകരിച്ചു
01:12
"Well, the robot is trying to get from point A to point B,
26
72840
3176
“A യിൽ നിന്ന് B യിലേയ്ക്ക് പോകാനായിരുന്നു അതിന്റെ ശ്രമം
01:16
and you were an obstacle in his way,
27
76040
1776
നീ അവന്റെ വഴിയിലെ ഒരു തടസ്സം,
01:17
so he had to replan his path,
28
77840
2016
അതിനാൽ അവൻ വഴി ഒന്നുകൂടി കണക്കുകൂട്ടി,
01:19
figure out where to go,
29
79880
1256
ലക്ഷ്യം തീർപ്പാക്കി
01:21
and then get there some other way,"
30
81160
1696
മറ്റൊരു മാർഗ്ഗത്തിലൂടെ അവിടെ എത്തി“
01:22
which was actually not a very efficient thing to do.
31
82880
2456
അത്ര കാര്യക്ഷമമായ പ്രവർത്തിയായിരുന്നില്ല അത്
01:25
If that robot had figured out that I was a person, not a chair,
32
85360
3256
ആ യന്ത്രമനുഷ്യന് ഞാൻ കസേരയല്ല, ഒരു വ്യക്തിയാണെന്നും
01:28
and that I was willing to get out of its way
33
88640
2096
അതിന് എങ്ങോട്ടെങ്കിലും പോകണമെങ്കിൽ ഞാൻ
01:30
if it was trying to get somewhere,
34
90760
1656
വഴിമാറിക്കൊടുക്കാൻ ഞാൻ തയ്യാറാണെന്നും അറിയാമായിരുന്നെങ്കിൽ
01:32
then it actually would have been more efficient
35
92440
2216
അത് കൂടുതൽ കാര്യക്ഷമമായി
01:34
at getting its job done
36
94680
1256
ജോലി ചെയ്തേനെ.
01:35
if it had bothered to notice that I was a human
37
95960
2216
ഞാൻ ഒരു മനുഷ്യനാണെന്നും ഭിത്തിയും കസേരയും
01:38
and that I have different affordances than things like chairs and walls do.
38
98200
3576
പോലുള്ളവയേക്കാൾ കൂടുതൽ എനിക്ക് കഴിവുണ്ട് എന്നും അത് ശ്രദ്ധിച്ചിരുന്നെങ്കിൽ.
01:41
You know, we tend to think of these robots as being from outer space
39
101800
3216
ഈ യന്ത്രമനുഷ്യർ ശൂന്യാകാശത്തിൽ നിന്ന് വന്നവരാണെന്നാണ് നാം കരുതുന്നത്
01:45
and from the future and from science fiction,
40
105040
2136
ഭാവിയിൽ നിന്നോ ശാസ്ത്ര ഫിക്ഷൻ കഥകളിൽ നിന്നോ,
01:47
and while that could be true,
41
107200
1416
ഇത് സത്യമാകാമെങ്കിലും
01:48
I'd actually like to argue that robots are here today,
42
108640
2656
യന്തമനുഷ്യർ ഇന്ന് ഇവിടെയുള്ളവരാണ് എന്ന് ഞാൻ വാദിക്കട്ടെ
01:51
and they live and work amongst us right now.
43
111320
2776
അവർ ഇപ്പോൾ നമുക്കിടയിൽ ജീവിക്കുകയും ജോലി ചെയ്യുകയുമാണ്
01:54
These are two robots that live in my home.
44
114120
2856
എന്റെ വീട്ടിൽ വസിക്കുന്ന 2 റോബോട്ടുകളാണിവ
01:57
They vacuum the floors and they cut the grass
45
117000
2496
ഇവ തറ വൃത്തിയാക്കുകയും പുല്ല് വെട്ടുകയും ചെയ്യുന്നു
01:59
every single day,
46
119520
1216
എല്ലാ ദിവസവും
02:00
which is more than I would do if I actually had time to do these tasks,
47
120760
3376
എനിക്ക് ഈ ജോലികൾ ചെയ്യാൻ സമയം ‌ഉണ്ടായിരുന്നെങ്കിൽ സാധിക്കുന്നതിലുമധികം
02:04
and they probably do it better than I would, too.
48
124160
2336
ഒരുപക്ഷേ എന്നേക്കാൾ മെച്ചമായി.
02:06
This one actually takes care of my kitty.
49
126520
2496
ഇത് എന്റെ പൂച്ചയെ പരിപാലിക്കുന്നു.
02:09
Every single time he uses the box, it cleans it,
50
129040
2576
ബോക്സിൽ കാര്യം സാധിക്കുമ്പോഴെല്ലാം ഇത് വൃത്തിയാക്കും
02:11
which is not something I'm willing to do,
51
131640
1976
എനിക്ക് ചെയ്യാൻ ഇഷ്ടമുള്ള കാര്യമല്ലിത്
02:13
and it actually makes his life better as well as mine.
52
133640
2576
ഇതിനാൽ അവന്റെയും എന്റെയും ജീവിതങ്ങൾ മെച്ചമാകുന്നുണ്ട്.
02:16
And while we call these robot products --
53
136240
2416
നാം ഇവയെ റോബോട്ട് ഉല്പന്നങ്ങൾ എന്ന് വിളിക്കുമ്പോൾ--
02:18
it's a "robot vacuum cleaner, it's a robot lawnmower,
54
138680
2696
ഇതൊരു “റോബോട്ട് വാക്വംക്ലീനർ, ഇതൊരു റോബോട്ട് പുല്ലുവെട്ടി
02:21
it's a robot littler box,"
55
141400
1495
ഇതൊരു റോബോട്ട് അപ്പിപ്പെട്ടി,“
02:22
I think there's actually a bunch of other robots hiding in plain sight
56
142919
4137
വേറൊരിനം യന്ത്രമനുഷ്യർ നമ്മുടെ കണ്ണിന്റെ മുന്നിൽ മറഞ്ഞിരിക്കുന്നു എന്നും തോന്നുന്നു
02:27
that have just become so darn useful
57
147080
1856
ഇവ വളരെ ഉപയോഗപ്രദമാണ്, തന്നെയല്ല
02:28
and so darn mundane
58
148960
1456
അതിസാധാരണമായതിനാൽ
02:30
that we call them things like, "dishwasher," right?
59
150440
2496
നാം അവയെ “ഡിഷ്‌വാഷർ“ പോലുള്ള പേരിട്ടാണ് വിളിക്കുന്നത്
02:32
They get new names.
60
152960
1216
അവയ്ക്ക് പുതിയ പേരുകളാണ്
02:34
They don't get called robot anymore
61
154200
1696
ഇവയെ റോബോട്ട് എന്ന് വിളിക്കുന്നില്ല
02:35
because they actually serve a purpose in our lives.
62
155920
2416
ഇവ ജീവിതത്തിൽ പ്രത്യേക സഹായങ്ങൾ ചെയ്യുന്നു
02:38
Similarly, a thermostat, right?
63
158360
1496
ഒരു തെർമോസ്റ്റാറ്റ് പോലെ.
02:39
I know my robotics friends out there
64
159880
1776
റോബോട്ടിക്സ് സുഹൃത്തുക്കൾക്ക് ഞാൻ
02:41
are probably cringing at me calling this a robot,
65
161680
2336
ഇവയെ റോബോട്ടെന്ന് വിളിക്കുന്നത് ഇഷ്ടമായിരിക്കില്ല
02:44
but it has a goal.
66
164040
1256
ഇതിന് ഒരു ലക്ഷ്യമുണ്ട്
02:45
Its goal is to make my house 66 degrees Fahrenheit,
67
165320
2896
വീടിന്റെ ചൂട് 66 ഡിഗ്രി ഫാറൻഹീറ്റ് ആയി നിലനിർത്തുകയാണ് അത്
02:48
and it senses the world.
68
168240
1256
ഇത് ലോകത്തെ അറിയുന്നുണ്ട്
02:49
It knows it's a little bit cold,
69
169520
1576
തണുപ്പ് കൂടുതലാണ് എന്നറിഞ്ഞാൽ
02:51
it makes a plan and then it acts on the physical world.
70
171120
2616
ഇത് ഒരു പദ്ധതിയുണ്ടാക്കി ഭൗതിക ലോകത്ത് ‌ഇടപെടുന്നു
02:53
It's robotics.
71
173760
1256
ഇത് റോബോട്ടിക്സാണ്
02:55
Even if it might not look like Rosie the Robot,
72
175040
2576
ഇത് റോസി എന്ന യന്ത്ര മനുഷ്യനെപ്പോലെയല്ലായിരിക്കാം
02:57
it's doing something that's really useful in my life
73
177640
2936
ജീവിതത്തിൽ പ്രയോജനമുള്ള ഒരു കാര്യമാണ് ഇത് ചെയ്യുന്നത്
03:00
so I don't have to take care
74
180600
1376
എനിക്ക് ശ്രദ്ധ നൽകേണ്ടതില്ല
03:02
of turning the temperature up and down myself.
75
182000
2576
താപനില കൂട്ടുകയും കുറയ്ക്കുകയും ചെയ്യുന്നതിന്.
03:04
And I think these systems live and work amongst us now,
76
184600
3816
എനിക്ക് തോന്നുന്നത് ഇപ്പോൾ നമുക്കിടയിലുള്ള ഇത്തരം സംവിധാനങ്ങൾ
03:08
and not only are these systems living amongst us
77
188440
2336
ജീവിക്കുക മാത്രമല്ല,
03:10
but you are probably a robot operator, too.
78
190800
2656
ഒരുപക്ഷേ നിങ്ങൾ റോബോട്ടിനെ നിയന്ത്രിക്കുന്ന ആളായിരിക്കാം
03:13
When you drive your car,
79
193480
1256
നിങ്ങളുടെ കാർ ഓടിക്കുമ്പോൾ
03:14
it feels like you are operating machinery.
80
194760
2216
യന്ത്രങ്ങൾ നിയന്ത്രിക്കുന്നതായാണ് തോന്നുന്നത്
03:17
You are also going from point A to point B,
81
197000
2816
നിങ്ങൾ A യിൽ നിന്ന് B യിലേയ്ക്ക് ഇതോടൊപ്പം പോകുന്നുമുണ്ട്
03:19
but your car probably has power steering,
82
199840
2216
കാറിൽ ഒരുപക്ഷേ പവർ സ്റ്റിയറിങ്ങുണ്ടാകാം
03:22
it probably has automatic braking systems,
83
202080
2696
സ്വയം പ്രവർത്തിക്കുന്ന ബ്രേക്കുണ്ടാകാം
03:24
it might have an automatic transmission and maybe even adaptive cruise control.
84
204800
3736
സ്വയം പ്രവർത്തിക്കുന്ന ട്രാൻസ്‌മിഷനോ, ക്രൂയിസ് നിയന്ത്രണ സംവിധാനമോ ഉണ്ടാകാം.
03:28
And while it might not be a fully autonomous car,
85
208560
2936
പൂർണ്ണമായും സ്വയം നിയന്ത്രിക്കുന്ന കാർ അല്ലെങ്കിൽ പോലും ഇതിന്
03:31
it has bits of autonomy,
86
211520
1296
സ്വയം നിയന്ത്രണശക്തിയുണ്ട്
03:32
and they're so useful
87
212840
1336
ഇവ വളരെ ഉപകാരപ്രദവുമാണ്
03:34
and they make us drive safer,
88
214200
1816
ഇവ സുരക്ഷിത യാത്രയ്ക്ക് സഹായിക്കുന്നു
03:36
and we just sort of feel like they're invisible-in-use, right?
89
216040
3656
ഇവ കാഴ്ച്ചയിൽ പെടാതെ പ്രവർത്തിക്കുന്ന സംവിധാനങ്ങളാണ് എന്ന് നമുക്ക് തോന്നും
03:39
So when you're driving your car,
90
219720
1576
നാം ഒരു കാറോടിക്കുമ്പോൾ
03:41
you should just feel like you're going from one place to another.
91
221320
3096
ഒരിടത്തുനിന്ന് മറ്റൊരിടത്തേയ്ക്ക് പോവുകയാണ് എന്നാണ് തോന്നേണ്ടത്.
03:44
It doesn't feel like it's this big thing that you have to deal with and operate
92
224440
3736
നമുക്ക് ഒരു വലിയ സംഗതി കൈകാര്യം ചെയ്യേണ്ടതുണ്ട് എന്നല്ല തോന്നേണ്ടത്
03:48
and use these controls
93
228200
1256
ഒരു പാട് നിയന്ത്രണങ്ങൾ
03:49
because we spent so long learning how to drive
94
229480
2176
വണ്ടി ഓട്ടം പഠിക്കാൻ കുറേ സമയമെടുത്തിട്ടില്ലേ
03:51
that they've become extensions of ourselves.
95
231680
2696
നിയന്ത്രണ സംവിധാനങ്ങൾ ശരീരത്തിന്റെ ഭാഗമായി തോന്നും.
03:54
When you park that car in that tight little garage space,
96
234400
2696
കാർ ചെറിയ ഗരാജിൽ കൊണ്ടുവരുമ്പോൾ
03:57
you know where your corners are.
97
237120
1576
നമുക്ക് മൂലകൾ എവിടെയാണെന്നറിയാം
03:58
And when you drive a rental car that maybe you haven't driven before,
98
238720
3256
ഇതിനു മുൻപ് ഉപയോഗിച്ചിട്ടില്ലാത്ത ഒരു കാർ വാടകയ്‌ക്കെടുക്കുമ്പോൾ
04:02
it takes some time to get used to your new robot body.
99
242000
3056
പുതിയ യന്ത്രമനുഷ്യ ശരീരത്തോട് താദാത്മ്യം പ്രാപിക്കാൻ സമയമെടുക്കും
04:05
And this is also true for people who operate other types of robots,
100
245080
3976
മറ്റുള്ള തരം റോബോട്ടുകളെ നിയന്ത്രിക്കുന്ന ‌ആളുകൾക്കും ഇത് ബാധകമാണ്
04:09
so I'd like to share with you a few stories about that.
101
249080
2600
ഇതെപ്പറ്റി ചില കഥകൾ ഞാൻ നിങ്ങളോട് പങ്കുവയ്ക്കാം.
04:12
Dealing with the problem of remote collaboration.
102
252240
2336
ദൂരസഹകരണം കൈകാര്യം ചെയ്യുന്നത് സംബന്ധിച്ച്
04:14
So, at Willow Garage I had a coworker named Dallas,
103
254600
2576
വില്ലോ ഗരാജിൽ ഡള്ളാസ് എന്ന സഹപ്രവർത്തകനുണ്ടായിരുന്നു
04:17
and Dallas looked like this.
104
257200
1576
ഡള്ളാസിനെ കാണാൻ ഇങ്ങനെയായിരുന്നു
04:18
He worked from his home in Indiana in our company in California.
105
258800
4056
ഇൻഡ്യാനയിലെ വീട്ടിൽ നിന്ന് കാലിഫോർണിയയിലെ കമ്പനിയിലെ ജോലി അയാൾ ചെയ്തിരുന്നു
04:22
He was a voice in a box on the table in most of our meetings,
106
262880
2936
മിക്ക യോഗങ്ങളിലും റേഡിയോ പോലുള്ള സംസാരപ്രിയനായിരുന്നു അയാൾ
04:25
which was kind of OK except that, you know,
107
265840
2215
അത് കൊണ്ട് കുഴപ്പമില്ലായിരുന്നു.
04:28
if we had a really heated debate and we didn't like what he was saying,
108
268079
3377
ഒരു വലിയ വാഗ്വാദം നടക്കുമ്പോൾ അയാൾ പറയുന്നത് ഇഷ്ടപ്പെട്ടില്ലെങ്കിൽ ഞങ്ങൾ
04:31
we might just hang up on him.
109
271480
1416
ഫോൺ വിഛേദിക്കുമായിരുന്നു.
04:32
(Laughter)
110
272920
1015
(ചിരി)
04:33
Then we might have a meeting after that meeting
111
273959
2217
ഇദ്ദേഹം പോയതിനു ശേഷം
04:36
and actually make the decisions in the hallway afterwards
112
276200
2696
ഇടനാഴിയിൽ വച്ച് ഒരു മീറ്റിങ് നടത്തുകയും
04:38
when he wasn't there anymore.
113
278920
1416
തീരുമാനങ്ങളെടുക്കുകയും ചെയ്യുമായിരുന്നു
04:40
So that wasn't so great for him.
114
280360
1576
ഇത് അയാൾക്ക് നല്ലതായിരുന്നില്ല
04:41
And as a robotics company at Willow,
115
281960
1736
വില്ലോയിലെ റോബോട്ടിക്സ് കമ്പനിയിൽ
04:43
we had some extra robot body parts laying around,
116
283720
2336
ഞങ്ങൾക്ക് അധികം ചില ശരീരഭാഗങ്ങൾ ഉണ്ടായിരുന്നു
04:46
so Dallas and his buddy Curt put together this thing,
117
286080
2496
ഡള്ളാസും സുഹൃത്ത് കർട്ടും ഒരു സാധനമുണ്ടാക്കി
04:48
which looks kind of like Skype on a stick on wheels,
118
288600
2936
ചക്രങ്ങളുടെ പുറത്ത് ഒരു വടിയും അതിന് മുകളിൽ സ്കൈപ്പും
04:51
which seems like a techy, silly toy,
119
291560
1736
ഒരു നിസ്സാര സാങ്കേതിക കളിപ്പാട്ടം
04:53
but really it's probably one of the most powerful tools
120
293320
2776
ഇത് ഒരുപക്ഷേ വിദൂരസഹകരണത്തിൽ ഉപയോഗിക്കുന്ന ഞാൻ കണ്ടിട്ടുള്ള ‌
04:56
that I've seen ever made for remote collaboration.
121
296120
2480
ഏറ്റവും ശക്തമായ ഉപകരണങ്ങളിൽ ഒന്നാണ്
04:59
So now, if I didn't answer Dallas' email question,
122
299160
3496
ഞാൻ ഡള്ളാസിന്റെ ഇ മെയിലിന് മറുപടി അയച്ചില്ലെങ്കിൽ
05:02
he could literally roll into my office,
123
302680
2216
അയാൾക്ക് എന്റെ മുറിയിലേയ്ക്ക് ഉരുണ്ട് വരാം
05:04
block my doorway and ask me the question again --
124
304920
2576
എന്റെ വാതിൽ തടഞ്ഞുകൊണ്ട് ഈ ചോദ്യം വീണ്ടും ചോദിക്കാം
05:07
(Laughter)
125
307520
1016
(ചിരി)
05:08
until I answered it.
126
308560
1216
ഞാൻ മറുപടി പറയും വരെ
05:09
And I'm not going to turn him off, right? That's kind of rude.
127
309800
2976
ഞാൻ ഇത് ഓഫ് ചെയ്യുമോ? അത് അപമര്യാദയല്ലേ?
05:12
Not only was it good for these one-on-one communications,
128
312800
2696
ഇരുവർ തമ്മിൽ സംസാരിക്കാൻ നന്നായിരുന്നു എന്ന് മാത്രമല്ല
05:15
but also for just showing up at the company all-hands meeting.
129
315520
2936
കമ്പനിയിലെ ആൾക്കാരെല്ലാം ചേരുന്ന യോഗങ്ങളിൽ ‌കയറിച്ചെല്ലാനും
05:18
Getting your butt in that chair
130
318480
1696
ഒരു കസേരയിൽ കയറി ഇരിക്കാനും
05:20
and showing people that you're present and committed to your project
131
320200
3216
ഇവിടെ ഈ പദ്ധതിയുമായി ചേർന്ന് പ്രവർത്തിക്കുന്നുവെന്ന് കാണിക്കാനും
05:23
is a big deal
132
323440
1256
ഇതൊരു വലിയ കാര്യം തന്നെ
05:24
and can help remote collaboration a ton.
133
324720
2176
ദൂരസഹകരണത്തിൽ ഇത് വലിയ സഹായമായിരുന്നു
05:26
We saw this over the period of months and then years,
134
326920
2856
മാസങ്ങളും വർഷങ്ങളും ഞങ്ങൾ ഇത് കണ്ടു
05:29
not only at our company but at others, too.
135
329800
2160
ഞങ്ങളുടെ കമ്പനിയിലും, മറ്റ് കമ്പനികളിലും
05:32
The best thing that can happen with these systems
136
332720
2336
ഇത്തരം സംവിധാനങ്ങളുടെ പ്രധാന ഗുണമെന്താണെന്നാൽ
05:35
is that it starts to feel like you're just there.
137
335080
2336
നാം അവിടെയാണെന്ന് തോന്നിത്തുടങ്ങും ‌എന്നതാണ്
05:37
It's just you, it's just your body,
138
337440
1696
ഇത് നാം തന്നെയാണ്. നമ്മുടെ ശരീരം
05:39
and so people actually start to give these things personal space.
139
339160
3096
ഈ സാധനങ്ങൾക്ക് ആൾക്കാർ മനുഷ്യരെ പോലെ സ്ഥലം കൊടുക്കാൻ ആരംഭിച്ചു
05:42
So when you're having a stand-up meeting,
140
342280
1976
നിന്നുകൊണ്ടുള്ള ഒരു ചർച്ചയിൽ
05:44
people will stand around the space
141
344280
1656
ഒരു വൃത്തത്തിൽ ആൾക്കാർ നിൽക്കും
05:45
just as they would if you were there in person.
142
345960
2216
നിങ്ങൾ അവിടെ ഉള്ളതുപോലെ
05:48
That's great until there's breakdowns and it's not.
143
348200
2576
കേടുപാടുകൾ വരുന്നത് വരെ ഇത് നല്ല സംവിധാനമാണ്
05:50
People, when they first see these robots,
144
350800
1976
ആദ്യം ഈ റോബോട്ടുകളെ കാണുമ്പോൾ ആൾക്കാർ
05:52
are like, "Wow, where's the components? There must be a camera over there,"
145
352800
3576
“എവിടെയാണ് ഭാഗങ്ങൾ? ഇവിടെ ഒരു കാമറ ഉണ്ടാകും“ എന്ന് പറയുകയും
05:56
and they start poking your face.
146
356400
1576
മുഖത്ത് കുത്തുകയും ചെയ്യും
05:58
"You're talking too softly, I'm going to turn up your volume,"
147
358000
2936
“നിങ്ങൾ പതിയെ സംസാരിക്കുന്നു, ഞാൻ ‌നിങ്ങളുടെ ശബ്ദം ഉയർത്തട്ടെ“
06:00
which is like having a coworker walk up to you and say,
148
360960
2616
എന്ന് പറയുന്നത് ഒരു സഹപ്രവർത്തകൻ നമ്മുടെ അടുത്ത് വന്ന്
06:03
"You're speaking too softly, I'm going to turn up your face."
149
363600
2896
“കേൾക്കുന്നില്ല. മുഖം ഉയർത്തട്ടെ“ എന്ന് പറയുന്നത് പോലെയാണ്.
06:06
That's awkward and not OK,
150
366520
1256
സ്വാഭാവികമല്ലിത്. ശരിയല്ല.
06:07
and so we end up having to build these new social norms
151
367800
2616
പുതിയ സാമൂഹ്യ നിയമങ്ങൾ നാം ഉണ്ടാക്കുന്നു.
06:10
around using these systems.
152
370440
2216
ഇത്തരം സംവിധാനങ്ങൾ ഉപയോഗിക്കുന്നത് സംബന്ധിച്ച്
06:12
Similarly, as you start feeling like it's your body,
153
372680
3416
അത് പോലെ തന്നെ, ഇത് നമ്മുടെ ശരീരത്തിന്റെ ഭാഗമാണ് എന്ന് തോന്നുന്നത് പോലെ
06:16
you start noticing things like, "Oh, my robot is kind of short."
154
376120
3696
നാം ചില കാര്യങ്ങൾ ശ്രദ്ധിക്കാൻ തുടങ്ങും. “എന്റെ യന്ത്രമനുഷ്യൻ ഒരു കുള്ളനാണ്“
06:19
Dallas would say things to me -- he was six-foot tall --
155
379840
2656
ഡള്ളാസ് പറഞ്ഞിട്ടുണ്ട്-- അയാൾക്ക് ആറടി പൊക്കമുണ്ട്--
06:22
and we would take him via robot to cocktail parties and things like that,
156
382520
3456
ഞങ്ങൾ അയാളെ റോബോട്ടിലൂടെ കോക്ക്‌ടെയിൽ ‌പാർട്ടികളിൽ കൊണ്ടുപോകുമായിരുന്നു
06:26
as you do,
157
386000
1216
നിങ്ങൾ ചെയ്യുന്നത് പോലെ
06:27
and the robot was about five-foot-tall, which is close to my height.
158
387240
3336
യന്ത്രമനുഷ്യൻ അഞ്ചടി ഉയരമായിരുന്നു ഉണ്ടായിരുന്നത്. എന്റെ ഉയരം
06:30
And he would tell me,
159
390600
1216
അയാൾ എന്നോട് പറയുമായിരുന്നു
06:31
"You know, people are not really looking at me.
160
391840
2536
“ആൾക്കാർ എന്നെ നോക്കുന്നില്ല എന്നറിയാമോ.
06:34
I feel like I'm just looking at this sea of shoulders,
161
394400
2696
ഞാൻ കുറേ തോളുകളാണ് കാണുന്നത്.
06:37
and it's just -- we need a taller robot."
162
397120
1976
നമുക്ക് പൊക്കമുള്ള യന്ത്രമനുഷ്യൻ വേണം.“
06:39
And I told him,
163
399120
1256
ഞാൻ അയാളോട് പറഞ്ഞു
06:40
"Um, no.
164
400400
1296
“ഇല്ലില്ല.
06:41
You get to walk in my shoes for today.
165
401720
1936
എന്റെ സ്ഥിതിയിൽ നീ ഇന്ന് നടക്കൂ.
06:43
You get to see what it's like to be on the shorter end of the spectrum."
166
403680
3536
പൊക്കമില്ലാതിരിക്കുന്നത് എങ്ങനെയാണെന്ന് നീ അറിയണം.“
06:47
And he actually ended up building a lot of empathy for that experience,
167
407240
3376
പൊക്കമില്ലാത്ത അവസ്ഥയുമായി അയാൾ നന്നായി താദാത്മ്യം പ്രാപിച്ചു
06:50
which was kind of great.
168
410640
1256
ഇത് നല്ല ഒരു കാര്യമാണ്.
06:51
So when he'd come visit in person,
169
411920
1656
നേരിട്ട് കമ്പനി സന്ദർശിക്കുമ്പോൾ
06:53
he no longer stood over me as he was talking to me,
170
413600
2416
അയാൾ ഉയർന്ന് നിന്ന് സംസാരിക്കുന്നത് നിറുത്തി
06:56
he would sit down and talk to me eye to eye,
171
416040
2096
ഇരുന്ന് കണ്ണിൽ നോക്കി സംസാരിക്കാൻ ‌ആരംഭി‌ച്ചു
06:58
which was kind of a beautiful thing.
172
418160
1736
അത് സുന്ദരമായ ഒരു കാര്യമായിരുന്നു
06:59
So we actually decided to look at this in the laboratory
173
419920
2656
ഇത് ലബോറട്ടറിയിൽ നിരീക്ഷിക്കാൻ ഞങ്ങൾ തീരുമാനിച്ചു
07:02
and see what others kinds of differences things like robot height would make.
174
422600
3656
റോബോട്ടിന്റെ ഉയരം പോലെയുള്ള കാര്യങ്ങൾ ‌ഉണ്ടാക്കുന്ന വ്യത്യാസങ്ങൾ
07:06
And so half of the people in our study used a shorter robot,
175
426280
2856
ഞങ്ങളിൽ പകുതിപ്പേർ ചെറിയ റോബോട്ടുകൾ ഉപയോഗിച്ചു
07:09
half of the people in our study used a taller robot
176
429160
2416
പകുതിപ്പേർ പൊക്കമുള്ള യന്ത്രമനുഷ്യരെ ഉപയോഗിച്ചു
07:11
and we actually found that the exact same person
177
431600
2256
ഞങ്ങൾ കണ്ടത് ഒരേ വ്യക്തി
07:13
who has the exact same body and says the exact same things as someone,
178
433880
3336
ഒരേ ശരീരമുള്ളതും ഒരേ കാര്യങ്ങൾ പറയുന്നതുമായ വ്യക്തി മറ്റുള്ളവരെ തന്റെ
07:17
is more persuasive and perceived as being more credible
179
437240
2616
വഴിയ്ക്ക് കൊണ്ടുവരുകയും വിശ്വാസ്യത നേടുകയും ചെയ്തത്
07:19
if they're in a taller robot form.
180
439880
1656
വലിയ റോബോട്ടിലൂടെയായിരുന്നു
07:21
It makes no rational sense,
181
441560
1816
ഇതിൽ വലിയ യുക്തിയില്ല, പക്ഷേ
07:23
but that's why we study psychology.
182
443400
1696
ഇതാണ് നാം മനഃശാസ്ത്രത്തിൽ പഠിക്കുന്നത്.
07:25
And really, you know, the way that Cliff Nass would put this
183
445120
2856
ക്ലിഫ് നാസ് ഇതെപ്പറ്റി പറയുന്നത്
07:28
is that we're having to deal with these new technologies
184
448000
3016
ഇത്തരം സാങ്കേതിക വിദ്യകൾ നാം കൈകാര്യം ചെയ്തേ മതിയാകൂ എന്നതാണ്.
07:31
despite the fact that we have very old brains.
185
451040
2736
നമ്മുടെ തലച്ചോറുകൾ വളരെ പഴയതായിരിക്കാം.
07:33
Human psychology is not changing at the same speed that tech is
186
453800
2976
മനുഷ്യമനഃശാസ്ത്രം സാങ്കേതിക വിദ്യയ്‌ക്കൊപ്പം മാറുന്നില്ല
07:36
and so we're always playing catch-up,
187
456800
1816
മാറ്റത്തിനനുസരിച്ച് പൊരുത്തപ്പെടുകയാണ്
07:38
trying to make sense of this world
188
458640
1656
ലോകത്തെ മനസ്സിലാക്കാനുള്ള ശ്രമം
07:40
where these autonomous things are running around.
189
460320
2336
സ്വയം നിയന്ത്രിത സാധനങ്ങൾ നമുക്ക് ചുറ്റുമുണ്ട്
07:42
Usually, things that talk are people, not machines, right?
190
462680
2736
സാധാരണഗതിയിൽ മനുഷ്യരാണ് സംസാരിക്കുക യന്ത്രങ്ങളല്ല, അല്ലേ?
07:45
And so we breathe a lot of meaning into things like just height of a machine,
191
465440
4576
അതിനാൽ നാം യന്ത്രങ്ങളുടെ ഉയരം പോലെയുള്ള കാര്യങ്ങൾക്ക് അർത്ഥങ്ങൾ കൊടുക്കുന്നു.
07:50
not a person,
192
470040
1256
ഒരു വ്യക്തിയല്ല ഇത്
07:51
and attribute that to the person using the system.
193
471320
2360
നിയന്ത്രിക്കുന്നയാൾക്ക് ഗുണങ്ങൾ കൊടുക്കുന്നു
07:55
You know, this, I think, is really important
194
475120
2216
ഇത് വളരെ പ്രാധാന്യമുള്ളതാണെന്ന് ഞാൻ കരുതുന്നു
07:57
when you're thinking about robotics.
195
477360
1736
റോബോട്ടിക്സ്
07:59
It's not so much about reinventing humans,
196
479120
2096
മനുഷ്യരെ പുതുതായി കണ്ടുപിടിക്കുന്നതല്ല
08:01
it's more about figuring out how we extend ourselves, right?
197
481240
3136
നമ്മെ വ്യാപിപ്പിക്കുന്നത് എങ്ങനെ എന്ന് മനസ്സിലാക്കുന്നതാണ്
08:04
And we end up using things in ways that are sort of surprising.
198
484400
2976
അദ്ഭുതകരമായാണ് നാം ചില കാര്യങ്ങൾ ഉപയോഗിക്കുന്നത്
08:07
So these guys can't play pool because the robots don't have arms,
199
487400
4256
റോബോട്ടുകൾക്ക് കയ്യില്ലാത്തതിനാൽ ഇവർക്ക് പൂൾ കളിക്കാൻ സാധിക്കില്ലായിരുന്നു
08:11
but they can heckle the guys who are playing pool
200
491680
2336
പക്ഷേ കളിക്കുന്നവരെ തടസ്സപ്പെടുത്താമല്ലോ
08:14
and that can be an important thing for team bonding,
201
494040
3176
ഇത് കൂട്ടത്തിന്റെ ഭാഗമാകുന്നതിൽ സഹായകമാണ്,
08:17
which is kind of neat.
202
497240
1296
നല്ലതല്ലേ?
08:18
People who get really good at operating these systems
203
498560
2496
ഈ സംവിധാനങ്ങൾ ഉപയോഗിക്കാൻ പ്രാവീണ്യം നേടുന്നവർ
08:21
will even do things like make up new games,
204
501080
2056
പുതിയ കളികൾ ഉണ്ടാക്കുകയും ചെയ്യാറുണ്ട്
08:23
like robot soccer in the middle of the night,
205
503160
2136
പാതിരാത്രി റോബോട്ട് സോക്കർ കളി പോലെ
08:25
pushing the trash cans around.
206
505320
1456
ചവർ പാത്രങ്ങൾ തള്ളി നീക്കുക.
08:26
But not everyone's good.
207
506800
1576
എല്ലാവരും നന്നായി കളിക്കുന്നവരല്ല
08:28
A lot of people have trouble operating these systems.
208
508400
2496
പലർക്കും ഈ സംവിധാനങ്ങൾ ഉപയോഗിക്കാൻ ബുദ്ധിമുട്ടുണ്ട്
08:30
This is actually a guy who logged into the robot
209
510920
2256
ഒരാൾ റോബോട്ട് ഉപയോഗിക്കാനാരംഭിച്ചപ്പോൾ അയാളുടെ
08:33
and his eyeball was turned 90 degrees to the left.
210
513200
2376
കണ്ണിന്റെ കൃഷ്ണമണി 90 ഡിഗ്രി ഇടത്തോട്ട് തിരിഞ്ഞു
08:35
He didn't know that,
211
515600
1256
അയാൾ അത് അറിഞ്ഞില്ല
08:36
so he ended up just bashing around the office,
212
516880
2176
ഓഫീസിൽ അവിടെയും ഇവിടെയും തട്ടി അയാൾ കറങ്ങി
08:39
running into people's desks, getting super embarrassed,
213
519080
2616
ആൾക്കാരുടെ മേശകളിൽ പോയി തട്ടി ജാള്യനാവുകയും
08:41
laughing about it -- his volume was way too high.
214
521720
2336
അതെപ്പറ്റി പറഞ്ഞ് ചിരിക്കുക-- ശബ്ദം ഉയർന്നിരുന്നു
08:44
And this guy here in the image is telling me,
215
524080
2136
ഈ ചിത്രത്തിൽ കാണുന്നയാൾ എന്നോട് പറഞ്ഞു:
08:46
"We need a robot mute button."
216
526240
2096
“റോബോട്ടുകളുടെ വായടയ്ക്കാൻ ഒരു ബട്ടൻ വേണം“
08:48
And by that what he really meant was we don't want it to be so disruptive.
217
528360
3496
ഇത്ര പ്രശ്നമുണ്ടാക്കുന്ന സംവിധാനമല്ല വേണ്ടതെന്നാണ് അയാൾ ഉദ്ദേശിച്ചത്
08:51
So as a robotics company,
218
531880
1616
റോബോട്ടിക്സ് കമ്പനി എന്ന നിലയ്ക്ക്
08:53
we added some obstacle avoidance to the system.
219
533520
2456
നാം തടസ്സങ്ങൾ മറികടക്കാനുള്ള ചില സംവിധാനങ്ങൾ ചേർത്തു
08:56
It got a little laser range finder that could see the obstacles,
220
536000
3056
തടസ്സങ്ങളിലേയ്ക്കുള്ള അകലം കാണാവുന്ന ചെറിയ ലേസർ സംവിധാനം
08:59
and if I as a robot operator try to say, run into a chair,
221
539080
3136
തടസ്സത്തിലേയ്ക്ക് ഞാൻ റോബോട്ട് കയറ്റാൻ ശ്രമിച്ചാൽ സാധിക്കില്ല
09:02
it wouldn't let me, it would just plan a path around,
222
542240
2496
അത് എന്നെ അനുവദിക്കില്ല. തടസ്സത്തിനെ ചുറ്റി പോകും
09:04
which seems like a good idea.
223
544760
1856
ഇത് നല്ല ആശയമായി തോന്നി
09:06
People did hit fewer obstacles using that system, obviously,
224
546640
3176
കുറച്ച് തടസ്സങ്ങളിലേ ആൾക്കാർ ഈ സംവിധാനത്തിൽ തട്ടുമായിരുന്നുള്ളൂ
09:09
but actually, for some of the people,
225
549840
2096
ചിലർക്ക് യഥർത്ഥത്തിൽ
09:11
it took them a lot longer to get through our obstacle course,
226
551960
2856
ഞങ്ങളുടെ തടസ്സമാർഗ്ഗം കടക്കാൻ കൂടുതൽ സമയമെടുത്തു
09:14
and we wanted to know why.
227
554840
1560
ഇത് എന്തുകൊണ്ടാണ്?
09:17
It turns out that there's this important human dimension --
228
557080
3056
ഒരു പ്രധാനപ്പെട്ട മാനുഷിക പരിമാണമുണ്ട്‌ എന്ന് ഞങ്ങൾ കണ്ടെത്തി.
09:20
a personality dimension called locus of control,
229
560160
2296
നിയന്ത്രണകേന്ദ്രം എന്ന വ്യക്തിത്വ പരിമാണമാണിത്
09:22
and people who have a strong internal locus of control,
230
562480
3136
വ്യക്തികൾക്ക് ഒരു ശക്തമായ ആന്തരിക നിയന്ത്രണ കേന്ദ്രമുണ്ട്
09:25
they need to be the masters of their own destiny --
231
565640
3056
അവരുടെ ഭാവി അവരുടെ കയ്യിലാകണം എന്നത് വ്യക്തികളുടെ ഒരു ആവശ്യമാണ്
09:28
really don't like giving up control to an autonomous system --
232
568720
3096
ഒരു സ്വയം നിയന്ത്രിത സംവിധാനത്തിന് വിട്ടുകൊടുക്കാൻ ചിലർക്ക്
09:31
so much so that they will fight the autonomy;
233
571840
2136
കഴിയില്ല. ഇവർ സ്വയം നിയന്ത്രണം ചെറുക്കും.
09:34
"If I want to hit that chair, I'm going to hit that chair."
234
574000
3096
“എനിക്ക് ആ കസേരയിൽ തട്ടണമെന്നുണ്ടെങ്കിൽ ഞാൻ ആ കസേരയിൽ തട്ടും“
09:37
And so they would actually suffer from having that autonomous assistance,
235
577120
3616
സ്വയം നിയന്ത്രണം ഇവരെ സംബന്ധിച്ചിടത്തോളം ദുരിതമാണ്.
09:40
which is an important thing for us to know
236
580760
2576
ഇത് അറിയുക പ്രധാനമായിരുന്നു.
09:43
as we're building increasingly autonomous, say, cars, right?
237
583360
3296
നാം വളരെ സ്വതന്ത്രമായി തീരുമാനമെടുക്കുന്ന കാറുകൾ നിർമിക്കുകയാണല്ലോ?
09:46
How are different people going to grapple with that loss of control?
238
586680
3360
നിയന്ത്രണം നഷ്ടപ്പെടുന്ന സ്ഥിതിയിൽ പല വ്യക്തികൾ എങ്ങനെ പ്രതികരിക്കും?
09:50
It's going to be different depending on human dimensions.
239
590880
2696
മനുഷ്യരുടെ പരിമാണങ്ങളനുസരിച്ച് ഇത് വ്യത്യാസപ്പെടും.
09:53
We can't treat humans as if we're just one monolithic thing.
240
593600
3496
മനുഷ്യർ എല്ലാം ഒരുപോലെയാണ് എന്ന രീതിയിൽ നമുക്ക് പെരുമാറാനാവില്ല
09:57
We vary by personality, by culture,
241
597120
2416
വേറേ വ്യക്തിത്വവും സംസ്കാരവും ഉള്ളവരാണ് നാം
09:59
we even vary by emotional state moment to moment,
242
599560
2456
നമ്മുടെ വികാരങ്ങളും ഓരോ നിമിഷവും മാറി വരും
10:02
and being able to design these systems,
243
602040
1976
ഇത്തരം സംവിധാനങ്ങളുടെ രൂപകൽപ്പനയിൽ
10:04
these human-robot interaction systems,
244
604040
2296
മനുഷ്യരും റോബോട്ടുകളും തമ്മിൽ ഇടപെടുന്നവ
10:06
we need to take into account the human dimensions,
245
606360
2736
മനുഷ്യരുടെ പരിമാണങ്ങൾ നാം കണക്കിലെടുക്കേണ്ടതുണ്ട്.
10:09
not just the technological ones.
246
609120
1720
സാങ്കേതിക പരിമാണങ്ങൾ മാത്രമല്ല!
10:11
Along with a sense of control also comes a sense of responsibility.
247
611640
4296
നിയന്ത്രണത്തോടൊപ്പം ഒരു ഉത്തരവാദിത്ത്വ ബോധവും വരും
10:15
And if you were a robot operator using one of these systems,
248
615960
2856
ഇത്തരമൊരു സംവിധാനം നിയന്ത്രിക്കുന്നയാളാണ് നിങ്ങളെങ്കിൽ
10:18
this is what the interface would look like.
249
618840
2056
ഇങ്ങനെയൊരു സമ്പർക്കമുഖമാകും ഉണ്ടാകുക
10:20
It looks a little bit like a video game,
250
620920
1936
കാഴ്ച്ചയിൽ ഒരു വീഡിയോ ഗെയിം പോലെയാണിത്
10:22
which can be good because that's very familiar to people,
251
622880
2976
ഇതിന്റെ ഗുണമെന്താണെന്നാൽ ഇത് ആൾക്കാർക്ക് പരിചിതമാണ് എന്നതാണ്
10:25
but it can also be bad
252
625880
1216
ഇത് ദോഷവുമാണ്
10:27
because it makes people feel like it's a video game.
253
627120
2456
ആൾക്കാർക്ക് ഇതൊരു വീഡിയോ ഗെയിമാണെന്ന് ‌തോന്നിയേക്കാം
10:29
We had a bunch of kids over at Stanford play with the system
254
629600
2856
സ്റ്റാൻഫോർഡിൽ കുട്ടികൾക്ക് ഇത് ഞങ്ങൾ കളിക്കാൻ കൊടുത്തു
10:32
and drive the robot around our office in Menlo Park,
255
632480
2456
മെൻലോ പാർക്കിലെ ഓഫീസിൽ റോബോട്ട് ഓടിക്കാൻ
10:34
and the kids started saying things like,
256
634960
1936
കുട്ടികൾ പരസ്പരം ഇങ്ങനെ പറയാൻ തുടങ്ങി
10:36
"10 points if you hit that guy over there. 20 points for that one."
257
636920
3176
“ആ മനുഷ്യനെ ഇടിക്കുന്നതിന് 10 പോയിന്റ്. അയാൾക്ക് 20 പോയിന്റ്“
10:40
And they would chase them down the hallway.
258
640120
2016
ഇവർ ആൾക്കാരെ ഇടനാഴികളിൽ ഓടിക്കാൻ ആരംഭിച്ചു
10:42
(Laughter)
259
642160
1016
(ചിരി)
10:43
I told them, "Um, those are real people.
260
643200
1936
ഞാൻ അവരോട് പറഞ്ഞു, “ഇത് മനുഷ്യരാണ്
10:45
They're actually going to bleed and feel pain if you hit them."
261
645160
3296
അവരെ തട്ടിയാൽ അവർക്ക് വേദനിക്കുകയും ചോരവരുകയും ചെയ്യും.“
10:48
And they'd be like, "OK, got it."
262
648480
1616
മറുപടി “പിടികിട്ടി“ എന്നായിരുന്നു.
10:50
But five minutes later, they would be like,
263
650120
2056
അഞ്ച് മിനിട്ടിന് ശേഷം അവർ പറയാനാരംഭിക്കും
10:52
"20 points for that guy over there, he just looks like he needs to get hit."
264
652200
3616
“അയാളെ കണ്ടിട്ട് ഒരു ഇടി കിട്ടേണ്ട ആവശ്യമുണ്ട്, 20 പോയിന്റ്“.
10:55
It's a little bit like "Ender's Game," right?
265
655840
2136
ഇത് “എൻഡേഴ്സ് ഗെയിം“ പോലെയാണ്. അല്ലേ?
10:58
There is a real world on that other side
266
658000
1936
അപ്പുറത്ത് ഒരു യഥാർത്ഥ ലോകമുണ്ട്
10:59
and I think it's our responsibility as people designing these interfaces
267
659960
3416
ഇത്തരം സമ്പർക്കമുഖങ്ങൾ സൃഷ്ടിക്കുന്ന നമുക്ക് ചില ഉത്തരവാദിത്വങ്ങളുണ്ട്
11:03
to help people remember
268
663400
1256
ഓർക്കാൻ സഹായിക്കുക
11:04
that there's real consequences to their actions
269
664680
2256
പ്രവൃത്തികൾക്ക് പരിണിത ഫലങ്ങളുണ്ട് എന്ന്
11:06
and to feel a sense of responsibility
270
666960
2296
ഉത്തരവാദിത്വ ബോധം ഉണ്ടാവുകയും വേണം
11:09
when they're operating these increasingly autonomous things.
271
669280
3280
ഇത്തരം സ്വയം നിയന്ത്രണം വർദ്ധിച്ച് വരുന്ന സംവിധാനങ്ങൾ ഉപയോഗിക്കുമ്പോൾ
11:13
These are kind of a great example
272
673840
2296
ഇവ നല്ല ഉദാഹരണങ്ങളാണ്
11:16
of experimenting with one possible robotic future,
273
676160
3256
യന്ത്രമനുഷ്യരുള്ള ഒരു ഭാവിയെ പരീക്ഷണവിധേയമാക്കുന്നതിൽ
11:19
and I think it's pretty cool that we can extend ourselves
274
679440
3856
നമുക്ക് സ്വയം വ്യാപ്തി നേടാൻ സാധിക്കുന്നത് നല്ലതാണ് എന്ന് ഞാൻ കരുതുന്നു
11:23
and learn about the ways that we extend ourselves
275
683320
2336
വികസിപ്പിക്കാനുള്ള മാർഗ്ഗങ്ങൾ ഇത്തരം
11:25
into these machines
276
685680
1216
യന്ത്രങ്ങളിലൂടെ
11:26
while at the same time being able to express our humanity
277
686920
2696
അതോടൊപ്പം തന്നെ നമ്മുടെ മനുഷ്യത്വവും വ്യക്തിത്വവും
11:29
and our personality.
278
689640
1216
പ്രകടിപ്പിക്കുന്നത്
11:30
We also build empathy for others
279
690880
1576
സഹാനുഭൂതി വളരുന്നത്
11:32
in terms of being shorter, taller, faster, slower,
280
692480
3216
പൊക്കം കുറയുകയും കൂടുകയും വേഗത കുറയുകയും കൂടുകയും ഉദാഹരണങ്ങൾ
11:35
and maybe even armless,
281
695720
1416
കൈകൾ ഇല്ലാതിരിക്കുനത്
11:37
which is kind of neat.
282
697160
1336
നല്ല ഒരു അനുഭവമാണ്
11:38
We also build empathy for the robots themselves.
283
698520
2536
യന്ത്രങ്ങളോടും നമുക്ക് സഹാനുഭൂതി ഉണ്ടാകും
11:41
This is one of my favorite robots.
284
701080
1656
എനിക്ക് ഇഷ്ടപ്പെട്ട റോബോട്ടാണിത്
11:42
It's called the Tweenbot.
285
702760
1456
ട്വീൻബോട്ട് എന്നാണ് പേര്
11:44
And this guy has a little flag that says,
286
704240
1976
ഇയാളുടെ കയ്യിലുള്ള കൊടിയിലെ എഴുത്ത്
11:46
"I'm trying to get to this intersection in Manhattan,"
287
706240
2576
“മാൻഹാട്ടനിലെ ഈ കവലയിലെത്താൻ ശ്രമിക്കുകയാണ്“ എന്നാണ്
11:48
and it's cute and rolls forward, that's it.
288
708840
2776
ഇത് നല്ല ഓമനത്തത്തോടെ മുന്നോട്ടുരുളും. അത്രേയുള്ളൂ.
11:51
It doesn't know how to build a map, it doesn't know how to see the world,
289
711640
3456
ഇതിന് ഒരു ഭൂപടം സൃഷ്ടിക്കാനോ, ലോകം കാണാനോ സാധിക്കില്ല.
11:55
it just asks for help.
290
715120
1256
സഹായം ചോദിക്കുകയേയുള്ളൂ
11:56
The nice thing about people
291
716400
1336
ആൾക്കാരുടെ നന്മ എന്താണെന്നാൽ
11:57
is that it can actually depend upon the kindness of strangers.
292
717760
3096
പരിചയമില്ലാത്തവരുടെ സഹായം ആശ്രയിച്ച് യഥാർത്ഥത്തിൽ ഇത്
12:00
It did make it across the park to the other side of Manhattan --
293
720880
3896
പാർക്ക് മറികടന്ന് മാൻഹാട്ടന്റെ മറുവശത്ത് എത്തി എന്നതാണ്
12:04
which is pretty great --
294
724800
1256
ഇത് വളരെ വലിയ കാര്യമാണ് --
12:06
just because people would pick it up and point it in the right direction.
295
726080
3456
ആൾക്കാർ ഇതിനെ ശരിയായ ദിശയിലേയ്ക്ക് തിരിച്ച് വയ്ക്കുന്നത് കൊണ്ട് മാത്രം
12:09
(Laughter)
296
729560
936
(ചിരി)
12:10
And that's great, right?
297
730520
1256
അത് നല്ല കാര്യമാണ്. അല്ലേ
12:11
We're trying to build this human-robot world
298
731800
2696
മനുഷ്യ-റോബോട്ട് ലോകം സൃഷ്ടിക്കാനാണ് നാം ശ്രമിക്കുന്നത്.
12:14
in which we can coexist and collaborate with one another,
299
734520
3416
ഇതിൽ നാം പരപരം സഹകരിക്കുകയും സഹവർത്തിത്വത്തോടെ ജീവിക്കുകയും ചെയ്യും
12:17
and we don't need to be fully autonomous and just do things on our own.
300
737960
3376
പൂർണ്ണമായും സ്വയം നിയന്ത്രിതമാകേണ്ട ആവശ്യമില്ല
12:21
We actually do things together.
301
741360
1496
നമുക്ക് ഒരുമിച്ച് കാര്യങ്ങൾ ചെയ്യാൻ സാധിക്കും
12:22
And to make that happen,
302
742880
1256
അത് സാദ്ധ്യമാക്കുന്നതിന്,
12:24
we actually need help from people like the artists and the designers,
303
744160
3256
നമുക്ക് കലാകാരന്മാരെയും, രൂപകൽപ്പനാവിദഗ്ദ്ദരെയും,
12:27
the policy makers, the legal scholars,
304
747440
1856
നയരൂപീകർത്താക്കളെയും, നിയമവിദഗ്ദ്ദരെയും,
12:29
psychologists, sociologists, anthropologists --
305
749320
2216
മനഃ, സാമൂഹ്യ, നരവംശ ശാസ്ത്രജ്ഞരെയും
12:31
we need more perspectives in the room
306
751560
1816
സഹായത്തിനായി സമീപിക്കേണ്ടി വരും
12:33
if we're going to do the thing that Stu Card says we should do,
307
753400
2976
സ്റ്റു കാർഡ് ആവശ്യപ്പെടുന്ന കാര്യം ചെയ്യണമെങ്കിൽ
12:36
which is invent the future that we actually want to live in.
308
756400
3936
നാം ജീവിക്കാൻ ആഗ്രഹിക്കുന്ന ഭാവി കണ്ടുപിടിക്കുക എന്നത്.
12:40
And I think we can continue to experiment
309
760360
2656
കൂടുതൽ പരീക്ഷണങ്ങൾ നടത്താവുന്നതാണ് ‌എന്ന് ഞാൻ കരുതുന്നു
12:43
with these different robotic futures together,
310
763040
2176
വിവിധ റോബോട്ടിക ഭാവികൾ ഒരുമിപ്പിച്ചുകൊണ്ട്
12:45
and in doing so, we will end up learning a lot more about ourselves.
311
765240
4680
ഇത് ചെയ്യുന്നതിലൂടെ നാം നമ്മെപ്പറ്റി തന്നെ ഒരുപാട് കൂടുതൽ കാര്യങ്ങൾ പഠിക്കും.
12:50
Thank you.
312
770720
1216
നന്ദി.
12:51
(Applause)
313
771960
2440
(കയ്യടി)
ഈ വെബ്സൈറ്റിനെക്കുറിച്ച്

ഇംഗ്ലീഷ് പഠിക്കാൻ ഉപയോഗപ്രദമായ YouTube വീഡിയോകൾ ഈ സൈറ്റ് നിങ്ങളെ പരിചയപ്പെടുത്തും. ലോകമെമ്പാടുമുള്ള മികച്ച അധ്യാപകർ പഠിപ്പിക്കുന്ന ഇംഗ്ലീഷ് പാഠങ്ങൾ നിങ്ങൾ കാണും. ഓരോ വീഡിയോ പേജിലും പ്രദർശിപ്പിച്ചിരിക്കുന്ന ഇംഗ്ലീഷ് സബ്‌ടൈറ്റിലുകളിൽ ഡബിൾ ക്ലിക്ക് ചെയ്ത് വീഡിയോ പ്ലേ ചെയ്യുക. വീഡിയോ പ്ലേബാക്കുമായി സബ്‌ടൈറ്റിലുകൾ സമന്വയിപ്പിക്കുന്നു. നിങ്ങൾക്ക് എന്തെങ്കിലും അഭിപ്രായങ്ങളോ അഭ്യർത്ഥനകളോ ഉണ്ടെങ്കിൽ, ഈ കോൺടാക്റ്റ് ഫോം ഉപയോഗിച്ച് ഞങ്ങളെ ബന്ധപ്പെടുക.

https://forms.gle/WvT1wiN1qDtmnspy7