The Rise of Personal Robots | Cynthia Breazeal | TED Talks

سینتیا بریزیل: ظهور روبات های شخصی

159,450 views

2011-02-08 ・ TED


New videos

The Rise of Personal Robots | Cynthia Breazeal | TED Talks

سینتیا بریزیل: ظهور روبات های شخصی

159,450 views ・ 2011-02-08

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: pouria nazemi Reviewer: soheila Jafari
00:15
Ever since I was a little girl
0
15260
3000
از زمانی که دختر کوچکی بودم و
00:18
seeing "Star Wars" for the first time,
1
18260
2000
برای اولین بار فیلم «جنگ ستارگان» را دیدم،
00:20
I've been fascinated by this idea
2
20260
2000
تا همین اکنون، ایده روبات های شخصی
00:22
of personal robots.
3
22260
2000
مرا مسحور خود ساخته است.
00:24
And as a little girl,
4
24260
2000
به عنوان یک دختر بچه کوچک،
00:26
I loved the idea of a robot that interacted with us
5
26260
2000
عاشق ایده روباتی بودم که تعاملش با ما
00:28
much more like a helpful, trusted sidekick --
6
28260
3000
بیشتر شبیه یک همراه مورد اعتماد و یاری گر باشد.
00:31
something that would delight us, enrich our lives
7
31260
2000
چیزی که گاهی بتواند باعث سرخوشی ما شود، زندگی ما راغنی تر کند
00:33
and help us save a galaxy or two.
8
33260
3000
و کمکمان کند که یکی دو تا کهکشان را نجات دهیم.
00:37
I knew robots like that didn't really exist,
9
37260
3000
می دانستم که چنین روبات هایی واقعا وجود ندارند،
00:40
but I knew I wanted to build them.
10
40260
2000
اما می دانستم که دوست دارم چنین چیزهایی را بسازم.
00:42
So 20 years pass --
11
42260
2000
20 سال بدین ترتیب گذشت --
00:44
I am now a graduate student at MIT
12
44260
2000
حالا من دانشجوی تحصیلات تکمیلی در موسسه فناوری ماساچوست هستم،
00:46
studying artificial intelligence,
13
46260
2000
و در رشته هوش مصنوعی تحصیل میکنم.
00:48
the year is 1997,
14
48260
2000
این داستان مربوط به سال 1997 است.
00:50
and NASA has just landed the first robot on Mars.
15
50260
3000
و همان زمان بود که ناسا نخستین روبات را روی مریخ فرود آورده بود.
00:53
But robots are still not in our home, ironically.
16
53260
3000
اما طعنه آمیز این بود که روبات ها هنوز جایی در خانه های ما نداشتند.
00:56
And I remember thinking about
17
56260
2000
یادم می آید که به تمام دلایلی که
00:58
all the reasons why that was the case.
18
58260
2000
ممکن بود باعث این وضع شود فکر می کردم.
01:00
But one really struck me.
19
60260
2000
اما یک دلیل به نظرم بسیار مهم بود.
01:02
Robotics had really been about interacting with things,
20
62260
3000
دانش روباتیک واقعا بر مبنای تعامل با اشیا بنا شده بود،
01:05
not with people --
21
65260
2000
ونه بر اساس تعامل با انسان ها --
01:07
certainly not in a social way that would be natural for us
22
67260
2000
و به طور قطع نه به روشی اجتماعی که از دید ما طبیعی به نظر می رسد
01:09
and would really help people accept robots
23
69260
2000
و می تواند به مردم کمک کند تا روبات ها را واقعا
01:11
into our daily lives.
24
71260
2000
در زندگی روزمره خود بپذیرند.
01:13
For me, that was the white space; that's what robots could not do yet.
25
73260
3000
برای من این موضوع دقیقا فضایی خالی را نشان می داد: چیزی که روبات ها هنوز قادر به انجام آن نیستند.
01:16
And so that year, I started to build this robot, Kismet,
26
76260
3000
و به همین دلیل در همان سال، من شروع به ساختن این روبات کردم که اسمش کیسمت است
01:19
the world's first social robot.
27
79260
3000
اولین روبات اجتماعی دنیا.
01:22
Three years later --
28
82260
2000
سه سال بعد --
01:24
a lot of programming,
29
84260
2000
بعد از کلی برنامه نویسی و
01:26
working with other graduate students in the lab --
30
86260
2000
و همکاری با دیگر دانشجویان در آزمایشگاه --
01:28
Kismet was ready to start interacting with people.
31
88260
2000
کیسمت، آماده آغاز تعامل با مردم بود.
01:30
(Video) Scientist: I want to show you something.
32
90260
2000
(ویدئو) دانشمند : می خواهم یک چیزی بهت نشان بدهم.
01:32
Kismet: (Nonsense)
33
92260
2000
کیسمت: (نا مفهوم)
01:34
Scientist: This is a watch that my girlfriend gave me.
34
94260
3000
دانشمند : این یک ساعت است که دوست دخترم به من داده.
01:37
Kismet: (Nonsense)
35
97260
2000
کیسمت:(نا مفهوم)
01:39
Scientist: Yeah, look, it's got a little blue light in it too.
36
99260
2000
دانشمند : بله، نگاه کن، یک نور آبی رنگ کوچک هم در آن هست.
01:41
I almost lost it this week.
37
101260
3000
نزدیک بود این هفته گمش کنم.
01:44
Cynthia Breazeal: So Kismet interacted with people
38
104260
3000
سینتیا بریزیل : خوب تعامل کیسمت با مردم شبیه به
01:47
like kind of a non-verbal child or pre-verbal child,
39
107260
3000
کودکی بود که قادر به حرف زدن نیست و یا هنوز زبان باز نکرده است،
01:50
which I assume was fitting because it was really the first of its kind.
40
110260
3000
که البته قابل درک بود، چرا که این روبات اولین نوع از خانواده روبات های اجتماعی بود.
01:53
It didn't speak language, but it didn't matter.
41
113260
2000
کیسمت نمی توانست حرف بزند، اما این مسئله اهمیتی نداشت.
01:55
This little robot was somehow able
42
115260
2000
این روبات کوچک به نوعی قادر بود
01:57
to tap into something deeply social within us --
43
117260
3000
که ماهیتی بسیار اجتماعی در درون ما را لمس کند --
02:00
and with that, the promise of an entirely new way
44
120260
2000
و بدین ترتیب به ما وعده پیمودن مسیر کاملا جدیدی
02:02
we could interact with robots.
45
122260
2000
در تعامل با روبات ها را می داد.
02:04
So over the past several years
46
124260
2000
بدین ترتیب در چند سال گذشته
02:06
I've been continuing to explore this interpersonal dimension of robots,
47
126260
2000
من به کشف این بعُد میان شخصیتی روبات ها ادامه دادم ،
02:08
now at the media lab
48
128260
2000
و در حال حاضر در آزمایشگاهای رسانه ای و به همراه
02:10
with my own team of incredibly talented students.
49
130260
2000
تیم همکارانم که از دانشجویان فوق العاده با هوش تشکیل شده ند، روی این موضوع کار می کنیم.
02:12
And one of my favorite robots is Leonardo.
50
132260
3000
و یکی از ربات های مورد علاقه من لئوناردو است.
02:15
We developed Leonardo in collaboration with Stan Winston Studio.
51
135260
3000
ما لئوناردو را با همکاری استودیو استن وینستون توسعه دادیم.
02:18
And so I want to show you a special moment for me of Leo.
52
138260
3000
و می خواهم لحظه ای که برایم درباره لئو، بسیار خاص است را به شما نشان دهم.
02:21
This is Matt Berlin interacting with Leo,
53
141260
2000
مت برلین که در حال کار و تعامل با لئو است
02:23
introducing Leo to a new object.
54
143260
2000
شی جدیدی را به لئو معرفی می کند.
02:25
And because it's new, Leo doesn't really know what to make of it.
55
145260
3000
و از آنجایی که این شی برای او جدید است، لئو نمی داند واقعا با چی سر و کار دارد
02:28
But sort of like us, he can actually learn about it
56
148260
2000
اما در واقع و به نوعی شبیه خود ما، او هم می تواند از واکنش های مت
02:30
from watching Matt's reaction.
57
150260
3000
چیزهایی در باره آن یاد بگیرد.
02:33
(Video) Matt Berlin: Hello, Leo.
58
153260
2000
(ویدیو) مت برلین: سلام لئو
02:38
Leo, this is Cookie Monster.
59
158260
3000
لئو این هیولای شیرینی خوار است. لئو این کوکی مانستر( شخصیتی عروسکی هیولا مانند) است.
02:44
Can you find Cookie Monster?
60
164260
3000
میتوانی کوکی مانستر را پیدا کنی؟
02:52
Leo, Cookie Monster is very bad.
61
172260
3000
لئو، کوکی مانستر بسیار بده.لئو
02:56
He's very bad, Leo.
62
176260
2000
لئو، اون خیلی بده
03:00
Cookie Monster is very, very bad.
63
180260
3000
کوکی مانستر خیلی خیلی بده
03:07
He's a scary monster.
64
187260
2000
اون یک هیولای ترسناکه
03:09
He wants to get your cookies.
65
189260
2000
او می خواهد همه شیرینی های تو را ازت بگیرد.
03:12
(Laughter)
66
192260
2000
(خنده)
03:14
CB: All right, so Leo and Cookie
67
194260
3000
سینتیا بریزیل : خوب ليو و کوکی مانستر
03:17
might have gotten off to a little bit of a rough start,
68
197260
2000
شاید شروع خیلی خوبی با هم نداشتند
03:19
but they get along great now.
69
199260
3000
اما الان با هم به خوبی کنار می آیند
03:22
So what I've learned
70
202260
2000
چیزی که من واقعا در خلال
03:24
through building these systems
71
204260
2000
ساخت این سیستم ها آموختم این بود که
03:26
is that robots are actually
72
206260
2000
روبات ها در واقع
03:28
a really intriguing social technology,
73
208260
2000
یک فناوری بسیار جذاب اجتماعی هستند.
03:30
where it's actually their ability
74
210260
2000
که این توانایی را دارند که برروی
03:32
to push our social buttons
75
212260
2000
نقاط حساس اجتماعی ما انگشت بگذارند
03:34
and to interact with us like a partner
76
214260
2000
و همانند یک همکار با ما به تعامل بپردازند که
03:36
that is a core part of their functionality.
77
216260
3000
این موضوع در واقع هسته اصلی کاربری آنها است.
03:39
And with that shift in thinking, we can now start to imagine
78
219260
2000
حالا با این طرز تفکر جدید می توانیم به
03:41
new questions, new possibilities for robots
79
221260
3000
سوال ها و امکانات جدیدی در باره روبات ها فکر کنیم
03:44
that we might not have thought about otherwise.
80
224260
3000
که در غیر این صورت، نمی توانستیم به آنها بپردازیم
03:47
But what do I mean when I say "push our social buttons?"
81
227260
2000
اما منظورم از اینکه برروی نقاط حساس اجتماعی ما انگشت می گذارند چیست؟
03:49
Well, one of the things that we've learned
82
229260
2000
خوب، یکی از چیزهایی که ما یاد گرفته ایم
03:51
is that, if we design these robots to communicate with us
83
231260
2000
این است که اگر می خواهیم این روبات ها را به گونه ای طراحی کنیم که با ما ارتباط برقرار کنیم
03:53
using the same body language,
84
233260
2000
از همان زبان بدن و از همان
03:55
the same sort of non-verbal cues that people use --
85
235260
2000
مجموعه از اشاره های غیر کلامی که مردم استفاده می کنند استفاده کنیم --
03:57
like Nexi, our humanoid robot, is doing here --
86
237260
3000
مانند کاری که روبات انسان نمای ما نکسی، در اینجا انجام می دهد --
04:00
what we find is that people respond to robots
87
240260
2000
چیزی که در این مورد متوجه شدیم این است که در این شرایط واکنش مردم به روبات ها
04:02
a lot like they respond to people.
88
242260
2000
شبیه به واکنش آنها نسبت به مردم عادی است.
04:04
People use these cues to determine things like how persuasive someone is,
89
244260
3000
مردم از این نشانه ها استفاده می کنند برای مشخص کردن چیزهایی مانند چگونه فردی قانع میشود، به چه سبب دوست داشتنی است، چطور جذاب است و چقدر قابل اعتماد است.
04:07
how likable, how engaging,
90
247260
2000
مردم از این نشانه ها استفاده می کنند برای مشخص کردن چیزهایی مانند چگونه فردی قانع میشود، به چه سبب دوست داشتنی است، چطور جذاب است و چقدر قابل اعتماد است.
04:09
how trustworthy.
91
249260
2000
مردم از این نشانه ها استفاده می کنند برای مشخص کردن چیزهایی مانند چگونه فردی قانع میشود، به چه سبب دوست داشتنی است، چطور جذاب است و چقدر قابل اعتماد است.
04:11
It turns out it's the same for robots.
92
251260
2000
معلوم شده است که عین این رفتار درمواجهه با روبات ها هم صادق است.
04:13
It's turning out now
93
253260
2000
اکنون مشخص شده است
04:15
that robots are actually becoming a really interesting new scientific tool
94
255260
3000
که روبات ها در واقع یک ابزار علمی بسیار جذاب
04:18
to understand human behavior.
95
258260
2000
برای درک رفتارهای انسان هم هستند.
04:20
To answer questions like, how is it that, from a brief encounter,
96
260260
3000
مثلا درباره اینکه چگونه ما می توانیم در خلال یک ملاقات کوتاه
04:23
we're able to make an estimate of how trustworthy another person is?
97
263260
3000
تخمینی از اینکه شخص مقابل ما چقدر قابل اعتماد است را به دست بیاوریم؟
04:26
Mimicry's believed to play a role, but how?
98
266260
3000
اعتقاد بر این است که در این شرایط واکنش های غیر کلامی نقش مهمی بر عهده دارند، اما چگونه ؟
04:29
Is it the mimicking of particular gestures that matters?
99
269260
3000
آیا در این مورد تقلید از رفتارهای ویژه دارای اهمیت است؟
04:32
It turns out it's really hard
100
272260
2000
معلوم شده است که بررسی این موضوع
04:34
to learn this or understand this from watching people
101
274260
2000
از طریق تماشای رفتار مردم کار بسیار دشواری است
04:36
because when we interact we do all of these cues automatically.
102
276260
3000
چون، وقتی در حال تعامل با دیگران هستیم این رفتارها به طور خودکار اتفاق می افتد.
04:39
We can't carefully control them because they're subconscious for us.
103
279260
2000
ما نمی توانیم با دقت این رفتارها را کنترل کنیم چون این رفتارها در ناخودآگاه ما است.
04:41
But with the robot, you can.
104
281260
2000
اما در باره روباتها ، شما می توانید چنین بررسی هایی را انجام دهید.
04:43
And so in this video here --
105
283260
2000
و در این ویدیو --
04:45
this is a video taken from David DeSteno's lab at Northeastern University.
106
285260
3000
این ویدوی در آزمایشگاه دیوید دی استنو در دانشگاه نورت ایسترن تهیه شده است.
04:48
He's a psychologist we've been collaborating with.
107
288260
2000
او روان شناسی است که با ما همکاری می کند.
04:50
There's actually a scientist carefully controlling Nexi's cues
108
290260
3000
در این مورد در واقع یک دانشمند با دقت در حال کنترل واکنش و نشانه های نکسی است
04:53
to be able to study this question.
109
293260
3000
تا با کمک آن بتوان به بررسی مساله بپردازد.
04:56
And the bottom line is -- the reason why this works is
110
296260
2000
و نکته نهایی در این مورد -- و دلیلی که این بررسی کارآمد است
04:58
because it turns out people just behave like people
111
298260
2000
این است که معلوم شده که انسان ها حتی زمانی که با روبات ها
05:00
even when interacting with a robot.
112
300260
3000
تعامل دارند دقیقا مثل انسان ها واکنش نشان می دهند.
05:03
So given that key insight,
113
303260
2000
بنابراین با این دیدگاه کلیدی
05:05
we can now start to imagine
114
305260
2000
اکنون می توانیم نوع جدیدی از
05:07
new kinds of applications for robots.
115
307260
3000
کاربرد برای روبات ها را تصور کنیم.
05:10
For instance, if robots do respond to our non-verbal cues,
116
310260
3000
برای مثال، اگر روبات ها به علایم غیر گفتاری ما واکنش نشان دهند،
05:13
maybe they would be a cool, new communication technology.
117
313260
4000
شاید کار کردن با آنها جذاب تر شده و به فناوری ارتباطی جذاب تری بدل شوند
05:17
So imagine this:
118
317260
2000
بیایید چنین مواردی را تصورم کنید:
05:19
What about a robot accessory for your cellphone?
119
319260
2000
نظرتان درباره یک روبات در نقش ابزار جنبی برای تلفن همراهتان چیست؟
05:21
You call your friend, she puts her handset in a robot,
120
321260
2000
شما به دوستتان زنگ می زنید و او گوشی را به روبات می دهد،
05:23
and, bam! You're a MeBot --
121
323260
2000
و ناگهان خود شما تبدیل به یک می بوت ( رباتی که توانایی سخن گفتن و بدنی مشابه انشان دارد) می شوید --
05:25
you can make eye contact, you can talk with your friends,
122
325260
3000
شما به واسطه آن می توانید ارتباط چشمی برقرار کنید، با دوستانتان حرف بزنید،
05:28
you can move around, you can gesture --
123
328260
2000
به اطراف حرکت کنید ، قیافه بگیرید --
05:30
maybe the next best thing to really being there, or is it?
124
330260
3000
ابن شاید بهترین جایگزین ممکن به جای حضور خود شخص در ان محیط باشد، اینطور نیست؟
05:33
To explore this question,
125
333260
2000
برای بررسی این امکان
05:35
my student, Siggy Adalgeirsson, did a study
126
335260
3000
یکی از دانشجویان من، سیگی آدالجرسون، تحقیقی انجام داد
05:38
where we brought human participants, people, into our lab
127
338260
3000
او یک فرد عادی را به آزمایشگاه آورد
05:41
to do a collaborative task
128
341260
2000
تا یک فعالیت مشترک را
05:43
with a remote collaborator.
129
343260
2000
با یک مشارکت کننده از راه دور انجام دهد.
05:45
The task involved things
130
345260
2000
این کار، شامل چند چیز مختلف بود
05:47
like looking at a set of objects on the table,
131
347260
2000
مثل نگاه کردن به اشیای روی میز،
05:49
discussing them in terms of their importance and relevance to performing a certain task --
132
349260
3000
بحث کردن در باره اهمیت و کارآمدی آنها در یک کار مشخص --
05:52
this ended up being a survival task --
133
352260
2000
بعدا معلوم شد که این عمل ، کاری برای بقا است --
05:54
and then rating them in terms
134
354260
2000
و سپس رتبه بندی آنها از نظر
05:56
of how valuable and important they thought they were.
135
356260
2000
ارزشمندی و اهمیتی که به نظر آنها هر یک از اشیا داشتند.
05:58
The remote collaborator was an experimenter from our group
136
358260
3000
همکار راه دور این بررسی یکی از آزمایش کنندگان گروه ما بود
06:01
who used one of three different technologies
137
361260
2000
ما از یکی از 3 فناوری متفاوت
06:03
to interact with the participants.
138
363260
2000
را برای تعامل با شرکت کننده ها به کار می گرفتیم
06:05
The first was just the screen.
139
365260
2000
اولین فناوری فقط یک صفحه نمایش بود
06:07
This is just like video conferencing today.
140
367260
3000
چیزی شبیه به ویدیو کنفرانس های امروزی
06:10
The next was to add mobility -- so, have the screen on a mobile base.
141
370260
3000
بعدی قابلیت حرکت بود -- مثل اینکه صفحه نمایش را روی یک پایه متحرک قرار دهیم
06:13
This is like, if you're familiar with any of the telepresence robots today --
142
373260
3000
این چیزی شبیه روبات های ارتباطات حضوری (تله پرسنس) است که اکنون هم موجودند --
06:16
this is mirroring that situation.
143
376260
3000
این نمایی از حالت نهایی را ایجاد می کرد.
06:19
And then the fully expressive MeBot.
144
379260
2000
و در نهایت نسخه نهایی می بوت (MeBot)
06:21
So after the interaction,
145
381260
2000
پس از تعامل
06:23
we asked people to rate their quality of interaction
146
383260
3000
از شرکت کننده ها می خواستیم تا کیفیت تعاملشان
06:26
with the technology, with a remote collaborator
147
386260
2000
با شخص راه دور و به کمک فناوری را
06:28
through this technology, in a number of different ways.
148
388260
3000
به طرق مختلفی به شکل عددی بیان کنند
06:31
We looked at psychological involvement --
149
391260
2000
ما به دنبال درگیری روانشانختی می گشتیم --
06:33
how much empathy did you feel for the other person?
150
393260
2000
چقدر با آن فرد احساس همراهی و همدلی پیدا می کنید ؟
06:35
We looked at overall engagement.
151
395260
2000
ما به دنبال درگیری کلی بودیم
06:37
We looked at their desire to cooperate.
152
397260
2000
همچنین میل آنها به تعامل را مشاهده می کردیم
06:39
And this is what we see when they use just the screen.
153
399260
3000
و این چیزی بود که ما وقتی آنها فقط از صفحه نمایش استفاده می کردند دیدیم.
06:42
It turns out, when you add mobility -- the ability to roll around the table --
154
402260
3000
معلوم شد وقتی شما تحرک -- قابلیت حرکت کردن در اطراف میز -- را اضافه می کنید
06:45
you get a little more of a boost.
155
405260
2000
شاهد اندکی بهبود در این تعامل هستید.
06:47
And you get even more of a boost when you add the full expression.
156
407260
3000
و وقتی حالات بیان کامل را اضافه می کنید بازهم تعامل بهبود پیدا می کند.
06:50
So it seems like this physical, social embodiment
157
410260
2000
به نظر می رسد این تجسم های فیزیکی و اجتماعی
06:52
actually really makes a difference.
158
412260
2000
واقعا تغییر ایجاد می کند.
06:54
Now let's try to put this into a little bit of context.
159
414260
3000
حالا بیایید سعی کنیم این را اندکی درون یک چهارچوب قرار دهیم
06:57
Today we know that families are living further and further apart,
160
417260
3000
می دانیم امروزه خانواده ها دور از هم زندگی می کنند.
07:00
and that definitely takes a toll on family relationships
161
420260
2000
و طبیعتا این باعث ایجاد نواقصی در روابط خانوادگی می شود
07:02
and family bonds over distance.
162
422260
2000
و فاصله های مانعی میان خانواده ها ایجاد می کنند.
07:04
For me, I have three young boys,
163
424260
2000
خود من 3 پسر جوان دارم
07:06
and I want them to have a really good relationship
164
426260
2000
و دوست دارم آنها روابط خوبی با
07:08
with their grandparents.
165
428260
2000
پدربزرگ و مادربزرگ خود داشته باشند
07:10
But my parents live thousands of miles away,
166
430260
2000
اما والدین من هزاران کیلومتر دور از ما زندگی می کنند.
07:12
so they just don't get to see each other that often.
167
432260
2000
به همین دلیل انها فرصت چندانی برای دیدن هم ندارند
07:14
We try Skype, we try phone calls,
168
434260
2000
ما اسکایپ و تماس های تلفنی را امتحان کردیم
07:16
but my boys are little -- they don't really want to talk;
169
436260
2000
اما پسرهای من کوچکند -- خیلی دوست ندارند حرف بزنند
07:18
they want to play.
170
438260
2000
دوست دارند بازی کنند
07:20
So I love the idea of thinking about robots
171
440260
2000
به همین دلیل من عاشق فکر کردن به ایده روبات هایی هستم
07:22
as a new kind of distance-play technology.
172
442260
3000
که از آنها به عنوان نوعی فناوری بازی از راه دور بتوان استفاده کرد
07:25
I imagine a time not too far from now --
173
445260
3000
من زمانی را تصور می کنم که خیلی دور از ما نخواهد بود --
07:28
my mom can go to her computer,
174
448260
2000
مادرم به سراغ کامپیوترش برود
07:30
open up a browser and jack into a little robot.
175
450260
2000
یک مرور گر را باز کند و اتصالی را با یک روبات کوچک ایجاد کند
07:32
And as grandma-bot,
176
452260
3000
و به عنوان یک مادربزرگ بات (grandma-bot)
07:35
she can now play, really play,
177
455260
2000
بتواند به معنی واقعی کلمه
07:37
with my sons, with her grandsons,
178
457260
2000
با پسرهای من و نوه های خودش در یک
07:39
in the real world with his real toys.
179
459260
3000
دنیای واقعی و با اسباب بازی های واقعی بازی کند.
07:42
I could imagine grandmothers being able to do social-plays
180
462260
2000
من می توانم تصور کنم که مادربزرگ ها و پدر بزرگ ها قادر به انجام بازی های دسته جمعی با نوه ها و
07:44
with their granddaughters, with their friends,
181
464260
2000
دوستان آنها شوند
07:46
and to be able to share all kinds of other activities around the house,
182
466260
2000
و بتوانند فعالیت های دیگری را با آنها به اشتراک بگذارند،
07:48
like sharing a bedtime story.
183
468260
2000
مثلا برای آنها قصه دم خوابشان را تعریف کنند.
07:50
And through this technology,
184
470260
2000
و به کمک این فناوری ها
07:52
being able to be an active participant
185
472260
2000
آنها قادر خواهند بود نقش فعال تری
07:54
in their grandchildren's lives
186
474260
2000
در زندگی نوه های خود ایفا کنند
07:56
in a way that's not possible today.
187
476260
2000
ان هم به روشی که امروز میسر نیست .
07:58
Let's think about some other domains,
188
478260
2000
بیایید به برخی از حوزه های دیگر فکر کنیم
08:00
like maybe health.
189
480260
2000
مثلا سلامت
08:02
So in the United States today,
190
482260
2000
امروزه در ایالات متحده
08:04
over 65 percent of people are either overweight or obese,
191
484260
3000
بیش از 65 درصد مردم به نوعی درگیر چاقی یا اضافه وزن هستند
08:07
and now it's a big problem with our children as well.
192
487260
2000
و این یکی از مسایل بزرگ در مورد بچه های ما هم هست.
08:09
And we know that as you get older in life,
193
489260
2000
و می دانیم که هر چقدر سن شما بیشتر می شود
08:11
if you're obese when you're younger, that can lead to chronic diseases
194
491260
3000
اگر شما در جوانی دچار چاقی بوده اید ، احتمال بیشتری دارد که به بیماریهای عروقی مبتلا شوید
08:14
that not only reduce your quality of life,
195
494260
2000
که نه تنها کیفیت زندگی شما را کاهش می دهد
08:16
but are a tremendous economic burden on our health care system.
196
496260
3000
که تاثیر اقتصادی شدیدی بر سیستم سلامت و درمان کشور نیز دارد.
08:19
But if robots can be engaging,
197
499260
2000
اما اگر روبات ها درگیر این موضوع شوند
08:21
if we like to cooperate with robots,
198
501260
2000
اگر ما تعامل با روبات ها را دوست داشته باشیم
08:23
if robots are persuasive,
199
503260
2000
اگر روبا تها متقاعد کننده باشند
08:25
maybe a robot can help you
200
505260
2000
شاید یک روبات بتواند به شما کمک کند
08:27
maintain a diet and exercise program,
201
507260
2000
که یک رژیم غذایی و برنامه تمرینی را در پیش بگیرید
08:29
maybe they can help you manage your weight.
202
509260
3000
شاید آنها بتوانند شما را در کنترل وزنتان یاری دهند
08:32
Sort of like a digital Jiminy --
203
512260
2000
شاید چیزی شبیه یک موجود محافظ دیجیتال --
08:34
as in the well-known fairy tale --
204
514260
2000
شبیه همان شخصیت های داستان های افسانه ای --
08:36
a kind of friendly, supportive presence that's always there
205
516260
2000
یک حضور دوستانه و حمایت کننده که همیشه حضور دارد
08:38
to be able to help you make the right decision
206
518260
2000
تا به شما در اتخاذ تصمیم درست کمک کند
08:40
in the right way at the right time
207
520260
2000
و در زمان و به روش مناسب
08:42
to help you form healthy habits.
208
522260
2000
به شما برای داشتن عادت های سالم یاری برساند
08:44
So we actually explored this idea in our lab.
209
524260
2000
خوب در واقع ما این ایده را در آزمایشگاهمان بررسی کردیم
08:46
This is a robot, Autom.
210
526260
2000
این یک روبات است به نام آتوم
08:48
Cory Kidd developed this robot for his doctoral work.
211
528260
3000
کوری کید این روبات را برای پژوهش دکترایش طراحی کرده است
08:51
And it was designed to be a robot diet-and-exercise coach.
212
531260
3000
و این روبات به عنوان یک مربی ورزش و رژیم غذایی طراحی شده است.
08:54
It had a couple of simple non-verbal skills it could do.
213
534260
2000
چند تا توانایی غیر کلامی هم هست که این روبات می تواند انجام دهد
08:56
It could make eye contact with you.
214
536260
2000
می تواند با شما ارتباط بصری ایجاد کند
08:58
It could share information looking down at a screen.
215
538260
2000
می تواند اطلاعاتی را با نگاه کردن به پایین تصویر با شما در میان بگذارد
09:00
You'd use a screen interface to enter information,
216
540260
2000
شما می توانید از صفحه واسطه برای ورود داده ها استفاده کنید
09:02
like how many calories you ate that day,
217
542260
2000
مثل اینکه چند کالری در روز غذا خورده اید
09:04
how much exercise you got.
218
544260
2000
چقدر تمرین کرده اید
09:06
And then it could help track that for you.
219
546260
2000
و سپس این روبات می تواند به شما برای پیگیری آنها کمک کند.
09:08
And the robot spoke with a synthetic voice
220
548260
2000
و این روبات با یک سیستم صوتی ترکیبی با شما صحبت می کند
09:10
to engage you in a coaching dialogue
221
550260
2000
تا شما را وادار به انجام مکالمه ای مربوط به وظایف مربی گریش بکند
09:12
modeled after trainers
222
552260
2000
و برای تمرین کننده ها و
09:14
and patients and so forth.
223
554260
2000
یا بیماران و دیگران می تواند برنامه ریزی شود
09:16
And it would build a working alliance with you
224
556260
2000
و می تواند یک ارتباط کاری به واسطه
09:18
through that dialogue.
225
558260
2000
دیالوگ با شما برقرار کند
09:20
It could help you set goals and track your progress,
226
560260
2000
می تواند کمک کند که اهداف خود را تعیین و و بر فرآیند خود نظارت کنید
09:22
and it would help motivate you.
227
562260
2000
و می تواند شما را ترغیب کند
09:24
So an interesting question is,
228
564260
2000
خوب سوال جالب توجه این است
09:26
does the social embodiment really matter? Does it matter that it's a robot?
229
566260
3000
آیا داشتن پارامترهای اجتماعی واقعا مهم است ؟ آیا مهم است که طرف مقابل یک روبات است؟
09:29
Is it really just the quality of advice and information that matters?
230
569260
3000
یا تنها کیفیت یک راهنمایی و اطلاعات است که اهمیت دارد؟
09:32
To explore that question,
231
572260
2000
برای بررسی این سوال
09:34
we did a study in the Boston area
232
574260
2000
ما تحقیقی را در منطقه بوستون انجام دادیم
09:36
where we put one of three interventions in people's homes
233
576260
3000
ما یکی از سه گونه واسط ارتباطی را در خانه مردم قرار دادیم
09:39
for a period of several weeks.
234
579260
2000
برای مدت چند هفته
09:41
One case was the robot you saw there, Autom.
235
581260
3000
یکی از این واسطه ها روباتی بود که شما اینجا دیدید: آتوم
09:44
Another was a computer that ran the same touch-screen interface,
236
584260
3000
دیگری کامپیوتری بود که با یک واسطه صفحه لمسی کار می کرد
09:47
ran exactly the same dialogues.
237
587260
2000
و دقیقا همان دیالوگ ها را منتقل می کرد
09:49
The quality of advice was identical.
238
589260
2000
کیفیت توصیه ها نیز دقیقا یکسان بودند.
09:51
And the third was just a pen and paper log,
239
591260
2000
سومی هم یک قلم و کاغذ بود
09:53
because that's the standard intervention you typically get
240
593260
2000
چرا که معمولا این چیزی است که وقتی می خواهید یک برنامه
09:55
when you start a diet-and-exercise program.
241
595260
3000
رژیمی و یا تمرینی را شروع کنید در اختیار شما قرار داده می شود.
09:58
So one of the things we really wanted to look at
242
598260
3000
خوب یکی از چیزهایی که ما واقعا دنبالش بودیم
10:01
was not how much weight people lost,
243
601260
3000
این نبود که مردم چقدر وزن کم می کنند
10:04
but really how long they interacted with the robot.
244
604260
3000
بلکه این بود که چه مدتی با روبات به تعامل می پردازند.
10:07
Because the challenge is not losing weight, it's actually keeping it off.
245
607260
3000
چرا که اینجا رقابت در کاهش وزن نبود بلکه ادامه دان به تمرینات بود
10:10
And the longer you could interact with one of these interventions,
246
610260
3000
و هرچه بیشتر شما می توانستید با یکی از این واسطه ها به تعامل بپردازید
10:13
well that's indicative, potentially, of longer-term success.
247
613260
3000
در اینجا به طور بالقوه آن واسطه دارای موفقیت دراز مدت تری خواهد بود.
10:16
So the first thing I want to look at is how long,
248
616260
2000
خوب اولین چیزی که می خواهم به آن نگاه کنم این است که چه قدر،
10:18
how long did people interact with these systems.
249
618260
2000
چه مدتی مردم با این سیستم ها تعامل داشتند.
10:20
It turns out that people interacted with the robot
250
620260
2000
مشخص شد که مردم با روبات ها
10:22
significantly more,
251
622260
2000
به طور چشمگیری بیش از بقیه به تعامل می پردازند
10:24
even though the quality of the advice was identical to the computer.
252
624260
3000
حتی با توجه به اینکه کیفیت توصیه ها در مقایسه با کامپیوتر کاملا یکسان بودند.
10:28
When it asked people to rate it on terms of the quality of the working alliance,
253
628260
3000
وقتی از مردم خواستیم تا از نظر سطح کیفی همکاری با انها نمره دهند
10:31
people rated the robot higher
254
631260
2000
روبات ها رتبه بالاتری به دست آوردند
10:33
and they trusted the robot more.
255
633260
2000
و مردم به روبات ها اعتماد بیشتری داشتند
10:35
(Laughter)
256
635260
2000
(خنده)
10:37
And when you look at emotional engagement,
257
637260
2000
و وقتی به درگیری احساسی نگاه کنید
10:39
it was completely different.
258
639260
2000
داستان کاملا متفاوت است
10:41
People would name the robots.
259
641260
2000
آنها روی روبات ها اسم گذاشته بودند
10:43
They would dress the robots.
260
643260
2000
آنها لباس تن روبات می کردند
10:45
(Laughter)
261
645260
2000
(خنده)
10:47
And even when we would come up to pick up the robots at the end of the study,
262
647260
3000
و حتی زمانی که در پایان مدت آزمون برای بردن روبات ها رفتیم
10:50
they would come out to the car and say good-bye to the robots.
263
650260
2000
آنها از خانه بیرون آمدند و با روبات ها خداحافظی کردند
10:52
They didn't do this with a computer.
264
652260
2000
آنها این کار را با کامپیوتر ها انجام ندادند
10:54
The last thing I want to talk about today
265
654260
2000
آخرین نکته ای که امروز می خواهم بگویم
10:56
is the future of children's media.
266
656260
2000
آینده رسانه های بچه ها است.
10:58
We know that kids spend a lot of time behind screens today,
267
658260
3000
می دانیم که بچه ها امروزه وقت زیادی را پشت صفحات نمایشگر می گذرانند
11:01
whether it's television or computer games or whatnot.
268
661260
3000
حالا چه تلوزیون یا بازی های کامپیوتری و یا هر چیز دیگری
11:04
My sons, they love the screen. They love the screen.
269
664260
3000
پسرهای من عاشق این صفحات نمایش هستند
11:07
But I want them to play; as a mom, I want them to play,
270
667260
3000
اما من می خواهم که آنها بازی کنند : به عنوان یک مادر می خواهم که آنها بازی کنند
11:10
like, real-world play.
271
670260
2000
منظورم بازی واقعی است
11:12
And so I have a new project in my group I wanted to present to you today
272
672260
3000
و به همین دلیل پروژه جدیدی را در گروهم دارم که دوست دارم امروز به شما معرفی اش کنم
11:15
called Playtime Computing
273
675260
2000
اسمش پلی تایم کامپیوتینگ است
11:17
that's really trying to think about how we can take
274
677260
2000
این پروژه سعی می کند به این موضع فکر کند که ما چه کار می توانیم کنیم
11:19
what's so engaging about digital media
275
679260
2000
چه چیزی در رسانه های دیجیتال تا این حد در گیر کننده است
11:21
and literally bring it off the screen
276
681260
2000
و سپس به معنی واقعی آن را از صفحات نمایش جدا کرده
11:23
into the real world of the child,
277
683260
2000
و به دنیای واقعی یک کودک بیاوریم
11:25
where it can take on many of the properties of real-world play.
278
685260
3000
جایی که می توان آن را روی بسیاری از ویژگی های بازی های دنیای واقعی سوار کرد
11:29
So here's the first exploration of this idea,
279
689260
4000
خوب این اولین بررسی و کاوش این ایده بود
11:33
where characters can be physical or virtual,
280
693260
3000
جایی که شخصیت ها می توانند فیزیکی یا مجازی باشند
11:36
and where the digital content
281
696260
2000
و جایی که محتوای دیجیتال
11:38
can literally come off the screen
282
698260
2000
می توانست به طور واقعی از صفحه جدا شده و
11:40
into the world and back.
283
700260
2000
به درون جهان بیاید و برگردد.
11:42
I like to think of this
284
702260
2000
من دوست دارم به این ایده به شکل
11:44
as the Atari Pong
285
704260
2000
آتاری پونگ نگاه کنم
11:46
of this blended-reality play.
286
706260
2000
بازی که ترکیبی از واقعیت را هم دارد
11:48
But we can push this idea further.
287
708260
2000
اما ما می توانیم این ایده را پیش تر هم ببریم
11:50
What if --
288
710260
2000
چه می شود اگر --
11:52
(Game) Nathan: Here it comes. Yay!
289
712260
3000
(بازی) ناتان : الان می آید . وای !
11:55
CB: -- the character itself could come into your world?
290
715260
3000
سینتیا بریزیل: خود شخصیت های بازی به دنیای شما وارد شوند؟
11:58
It turns out that kids love it
291
718260
2000
معلوم شد که بچه ها وقتی
12:00
when the character becomes real and enters into their world.
292
720260
3000
شخصیت ها واقعی شده و وارد دنیای آنها می شوند عاشقشان می شوند
12:03
And when it's in their world,
293
723260
2000
و وقتی این شخصیت در دنیای آنها باشد ،
12:05
they can relate to it and play with it in a way
294
725260
2000
آنها می توانند به گونه ای با آن ارتباط برقرار کرده و بازی کنند
12:07
that's fundamentally different from how they play with it on the screen.
295
727260
2000
که به طور بنیادی با روشی که آنها در صفحه تلوزیون با شخصیت ها بازی می کنند فرق دارد
12:09
Another important idea is this notion
296
729260
2000
ایده مهم دیگر این دوام و پیوستگی
12:11
of persistence of character across realities.
297
731260
3000
شخصیتها در واقعیت های متفاوت است.
12:14
So changes that children make in the real world
298
734260
2000
تغییری که بچه ها در دنیای واقعی ایجاد می کنند
12:16
need to translate to the virtual world.
299
736260
2000
باید به دنیای دیجیتال نیز ترجمه و اعمال شود.
12:18
So here, Nathan has changed the letter A to the number 2.
300
738260
3000
خوب ، اینجا، ناتان حرف A را به عدد 2 تغییر می دهد
12:21
You can imagine maybe these symbols
301
741260
2000
مثلا میتوانید فرض کنید این علایم و یا اعداد
12:23
give the characters special powers when it goes into the virtual world.
302
743260
3000
به شخصیت ها قدرت های ویژه ای را در دنیای مجازی می دهد
12:26
So they are now sending the character back into that world.
303
746260
3000
خوب حالا آنها این شخصیت را به آن دنیا می فرستند.
12:29
And now it's got number power.
304
749260
3000
و حالا آن شخصیت قدرت اعداد را به خود گرفته است
12:32
And then finally, what I've been trying to do here
305
752260
2000
و در نهایت کاری که من اینجا قصد دارم انجام دهم
12:34
is create a really immersive experience for kids,
306
754260
3000
خلق تجربه ای همه جانبه برای کودکان است
12:37
where they really feel like they are part of that story,
307
757260
3000
چیزی که آنها احساس کنند واقعا به بخشی از داستان بدل شده اند
12:40
a part of that experience.
308
760260
2000
به بخشی از تجربه
12:42
And I really want to spark their imaginations
309
762260
2000
و واقعا مایلم بتوانم تخیل آنها را فعال کنم
12:44
the way mine was sparked as a little girl watching "Star Wars."
310
764260
3000
همانطور که تخیلات من زمانی که دختر کوچکی بودم با دیدن فیلم «جنگ ستارگان» فعال شد
12:47
But I want to do more than that.
311
767260
2000
اما در عین حال می خواهم کاری بیش از این هم انجام دهم
12:49
I actually want them to create those experiences.
312
769260
3000
من می خواهم که خود آنها این تجربیات را خلق کنند
12:52
I want them to be able to literally build their imagination
313
772260
2000
من می خواهم آنها به معنی واقعی کلمه قادر به ساخت تخیلات خود
12:54
into these experiences and make them their own.
314
774260
2000
به واسطه این تجربه ها باشند و آن را مال خود کنند.
12:56
So we've been exploring a lot of ideas
315
776260
2000
خوب ، ما ایده های متعددی را بررسی کردیم
12:58
in telepresence and mixed reality
316
778260
2000
ایده هایی در باره حضور از راه دور و واقعیت ترکیبی
13:00
to literally allow kids to project their ideas into this space
317
780260
3000
تا اینکه واقعا به بچه ها این امکان داده شود که تخیلات خود را در این فضا منعکس کنند
13:03
where other kids can interact with them
318
783260
2000
جایی که بقیه بچه ها هم بتوانند با آن ها تعامل کنند
13:05
and build upon them.
319
785260
2000
و آنها را بسازند.
13:07
I really want to come up with new ways of children's media
320
787260
3000
من واقعا مایلم به راه های جدیدی در رسانه بچه ها دست پیدا کنم
13:10
that foster creativity and learning and innovation.
321
790260
3000
که موجب پرورش خلاقیت و یادگیری و ابداعات انها شود.
13:13
I think that's very, very important.
322
793260
3000
من فکر می کنم این بسیار بسیار مهم است.
13:16
So this is a new project.
323
796260
2000
خوب این پروژه جدید است.
13:18
We've invited a lot of kids into this space,
324
798260
2000
ما تعداد زیادی از بچه ها را به این فضا دعوت کردیم،
13:20
and they think it's pretty cool.
325
800260
3000
و آنها به این نتیجه رسیدند که خیلی هیجان انگیز است.
13:23
But I can tell you, the thing that they love the most
326
803260
2000
اما می توانم به شما بگویم چیزی که آنها بیش از همه عاشقش شدند
13:25
is the robot.
327
805260
2000
روبات بود.
13:27
What they care about is the robot.
328
807260
3000
چیزی که بهش اهمیت می دادند روبات بود.
13:30
Robots touch something deeply human within us.
329
810260
3000
روبات چیزی عمیقا انسانی را در اعماق ما لمس می کند.
13:33
And so whether they're helping us
330
813260
2000
و چه به ما کمک کندد که
13:35
to become creative and innovative,
331
815260
2000
خلاق تر و مبتکر تر شویم
13:37
or whether they're helping us
332
817260
2000
یا کمکمان کنند
13:39
to feel more deeply connected despite distance,
333
819260
2000
تا علی رغم وجود فاصله های عمیق به هم احساس ارتباط بیشتری کنیم
13:41
or whether they are our trusted sidekick
334
821260
2000
یا به همکار و یاور قابل اعتماد ما بدل شوند
13:43
who's helping us attain our personal goals
335
823260
2000
که ما را در رسیدن به اهداف شخصی امام کمک می کنند
13:45
in becoming our highest and best selves,
336
825260
2000
تا بالاترین و برترین بخش های شخصیت خود را بروز دهیم
13:47
for me, robots are all about people.
337
827260
3000
برای من همه چیز روبا تها درباره انسان و مردم است
13:50
Thank you.
338
830260
2000
ممنونم
13:52
(Applause)
339
832260
5000
(تشویق)
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7