What's it like to be a robot? | Leila Takayama

92,088 views ・ 2018-02-16

TED


Κάντε διπλό κλικ στους αγγλικούς υπότιτλους παρακάτω για να αναπαραγάγετε το βίντεο.

Μετάφραση: Maria Veselkova Επιμέλεια: Lucas Kaimaras
00:12
You only get one chance to make a first impression,
0
12760
2656
Μόνο μία φορά μπορείς να κάνεις την πρώτη εντύπωση,
00:15
and that's true if you're a robot as well as if you're a person.
1
15440
3176
και αυτό ισχύει για τους ανθρώπους αλλά και για τα ρομπότ.
00:18
The first time that I met one of these robots
2
18640
3016
Για πρώτη φορά που γνώρισα ένα τέτοιο ρομπότ
00:21
was at a place called Willow Garage in 2008.
3
21680
2896
ήταν το 2008 σ' ένα μέρος που λεγόταν Γουίλοου Γκαράζ.
00:24
When I went to visit there, my host walked me into the building
4
24600
3016
Όταν πήγα εκεί, μπήκα στο κτίριο μαζί με τoν οικοδεσπότη μου
00:27
and we met this little guy.
5
27640
1576
και έτσι έγινε η γνωριμία μας μαζί του.
00:29
He was rolling into the hallway,
6
29240
1656
Κυλούσε μέσα στον διάδρομο,
00:30
came up to me, sat there,
7
30920
1816
με πλησίασε, σταμάτησε,
00:32
stared blankly past me,
8
32760
2256
κοίταξε προς την κατεύθυνσή μου,
00:35
did nothing for a while,
9
35040
1656
για λίγο δεν έκανε τίποτα,
00:36
rapidly spun his head around 180 degrees
10
36720
1936
και μετά γύρισε απότομα το κεφάλι του 180 μοίρες
00:38
and then ran away.
11
38680
1536
και έφυγε τρέχοντας.
00:40
And that was not a great first impression.
12
40240
2176
Κι αυτό δεν ήταν καθόλου καλή πρώτη εντύπωση.
00:42
The thing that I learned about robots that day
13
42440
2176
Αυτό που έμαθα εκείνη την ημέρα για τα ρομπότ
00:44
is that they kind of do their own thing,
14
44640
2176
είναι ότι κάνουν το δικό τους
00:46
and they're not totally aware of us.
15
46840
2136
και δεν μας αντιλαμβάνονται πλήρως.
Νομίζω ότι καθώς πειραματιζόμαστε με το πιθανό ρομποτικό μέλλον,
00:49
And I think as we're experimenting with these possible robot futures,
16
49000
3239
00:52
we actually end up learning a lot more about ourselves
17
52263
2673
στην ουσία γνωρίζουμε καλύτερα τους ίδιους μας εαυτούς
00:54
as opposed to just these machines.
18
54960
1656
σε σύγκριση με αυτά τα μηχανήματα.
00:56
And what I learned that day
19
56640
1336
Αυτό που κατάλαβα τότε
00:58
was that I had pretty high expectations for this little dude.
20
58000
3416
ήταν ότι είχα μεγάλες προσδοκίες από αυτόν τον μικρούλι.
01:01
He was not only supposed to be able to navigate the physical world,
21
61440
3176
Έπρεπε να είναι σε θέση να περιηγείται όχι μόνο στον φυσικό κόσμο,
01:04
but also be able to navigate my social world --
22
64640
2656
αλλά και στον κοινωνικό μου κόσμο,
βρίσκεται στον χώρο μου άρα είναι ένα προσωπικό ρομπότ.
01:07
he's in my space; it's a personal robot.
23
67320
2176
01:09
wWhy didn't it understand me?
24
69520
2016
Γιατί δεν με κατάλαβε;
01:11
My host explained to me,
25
71560
1256
Ο οικοδεσπότης μου μού εξήγησε,
01:12
"Well, the robot is trying to get from point A to point B,
26
72840
3176
«Απλά το ρομπότ προσπαθούσε να πάει από το σημείο Α στο σημείο Β
01:16
and you were an obstacle in his way,
27
76040
1776
και εσύ ήσουν εμπόδιο στο δρόμο του,
01:17
so he had to replan his path,
28
77840
2016
οπότε έπρεπε να σχεδιάσει ξανά την πορεία του,
01:19
figure out where to go,
29
79880
1256
να καταλάβει προς τα πού να πάει και μετά να το κάνει,
01:21
and then get there some other way,"
30
81160
1696
01:22
which was actually not a very efficient thing to do.
31
82880
2456
αλλά διαφορετικά»,
το οποίο δεν ήταν και πολύ αποτελεσματικό.
01:25
If that robot had figured out that I was a person, not a chair,
32
85360
3256
Άμα το ρομπότ είχε καταλάβει ότι είμαι άνθρωπος κι όχι καρέκλα,
01:28
and that I was willing to get out of its way
33
88640
2096
και ότι ήμουν πρόθυμη να φύγω από το δρόμο του,
01:30
if it was trying to get somewhere,
34
90760
1656
αν προσπαθούσε να πάει κάπου,
01:32
then it actually would have been more efficient
35
92440
2216
αυτό θα ήταν πιο αποτελεσματικό,
01:34
at getting its job done
36
94680
1256
για να επιτύχει τον σκοπό του,
01:35
if it had bothered to notice that I was a human
37
95960
2216
εάν έμπαινε στον κόπο να σκεφτεί ότι είμαι άνθρωπος
01:38
and that I have different affordances than things like chairs and walls do.
38
98200
3576
και έχω διαφορετικές προοπτικές από μια καρέκλα ή έναν τοίχο.
01:41
You know, we tend to think of these robots as being from outer space
39
101800
3216
Ξέρετε, έχουμε την τάση να πιστεύουμε ότι είναι από το απώτερο διάστημα,
01:45
and from the future and from science fiction,
40
105040
2136
από το μέλλον και την επιστημονική φαντασία,
01:47
and while that could be true,
41
107200
1416
και ενώ μπορεί να ισχύει αυτό,
01:48
I'd actually like to argue that robots are here today,
42
108640
2656
εγώ θα ήθελα να διαφωνήσω και να πω ότι είναι εδώ και τώρα,
01:51
and they live and work amongst us right now.
43
111320
2776
ζουν και δουλεύουν ανάμεσά μας.
01:54
These are two robots that live in my home.
44
114120
2856
Αυτά τα δύο ρομπότ ζουν στο σπίτι μου.
01:57
They vacuum the floors and they cut the grass
45
117000
2496
Καθαρίζουν το πάτωμα και κόβουν το γρασίδι
01:59
every single day,
46
119520
1216
κάθε μέρα,
02:00
which is more than I would do if I actually had time to do these tasks,
47
120760
3376
πολύ πιο συχνά απ' ό,τι θα το έκανα εγώ, αν το έκανα,
02:04
and they probably do it better than I would, too.
48
124160
2336
και μάλλον το κάνουν και καλύτερα από μένα.
02:06
This one actually takes care of my kitty.
49
126520
2496
Αυτό φροντίζει το γατί μου.
Κάθε φόρα που το γατί το χρησιμοποιεί, καθαρίζεται μόνο του,
02:09
Every single time he uses the box, it cleans it,
50
129040
2576
02:11
which is not something I'm willing to do,
51
131640
1976
κάτι, που δεν είμαι πρόθυμη να το κάνω,
02:13
and it actually makes his life better as well as mine.
52
133640
2576
και έτσι κάνει τις ζωές μας καλύτερες.
Καθώς τα αποκαλούμε ρομποτικά μηχανήματα,
02:16
And while we call these robot products --
53
136240
2416
02:18
it's a "robot vacuum cleaner, it's a robot lawnmower,
54
138680
2696
αυτά είναι «το ρομπότ ηλεκτρική σκούπα, το ρομπότ μηχανή του γκαζόν,
02:21
it's a robot littler box,"
55
141400
1495
το ρομπότ τουαλέτα για γάτες»,
02:22
I think there's actually a bunch of other robots hiding in plain sight
56
142919
4137
νομίζω ότι υπάρχουν κι άλλα πολλά ρομπότ, τα οποία κρύβονται σε κοινή θέα,
02:27
that have just become so darn useful
57
147080
1856
που έγιναν τόσο χρήσιμα
02:28
and so darn mundane
58
148960
1456
και τόσο τετριμμένα
02:30
that we call them things like, "dishwasher," right?
59
150440
2496
που έχουν δικό τους όνομα, όπως «πλυντήριο πιάτων».
02:32
They get new names.
60
152960
1216
Αποκαλούνται διαφορετικά.
02:34
They don't get called robot anymore
61
154200
1696
Δεν τα λέμε πλέον ρομπότ,
02:35
because they actually serve a purpose in our lives.
62
155920
2416
γιατί εξυπηρετούν έναν σκοπό στη ζωή τους.
Το ίδιο και ο θερμοστάτης, σωστά;
02:38
Similarly, a thermostat, right?
63
158360
1496
02:39
I know my robotics friends out there
64
159880
1776
Ξέρω ότι οι φίλοι μου που μελετούν τη ρομποτική
02:41
are probably cringing at me calling this a robot,
65
161680
2336
μάλλον μορφάζουν που το αποκαλώ ρομπότ,
02:44
but it has a goal.
66
164040
1256
αλλά έχει έναν σκοπό.
02:45
Its goal is to make my house 66 degrees Fahrenheit,
67
165320
2896
Δηλαδή να ζεσταίνει το σπίτι μου στους 19 βαθμούς Κελσίου
και διαισθάνεται τον κόσμο.
02:48
and it senses the world.
68
168240
1256
02:49
It knows it's a little bit cold,
69
169520
1576
Αν αντιλαμβάνεται ότι κάνει λίγο κρύο,
02:51
it makes a plan and then it acts on the physical world.
70
171120
2616
το επεξεργάζεται και μετά ενεργεί στον φυσικό κόσμο.
02:53
It's robotics.
71
173760
1256
Αυτή λέγεται ρομποτική.
02:55
Even if it might not look like Rosie the Robot,
72
175040
2576
Ακόμα και αν δεν έχει την εμφάνιση του ρομπότ Ρόζι,
02:57
it's doing something that's really useful in my life
73
177640
2936
κάνει κάτι που είναι πραγματικά χρήσιμο στη ζωή μου,
03:00
so I don't have to take care
74
180600
1376
ώστε να μην έχω την έγνοια
03:02
of turning the temperature up and down myself.
75
182000
2576
να ελέγχω συνεχώς τη θερμοκρασία μόνη μου.
03:04
And I think these systems live and work amongst us now,
76
184600
3816
Θεωρώ ότι όλα αυτά τα συστήματα ζουν και δουλεύουν τώρα ανάμεσά μας
03:08
and not only are these systems living amongst us
77
188440
2336
και όχι μόνο ζουν ανάμεσα μας,
03:10
but you are probably a robot operator, too.
78
190800
2656
αλλά πιθανόν κι εσείς να είστε χειριστές ρομπότ.
03:13
When you drive your car,
79
193480
1256
Όταν οδηγείτε αυτοκίνητο,
03:14
it feels like you are operating machinery.
80
194760
2216
είναι σαν χειρίζεστε μια μηχανή.
03:17
You are also going from point A to point B,
81
197000
2816
Κι εσείς πάτε από το σημείο Α στο σημείο Β,
03:19
but your car probably has power steering,
82
199840
2216
αλλά το αυτοκίνητό σας μάλλον έχει υδραυλικό τιμόνι
03:22
it probably has automatic braking systems,
83
202080
2696
όπως και αυτόματα συστήματα πέδησης,
03:24
it might have an automatic transmission and maybe even adaptive cruise control.
84
204800
3736
μπορεί να έχει αυτόματο κιβώτιο ταχυτήτων, ίσως και προσαρμοστικό ταχοστάτη.
03:28
And while it might not be a fully autonomous car,
85
208560
2936
Και καθώς μπορεί να μην είναι πλήρως αυτόνομο αυτοκίνητο,
03:31
it has bits of autonomy,
86
211520
1296
όμως έχει στοιχεία αυτονομίας
03:32
and they're so useful
87
212840
1336
που είναι πολύ χρήσιμα,
03:34
and they make us drive safer,
88
214200
1816
γιατί κάνουν την οδήγηση πιο ασφαλή
ενώ εμείς έχουμε την αίσθηση ότι είναι αόρατα στην χρήση, σωστά;
03:36
and we just sort of feel like they're invisible-in-use, right?
89
216040
3656
03:39
So when you're driving your car,
90
219720
1576
Οπότε, όταν οδηγείτε αυτοκίνητο
03:41
you should just feel like you're going from one place to another.
91
221320
3096
πρέπει να σκέφτεστε ότι απλώς πάτε από ένα σημείο στο άλλο.
03:44
It doesn't feel like it's this big thing that you have to deal with and operate
92
224440
3736
Δεν είναι κάτι φοβερό, με το οποίο πρέπει να ασχολείστε,
να το χειρίζεστε και να το ελέγχετε,
03:48
and use these controls
93
228200
1256
03:49
because we spent so long learning how to drive
94
229480
2176
γιατί μας πήρε τόσο πολύ καιρό να μάθουμε να οδηγούμε
03:51
that they've become extensions of ourselves.
95
231680
2696
που τα αυτοκίνητα έχουν γίνει προέκταση του εαυτού μας.
03:54
When you park that car in that tight little garage space,
96
234400
2696
Όταν παρκάρετε αυτοκίνητο σ' ένα στενό και μικρό γκαράζ,
03:57
you know where your corners are.
97
237120
1576
ξέρετε πού είναι οι γωνίες.
03:58
And when you drive a rental car that maybe you haven't driven before,
98
238720
3256
Και όταν έχετε ένα ενοικιαζόμενο αμάξι που μάλλον δεν έχετε ξανά οδηγήσει,
04:02
it takes some time to get used to your new robot body.
99
242000
3056
χρειάζεστε λίγο χρόνο, για να συνηθίσετε το καινούργιο σας φιλαράκι.
04:05
And this is also true for people who operate other types of robots,
100
245080
3976
Αυτό ισχύει και για τους ανθρώπους που χειρίζονται άλλα είδη ρομπότ
04:09
so I'd like to share with you a few stories about that.
101
249080
2600
και γι' αυτό θα ήθελα να μοιραστώ μαζί σας κάποιες ιστορίες.
04:12
Dealing with the problem of remote collaboration.
102
252240
2336
Αντιμετώπιση προβλήματος συνεργασίας εξ αποστάσεως.
04:14
So, at Willow Garage I had a coworker named Dallas,
103
254600
2576
Λοιπόν, στο Γουίλοου Γκαράζ είχα έναν συνεργάτη, τον Ντάλας,
04:17
and Dallas looked like this.
104
257200
1576
και ήταν έτσι.
04:18
He worked from his home in Indiana in our company in California.
105
258800
4056
Δούλευε από το σπίτι του στην Ιντιάνα για την εταιρεία μας στην Καλιφόρνια.
04:22
He was a voice in a box on the table in most of our meetings,
106
262880
2936
Στις συναντήσεις μας ήταν ένα κουτί με φωνή πάνω στο τραπέζι,
04:25
which was kind of OK except that, you know,
107
265840
2215
κάτι που ήταν εντάξει, εκτός του ότι,
04:28
if we had a really heated debate and we didn't like what he was saying,
108
268079
3377
όταν είχαμε μια έντονη διαφωνία και δεν μας άρεσε αυτό που έλεγε,
04:31
we might just hang up on him.
109
271480
1416
μπορούσαμε απλά να τον κλείσουμε.
04:32
(Laughter)
110
272920
1015
04:33
Then we might have a meeting after that meeting
111
273959
2217
(Γέλιο)
Μετά μπορεί να συναντιόμασταν πάλι μετά απ' αυτό
04:36
and actually make the decisions in the hallway afterwards
112
276200
2696
και στο τέλος να αποφασίζαμε στον διάδρομο,
04:38
when he wasn't there anymore.
113
278920
1416
όταν δεν ήταν πλέον εκεί.
Και αυτό δεν του άρεσε καθόλου.
04:40
So that wasn't so great for him.
114
280360
1576
04:41
And as a robotics company at Willow,
115
281960
1736
Και ως εταιρεία ρομποτικής στο Γουίλοου,
04:43
we had some extra robot body parts laying around,
116
283720
2336
είχαμε στην άκρη μερικά έξτρα κομμάτια ρομπότ
έτσι ο Ντάλας και o φίλος του Κουρτ έφτιαξαν αυτό,
04:46
so Dallas and his buddy Curt put together this thing,
117
286080
2496
04:48
which looks kind of like Skype on a stick on wheels,
118
288600
2936
που μοιάζει με το Skype πάνω σ' ένα μπαστούνι με ρόδες,
04:51
which seems like a techy, silly toy,
119
291560
1736
ένα τεχνολογικό χαζό παιχνίδι,
04:53
but really it's probably one of the most powerful tools
120
293320
2776
αλλά μάλλον είναι ένα από τα πιο ισχυρά εργαλεία
04:56
that I've seen ever made for remote collaboration.
121
296120
2480
που έχω δει να φτιάχνονται για τη συνεργασία από απόσταση.
04:59
So now, if I didn't answer Dallas' email question,
122
299160
3496
Οπότε τώρα, εάν δεν απαντήσω στην ερώτηση του e-mail του Ντάλλας,
05:02
he could literally roll into my office,
123
302680
2216
μπορεί κυριολεκτικά να έρθει στο γραφείο μου,
05:04
block my doorway and ask me the question again --
124
304920
2576
να μπλοκάρει την είσοδο και να με ξαναρωτήσει
05:07
(Laughter)
125
307520
1016
(Γέλια)
05:08
until I answered it.
126
308560
1216
μέχρι να απαντήσω.
05:09
And I'm not going to turn him off, right? That's kind of rude.
127
309800
2976
Και δε θα το κλείσω, σωστά; Είναι λίγο αγενές.
05:12
Not only was it good for these one-on-one communications,
128
312800
2696
Δεν ήταν μόνο χρήσιμο στην προσωπική επικοινωνία,
05:15
but also for just showing up at the company all-hands meeting.
129
315520
2936
αλλά επίσης στη συμμετοχή στις συναντήσεις της εταιρείας.
05:18
Getting your butt in that chair
130
318480
1696
Το να τσακιστείς να πας εκεί
05:20
and showing people that you're present and committed to your project
131
320200
3216
και να δείξεις ότι είσαι παρών και αφοσιωμένος στο έργο,
05:23
is a big deal
132
323440
1256
είναι σοβαρό ζήτημα
05:24
and can help remote collaboration a ton.
133
324720
2176
και μπορεί να βοηθήσει άπειρα στη συνεργασία εξ αποστάσεως.
05:26
We saw this over the period of months and then years,
134
326920
2856
Το είδαμε με την πάροδο μηνών και μετά χρόνων,
05:29
not only at our company but at others, too.
135
329800
2160
όχι μόνο στην εταιρεία μας, αλλά και στις άλλες.
05:32
The best thing that can happen with these systems
136
332720
2336
Το καλύτερο μ' αυτά τα συστήματα
είναι ότι αρχίζεις να νιώθεις ότι είσαι όντως εκεί.
05:35
is that it starts to feel like you're just there.
137
335080
2336
05:37
It's just you, it's just your body,
138
337440
1696
Είναι εσύ, είναι το σώμα σου
05:39
and so people actually start to give these things personal space.
139
339160
3096
και έτσι οι άνθρωποι όντως αρχίζουν να τους δίνουν προσωπικό χώρο.
05:42
So when you're having a stand-up meeting,
140
342280
1976
Έτσι, όταν έχεις μια σύντομη συνάντηση,
05:44
people will stand around the space
141
344280
1656
άνθρωποι θα σταθούν γύρω γύρω,
05:45
just as they would if you were there in person.
142
345960
2216
όπως θα έκαναν αν όντως ήσουν εκεί.
Αυτό είναι ωραίο μέχρι να χαλάσουν και τότε δεν είναι ωραίο.
05:48
That's great until there's breakdowns and it's not.
143
348200
2576
05:50
People, when they first see these robots,
144
350800
1976
Όταν κάποιος βλέπει τέτοιο ρομπότ πρώτη φορά
05:52
are like, "Wow, where's the components? There must be a camera over there,"
145
352800
3576
λέει, «Ω, πού είναι τα εξαρτήματα; Εδώ πρέπει να υπάρχει μια κάμερα»,
05:56
and they start poking your face.
146
356400
1576
κι αρχίζει να σκουντάει το πρόσωπό σου.
05:58
"You're talking too softly, I'm going to turn up your volume,"
147
358000
2936
«Μιλάς σιγά, θα ανεβάσω τον ήχο σου»
που είναι σαν να σου λέει ο συνεργάτης σου
06:00
which is like having a coworker walk up to you and say,
148
360960
2616
«Μιλάς πολύ σιγά, θα ανεβάσω το πρόσωπό σου».
06:03
"You're speaking too softly, I'm going to turn up your face."
149
363600
2896
Είναι περίεργο και καθόλου εντάξει,
06:06
That's awkward and not OK,
150
366520
1256
06:07
and so we end up having to build these new social norms
151
367800
2616
γι' αυτό καταλήξαμε να φτιάξουμε νέους κοινωνικούς κανόνες
06:10
around using these systems.
152
370440
2216
για τη χρήση αυτών των μηχανημάτων.
06:12
Similarly, as you start feeling like it's your body,
153
372680
3416
Παρομοίως, αφού αρχίζεις να το νιώθεις σαν το σώμα σου,
06:16
you start noticing things like, "Oh, my robot is kind of short."
154
376120
3696
παρατηρείς πράγματα όπως, «Ω, το ρομπότ μου είναι λίγο κοντό».
06:19
Dallas would say things to me -- he was six-foot tall --
155
379840
2656
Ο Ντάλας μου έλεγε διάφορα, -ότι είχε ύψος 1,82 μέτρα-
06:22
and we would take him via robot to cocktail parties and things like that,
156
382520
3456
και τον παίρναμε μαζί μας σε διάφορα πάρτι μέσω του ρομπότ,
06:26
as you do,
157
386000
1216
όπως κι εσείς,
06:27
and the robot was about five-foot-tall, which is close to my height.
158
387240
3336
και το ρομπότ ήταν περίπου 1,52 μέτρα, που είναι κοντά στο ύψος μου.
06:30
And he would tell me,
159
390600
1216
Και μου έλεγε,
06:31
"You know, people are not really looking at me.
160
391840
2536
«Ξέρεις, δεν με κοιτάει κανείς.
06:34
I feel like I'm just looking at this sea of shoulders,
161
394400
2696
Νιώθω λες και βλέπω μόνο τους ώμους των άλλων,
06:37
and it's just -- we need a taller robot."
162
397120
1976
μάλλον χρειαζόμαστε πιο ψηλό ρομπότ».
06:39
And I told him,
163
399120
1256
Και του είπα,
06:40
"Um, no.
164
400400
1296
«Εμ, όχι.
06:41
You get to walk in my shoes for today.
165
401720
1936
Σήμερα θα με καταλάβεις.
06:43
You get to see what it's like to be on the shorter end of the spectrum."
166
403680
3536
Πρέπει να καταλάβεις πώς είναι να είσαι από την άλλη πλευρά».
06:47
And he actually ended up building a lot of empathy for that experience,
167
407240
3376
Στο τέλος είχε αποκτήσει ενσυναίσθηση από αυτή την εμπειρία
06:50
which was kind of great.
168
410640
1256
και ήταν τέλειο.
06:51
So when he'd come visit in person,
169
411920
1656
Έτσι όταν με επισκεπτόταν αυτοπροσώπως,
06:53
he no longer stood over me as he was talking to me,
170
413600
2416
δε στεκόταν πλέον από πάνω μου, όπως συνήθιζε,
καθόταν σε καρέκλα και μου μίλαγε στο ίδιο ύψος,
06:56
he would sit down and talk to me eye to eye,
171
416040
2096
06:58
which was kind of a beautiful thing.
172
418160
1736
και ήταν ωραίο που το έκανε.
06:59
So we actually decided to look at this in the laboratory
173
419920
2656
Έτσι αποφασίσαμε να το εξετάσουμε στο εργαστήριο
07:02
and see what others kinds of differences things like robot height would make.
174
422600
3656
για να δούμε τι θα άλλαζε κι άλλο μαζί με τα χαρακτηριστικά, όπως το ύψος.
07:06
And so half of the people in our study used a shorter robot,
175
426280
2856
Οι μισοί συμμετάσχοντες διάλεξαν πιο κοντό ρομπότ,
07:09
half of the people in our study used a taller robot
176
429160
2416
ενώ οι άλλοι μισοί προτίμησαν πιο ψηλό,
07:11
and we actually found that the exact same person
177
431600
2256
ανακαλύψαμε ότι ακριβώς το ίδιο άτομο,
07:13
who has the exact same body and says the exact same things as someone,
178
433880
3336
που έχει ακριβώς το ίδιο σώμα και λέει ακριβώς τα ίδια με κάποιον άλλον,
07:17
is more persuasive and perceived as being more credible
179
437240
2616
φαίνεται πιο πειστικό και θεωρείται πιο έμπιστο,
07:19
if they're in a taller robot form.
180
439880
1656
εάν είναι σε πιο ψηλή μορφή του ρομπότ.
07:21
It makes no rational sense,
181
441560
1816
Δεν εξηγείται με τη λογική,
07:23
but that's why we study psychology.
182
443400
1696
αλλά γι' αυτό μελετάμε ψυχολογία.
07:25
And really, you know, the way that Cliff Nass would put this
183
445120
2856
Ο Κλιφ Νας θα έλεγε
ότι έχουμε να αντιμετωπίσουμε αυτές τις καινούργιες τεχνολογίες,
07:28
is that we're having to deal with these new technologies
184
448000
3016
07:31
despite the fact that we have very old brains.
185
451040
2736
παρά το γεγονός ότι έχουμε παλιά μυαλά.
07:33
Human psychology is not changing at the same speed that tech is
186
453800
2976
Η ανθρώπινη ψυχολογία δεν αλλάζει τόσο γρήγορα όσο η τεχνολογία,
07:36
and so we're always playing catch-up,
187
456800
1816
έτσι πάντα τρέχουμε να προλάβουμε τις εξελίξεις,
07:38
trying to make sense of this world
188
458640
1656
προσπαθώντας να καταλάβουμε τον κόσμο,
07:40
where these autonomous things are running around.
189
460320
2336
όπου κινούνται αυτές οι αυτόματες μηχανές.
07:42
Usually, things that talk are people, not machines, right?
190
462680
2736
Συνήθως μιλάνε οι άνθρωποι και όχι οι μηχανές, σωστά;
07:45
And so we breathe a lot of meaning into things like just height of a machine,
191
465440
4576
Βάζουμε πολύ νόημα σε πράγματα όπως το ύψος μιας μηχανής,
όχι ενός ανθρώπου,
07:50
not a person,
192
470040
1256
07:51
and attribute that to the person using the system.
193
471320
2360
και το αποδίδουμε στον άνθρωπο που το έχει.
Ξέρετε, πιστεύω ότι αυτό είναι πολύ σημαντικό,
07:55
You know, this, I think, is really important
194
475120
2216
07:57
when you're thinking about robotics.
195
477360
1736
όταν σκέφτεσαι την ρομποτική.
Δεν είναι για την επανεφεύρεση ανθρώπων,
07:59
It's not so much about reinventing humans,
196
479120
2096
αλλά περισσότερο για να μάθουμε πώς επεκτείνουμε τον εαυτό μας, σωστά;
08:01
it's more about figuring out how we extend ourselves, right?
197
481240
3136
08:04
And we end up using things in ways that are sort of surprising.
198
484400
2976
Καταλήγουμε να χρησιμοποιούμε πράγματα με εκπληκτικούς τρόπους.
08:07
So these guys can't play pool because the robots don't have arms,
199
487400
4256
Τα ρομπότ δεν μπορούν να παίξουν μπιλιάρδο, γιατί δεν έχουν χέρια,
08:11
but they can heckle the guys who are playing pool
200
491680
2336
όμως μπορούν να παρενοχλούν τους άλλους παίκτες
και αυτό παίζει σημαντικό ρόλο για την ομαδικότητα
08:14
and that can be an important thing for team bonding,
201
494040
3176
και είναι και πολύ πρώτο.
08:17
which is kind of neat.
202
497240
1296
08:18
People who get really good at operating these systems
203
498560
2496
Άνθρωποι που γίνονται πολύ καλοί στον χειρισμό τους
στο τέλος θα φτιάχνουν καινούργια παιχνίδια,
08:21
will even do things like make up new games,
204
501080
2056
08:23
like robot soccer in the middle of the night,
205
503160
2136
όπως το ποδόσφαιρο με ρομπότ τα μεσάνυχτα
08:25
pushing the trash cans around.
206
505320
1456
να σπρώχνουν σκουπιδοτενεκέδες.
08:26
But not everyone's good.
207
506800
1576
Όμως δεν μπορεί να το κάνει ο καθένας.
08:28
A lot of people have trouble operating these systems.
208
508400
2496
Πολλοί δυσκολεύονται στον χειρισμό.
08:30
This is actually a guy who logged into the robot
209
510920
2256
Αυτός άνθρωπος μπήκε στο λογισμικό του ρομπότ
και το μάτι του ήταν γυρισμένο 90 μοίρες στα αριστερά.
08:33
and his eyeball was turned 90 degrees to the left.
210
513200
2376
08:35
He didn't know that,
211
515600
1256
Δεν το ήξερε,
08:36
so he ended up just bashing around the office,
212
516880
2176
έτσι κατέληξε να σκουντουφλάει μέσα στο γραφείο,
να πέφτει πάνω στα γραφεία, να προσβάλλεται και να γελάει μ' αυτό,
08:39
running into people's desks, getting super embarrassed,
213
519080
2616
08:41
laughing about it -- his volume was way too high.
214
521720
2336
ενώ ο ήχος του ήταν στο μάξιμουμ.
Και αυτός στη φωτογραφία να μου λέει,
08:44
And this guy here in the image is telling me,
215
524080
2136
«Χρειάζεται να βάλουμε ένα κουμπί σίγασης ήχου».
08:46
"We need a robot mute button."
216
526240
2096
08:48
And by that what he really meant was we don't want it to be so disruptive.
217
528360
3496
Μάλλον εννοούσε ότι δεν θέλουμε να είναι τόσο καταστροφικός.
08:51
So as a robotics company,
218
531880
1616
Λοιπόν, ως εταιρεία ρομποτικής,
08:53
we added some obstacle avoidance to the system.
219
533520
2456
προσθέσαμε λειτουργία αποφυγής εμποδίων στο σύστημα.
Απέκτησε έναν λέιζερ μετρητή απόστασης που εντοπίζει εμπόδια.
08:56
It got a little laser range finder that could see the obstacles,
220
536000
3056
08:59
and if I as a robot operator try to say, run into a chair,
221
539080
3136
και αν, ως χειρίστρια των ρομπότ, του έλεγα πέσε πάνω στην καρέκλα,
09:02
it wouldn't let me, it would just plan a path around,
222
542240
2496
δε θα μ' άφηνε, απλώς θα σχεδίαζε μια παράκαμψη,
09:04
which seems like a good idea.
223
544760
1856
που φαίνεται καλή ιδέα.
09:06
People did hit fewer obstacles using that system, obviously,
224
546640
3176
Σαφώς οι άνθρωποι απέφευγαν περισσότερα εμπόδια με το σύστημα,
09:09
but actually, for some of the people,
225
549840
2096
αλλά από την άλλη,
09:11
it took them a lot longer to get through our obstacle course,
226
551960
2856
κάποιοι χρειάστηκαν περισσότερο χρόνο για να περάσουν το μάθημα εμποδίων
09:14
and we wanted to know why.
227
554840
1560
και θέλαμε να μάθουμε το γιατί.
09:17
It turns out that there's this important human dimension --
228
557080
3056
Αποδείχτηκε ότι υπάρχει μια σημαντική ανθρώπινη διάσταση -
09:20
a personality dimension called locus of control,
229
560160
2296
διάσταση προσωπικότητας, το λεγόμενο σημείο ελέγχου,
09:22
and people who have a strong internal locus of control,
230
562480
3136
και εκείνοι που έχουν δυνατό εσωτερικό σημείο ελέγχου,
09:25
they need to be the masters of their own destiny --
231
565640
3056
έχουν ανάγκη να είναι οι ίδιοι κύριοι του πεπρωμένου τους,
09:28
really don't like giving up control to an autonomous system --
232
568720
3096
-δεν τους αρέσει να αφήνουν τον έλεγχο σε αυτόματα συστήματα-
09:31
so much so that they will fight the autonomy;
233
571840
2136
τόσο πολύ, που είναι έτοιμοι να πολεμήσουν την αυτονομία;
09:34
"If I want to hit that chair, I'm going to hit that chair."
234
574000
3096
«Άμα θέλω να χτυπήσω εκείνη την καρέκλα, θα τη χτυπήσω».
09:37
And so they would actually suffer from having that autonomous assistance,
235
577120
3616
Κι έτσι, πραγματικά θα βασανίζονται απ' αυτή την αυτόνομη βοήθεια
09:40
which is an important thing for us to know
236
580760
2576
και είναι σημαντικό να το γνωρίζουμε,
09:43
as we're building increasingly autonomous, say, cars, right?
237
583360
3296
γιατί κατασκευάζουμε όλο και πιο αυτόνομα συστήματα, σωστά;
09:46
How are different people going to grapple with that loss of control?
238
586680
3360
Πώς διάφοροι άνθρωποι θα αντέξουν αυτή την απώλεια ελέγχου;
09:50
It's going to be different depending on human dimensions.
239
590880
2696
Θα διαφέρει αναλόγως με τις ανθρώπινες διαστάσεις.
09:53
We can't treat humans as if we're just one monolithic thing.
240
593600
3496
Δεν μπορούμε να αντιμετωπίζουμε τους ανθρώπους σαν μονολιθικά πλάσματα.
09:57
We vary by personality, by culture,
241
597120
2416
Διαφέρουμε στην προσωπικότητα, κουλτούρα,
09:59
we even vary by emotional state moment to moment,
242
599560
2456
διαφέρουμε ώρες ώρες ακόμα και στη συναισθηματική κατάσταση,
και για να μπορούμε να σχεδιάζουμε
10:02
and being able to design these systems,
243
602040
1976
τέτοια συστήματα αλληλεπίδρασης ανθρώπου-ρομπότ,
10:04
these human-robot interaction systems,
244
604040
2296
10:06
we need to take into account the human dimensions,
245
606360
2736
πρέπει να λάβουμε υπ' όψιν και τις ανθρώπινες διαστάσεις,
10:09
not just the technological ones.
246
609120
1720
όχι μόνο τις τεχνολογικές.
10:11
Along with a sense of control also comes a sense of responsibility.
247
611640
4296
Μαζί με την αίσθηση ελέγχου έρχεται και η αίσθηση ευθύνης.
10:15
And if you were a robot operator using one of these systems,
248
615960
2856
Και αν ήσουν χειριστής ρομπότ και χειριζόσουν ένα από τα συστήματα,
10:18
this is what the interface would look like.
249
618840
2056
έτσι θα ήταν το περιβάλλον.
10:20
It looks a little bit like a video game,
250
620920
1936
Μοιάζει λίγο με βίντεο παιχνίδι,
10:22
which can be good because that's very familiar to people,
251
622880
2976
κάτι που μπορεί να είναι καλό, γιατί είναι οικείο στους ανθρώπους,
10:25
but it can also be bad
252
625880
1216
και κακό ταυτόχρονα,
10:27
because it makes people feel like it's a video game.
253
627120
2456
γιατί θα το αντιμετωπίζουν ως παιχνίδι.
10:29
We had a bunch of kids over at Stanford play with the system
254
629600
2856
Είχαμε πολλά παιδάκια στο Στάνφορντ, που έπαιζαν μ' αυτά,
10:32
and drive the robot around our office in Menlo Park,
255
632480
2456
οδηγούσαν τα ρομπότ γύρω στο γραφείο μας στο Μένλο Πάρκ
10:34
and the kids started saying things like,
256
634960
1936
και τα παιδιά άρχισαν να λένε:
10:36
"10 points if you hit that guy over there. 20 points for that one."
257
636920
3176
«10 πόντους αν χτυπήσεις εκείνον τον τύπο, 20 πόντους για τον άλλον».
Και τους κυνηγούσαν στον διάδρομο.
10:40
And they would chase them down the hallway.
258
640120
2016
(Γέλια)
10:42
(Laughter)
259
642160
1016
Τους είπα, «Εμ, είναι αληθινοί άνθρωποι.
10:43
I told them, "Um, those are real people.
260
643200
1936
Θα ματώσουν και θα πονάνε, αν τους χτυπήσετε."
10:45
They're actually going to bleed and feel pain if you hit them."
261
645160
3296
10:48
And they'd be like, "OK, got it."
262
648480
1616
Μου απάντησαν, «Εντάξει, το καταλάβαμε».
10:50
But five minutes later, they would be like,
263
650120
2056
Σε πέντε λεπτά όμως έλεγαν πάλι:
10:52
"20 points for that guy over there, he just looks like he needs to get hit."
264
652200
3616
«20 πόντους για εκείνον τον τύπο, ζητάει λίγο ξύλο».
10:55
It's a little bit like "Ender's Game," right?
265
655840
2136
Λες και είναι το παιχνίδι «Ender's Game», έτσι;
Υπάρχει ένας αληθινός κόσμος από την άλλη πλευρά
10:58
There is a real world on that other side
266
658000
1936
10:59
and I think it's our responsibility as people designing these interfaces
267
659960
3416
και θεωρώ ότι έχουμε ευθύνη ως άτομα που φτιάχνουν τέτοιο περιβάλλον
11:03
to help people remember
268
663400
1256
να υπενθυμίζουμε στους ανθρώπους
11:04
that there's real consequences to their actions
269
664680
2256
ότι οι πράξεις τους έχουν πραγματικές συνέπειες
11:06
and to feel a sense of responsibility
270
666960
2296
και να είναι υπεύθυνοι,
11:09
when they're operating these increasingly autonomous things.
271
669280
3280
όταν χειρίζονται όλο και περισσότερο αυτόνομα μηχανήματα.
11:13
These are kind of a great example
272
673840
2296
Όλα αυτά είναι ωραία παραδείγματα
11:16
of experimenting with one possible robotic future,
273
676160
3256
πειραματισμού μ' ένα πιθανό ρομποτικό μέλλον,
11:19
and I think it's pretty cool that we can extend ourselves
274
679440
3856
και πιστεύω ότι είναι πολύ καλό να μπορούμε να επεκτείνουμε τους εαυτούς μας
11:23
and learn about the ways that we extend ourselves
275
683320
2336
και να μαθαίνουμε τους τρόπους επέκτασης
11:25
into these machines
276
685680
1216
σ' αυτά τα μηχανήματα
11:26
while at the same time being able to express our humanity
277
686920
2696
ενώ ταυτόχρονα να μπορούμε να εκφράζουμε την ανθρωπιά
11:29
and our personality.
278
689640
1216
και την προσωπικότητά μας.
11:30
We also build empathy for others
279
690880
1576
Επίσης κατανοούμε τους άλλους,
11:32
in terms of being shorter, taller, faster, slower,
280
692480
3216
το πώς είναι να είσαι πιο ψηλός, πιο κοντός, πιο γρήγορος ή πιο αργός,
11:35
and maybe even armless,
281
695720
1416
ή ακόμα και να μην έχεις χέρια,
11:37
which is kind of neat.
282
697160
1336
και είναι τέλειο.
11:38
We also build empathy for the robots themselves.
283
698520
2536
Επίσης αποκτάμε ενσυναίσθηση και για τα ίδια ρομπότ.
11:41
This is one of my favorite robots.
284
701080
1656
Αυτό είναι από τα αγαπημένα μου ρομπότ.
11:42
It's called the Tweenbot.
285
702760
1456
Το λένε Τουίνμποτ.
11:44
And this guy has a little flag that says,
286
704240
1976
Έχει μια μικρή σημαία που λέει
11:46
"I'm trying to get to this intersection in Manhattan,"
287
706240
2576
«Προσπαθώ να φτάσω στην τάδε διασταύρωση στο Μανχάταν»,
11:48
and it's cute and rolls forward, that's it.
288
708840
2776
είναι χαριτωμένο, κυλάει μπροστά, αλλά μέχρι εκεί.
11:51
It doesn't know how to build a map, it doesn't know how to see the world,
289
711640
3456
Δεν ξέρει πώς να φτιάξει έναν χάρτη, δεν ξέρει πώς να δει τον κόσμο,
11:55
it just asks for help.
290
715120
1256
απλά ζητάει βοήθεια.
11:56
The nice thing about people
291
716400
1336
Το καλό με τους ανθρώπους είναι
11:57
is that it can actually depend upon the kindness of strangers.
292
717760
3096
ότι μπορεί να υπολογίζει στην ευγένεια των περαστικών.
12:00
It did make it across the park to the other side of Manhattan --
293
720880
3896
Κατάφερε να περάσει το πάρκο στην άλλη πλευρά του Μανχάταν
12:04
which is pretty great --
294
724800
1256
και είναι αρκετά καλό,
12:06
just because people would pick it up and point it in the right direction.
295
726080
3456
απλώς επειδή άνθρωποι το έπαιρναν και το έστριβαν στη σωστή κατεύθυνση.
12:09
(Laughter)
296
729560
936
(Γέλια)
12:10
And that's great, right?
297
730520
1256
Και είναι τέλειο, σωστά;
12:11
We're trying to build this human-robot world
298
731800
2696
Προσπαθούμε να φτιάξουμε έναν κόσμο με ανθρώπους και ρομπότ,
12:14
in which we can coexist and collaborate with one another,
299
734520
3416
όπου μπορούμε να συνυπάρχουμε και συνεργαζόμαστε ο ένας με τον άλλον,
12:17
and we don't need to be fully autonomous and just do things on our own.
300
737960
3376
και δεν χρειάζεται να είμαστε αυτόνομοι και να κάνουμε τα πάντα μόνοι μας.
12:21
We actually do things together.
301
741360
1496
Πράγματι κάνουμε πράγματα μαζί.
12:22
And to make that happen,
302
742880
1256
Για να γίνει εφικτό αυτό,
12:24
we actually need help from people like the artists and the designers,
303
744160
3256
χρειαζόμαστε βοήθεια από καλλιτέχνες ή σχεδιαστές,
υπεύθυνους χάραξης πολιτικής, νομικούς επιστήμονες,
12:27
the policy makers, the legal scholars,
304
747440
1856
12:29
psychologists, sociologists, anthropologists --
305
749320
2216
ψυχολόγους, κοινωνιολόγους, ανθρωπολόγους,
12:31
we need more perspectives in the room
306
751560
1816
χρειαζόμαστε περισσότερες προοπτικές
12:33
if we're going to do the thing that Stu Card says we should do,
307
753400
2976
αν πρόκειται να κάνουμε αυτό που μας προτρέπει ο Στιού Καρντ,
12:36
which is invent the future that we actually want to live in.
308
756400
3936
να δημιουργήσουμε το μέλλον στο οποίο πραγματικά θα θέλαμε να ζούμε.
12:40
And I think we can continue to experiment
309
760360
2656
Θεωρώ ότι μπορούμε να συνεχίσουμε να πειραματιζόμαστε
12:43
with these different robotic futures together,
310
763040
2176
με το ρομποτικό μέλλον μαζί
12:45
and in doing so, we will end up learning a lot more about ourselves.
311
765240
4680
και έτσι θα καταλήξουμε στο να μαθαίνουμε πολλά περισσότερα για τους εαυτούς μας.
12:50
Thank you.
312
770720
1216
Σας ευχαριστώ.
12:51
(Applause)
313
771960
2440
(Χειροκρότημα)
Σχετικά με αυτόν τον ιστότοπο

Αυτός ο ιστότοπος θα σας παρουσιάσει βίντεο στο YouTube που είναι χρήσιμα για την εκμάθηση της αγγλικής γλώσσας. Θα δείτε μαθήματα αγγλικών που διδάσκουν κορυφαίοι καθηγητές από όλο τον κόσμο. Κάντε διπλό κλικ στους αγγλικούς υπότιτλους που εμφανίζονται σε κάθε σελίδα βίντεο για να αναπαράγετε το βίντεο από εκεί. Οι υπότιτλοι μετακινούνται συγχρονισμένα με την αναπαραγωγή του βίντεο. Εάν έχετε οποιαδήποτε σχόλια ή αιτήματα, παρακαλούμε επικοινωνήστε μαζί μας χρησιμοποιώντας αυτή τη φόρμα επικοινωνίας.

https://forms.gle/WvT1wiN1qDtmnspy7