Rodney Brooks: How robots will invade our lives

60,794 views ・ 2008-10-10

TED


Vă rugăm să faceți dublu clic pe subtitrările în limba engleză de mai jos pentru a reda videoclipul.

Traducător: Laura Morar Corector: Maria Tancu
00:18
What I want to tell you about today is how I see robots invading our lives
0
18330
5000
Vreau să vă povestesc astăzi este despre cum văd eu că roboții ne invadează viața
00:23
at multiple levels, over multiple timescales.
1
23330
3000
la niveluri multiple, la diverse intervale de timp.
00:26
And when I look out in the future, I can't imagine a world, 500 years from now,
2
26330
4000
Și când mă uit în viitor, îmi imaginez o lume, 500 de ani de acum înainte,
00:30
where we don't have robots everywhere.
3
30330
2000
unde nu avem roboți peste tot,
00:32
Assuming -- despite all the dire predictions from many people about our future --
4
32330
5000
asumând că - în ciuda tuturor previziunilor sumbre a multor oameni asupra viitorului -
00:37
assuming we're still around, I can't imagine the world not being populated with robots.
5
37330
4000
asumând că încă existăm, nu îmi pot imagina lumea fără a fi populată de roboți.
00:41
And then the question is, well, if they're going to be here in 500 years,
6
41330
3000
Iar întrebarea este, defapt, dacă vor mai fi aici și peste 500 de ani,
00:44
are they going to be everywhere sooner than that?
7
44330
2000
nu vor fi peste tot mai repede de atât?
00:46
Are they going to be around in 50 years?
8
46330
2000
Vor fi deja peste tot în aproximativ 50 de ani?
00:48
Yeah, I think that's pretty likely -- there's going to be lots of robots everywhere.
9
48330
3000
Da, eu cred că este destul de posibil -- vor fi mulți roboți peste tot.
00:51
And in fact I think that's going to be a lot sooner than that.
10
51330
3000
Și defapt eu cred că asta se va întâmpla și mai repede.
00:54
I think we're sort of on the cusp of robots becoming common,
11
54330
4000
Cred că suntem pe punctul de a avea roboții peste tot,
00:58
and I think we're sort of around 1978 or 1980 in personal computer years,
12
58330
6000
și cred că suntem undeva prin 1978 sau 1980 în anii computerului personal,
01:04
where the first few robots are starting to appear.
13
64330
3000
când primii roboți încep să apară.
01:07
Computers sort of came around through games and toys.
14
67330
4000
Computerele au cam apărut prin jocuri și jucării.
01:11
And you know, the first computer most people had in the house
15
71330
3000
Și știți voi, primul computer pe care oamenii l-au avut în casă
01:14
may have been a computer to play Pong,
16
74330
2000
s-ar putea să fi fost un computer cu care să te joci Pong,
01:16
a little microprocessor embedded,
17
76330
2000
und mic microprocesor integrat,
01:18
and then other games that came after that.
18
78330
3000
și toate celelalte jocuri care au apărut după aceea.
01:21
And we're starting to see that same sort of thing with robots:
19
81330
3000
Și începem să vedem același lucru și cu roboții:
01:24
LEGO Mindstorms, Furbies -- who here -- did anyone here have a Furby?
20
84330
4000
LEGO Mindstorms, Furbies -- cine de aici -- a avut un Furby?
01:28
Yeah, there's 38 million of them sold worldwide.
21
88330
3000
Da, s-au vândut 38 de milioane în lumea întreagă.
01:31
They are pretty common. And they're a little tiny robot,
22
91330
2000
Sunt destul de des întâlniţi, și sunt un roboțel mic,
01:33
a simple robot with some sensors,
23
93330
2000
un simplu robot cu senzori.
01:35
a little bit of processing actuation.
24
95330
2000
Este doar un proces de punere în mișcare.
01:37
On the right there is another robot doll, who you could get a couple of years ago.
25
97330
3000
În dreapta acolo este o altă păpușă robot, pe care o puteai cumpăra acum câțiva ani.
01:40
And just as in the early days,
26
100330
2000
Și la fel ca și în vremurile de demult,
01:42
when there was a lot of sort of amateur interaction over computers,
27
102330
5000
când exista un fel de interacțiune de amator cu computerele,
01:47
you can now get various hacking kits, how-to-hack books.
28
107330
4000
poţi obţine diferite kit-uri de hacking, cărţi despre hacking.
01:51
And on the left there is a platform from Evolution Robotics,
29
111330
4000
Și în stânga este o platformă de la Evoluția Roboticii,
01:55
where you put a PC on, and you program this thing with a GUI
30
115330
3000
unde folosești un PC, și programezi acest lucru cu un GUI
01:58
to wander around your house and do various stuff.
31
118330
3000
pentru a se plimba prin casa ta și a face diverse lucruri.
02:01
And then there's a higher price point sort of robot toys --
32
121330
3000
Și după care mai sunt cele la preț mare, un fel de roboți jucărie...
02:04
the Sony Aibo. And on the right there, is one that the NEC developed,
33
124330
4000
Sony Aibo. Și în partea dreaptă acolo, este cel pe care l-a dezvoltat NEC ,
02:08
the PaPeRo, which I don't think they're going to release.
34
128330
3000
PaPeRo, pe care nu cred că îl vor lansa.
02:11
But nevertheless, those sorts of things are out there.
35
131330
3000
Dar cu toate acestea, astfel de lucruri există.
02:14
And we've seen, over the last two or three years, lawn-mowing robots,
36
134330
4000
Și am văzut, în ultimii doi sau trei ani, roboți care ară.
02:18
Husqvarna on the bottom, Friendly Robotics on top there, an Israeli company.
37
138330
6000
Husqvarna se află jos, Friendly Robotics sus acolo, o companie israeliană.
02:24
And then in the last 12 months or so
38
144330
2000
Iar în ultimele 12 luni sau așa
02:26
we've started to see a bunch of home-cleaning robots appear.
39
146330
4000
am observat apariția unei mulțimi de roboți care curăță.
02:30
The top left one is a very nice home-cleaning robot
40
150330
3000
În stânga sus este un robot foarte frumos care curăță
02:33
from a company called Dyson, in the U.K. Except it was so expensive --
41
153330
4000
de la o companie pe nume Dyson, din Marea Britanie. Cu excepția că a fost atât de scump...
02:37
3,500 dollars -- they didn't release it.
42
157330
2000
3,500 dolari -- încât nu l-au lansat.
02:39
But at the bottom left, you see Electrolux, which is on sale.
43
159330
3000
Dar în stânga jos vedeți de la Electrolux, care este de vânzare.
02:42
Another one from Karcher.
44
162330
2000
Încă unul de la Karcher.
02:44
At the bottom right is one that I built in my lab
45
164330
2000
În dreapta jos este acela care l-am construit în laboratorul meu
02:46
about 10 years ago, and we finally turned that into a product.
46
166330
3000
acum 10 ani, și într-un final l-am transformat în produs.
02:49
And let me just show you that.
47
169330
2000
Și stați să vă arăt.
02:51
We're going to give this away I think, Chris said, after the talk.
48
171330
4000
Îl vom da pe acesta, cred că Chris a spus asta, după discuție.
02:55
This is a robot that you can go out and buy, and that will clean up your floor.
49
175330
6000
Acesta este un robot pe care poți să te duci să îl cumperi, care îți va curăța podeaua.
03:05
And it starts off sort of just going around in ever-increasing circles.
50
185330
5000
Și când începe să funcționeze, merge în cercuri tot mai mari.
03:10
If it hits something -- you people see that?
51
190330
4000
Dacă cumva se lovește de ceva -- ați văzut?
03:14
Now it's doing wall-following, it's following around my feet
52
194330
3000
Acum merge de-alungul peretelui, merge în jurul picioarelor mele
03:17
to clean up around me. Let's see, let's --
53
197330
4000
să curețe ce e în jurul meu. Hai să vedem, hai să...
03:21
oh, who stole my Rice Krispies? They stole my Rice Krispies!
54
201330
5000
oh, cine mi-a furat Rice Krispies-urile mele? Mi-au furat Rice Krispies-urile mele.
03:26
(Laughter)
55
206330
6000
(Râsete)
03:32
Don't worry, relax, no, relax, it's a robot, it's smart!
56
212330
3000
Nu vă faceți griji, relaxați-vă, serios, relaxați-vă, e un robot, e inteligent.
03:35
(Laughter)
57
215330
3000
(Râsete)
03:38
See, the three-year-old kids, they don't worry about it.
58
218330
4000
Vedeți, copiii de 3 ani, lor nu le pasă.
03:42
It's grown-ups that get really upset.
59
222330
2000
Adulții sunt cei care chiar se supără.
03:44
(Laughter)
60
224330
1000
(Râsete)
03:45
We'll just put some crap here.
61
225330
2000
Vom pune aici niște gunoi.
03:47
(Laughter)
62
227330
4000
(Râsete)
03:51
Okay.
63
231330
2000
Ok.
03:53
(Laughter)
64
233330
4000
(Râsete)
03:57
I don't know if you see -- so, I put a bunch of Rice Krispies there,
65
237330
3000
Nu știu dacă vedeți - deci, am pus niște Rice Krispies aici,
04:00
I put some pennies, let's just shoot it at that, see if it cleans up.
66
240330
7000
am pus niște monezi, să vedem dacă va curăța totul.
04:10
Yeah, OK. So --
67
250330
2000
Da. Ok, deci...
04:12
we'll leave that for later.
68
252330
4000
O să lăsăm asta pentru mai târziu.
04:16
(Applause)
69
256330
5000
(Aplauze)
04:22
Part of the trick was building a better cleaning mechanism, actually;
70
262330
4000
O parte din truc a fost să fie construit un mecanism care să curețe mai bine, defapt;
04:26
the intelligence on board was fairly simple.
71
266330
4000
inteligența de pe bord a fost destul de simplă.
04:30
And that's true with a lot of robots.
72
270330
2000
Și asta este adevărat legat de mulți roboți.
04:32
We've all, I think, become, sort of computational chauvinists,
73
272330
4000
Eu cred că toți am devenit un fel de șoviniști computaționali,
04:36
and think that computation is everything,
74
276330
2000
și credem că totul este în computație,
04:38
but the mechanics still matter.
75
278330
2000
dar mecanica își are totuși rostul.
04:40
Here's another robot, the PackBot,
76
280330
3000
Aici este un alt robot, PackBot,
04:43
that we've been building for a bunch of years.
77
283330
2000
pe care l-am construit în vreo câțiva ani.
04:45
It's a military surveillance robot, to go in ahead of troops --
78
285330
6000
Este un robot de supraveghere militară, care merge înaintea trupelor,
04:51
looking at caves, for instance.
79
291330
3000
care se uită la peșteri, de exemplu.
04:54
But we had to make it fairly robust,
80
294330
2000
Dar a trebuit să îl facem destul de robust,
04:56
much more robust than the robots we build in our labs.
81
296330
7000
mult mai robust decât roboții pe care i-am construit în laboratoarele noastre.
05:03
(Laughter)
82
303330
3000
(Râsete)
05:12
On board that robot is a PC running Linux.
83
312330
4000
În sistemul acelui robot rulează un PC Linux.
05:16
It can withstand a 400G shock. The robot has local intelligence:
84
316330
6000
Poate face față la un șoc de 400G. Robotul are inteligență locală:
05:22
it can flip itself over, can get itself into communication range,
85
322330
6000
se poate da peste cap, poate determina raza de comunicare,
05:28
can go upstairs by itself, et cetera.
86
328330
3000
poate urca singur scările, etc.
05:38
Okay, so it's doing local navigation there.
87
338330
4000
Ok, acolo face navigație locală.
05:42
A soldier gives it a command to go upstairs, and it does.
88
342330
6000
Un soldat îi dă o comandă să meargă sus pe scări, și chiar face asta.
05:49
That was not a controlled descent.
89
349330
3000
Aceea nu a fost o coborâre controlată.
05:52
(Laughter)
90
352330
2000
(Râsete)
05:54
Now it's going to head off.
91
354330
2000
Acum va merge mai departe.
05:56
And the big breakthrough for these robots, really, was September 11th.
92
356330
5000
Și marea lansare a acestor roboți a fost, defapt, pe 11 Septembrie.
06:01
We had the robots down at the World Trade Center late that evening.
93
361330
4000
Am avut acești roboți jos la World Trade Center târziu în acea seară.
06:06
Couldn't do a lot in the main rubble pile,
94
366330
2000
Nu au putut face prea mult în grămezile mari de moloz,
06:08
things were just too -- there was nothing left to do.
95
368330
3000
lucrurile au fost prea... nu prea a rămas nimic de făcut.
06:11
But we did go into all the surrounding buildings that had been evacuated,
96
371330
5000
Dar am mers în clădirile din apropiere care au fost evacuate,
06:16
and searched for possible survivors in the buildings
97
376330
3000
și am căutat posibili supraviețuitori în clădiri
06:19
that were too dangerous to go into.
98
379330
2000
în care era prea periculos să intrăm.
06:21
Let's run this video.
99
381330
2000
Să rulăm acest video.
06:23
Reporter: ...battlefield companions are helping to reduce the combat risks.
100
383330
3000
Reporter: ... trupele de apărare ajută la reducererea riscurilor de atac.
06:26
Nick Robertson has that story.
101
386330
3000
Nick Robertson are povestea aceea.
06:31
Rodney Brooks: Can we have another one of these?
102
391330
2000
Rodney Brooks: Mai putem avea încă unul din aceștia?
06:38
Okay, good.
103
398330
2000
Ok, bine.
06:43
So, this is a corporal who had seen a robot two weeks previously.
104
403330
3000
Acesta este un caporal care văzuse un robot cu două săptămâni înainte.
06:48
He's sending robots into caves, looking at what's going on.
105
408330
4000
El trimite roboți în peșteri, să observe ce se întâmplă.
06:52
The robot's being totally autonomous.
106
412330
2000
Robotul este în totalitate autonom.
06:54
The worst thing that's happened in the cave so far
107
414330
4000
Cel mai groaznic lucru care s-a petrecut până acum în peșteră
06:58
was one of the robots fell down ten meters.
108
418330
3000
este că unul dintre roboți a căzut zece metri.
07:08
So one year ago, the US military didn't have these robots.
109
428330
3000
Așa că în urmă cu un an, trupele militare americane nu aveau acești roboți.
07:11
Now they're on active duty in Afghanistan every day.
110
431330
2000
Acum sunt activi la datorie în Afghanistan în fiecare zi.
07:13
And that's one of the reasons they say a robot invasion is happening.
111
433330
3000
Și acela este unul dintre motivele pentru care ei spun că o invazie de roboți se întâmplă.
07:16
There's a sea change happening in how -- where technology's going.
112
436330
4000
Acum are loc o schimbare... direcția în care merge tehnologia.
07:20
Thanks.
113
440330
2000
Mulțumesc.
07:23
And over the next couple of months,
114
443330
2000
În următoarele luni,
07:25
we're going to be sending robots in production
115
445330
3000
vom trimite roboți în producție
07:28
down producing oil wells to get that last few years of oil out of the ground.
116
448330
4000
să producă sonde de petrol, pentru a extrage acei ultimi ani de petrol din pământ.
07:32
Very hostile environments, 150˚ C, 10,000 PSI.
117
452330
4000
Medii foarte ostile, 150 centigrade, 10.000 PSI.
07:36
Autonomous robots going down, doing this sort of work.
118
456330
4000
Roboții autonomi merg în adâncuri, efectuând astfel de lucruri.
07:40
But robots like this, they're a little hard to program.
119
460330
3000
Dar roboți ca aceștia, sunt puțin mai greu de programat.
07:43
How, in the future, are we going to program our robots
120
463330
2000
Cum vom programa în viitor roboții
07:45
and make them easier to use?
121
465330
2000
și îi vom face mai ușor de utilizat?
07:47
And I want to actually use a robot here --
122
467330
3000
Și chiar vreau aici să folosesc un robot...
07:50
a robot named Chris -- stand up. Yeah. Okay.
123
470330
5000
un robot pe nume Chris - ridica-te. Da. Ok.
07:57
Come over here. Now notice, he thinks robots have to be a bit stiff.
124
477330
4000
Vin-o aici. Acum observați, roboții trebuie să fie puțin rigizi.
08:01
He sort of does that. But I'm going to --
125
481330
3000
El este oarecum asa. Dar voi...
08:04
Chris Anderson: I'm just British. RB: Oh.
126
484330
2000
Chris Anderson: Sunt britanic doar. RB: Oh.
08:06
(Laughter)
127
486330
2000
(Râsete)
08:08
(Applause)
128
488330
2000
(Aplauze)
08:10
I'm going to show this robot a task. It's a very complex task.
129
490330
3000
Îi voi arăta acestui robot un lucru. Un lucru foarte complex.
08:13
Now notice, he nodded there, he was giving me some indication
130
493330
3000
Acum observați, a dat din cap, mi-a dat niște indicații
08:16
he was understanding the flow of communication.
131
496330
3000
el a înțeles cursul comunicării.
08:19
And if I'd said something completely bizarre
132
499330
2000
Și dacă aș fi spus ceva complet bizar
08:21
he would have looked askance at me, and regulated the conversation.
133
501330
3000
s-ar fi uitat la mine bănuitor, și ar fi condus discuția.
08:24
So now I brought this up in front of him.
134
504330
3000
Așa că i-am adus asta în fața sa.
08:27
I'd looked at his eyes, and I saw his eyes looked at this bottle top.
135
507330
4000
M-am uitat în ochii lui, și am observat că ochii lui s-au îndreptat către această gură de sticlă.
08:31
And I'm doing this task here, and he's checking up.
136
511330
2000
Și voi face lucrul următor, și el mă urmărește.
08:33
His eyes are going back and forth up to me, to see what I'm looking at --
137
513330
3000
Ochii săi se rotesc, la mine să vadă la ce mă uit,
08:36
so we've got shared attention.
138
516330
2000
așadar avem o atenție împărțită.
08:38
And so I do this task, and he looks, and he looks to me
139
518330
3000
Și în timp ce fac lucrul acesta, și el privește, și se uită la mine
08:41
to see what's happening next. And now I'll give him the bottle,
140
521330
4000
să vadă ce se va întâmpla după aceea. Acum îi voi da sticla,
08:45
and we'll see if he can do the task. Can you do that?
141
525330
2000
și vom vedea dacă va putea face lucrul acela. Poți face asta?
08:47
(Laughter)
142
527330
3000
(Râsete)
08:50
Okay. He's pretty good. Yeah. Good, good, good.
143
530330
4000
Ok. Se pricepe. Da. Bine, bine, bine.
08:54
I didn't show you how to do that.
144
534330
2000
Nu ți-am arătat cum se face lucrul acela.
08:56
Now see if you can put it back together.
145
536330
2000
Acum vezi dacă poți să le pui toate laolaltă.
08:58
(Laughter)
146
538330
2000
(Râsete)
09:00
And he thinks a robot has to be really slow.
147
540330
1000
Și el crede că un robot trebuie să fie foarte încet.
09:01
Good robot, that's good.
148
541330
2000
Bun robot, este bine.
09:03
So we saw a bunch of things there.
149
543330
2000
Așadar putem face o gramadă de lucruri.
09:06
We saw when we're interacting,
150
546330
3000
Observăm că atunci când interacționăm,
09:09
we're trying to show someone how to do something, we direct their visual attention.
151
549330
4000
încercăm să arătăm cuiva cum să facă un lucru, direcționăm atenția lor vizuală.
09:13
The other thing communicates their internal state to us,
152
553330
4000
Celălalt lucru ne comunică starea sa interioară,
09:17
whether he's understanding or not, regulates a social interaction.
153
557330
3000
dacă înțelege sau nu, coordonează o interacțiune socială.
09:20
There was shared attention looking at the same sort of thing,
154
560330
2000
A fost atenție împărțită către același gen de lucru,
09:22
and recognizing socially communicated reinforcement at the end.
155
562330
4000
iar la sfârșit recunoaşterea comunicării sociale aprofundate.
09:26
And we've been trying to put that into our lab robots
156
566330
3000
Și încercăm să implementăm aceasta în laboratoarele noastre
09:29
because we think this is how you're going to want to interact with robots in the future.
157
569330
4000
deoarece credem că așa vom vrea să interacționăm cu roboții în viitor.
09:33
I just want to show you one technical diagram here.
158
573330
2000
Vreau doar să vă arăt o diagramă tehnică aici.
09:35
The most important thing for building a robot that you can interact with socially
159
575330
4000
Cel mai important lucru în a construi un robot cu care poți interacționa social
09:39
is its visual attention system.
160
579330
2000
este sistemul său vizual de atenție.
09:41
Because what it pays attention to is what it's seeing
161
581330
3000
Deoarece la ce acordă atenție este către ce se uită
09:44
and interacting with, and what you're understanding what it's doing.
162
584330
3000
și cu care interacționează, și ce înțelegi tu că face.
09:47
So in the videos I'm about to show you,
163
587330
3000
Așadar în filmulețele pe care vi le voi prezenta,
09:50
you're going to see a visual attention system on a robot
164
590330
4000
veți vedea un sistem de atenție vizuală de la un robot
09:54
which has -- it looks for skin tone in HSV space,
165
594330
4000
care are... se uită după nuanța pielii în spațiul HSV,
09:58
so it works across all human colorings.
166
598330
4000
și deci are de-aface cu, știți voi, toate culorile omenești.
10:02
It looks for highly saturated colors, from toys.
167
602330
2000
Se uită după culori intens saturate, de la jucării.
10:04
And it looks for things that move around.
168
604330
2000
Și se uită după lucruri care se mișcă.
10:06
And it weights those together into an attention window,
169
606330
3000
Și le cântărește pe acelea într-o fereastră de atenție,
10:09
and it looks for the highest-scoring place --
170
609330
2000
și se uită după punctul cu cele mai multe scoruri...
10:11
the stuff where the most interesting stuff is happening --
171
611330
2000
lucrurile unde se întâmplă cele mai interesante lucruri.
10:13
and that is what its eyes then segue to.
172
613330
4000
Și astea sunt după ce se uită ochii săi.
10:17
And it looks right at that.
173
617330
2000
Și se uită direct la acel lucru.
10:19
At the same time, some top-down sort of stuff:
174
619330
3000
În același timp, un fel de mișcare de jos în sus:
10:22
might decide that it's lonely and look for skin tone,
175
622330
3000
poate decide că se simte singur și se uită după nuanța pielii,
10:25
or might decide that it's bored and look for a toy to play with.
176
625330
3000
sau poate decide că este plictisit și se va uita după o jucărie cu care să se joace.
10:28
And so these weights change.
177
628330
2000
Așa asta cântărește o schimbare.
10:30
And over here on the right,
178
630330
2000
Și aici în partea dreaptă,
10:32
this is what we call the Steven Spielberg memorial module.
179
632330
3000
este ceea ce numim modului memorial Steven Spielberg.
10:35
Did people see the movie "AI"? (Audience: Yes.)
180
635330
2000
Au văzut cumva oamenii filmul AI? Publicul: Da.
10:37
RB: Yeah, it was really bad, but --
181
637330
2000
RB: Mda, a fost chiar rău, dar...
10:39
remember, especially when Haley Joel Osment, the little robot,
182
639330
4000
tineți minte, chiar când Haley Joel Osment, robotul cel mic,
10:43
looked at the blue fairy for 2,000 years without taking his eyes off it?
183
643330
4000
s-a uitat pentru 2.000 de ani la zâna cea albastră fără ca să își ia ochii de pe ea?
10:47
Well, this gets rid of that,
184
647330
2000
Păi, acest lucru se debarasează de acesta,
10:49
because this is a habituation Gaussian that gets negative,
185
649330
4000
deoarece este un obișnuiță gaussiană care devine negativă,
10:53
and more and more intense as it looks at one thing.
186
653330
3000
și din ce în ce mai intensă deoarece privește la un singur lucru.
10:56
And it gets bored, so it will then look away at something else.
187
656330
3000
Și se plictisește, și se va uita după aceea la altceva.
10:59
So, once you've got that -- and here's a robot, here's Kismet,
188
659330
4000
Așa că, odată ce ai acel lucru... și aici e un robot, aici e Kismet,
11:03
looking around for a toy. You can tell what it's looking at.
189
663330
4000
uitându-se după o jucărie. Poți spune după ce se uită.
11:07
You can estimate its gaze direction from those eyeballs covering its camera,
190
667330
5000
Poți estima direcția privirii din acei ochi care acoperă obiectivul său,
11:12
and you can tell when it's actually seeing the toy.
191
672330
3000
și poți spune când anume privește la jucărie.
11:15
And it's got a little bit of an emotional response here.
192
675330
2000
Și are și un pic de reacție emoțională aici.
11:17
(Laughter)
193
677330
1000
(Râsete)
11:18
But it's still going to pay attention
194
678330
2000
Dar va fi atent în continuare
11:20
if something more significant comes into its field of view --
195
680330
4000
dacă cumva ceva mai important intră în câmpul său vizual
11:24
such as Cynthia Breazeal, the builder of this robot, from the right.
196
684330
4000
cum ar fi Cynthia Breazeal, constructorul acestui robot... din dreapta.
11:28
It sees her, pays attention to her.
197
688330
5000
O vede, îi atent la ea.
11:33
Kismet has an underlying, three-dimensional emotional space,
198
693330
4000
Kismet are un spațiu emoțional tridimensional implementat,
11:37
a vector space, of where it is emotionally.
199
697330
3000
un spațiu vectorial,care arată unde se situează emoțional.
11:40
And at different places in that space, it expresses --
200
700330
5000
Și în locuri diferite din acel spațiu exprimă...
11:46
can we have the volume on here?
201
706330
2000
putem avea volumul aici?
11:48
Can you hear that now, out there? (Audience: Yeah.)
202
708330
2000
Mă auziți acum, acolo? Public: Da.
11:50
Kismet: Do you really think so? Do you really think so?
203
710330
5000
Kismet: Chiar credeți? Chiar credeți?
11:57
Do you really think so?
204
717330
2000
Chiar credeți?
12:00
RB: So it's expressing its emotion through its face
205
720330
3000
RB: Își exprimă emoția prin figura sa
12:03
and the prosody in its voice.
206
723330
2000
și prozodia în vocea sa.
12:05
And when I was dealing with my robot over here,
207
725330
4000
Și când aveam de-aface cu robotul meu aici,
12:09
Chris, the robot, was measuring the prosody in my voice,
208
729330
3000
Chris, robotul, îmi măsura prozodia din vocea mea,
12:12
and so we have the robot measure prosody for four basic messages
209
732330
5000
și așa avem măsurătoarea prozodiei de către robot pentru patru mesaje de bază
12:17
that mothers give their children pre-linguistically.
210
737330
4000
pe care mamele le dau copiilor lor pre-linguistic.
12:21
Here we've got naive subjects praising the robot:
211
741330
3000
Aici avem niște subiecți naivi lăudând robotul,
12:26
Voice: Nice robot.
212
746330
2000
Voce: Bun robot.
12:29
You're such a cute little robot.
213
749330
2000
Ești așa un robot mic și scump.
12:31
(Laughter)
214
751330
2000
(Râsete)
12:33
RB: And the robot's reacting appropriately.
215
753330
2000
Și robotul reacționează aproximativ.
12:35
Voice: ...very good, Kismet.
216
755330
4000
Voce: ...foarte bine, Kismet.
12:40
(Laughter)
217
760330
2000
(Râsete)
12:42
Voice: Look at my smile.
218
762330
2000
Voce: Uite-te la zâmbetul meu.
12:46
RB: It smiles. She imitates the smile. This happens a lot.
219
766330
3000
RB: Zâmbește. Ea imită zămbetul. Asta se întâmplă des.
12:49
These are naive subjects.
220
769330
2000
Aceștia sunt subiecți nativi.
12:51
Here we asked them to get the robot's attention
221
771330
3000
Aici i-am rugat să atragă atenția robotului
12:54
and indicate when they have the robot's attention.
222
774330
3000
și să indice când au captat atenția robotului.
12:57
Voice: Hey, Kismet, ah, there it is.
223
777330
4000
Voce: Hei, Kismet, a, uite-o.
13:01
RB: So she realizes she has the robot's attention.
224
781330
4000
RB: Ea realizează că a captat atenția robotului.
13:08
Voice: Kismet, do you like the toy? Oh.
225
788330
4000
Voce: Kismet, chiar îți place jucăria? Oh.
13:13
RB: Now, here they're asked to prohibit the robot,
226
793330
2000
RB: Acum, sunt rugați să îi interzică robotului ceva,
13:15
and this first woman really pushes the robot into an emotional corner.
227
795330
4000
și prima femeie chiar îl pune pe robot într-o situație emoționantă.
13:19
Voice: No. No. You're not to do that. No.
228
799330
5000
Voce: Nu. Nu. Nu ai voie. Nu.
13:24
(Laughter)
229
804330
3000
(Râsete)
13:27
Not appropriate. No. No.
230
807330
6000
Voce: Nu e frumos. Nu. Nu.
13:33
(Laughter)
231
813330
3000
(Râsete)
13:36
RB: I'm going to leave it at that.
232
816330
2000
RB: O voi lăsa aici.
13:38
We put that together. Then we put in turn taking.
233
818330
2000
Am pus asta laolaltă. Și după aceea l-am făcut să vorbească.
13:40
When we talk to someone, we talk.
234
820330
3000
Când discutăm cu cineva, vorbim.
13:43
Then we sort of raise our eyebrows, move our eyes,
235
823330
4000
După care ne ridicăm cumva sprâncenele, ne mișcăm ochii,
13:47
give the other person the idea it's their turn to talk.
236
827330
3000
dăm impresia celeilalte persoane că este rândul lor să vorbească.
13:50
And then they talk, and then we pass the baton back and forth between each other.
237
830330
4000
După care ei vorbesc, și după care pasăm mingea unul la altul.
13:54
So we put this in the robot.
238
834330
2000
Și așa am implementat asta și în robot.
13:56
We got a bunch of naive subjects in,
239
836330
2000
Avem câțiva subiecți naivi aici,
13:58
we didn't tell them anything about the robot,
240
838330
2000
nu le-am spus nimic despre robot,
14:00
sat them down in front of the robot and said, talk to the robot.
241
840330
2000
i-am așezat în fața robotului și le-am spus să discute cu robotul.
14:02
Now what they didn't know was,
242
842330
2000
Și ce nu au știut este că,
14:04
the robot wasn't understanding a word they said,
243
844330
2000
robotul nu înțelegea un cuvânt din ce spuneau ei,
14:06
and that the robot wasn't speaking English.
244
846330
3000
și că robotul nu vorbea engleza.
14:09
It was just saying random English phonemes.
245
849330
2000
Doar rostea niște foneme aleatorii în engleză.
14:11
And I want you to watch carefully, at the beginning of this,
246
851330
2000
Și vreau ca voi să vă uitați atenți, la început,
14:13
where this person, Ritchie, who happened to talk to the robot for 25 minutes --
247
853330
4000
unde această persoană, Ritchie, care a vorbit cu robotul pentru 25 de minute...
14:17
(Laughter)
248
857330
2000
(Râsete)
14:19
-- says, "I want to show you something.
249
859330
2000
spune, "Vreau să îți arăt ceva
14:21
I want to show you my watch."
250
861330
2000
vreau să îți arăt ceasul meu."
14:23
And he brings the watch center, into the robot's field of vision,
251
863330
5000
Și aduce ceasul în zona de vedere a robotului,
14:28
points to it, gives it a motion cue,
252
868330
2000
arată către el, îi dă un ton de emoție,
14:30
and the robot looks at the watch quite successfully.
253
870330
2000
iar robotul se uită la ceas chiar cu succes.
14:32
We don't know whether he understood or not that the robot --
254
872330
3000
Nu știm dacă el a înteles sau nu că robotul...
14:36
Notice the turn-taking.
255
876330
2000
Observați schimbul de roluri.
14:38
Ritchie: OK, I want to show you something. OK, this is a watch
256
878330
3000
Ritchie: Ok, vreau să îți arăt ceva. Ok, acesta este un ceas
14:41
that my girlfriend gave me.
257
881330
3000
pe care mi l-a dat prietena mea.
14:44
Robot: Oh, cool.
258
884330
2000
Robot: Oh, super.
14:46
Ritchie: Yeah, look, it's got a little blue light in it too. I almost lost it this week.
259
886330
4000
Ritchie: Da, uite-te, are o lumină mică albastră înăuntru. Aproape că l-am pierdut săptămâna asta.
14:51
(Laughter)
260
891330
4000
(Râsete)
14:55
RB: So it's making eye contact with him, following his eyes.
261
895330
3000
RB: Deci are un contact vizual cu el, urmărindu-i ochii.
14:58
Ritchie: Can you do the same thing? Robot: Yeah, sure.
262
898330
2000
Ritchie: Poți face același lucru? Robot: Da, cum să nu.
15:00
RB: And they successfully have that sort of communication.
263
900330
2000
RB: Și au acest mod de comunicare cu succes.
15:02
And here's another aspect of the sorts of things that Chris and I were doing.
264
902330
4000
Și mai există un aspect legat de genul de lucruri pe care eu și Chris le făceam.
15:06
This is another robot, Cog.
265
906330
2000
Acesta este un alt robot, Cog.
15:08
They first make eye contact, and then, when Christie looks over at this toy,
266
908330
6000
Prima dată se privesc, după care, în timp ce Christie se uită la jucăria lui,
15:14
the robot estimates her gaze direction
267
914330
2000
robotul estimează direcția în care se uită
15:16
and looks at the same thing that she's looking at.
268
916330
2000
și se uită la același lucrul la care se uită și ea.
15:18
(Laughter)
269
918330
1000
(Râsete)
15:19
So we're going to see more and more of this sort of robot
270
919330
3000
Deci urmează să vedem tot mai mult acest gen de robot
15:22
over the next few years in labs.
271
922330
2000
în următorii ani în laboratoare.
15:24
But then the big questions, two big questions that people ask me are:
272
924330
5000
Dar după aceea marile întrebări, cele două mari întrebări pe care oamenii mi le pun:
15:29
if we make these robots more and more human-like,
273
929330
2000
dacă facem acești roboți tot mai mult asemănători cu oamenii,
15:31
will we accept them, will we -- will they need rights eventually?
274
931330
5000
îi vom accepta cumva, oare... nu vor avea nevoie eventual de drepturi?
15:36
And the other question people ask me is, will they want to take over?
275
936330
3000
Iar cealaltă întrebare pe care mi-o pun oamenii este - vor vrea să fie la putere?
15:39
(Laughter)
276
939330
1000
(Râsete)
15:40
And on the first -- you know, this has been a very Hollywood theme
277
940330
3000
Iar la prima -- știți voi, asta a fost o temă la Hollywood
15:43
with lots of movies. You probably recognize these characters here --
278
943330
3000
în multe filme. Probabil recunoașteți aceste personaje aici...
15:46
where in each of these cases, the robots want more respect.
279
946330
4000
unde în fiecare din aceste cazuri, roboții vor mai mult respect.
15:50
Well, do you ever need to give robots respect?
280
950330
3000
Păi, a fost cazul să respectaţi roboți vreodată?
15:54
They're just machines, after all.
281
954330
2000
Până la urmă sunt niște mașini.
15:56
But I think, you know, we have to accept that we are just machines.
282
956330
4000
Dar cred că, știți voi, trebuie să acceptăm că noi suntem doar mașini.
16:00
After all, that's certainly what modern molecular biology says about us.
283
960330
5000
Cu toate acestea, acesta este cu siguranță lucrul pe care ni-l spune biologia moleculară despre noi.
16:05
You don't see a description of how, you know,
284
965330
3000
Nu poți vedea o descriere despre, știți voi,
16:08
Molecule A, you know, comes up and docks with this other molecule.
285
968330
4000
Molecula A, vine și se unește cu cealaltă moleculă.
16:12
And it's moving forward, you know, propelled by various charges,
286
972330
3000
Și se mișcă înainte coordonată de diverse energii
16:15
and then the soul steps in and tweaks those molecules so that they connect.
287
975330
4000
după care sufletul* vine în scenă și adaptează acele molecule pentru ca ele să se conecteze.
16:19
It's all mechanistic. We are mechanism.
288
979330
3000
Totul este mecanic, noi suntem un mecanism.
16:22
If we are machines, then in principle at least,
289
982330
3000
Dacă suntem mașini, atunci măcar în principiu,
16:25
we should be able to build machines out of other stuff,
290
985330
4000
ar trebui să putem construi mașini din alte lucruri,
16:29
which are just as alive as we are.
291
989330
4000
care sunt la fel de în viață cum suntem și noi.
16:33
But I think for us to admit that,
292
993330
2000
Dar cred că pentru ca noi să recunoaștem asta,
16:35
we have to give up on our special-ness, in a certain way.
293
995330
3000
trebuie să renunțăm la felul nostru special, într-un anume fel.
16:38
And we've had the retreat from special-ness
294
998330
2000
Și ne-am complăcut în statutul nostru special
16:40
under the barrage of science and technology many times
295
1000330
3000
sub acoperirea științei și tehnologiei de multe ori
16:43
over the last few hundred years, at least.
296
1003330
2000
în ultimele secole, cel puțin.
16:45
500 years ago we had to give up the idea
297
1005330
2000
Acum 500 de ani a trebuit să renunțăm la ideea
16:47
that we are the center of the universe
298
1007330
3000
că suntem centrul universului
16:50
when the earth started to go around the sun;
299
1010330
2000
atunci când soarele a început să se rotească în jurul pământului;
16:52
150 years ago, with Darwin, we had to give up the idea we were different from animals.
300
1012330
5000
acum 150 de ani, cu Darwin, a trebuit să renunțăm la ideea că suntem diferiți de animale.
16:57
And to imagine -- you know, it's always hard for us.
301
1017330
3000
Și ca să ne imaginăm... este întotdeauna greu pentru noi.
17:00
Recently we've been battered with the idea that maybe
302
1020330
3000
Știți voi, am fost recent copleșiți de ideea că poate
17:03
we didn't even have our own creation event, here on earth,
303
1023330
2000
nici măcar nu am fi avut momenul nostru de creație, aici pe pământ,
17:05
which people didn't like much. And then the human genome said,
304
1025330
3000
pe care oamenii nu l-au prea plăcut. Iar atunci genomul uman a spus,
17:08
maybe we only have 35,000 genes. And that was really --
305
1028330
3000
poate avem doar 35.000 de gene. Iar asta a fost chiar...
17:11
people didn't like that, we've got more genes than that.
306
1031330
3000
oamenilor chiar nu le-a plăcut, avem mai multe gene de atâta.
17:14
We don't like to give up our special-ness, so, you know,
307
1034330
3000
Nu ne place să renunțăm la felul nostru de a fi speciali, deci, știți voi,
17:17
having the idea that robots could really have emotions,
308
1037330
2000
ideea că roboții ar putea într-adevăr să aibă emoții,
17:19
or that robots could be living creatures --
309
1039330
2000
sau că roboții ar putea fi creaturi în viață...
17:21
I think is going to be hard for us to accept.
310
1041330
2000
Cred că va fi greu să acceptăm asta.
17:23
But we're going to come to accept it over the next 50 years or so.
311
1043330
4000
Dar vom ajunge să acceptăm asta în următorii 50 de ani.
17:27
And the second question is, will the machines want to take over?
312
1047330
3000
Iar cea de-a doua întrebare este, vor veni la putere mașinile?
17:30
And here the standard scenario is that we create these things,
313
1050330
5000
Iar aici este scenariul standard cum că noi creăm lucrurile,
17:35
they grow, we nurture them, they learn a lot from us,
314
1055330
3000
ele cresc, noi le alimentăm, ele învață mult de la noi,
17:38
and then they start to decide that we're pretty boring, slow.
315
1058330
4000
după care ele încep să decidă că suntem destul de plictisitori, înceți.
17:42
They want to take over from us.
316
1062330
2000
Vor să vină peste noi la putere.
17:44
And for those of you that have teenagers, you know what that's like.
317
1064330
3000
Și pentru aceia dintre voi care aveți copii tineri, știți cum e să fie așa.
17:47
(Laughter)
318
1067330
1000
(Râsete)
17:48
But Hollywood extends it to the robots.
319
1068330
3000
Dar Hollywood extinde ideea cu roboții.
17:51
And the question is, you know,
320
1071330
3000
Iar întrebarea este, știți voi,
17:54
will someone accidentally build a robot that takes over from us?
321
1074330
4000
va construi cumva cineva accidental un robot care va veni peste noi la putere?
17:58
And that's sort of like this lone guy in the backyard,
322
1078330
3000
Iar acela este ca acest tip singuratic din curtea din spate,
18:01
you know -- "I accidentally built a 747."
323
1081330
3000
și, știți voi, "Am construit accidental un 747."
18:04
I don't think that's going to happen.
324
1084330
2000
Știți voi, eu nu știam ce se va întâmpla defapt.
18:06
And I don't think --
325
1086330
2000
Și nu cred...
18:08
(Laughter)
326
1088330
1000
(Râsete)
18:09
-- I don't think we're going to deliberately build robots
327
1089330
3000
...nu cred că vom construi deliberat roboți
18:12
that we're uncomfortable with.
328
1092330
2000
cu care nu suntem de acord.
18:14
We'll -- you know, they're not going to have a super bad robot.
329
1094330
2000
Păi, știți voi, ei nu vor avea un robot foarte rău.
18:16
Before that has to come to be a mildly bad robot,
330
1096330
3000
Înaintea lui trebuie să existe un robot rău mediu,
18:19
and before that a not so bad robot.
331
1099330
2000
iar înainte de acela un robot nu chiar așa de rău.
18:21
(Laughter)
332
1101330
1000
(Râsete)
18:22
And we're just not going to let it go that way.
333
1102330
2000
Și chiar nu o vom lăsa lucrurile să meargă în direcţia aia.
18:24
(Laughter)
334
1104330
1000
(Râsete)
18:25
So, I think I'm going to leave it at that: the robots are coming,
335
1105330
6000
Deci,cred că voi încheia aici: roboții vin,
18:31
we don't have too much to worry about, it's going to be a lot of fun,
336
1111330
3000
nu trebuie să ne facem prea multe griji, va fi mare distracție ,
18:34
and I hope you all enjoy the journey over the next 50 years.
337
1114330
4000
și sper că și voi vă veți bucura de călătoria din următorii 50 de ani.
18:38
(Applause)
338
1118330
2000
(Aplauze)
Despre acest site

Acest site vă va prezenta videoclipuri de pe YouTube care sunt utile pentru a învăța limba engleză. Veți vedea lecții de engleză predate de profesori de top din întreaga lume. Faceți dublu clic pe subtitrările în limba engleză afișate pe fiecare pagină video pentru a reda videoclipul de acolo. Subtitrările se derulează în sincron cu redarea videoclipului. Dacă aveți comentarii sau solicitări, vă rugăm să ne contactați folosind acest formular de contact.

https://forms.gle/WvT1wiN1qDtmnspy7