How will AI change the world?

1,995,079 views ・ 2022-12-06

TED-Ed


Vă rugăm să faceți dublu clic pe subtitrările în limba engleză de mai jos pentru a reda videoclipul.

Traducător: Ioana Dobre Corector: Mirel-Gabriel Alexa
În anii următori, inteligența artificială (IA)
00:07
In the coming years, artificial intelligence
0
7336
2169
îți va schimba probabil viața, dar și întreaga lume.
00:09
is probably going to change your life, and likely the entire world.
1
9505
3629
Dar oamenii încă dezbat în ce fel.
00:13
But people have a hard time agreeing on exactly how.
2
13301
3295
Ideile următoare sunt dintr-un interviu de la Forumul Economic Mondial
00:16
The following are excerpts from an interview
3
16804
2127
00:18
where renowned computer science professor and AI expert Stuart Russell
4
18931
3504
în care Stuart Russell, profesor renumit de informatică și expert în IA
00:22
helps separate the sense from the nonsense.
5
22435
2586
ne ajută să distingem ideile plauzibile de fantezii.
00:25
There’s a big difference between asking a human to do something
6
25313
3754
E o mare diferență între a-i cere unui om să facă ceva
și a da același obiectiv unui sistem de IA.
00:29
and giving that as the objective to an AI system.
7
29067
3461
00:32
When you ask a human to get you a cup of coffee,
8
32528
2628
Când ceri unui om să îți aducă o cafea,
nu vrei să spui că ar trebuie să fie misiunea vieții lui,
00:35
you don’t mean this should be their life’s mission,
9
35156
2586
00:37
and nothing else in the universe matters.
10
37742
1960
și că nimic altceva pe lume nu mai contează.
00:39
Even if they have to kill everybody else in Starbucks
11
39702
2586
Chiar dacă ar trebui să-i ucidă pe toți din Starbucks
00:42
to get you the coffee before it closes— they should do that.
12
42288
2836
pentru a-ți aduce cafeaua înainte de închidere, să o facă.
Nu, nu la asta te referi.
00:45
No, that’s not what you mean.
13
45124
1627
00:46
All the other things that we mutually care about,
14
46751
2294
Ci că toate celelalte lucruri de care ne pasă tuturor
00:49
they should factor into your behavior as well.
15
49045
2169
trebuie incluse și în comportamentul tău.
00:51
And the problem with the way we build AI systems now
16
51214
3169
Iar problema cu modul în care construim sistemele de IA acum
00:54
is we give them a fixed objective.
17
54383
1627
este că le setăm obiective fixe.
Algoritmii ne solicită să specificăm totul în obiectiv.
00:56
The algorithms require us to specify everything in the objective.
18
56010
3545
00:59
And if you say, can we fix the acidification of the oceans?
19
59555
3420
Dacă spui, spre exemplu, putem rezolva acidificarea oceanelor?
01:02
Yeah, you could have a catalytic reaction that does that extremely efficiently,
20
62975
4046
Da, poți obține o reacție catalitică care rezolvă asta extrem de eficient,
dar care consumă un sfert din oxigenul prezent în atmosferă,
01:07
but it consumes a quarter of the oxygen in the atmosphere,
21
67021
3253
01:10
which would apparently cause us to die fairly slowly and unpleasantly
22
70274
3712
ceea ce ne-ar provoca o moarte lentă și neplăcută,
01:13
over the course of several hours.
23
73986
1752
în decurs de câteva ore.
01:15
So, how do we avoid this problem?
24
75780
3211
Așadar, cum evităm această problemă?
01:18
You might say, okay, well, just be more careful about specifying the objective—
25
78991
4088
Ai putea spune, păi, fii mai atent la specificarea obiectivului
01:23
don’t forget the atmospheric oxygen.
26
83079
2544
și nu uita de oxigenul din atmosferă.
01:25
And then, of course, some side effect of the reaction in the ocean
27
85873
3545
Dar apoi, bineînțeles, un efect secundar al reacției din oceane
01:29
poisons all the fish.
28
89418
1377
otrăvește toți peștii.
01:30
Okay, well I meant don’t kill the fish either.
29
90795
2669
Păi, voiam să spun să nu omorî nici peștii.
01:33
And then, well, what about the seaweed?
30
93464
1919
Dar cum rămâne cu algele?
01:35
Don’t do anything that’s going to cause all the seaweed to die.
31
95383
2961
Să nu faci nimic ce ar putea cauza dispariția tuturor algelor.
01:38
And on and on and on.
32
98344
1210
Și așa mai departe.
01:39
And the reason that we don’t have to do that with humans is that
33
99679
3920
Motivul pentru care nu trebuie să facem asta cu oamenii
e pentru că adesea ei știu că nu știu toate lucrurile care contează pentru noi.
01:43
humans often know that they don’t know all the things that we care about.
34
103599
4505
01:48
If you ask a human to get you a cup of coffee,
35
108354
2961
Dacă ceri unui om să îți aducă o cafea,
01:51
and you happen to be in the Hotel George Sand in Paris,
36
111315
2878
și ești la Hotelul George Sand din Paris,
01:54
where the coffee is 13 euros a cup,
37
114193
2628
unde cafeaua costă 13 euro,
01:56
it’s entirely reasonable to come back and say, well, it’s 13 euros,
38
116821
4171
e perfect normal ca el să se întoarcă și să spună: „Păi, e 13 euro,
02:00
are you sure you want it, or I could go next door and get one?
39
120992
2961
ești sigur că vrei de aici sau mă duc să iau vizavi?”
02:03
And it’s a perfectly normal thing for a person to do.
40
123953
2878
E ceva perfect normal pentru un om.
Sau să întrebe: „O să îți zugrăvesc casa,
02:07
To ask, I’m going to repaint your house—
41
127039
3003
02:10
is it okay if I take off the drainpipes and then put them back?
42
130042
3337
e în regulă dacă scot burlanele și apoi le pun la loc?”
02:13
We don't think of this as a terribly sophisticated capability,
43
133504
3128
Nu ni se pare asta o abilitate prea sofisticată,
02:16
but AI systems don’t have it because the way we build them now,
44
136632
3087
dar sistemele de IA nu o au, întrucât așa cum le proiectăm acum,
02:19
they have to know the full objective.
45
139719
1793
trebuie să știe obiectivul complet.
02:21
If we build systems that know that they don’t know what the objective is,
46
141721
3753
Dacă am construi sisteme care știu că nu știu care este obiectivul,
02:25
then they start to exhibit these behaviors,
47
145474
2586
atunci vor începe să manifeste aceste comportamente,
02:28
like asking permission before getting rid of all the oxygen in the atmosphere.
48
148060
4046
cum ar fi a cere permisiunea înainte de a lua tot oxigenul din atmosferă.
02:32
In all these senses, control over the AI system
49
152565
3378
În toate aceste privințe, controlul asupra sistemului de IA
02:35
comes from the machine’s uncertainty about what the true objective is.
50
155943
4463
vine din incertitudinea mașinii legată de care e obiectivul real.
02:41
And it’s when you build machines that believe with certainty
51
161282
3086
Și abia atunci când construiești mașini care au certitudinea
02:44
that they have the objective,
52
164368
1418
că au un obiectiv,
02:45
that’s when you get this sort of psychopathic behavior.
53
165786
2753
apare acest comportament psihopatic.
02:48
And I think we see the same thing in humans.
54
168539
2127
Și cred că putem vedea același lucru și la oameni.
02:50
What happens when general purpose AI hits the real economy?
55
170750
4254
Ce se va întâmpla când IA de uz general se va lovi de economia reală?
02:55
How do things change? Can we adapt?
56
175379
3587
Cum se vor schimbă lucrurile? Ne vom putea adapta?
02:59
This is a very old point.
57
179175
1835
Aceasta e o idee foarte veche.
03:01
Amazingly, Aristotle actually has a passage where he says,
58
181010
3587
Surprinzător, Aristotel chiar are un pasaj în care spune
03:04
look, if we had fully automated weaving machines
59
184597
3045
că dacă am avea mașini de cusut automate
03:07
and plectrums that could pluck the lyre and produce music without any humans,
60
187642
3837
și plectre ce ar putea ciupi lirele producând muzică fără ajutorul oamenilor,
03:11
then we wouldn’t need any workers.
61
191604
2002
atunci nu am mai avea nevoie de muncitori.
03:13
That idea, which I think it was Keynes
62
193814
2878
Această idee, care cred că îi aparține lui Keynes,
03:16
who called it technological unemployment in 1930,
63
196692
2836
pe care a numit-o șomaj tehnologic în 1930,
03:19
is very obvious to people.
64
199528
1919
e foarte evidentă pentru oameni.
03:21
They think, yeah, of course, if the machine does the work,
65
201447
3086
Se gândesc: „Da, sigur dacă mașina face toată treaba,
03:24
then I'm going to be unemployed.
66
204533
1669
atunci o să rămân șomer.”
03:26
You can think about the warehouses that companies are currently operating
67
206369
3503
Te poți gândi la depozitele pe care companiile le operează
03:29
for e-commerce, they are half automated.
68
209872
2711
pentru comerțul online, care sunt jumătate automatizate.
03:32
The way it works is that an old warehouse— where you’ve got tons of stuff piled up
69
212583
4046
Într-un depozit tradițional unde ai tone de lucruri peste tot,
03:36
all over the place and humans go and rummage around
70
216629
2461
iar oamenii merg și le caută
03:39
and then bring it back and send it off—
71
219090
1877
și apoi le aduc înapoi și le trimit,
03:40
there’s a robot who goes and gets the shelving unit
72
220967
3586
există un robot care aduce unitatea de depozitare
03:44
that contains the thing that you need,
73
224553
1919
ce conține lucrul de care ai nevoie,
03:46
but the human has to pick the object out of the bin or off the shelf,
74
226472
3629
dar omul trebuie să îl ia din coș sau de pe raft,
03:50
because that’s still too difficult.
75
230101
1877
pentru că asta e încă prea dificil.
03:52
But, at the same time,
76
232019
2002
Dar, în același timp,
03:54
would you make a robot that is accurate enough to be able to pick
77
234021
3921
ai crea un robot atât de precis încât să poată lua
03:57
pretty much any object within a very wide variety of objects that you can buy?
78
237942
4338
aproape orice obiect dintr-o varietate de obiecte pe care le poți cumpăra,
04:02
That would, at a stroke, eliminate 3 or 4 million jobs?
79
242280
4004
care ar elimina imediat 3 sau chiar 4 milioane de locuri de muncă?
E o poveste interesantă scrisă de E.M. Forster,
04:06
There's an interesting story that E.M. Forster wrote,
80
246409
3336
04:09
where everyone is entirely machine dependent.
81
249745
3504
în care toată lumea e dependentă de mașini.
04:13
The story is really about the fact that if you hand over
82
253499
3754
Povestea e de fapt despre faptul că dacă lași
04:17
the management of your civilization to machines,
83
257253
2961
conducerea civilizației pe mâna mașinilor,
04:20
you then lose the incentive to understand it yourself
84
260214
3504
pierzi impulsul de a o înțelege tu însuți,
04:23
or to teach the next generation how to understand it.
85
263718
2544
sau de a educa următoarea generație să o înțeleagă.
Poți vedea filmul „WALL-E” ca pe o versiune modernă,
04:26
You can see “WALL-E” actually as a modern version,
86
266262
3003
04:29
where everyone is enfeebled and infantilized by the machine,
87
269265
3628
în care toată lumea e slăbită și infantilizară de mașini,
04:32
and that hasn’t been possible up to now.
88
272893
1961
iar asta nu a fost posibil până acum.
04:34
We put a lot of our civilization into books,
89
274854
2419
Am pus mult din civilizația noastră în cărți,
04:37
but the books can’t run it for us.
90
277273
1626
dar ele nu ne pot înlocui.
04:38
And so we always have to teach the next generation.
91
278899
2795
Așa că trebuie mereu să educăm generația următoare.
04:41
If you work it out, it’s about a trillion person years of teaching and learning
92
281736
4212
Dacă faci un calcul, sunt aproape un trilion de ani de predare și învățare
04:45
and an unbroken chain that goes back tens of thousands of generations.
93
285948
3962
într-un lanț neîntrerupt care dăinuie de zeci de mii de generații.
04:50
What happens if that chain breaks?
94
290119
1919
Ce se întâmplă dacă acel lanț se rupe?
04:52
I think that’s something we have to understand as AI moves forward.
95
292038
3461
Cred că asta e ceva ce trebuie să înțelegem pe măsură ce IA avansează.
04:55
The actual date of arrival of general purpose AI—
96
295624
3587
Data exactă a apariției IA de uz general
04:59
you’re not going to be able to pinpoint, it isn’t a single day.
97
299211
3087
nu se poate știi cu precizie, deoarece nu e o singură zi.
05:02
It’s also not the case that it’s all or nothing.
98
302298
2294
Nu e nici cazul unui scenariu de totul sau nimic.
05:04
The impact is going to be increasing.
99
304592
2461
Impactul va fi din ce în ce mai mare.
05:07
So with every advance in AI,
100
307053
2043
Pe măsură ce IA avansează,
05:09
it significantly expands the range of tasks.
101
309096
2962
își extinde semnificativ gama de sarcini. Deci în sensul acesta,
05:12
So in that sense, I think most experts say by the end of the century,
102
312058
5338
cred că majoritatea experților spun că până la finalul secolului
05:17
we’re very, very likely to have general purpose AI.
103
317396
3337
e foarte probabil să avem IA de uz general.
05:20
The median is something around 2045.
104
320733
3754
Media ar fi undeva prin anul 2045.
05:24
I'm a little more on the conservative side.
105
324487
2002
Eu sunt ceva mai conservator.
05:26
I think the problem is harder than we think.
106
326489
2085
Cred că problema e mai dificilă decât credem.
05:28
I like what John McAfee, he was one of the founders of AI,
107
328574
3253
Îmi place ce a spus John McAfee, unul din fondatorii IA,
05:31
when he was asked this question, he said, somewhere between five and 500 years.
108
331911
3837
când a fost întrebat același lucru, a spus că între cinci și cinci sute de ani.
05:35
And we're going to need, I think, several Einsteins to make it happen.
109
335748
3337
Și cred că vom avea nevoie de câțiva Einsteini ca să se întâmple asta.

Original video on YouTube.com
Despre acest site

Acest site vă va prezenta videoclipuri de pe YouTube care sunt utile pentru a învăța limba engleză. Veți vedea lecții de engleză predate de profesori de top din întreaga lume. Faceți dublu clic pe subtitrările în limba engleză afișate pe fiecare pagină video pentru a reda videoclipul de acolo. Subtitrările se derulează în sincron cu redarea videoclipului. Dacă aveți comentarii sau solicitări, vă rugăm să ne contactați folosind acest formular de contact.

https://forms.gle/WvT1wiN1qDtmnspy7