How will AI change the world?

2,024,306 views ・ 2022-12-06

TED-Ed


Proszę kliknąć dwukrotnie na poniższe angielskie napisy, aby odtworzyć film.

Tłumaczenie: Adam Rogoń Korekta: Ola Królikowska
W nadchodzących latach sztuczna inteligencja
00:07
In the coming years, artificial intelligence
0
7336
2169
najprawdopodobniej zmieni zarówno wasze życie, jak i cały świat.
00:09
is probably going to change your life, and likely the entire world.
1
9505
3629
Nikt jednak nie wie, jak dokładnie miałoby się to wydarzyć.
00:13
But people have a hard time agreeing on exactly how.
2
13301
3295
Fragment wywiadu ze Stuartem Rusellem, ekspertem w dziedzinie informatyki
00:16
The following are excerpts from an interview
3
16804
2127
00:18
where renowned computer science professor and AI expert Stuart Russell
4
18931
3504
i sztucznej inteligencji, udzielonego dla Światowego Forum Ekonomicznego,
00:22
helps separate the sense from the nonsense.
5
22435
2586
pomaga ustalić, co jest prawdą, a co nie.
00:25
There’s a big difference between asking a human to do something
6
25313
3754
Istnieje ogromna różnica między poproszeniem o coś człowieka,
00:29
and giving that as the objective to an AI system.
7
29067
3461
a zleceniem tego jako cel systemowi AI.
00:32
When you ask a human to get you a cup of coffee,
8
32528
2628
Kiedy prosimy kogoś o przyniesienie nam kawy,
nie chcemy, żeby stało się to jego życiową misją,
00:35
you don’t mean this should be their life’s mission,
9
35156
2586
00:37
and nothing else in the universe matters.
10
37742
1960
nic innego nie powinno się liczyć
00:39
Even if they have to kill everybody else in Starbucks
11
39702
2586
i nawet gdyby oznaczało to zabicie wszystkich w Starbucksie,
00:42
to get you the coffee before it closes— they should do that.
12
42288
2836
żeby zdążyć przed zamknięciem kawiarni, ten ktoś musi to zrobić.
00:45
No, that’s not what you mean.
13
45124
1627
Nie o to chodzi.
00:46
All the other things that we mutually care about,
14
46751
2294
Na zachowanie człowieka powinno wpływać wiele innych rzeczy
00:49
they should factor into your behavior as well.
15
49045
2169
ważnych dla nas wszystkich.
00:51
And the problem with the way we build AI systems now
16
51214
3169
Problem w tym, że systemy AI dostają od nas stałe cele.
00:54
is we give them a fixed objective.
17
54383
1627
00:56
The algorithms require us to specify everything in the objective.
18
56010
3545
Algorytmy wymagają od nas sprecyzowania wszystkiego w tym celu.
00:59
And if you say, can we fix the acidification of the oceans?
19
59555
3420
Jeśli spytalibyście, czy możemy coś zrobić z zakwaszeniem oceanów,
01:02
Yeah, you could have a catalytic reaction that does that extremely efficiently,
20
62975
4046
to tak, można użyć katalizy, która zadziałałaby bardzo skutecznie,
01:07
but it consumes a quarter of the oxygen in the atmosphere,
21
67021
3253
ale za to pochłania jedną czwartą tlenu z atmosfery,
01:10
which would apparently cause us to die fairly slowly and unpleasantly
22
70274
3712
co skutkowałoby powolną i nieprzyjemną śmiercią wszystkich
01:13
over the course of several hours.
23
73986
1752
w kilka godzin.
01:15
So, how do we avoid this problem?
24
75780
3211
Jak więc uniknąć tego problemu?
01:18
You might say, okay, well, just be more careful about specifying the objective—
25
78991
4088
Możecie powiedzieć, że wystarczy uważać przy określaniu celów,
01:23
don’t forget the atmospheric oxygen.
26
83079
2544
choćby nie zapominając o tlenie.
01:25
And then, of course, some side effect of the reaction in the ocean
27
85873
3545
Kolejnym skutkiem ubocznym katalizy w oceanie
01:29
poisons all the fish.
28
89418
1377
jest zatrucie wszystkich ryb.
01:30
Okay, well I meant don’t kill the fish either.
29
90795
2669
Chodzi mi o to, żeby ich też nie zabijać.
01:33
And then, well, what about the seaweed?
30
93464
1919
A co z wodorostami?
01:35
Don’t do anything that’s going to cause all the seaweed to die.
31
95383
2961
Nie róbmy nic, co doprowadzi do ich zniknięcia.
01:38
And on and on and on.
32
98344
1210
I tak dalej.
01:39
And the reason that we don’t have to do that with humans is that
33
99679
3920
Nie musimy tak postępować z ludźmi,
01:43
humans often know that they don’t know all the things that we care about.
34
103599
4505
bo ludzie rozumieją, że nie wiedzą wszystkiego, o co nam chodzi.
01:48
If you ask a human to get you a cup of coffee,
35
108354
2961
Kiedy poprosimy kogoś o przyniesienie nam kawy,
01:51
and you happen to be in the Hotel George Sand in Paris,
36
111315
2878
będąc w hotelu George Sand w Paryżu,
01:54
where the coffee is 13 euros a cup,
37
114193
2628
gdzie kawa kosztuje 13 euro,
01:56
it’s entirely reasonable to come back and say, well, it’s 13 euros,
38
116821
4171
ten ktoś mógłby całkowicie słusznie wrócić i powiedzieć,
02:00
are you sure you want it, or I could go next door and get one?
39
120992
2961
że to aż 13 euro, i może lepiej byłoby kupić ją gdzieś indziej.
02:03
And it’s a perfectly normal thing for a person to do.
40
123953
2878
Takie zachowanie jest zupełnie normalne dla człowieka.
Gdybym postanowił pomalować wasz dom,
02:07
To ask, I’m going to repaint your house—
41
127039
3003
czy chcielibyście, żebym zdjął rury, po czym zamontował je z powrotem?
02:10
is it okay if I take off the drainpipes and then put them back?
42
130042
3337
02:13
We don't think of this as a terribly sophisticated capability,
43
133504
3128
Nie uważamy tego za jakąś szczególnie wybitną cechę,
02:16
but AI systems don’t have it because the way we build them now,
44
136632
3087
ale systemy AI tak nie potrafią, bo budujemy je tak,
02:19
they have to know the full objective.
45
139719
1793
że muszą znać pełen zakres obowiązku.
02:21
If we build systems that know that they don’t know what the objective is,
46
141721
3753
Jeśli zaczęlibyśmy budować te systemy tak, żeby nie wiedziały, jaki jest cel,
02:25
then they start to exhibit these behaviors,
47
145474
2586
rozwinęłyby one takie zachowania,
02:28
like asking permission before getting rid of all the oxygen in the atmosphere.
48
148060
4046
jak pytanie o zgodę przed pozbyciem się całego tlenu z atmosfery.
02:32
In all these senses, control over the AI system
49
152565
3378
W tych wszystkich przypadkach kontrola nad systemami AI
02:35
comes from the machine’s uncertainty about what the true objective is.
50
155943
4463
jest skutkiem niepewności maszyny co do tego, jaki jest prawdziwy cel.
02:41
And it’s when you build machines that believe with certainty
51
161282
3086
Kiedy jednak zaczynamy budować maszyny, które są przekonane,
02:44
that they have the objective,
52
164368
1418
że znają ten cel,
02:45
that’s when you get this sort of psychopathic behavior.
53
165786
2753
wtedy pojawia się szalone zachowanie.
02:48
And I think we see the same thing in humans.
54
168539
2127
Myślę, że tak samo jest z ludźmi.
02:50
What happens when general purpose AI hits the real economy?
55
170750
4254
Co się dzieje, gdy sztuczna inteligencja zetknie się z gospodarką?
02:55
How do things change? Can we adapt?
56
175379
3587
Co się zmienia? Jak się przyzwyczaić?
02:59
This is a very old point.
57
179175
1835
To bardzo stare zagadnienie.
03:01
Amazingly, Aristotle actually has a passage where he says,
58
181010
3587
Co ciekawe, Arystoteles wspomina o tym w swojej twórczości, mówiąc,
03:04
look, if we had fully automated weaving machines
59
184597
3045
że gdybyśmy mieli automatyczne maszyny do szycia
03:07
and plectrums that could pluck the lyre and produce music without any humans,
60
187642
3837
i samogrające kostki gitarowe tworzące muzykę bez człowieka,
03:11
then we wouldn’t need any workers.
61
191604
2002
nie potrzebowalibyśmy jakichkolwiek robotników.
03:13
That idea, which I think it was Keynes
62
193814
2878
Ta idea, którą, jak sądzę, wygłosił Keyne w 1930 roku,
03:16
who called it technological unemployment in 1930,
63
196692
2836
mówiąca o technologicznym bezrobociu
03:19
is very obvious to people.
64
199528
1919
jest dla ludzi oczywista.
03:21
They think, yeah, of course, if the machine does the work,
65
201447
3086
Myślą oni, że gdyby maszyny wykonywałyby pracę za nich,
03:24
then I'm going to be unemployed.
66
204533
1669
straciliby pracę.
03:26
You can think about the warehouses that companies are currently operating
67
206369
3503
Pomyślcie o magazynach różnych firm zajmujących się e-commerce,
03:29
for e-commerce, they are half automated.
68
209872
2711
które są w połowie zautomatyzowane.
03:32
The way it works is that an old warehouse— where you’ve got tons of stuff piled up
69
212583
4046
Działa to tak, że stary magazyn, w którym są tony przeróżnych rzeczy
03:36
all over the place and humans go and rummage around
70
216629
2461
i mnóstwo plątających się ludzi,
03:39
and then bring it back and send it off—
71
219090
1877
którzy zajmują się tymi rzeczami,
03:40
there’s a robot who goes and gets the shelving unit
72
220967
3586
jest wyposażony w maszyny, które obsługują regały czy półki,
03:44
that contains the thing that you need,
73
224553
1919
na których znajdują się potrzebne rzeczy,
03:46
but the human has to pick the object out of the bin or off the shelf,
74
226472
3629
ale to człowiek musi je wyjąć i przenieść,
03:50
because that’s still too difficult.
75
230101
1877
bo to wciąż zbyt trudne dla AI.
Czy jednak stworzylibyście robota, który zastąpiłby w tym człowieka
03:52
But, at the same time,
76
232019
2002
03:54
would you make a robot that is accurate enough to be able to pick
77
234021
3921
03:57
pretty much any object within a very wide variety of objects that you can buy?
78
237942
4338
i jednocześnie pozbawiłby pracy 3 czy 4 miliony osób?
04:02
That would, at a stroke, eliminate 3 or 4 million jobs?
79
242280
4004
04:06
There's an interesting story that E.M. Forster wrote,
80
246409
3336
E.M. Forster napisał ciekawą opowieść,
04:09
where everyone is entirely machine dependent.
81
249745
3504
w której wszyscy są całkowicie zależni od maszyn.
04:13
The story is really about the fact that if you hand over
82
253499
3754
Tak naprawdę w tej opowieści chodzi o to,
04:17
the management of your civilization to machines,
83
257253
2961
że gdy funkcjonowanie cywilizacji zostanie zawierzone maszynom,
04:20
you then lose the incentive to understand it yourself
84
260214
3504
ta cywilizacja traci wtedy chęć do rozumienia tych maszyn
04:23
or to teach the next generation how to understand it.
85
263718
2544
i chęć do uczenia tego młodych pokoleń.
04:26
You can see “WALL-E” actually as a modern version,
86
266262
3003
Dobrze obrazuje to “WALL-E”,
04:29
where everyone is enfeebled and infantilized by the machine,
87
269265
3628
gdzie każdy jest rozpieszczony i rozleniwiony przez maszyny,
04:32
and that hasn’t been possible up to now.
88
272893
1961
co nie było jak dotąd możliwe.
04:34
We put a lot of our civilization into books,
89
274854
2419
Zapisujemy dokonania cywilizacji w książkach,
04:37
but the books can’t run it for us.
90
277273
1626
ale książki nie wyręczą nas we wszystkim.
04:38
And so we always have to teach the next generation.
91
278899
2795
Musimy więc przekazywać tę wiedzę.
04:41
If you work it out, it’s about a trillion person years of teaching and learning
92
281736
4212
Mowa tu o około bilionie lat nauczania
04:45
and an unbroken chain that goes back tens of thousands of generations.
93
285948
3962
i o nienaruszonej więzi sięgającej tysięcy pokoleń wstecz.
04:50
What happens if that chain breaks?
94
290119
1919
Co się stanie, gdy taka więź się zerwie?
04:52
I think that’s something we have to understand as AI moves forward.
95
292038
3461
Myślę, że musimy to zrozumieć, biorąc pod uwagę rozwój AI.
04:55
The actual date of arrival of general purpose AI—
96
295624
3587
Nie istnieje dokładny dzień pojawienia się tej sztucznej inteligencji.
04:59
you’re not going to be able to pinpoint, it isn’t a single day.
97
299211
3087
Nie da się tego określić.
05:02
It’s also not the case that it’s all or nothing.
98
302298
2294
Nie jest to też takie zerojedynkowe.
05:04
The impact is going to be increasing.
99
304592
2461
Wpływ AI będzie się zwiększać.
05:07
So with every advance in AI,
100
307053
2043
Każdy postęp w rozwoju AI
05:09
it significantly expands the range of tasks.
101
309096
2962
znacznie poszerza zakres zadań.
05:12
So in that sense, I think most experts say by the end of the century,
102
312058
5338
Odwołując się do większości ekspertów, myślę, że pod koniec tego wieku
05:17
we’re very, very likely to have general purpose AI.
103
317396
3337
możliwe jest, że będziemy mieć wyręczającą nas sztuczną inteligencję.
05:20
The median is something around 2045.
104
320733
3754
Mediana to około 2045 rok.
Jestem pod tym względem trochę bardziej konserwatywny.
05:24
I'm a little more on the conservative side.
105
324487
2002
05:26
I think the problem is harder than we think.
106
326489
2085
Myślę, że problem jest większy, niż nam się wydaje.
05:28
I like what John McAfee, he was one of the founders of AI,
107
328574
3253
Spodobało mi się to, co powiedział John McAfee, jeden z twórców AI.
05:31
when he was asked this question, he said, somewhere between five and 500 years.
108
331911
3837
Według niego ten czas to od 5 do 500 lat.
05:35
And we're going to need, I think, several Einsteins to make it happen.
109
335748
3337
I będziemy potrzebowali paru Einsteinów, żeby się to udało.

Original video on YouTube.com
O tej stronie

Na tej stronie poznasz filmy z YouTube, które są przydatne do nauki języka angielskiego. Zobaczysz lekcje angielskiego prowadzone przez najlepszych nauczycieli z całego świata. Kliknij dwukrotnie na angielskie napisy wyświetlane na stronie każdego filmu, aby odtworzyć film od tego miejsca. Napisy przewijają się synchronicznie z odtwarzaniem filmu. Jeśli masz jakieś uwagi lub prośby, skontaktuj się z nami za pomocą formularza kontaktowego.

https://forms.gle/WvT1wiN1qDtmnspy7