Is AI Progress Stuck? | Jennifer Golbeck | TED

129,795 views ・ 2024-11-19

TED


Будь ласка, двічі клацніть на англійські субтитри нижче, щоб відтворити відео.

Перекладач: Kseniia Skakun Утверджено: Ilya Rozenberg
00:04
We've built artificial intelligence already
0
4334
2878
Ми вже створили штучний інтелект,
00:07
that, on specific tasks, performs better than humans.
1
7212
3837
який виконує конкретні завдання краще, ніж люди.
00:11
There's AI that can play chess and beat human grandmasters.
2
11049
4505
Є ШІ, який може грати в шахи і перемагати гросмейстерів.
00:15
But since the introduction of generative AI
3
15595
2336
Але з моменту впровадження генеративного ШІ
00:17
to the general public a couple years ago,
4
17973
2544
для широкого загалу кілька років тому,
00:20
there's been more talk about artificial general intelligence, or AGI,
5
20517
5297
все частіше говорять про загальний штучний інтелект (AGI),
00:25
and that describes the idea
6
25814
1418
І ця назва описує ідею
00:27
that there's AI that can perform at or above human levels
7
27232
3879
що існує ШІ, який на рівні людини або навіть краще може виконувати
00:31
on a wide variety of tasks, just like we humans are able to do.
8
31152
4004
найрізноманітніші завдання так само, як це роблять люди.
00:35
And people who think about AGI are worried about what it means
9
35615
3587
І люди, які думають про AGI, стурбовані тим, що станеться,
00:39
if we reach that level of performance in the technology.
10
39244
3754
якщо ми досягнемо такого рівня продуктивності в цій технології.
00:42
Right now, there's people from the tech industry
11
42998
2252
Сьогодні деякі технічні експерти
00:45
coming out and saying
12
45292
1126
висловлюють таку думку:
00:46
"The AI that we're building is so powerful and dangerous
13
46459
2962
“ШІ, який ми створюємо, настільки потужний і небезпечний,
00:49
that it poses a threat to civilization.”
14
49462
2711
що становить загрозу для цивілізації“.
00:52
And they’re going to government and saying,
15
52173
2002
Вони звертаються до урядовців:
00:54
"Maybe you need to regulate us."
16
54217
1794
“Можливо, нас потрібно регулювати“.
00:56
Now normally when an industry makes a powerful new tool,
17
56052
2878
Зазвичай, коли створюють новий потужний інструмент,
00:58
they don't say it poses an existential threat to humanity
18
58930
2920
не кажуть, що він становить екзистенційну загрозу для людства,
01:01
and that it needs to be limited, so why are we hearing that language?
19
61891
3963
і що його потрібно обмежувати. То чому ми чуємо такі розмови?
01:05
And I think there's two main reasons.
20
65895
2128
На мою думку, є дві основні причини.
01:08
One is if your technology is so powerful
21
68064
4046
По-перше, якщо технологія настільки потужна,
01:12
that it can destroy civilization, between now and then,
22
72152
4171
що може знищити цивілізацію, між тим що є і що буде
01:16
there's an awful lot of money to be made with that.
23
76364
3003
можна заробити дуже багато грошей.
01:19
And what better way to convince your investors
24
79409
2461
Хіба не найкращий спосіб переконати інвесторів
01:21
to put some money with you
25
81911
1252
дати вам трохи грошей,
01:23
than to warn that your tool is that dangerous?
26
83204
3045
це попередити їх, що ваш інструмент настільки небезпечний?
01:26
The other is that the idea of AI overtaking humanity
27
86291
3587
Інша причина полягає в тому, що думка про те, що ШІ може захопити людство,
01:29
is truly a cinematic concept.
28
89878
2169
є дійсно кінематографічною концепцією.
01:32
We’ve all seen those movies.
29
92088
2127
Ми всі дивилися такі фільми.
01:34
And it’s kind of entertaining to think about what that would mean now
30
94215
3379
Цікаво поміркувати над тим, що це означало б зараз,
01:37
with tools that we're actually able to put our hands on.
31
97636
3461
з такими інструментами в наших руках.
01:41
In fact, it’s so entertaining that it’s a very effective distraction
32
101097
4505
Насправді це настільки цікаво, що дуже ефективно відволікає
01:45
from the real problems already happening in the world because of AI.
33
105644
4879
від реальних проблем, які вже відбуваються у світі через ШІ.
01:50
The more we think about these improbable futures,
34
110565
3879
Чим більше ми думаємо про це неймовірне майбутнє,
01:54
the less time we spend thinking about how do we correct deepfakes
35
114486
4004
тим менше часу витрачаємо на роздуми над тим, як розвіяти дипфейки,
01:58
or the fact that there's AI right now being used to decide
36
118531
3462
або над тим, що зараз ШІ використовують, щоб вирішити,
02:01
whether or not people are let out of prison,
37
121993
2086
випускати людину з в’язниці чи ні,
02:04
and we know it’s racially biased.
38
124079
2127
попри його расову упередженість.
02:06
But are we anywhere close to actually achieving AGI?
39
126665
3503
Але чи насправді ми наближаємось до AGI?
02:10
Some people think so.
40
130210
1334
Деякі люди думають, що так.
02:11
Elon Musk said that we'll achieve it within a year.
41
131544
2419
Ілон Маск заявив, що це станеться протягом року.
02:13
I think he posted this a few weeks ago.
42
133963
2128
Він опублікував цей пост кілька тижнів тому.
02:16
But like at the same time
43
136132
1502
Але водночас
02:17
Google put out their eye search tool that's supposed to give you the answer
44
137676
3753
Google створив інструмент відстеження погляду, який дає відповідь
02:21
so you don’t have to click on a link,
45
141471
1919
без натискання на посилання,
02:23
and it's not going super well.
46
143431
2169
і він не дуже хороший.
02:25
["How many rocks should I eat?"]
47
145642
1543
[“Скільки каменів треба їсти?“]
02:27
["... at least a single serving of pebbles, geodes or gravel ..."]
48
147227
3128
[»... принаймні одну порцію гальки, жеоди або гравію... “]
02:30
Please don't eat rocks.
49
150355
1209
Тільки не їжте каміння.
02:31
(Laughter)
50
151564
1168
(Сміх)
02:32
Now of course these tools are going to get better.
51
152732
3003
Звичайно, ці інструменти стануть кращими.
02:35
But if we're going to achieve AGI
52
155777
2836
Але якщо ми хочемо досягти AGI
02:38
or if they're even going to fundamentally change the way we work,
53
158613
3420
або якщо вони мають кардинально змінити те, як ми працюємо,
02:42
we need to be in a place where they are continuing
54
162075
2628
нам потрібно, щоб їхні здібності
02:44
on a sharp upward trajectory in terms of their abilities.
55
164703
3795
стрімко розвивалися за висхідною траєкторією.
02:48
And that may be one path.
56
168498
1835
Це може бути один зі шляхів.
02:50
But there's also the possibility that what we're seeing
57
170375
2586
Але, ймовірно, це може бути свідченням того,
02:53
is that these tools have basically achieved
58
173002
2420
що ці інструменти досягли
02:55
what they're capable of doing,
59
175422
1501
піку своїх здібностей,
02:56
and the future is incremental improvements in a plateau.
60
176923
4129
і в майбутньому нас чекають поступові вдосконалення на плато.
03:01
So to understand the AI future,
61
181052
2211
Отже, щоб зрозуміти майбутнє ШІ,
03:03
we need to look at all the hype around it and get under there
62
183304
2920
потрібно подивитися на хайп навколо нього, зазирнути вглиб
03:06
and see what's technically possible.
63
186266
1751
і побачити, що технічно можливо.
03:08
And we also need to think about where are the areas that we need to worry
64
188017
3462
І нам також потрібно подумати про те, які сфери викликають занепокоєння,
03:11
and where are the areas that we don't.
65
191479
1835
а які не викликають.
03:13
So if we want to realize the hype around AI,
66
193857
3086
Тож якщо ми хочемо усвідомити хайп навколо ШІ,
03:16
the one main challenge that we have to solve is reliability.
67
196985
3712
головна проблема, яку ми маємо вирішити, - це надійність.
03:20
These algorithms are wrong all the time, like we saw with Google.
68
200697
4421
Ці алгоритми весь час помиляються, як у згаданому випадку з Google.
03:25
And Google actually came out and said,
69
205118
2002
У Google насправді сказали
03:27
after these bad search results were popularized,
70
207162
3211
після того, як ці погані результати пошуку отримали розголос,
03:30
that they don't know how to fix this problem.
71
210415
2169
що вони не знають, як вирішити цю проблему.
03:32
I use ChatGPT every day.
72
212625
1335
Я користуюся ChatGPT щодня.
03:34
I write a newsletter that summarizes discussions on far-right message boards,
73
214002
3754
Я складаю розсилку, яка узагальнює обговорення на ультраправих платформах.
03:37
and so I download that data,
74
217797
1377
Я завантажую дані,
03:39
ChatGPT helps me write a summary.
75
219174
1918
а ChatGPT допомагає мені їх підсумувати.
03:41
And it makes me much more efficient than if I had to do it by hand.
76
221134
4546
І набагато ефективніше, ніж якби мені довелося робити це вручну.
03:45
But I have to correct it every day
77
225722
2044
Але я маю виправляти його щодня,
03:47
because it misunderstands something,
78
227766
1751
бо він щось неправильно розуміє,
03:49
it takes out the context.
79
229559
1793
не враховує контекст.
03:51
And so because of that,
80
231394
1877
І через це
03:53
I can't just rely on it to do the job for me.
81
233313
2752
я не можу покладатися на те, що він виконає все за мене.
03:56
And this reliability is really important.
82
236107
2878
І ця надійність дійсно важлива.
03:58
Now a subpart of reliability in this space is AI hallucination,
83
238985
5255
З питанням надійності також пов’язані галюцинації ШІ.
04:04
a great technical term for the fact that AI just makes stuff up
84
244282
3587
Це чудовий технічний термін для позначення того, що ШІ
04:07
a lot of the time.
85
247911
1418
часто щось вигадує.
04:09
I did this in my newsletter.
86
249370
1377
Я це перевірила.
04:10
I said, ChatGPT are there any people threatening violence?
87
250747
3128
Я спитала у ChatGPT, чи є люди, які погрожують насильством?
04:13
If so, give me the quotes.
88
253917
1251
Якщо так, наведи цитати.
04:15
And it produced these three really clear threats of violence
89
255210
2919
І він навів три справді чіткі погрози,
04:18
that didn't sound anything like people talk
90
258171
2002
які взагалі не були схожі
04:20
on these message boards.
91
260215
1167
на дописи на цих сайтах.
04:21
And I went back to the data, and nobody ever said it.
92
261424
2503
Я перевірила: ніхто ніколи цього не казав.
04:23
It just made it up out of thin air.
93
263927
2252
Він просто вигадав це.
04:26
And you may have seen this if you've used an AI image generator.
94
266221
3044
Можливо, ви помічали це в роботі ШІ генератора зображень.
04:29
I asked it to give me a close up of people holding hands.
95
269265
3295
Я попросила його дати мені крупний план людей, які тримаються за руки.
04:32
That's a hallucination and a disturbing one at that.
96
272602
3295
Це галюцинація. І виглядає дивно.
04:35
(Laughter)
97
275939
1710
(Сміх)
04:37
We have to solve this hallucination problem
98
277649
3086
Ми повинні вирішити цю проблему галюцинацій,
04:40
if this AI is going to live up to the hype.
99
280777
3003
якщо цей ШІ хоче відповідати всьому тому хайпу.
04:43
And I don't think it's a solvable problem.
100
283780
2878
І я не думаю, що цю проблему можна вирішити.
04:46
With the way this technology works, there are people who say,
101
286699
2878
З огляду на те, як ця технологія працює. Але деякі кажуть, що
04:49
we're going to have it taken care of in a few months,
102
289619
2544
ми розберемося з цим за кілька місяців,
04:52
but there’s no technical reason to think that’s the case.
103
292163
2711
проте немає технічних причин так думати.
04:54
Because generative AI always makes stuff up.
104
294874
3420
Адже генеративний ШІ завжди вигадує.
04:58
When you ask it a question,
105
298294
1418
Коли ви формулюєте запит,
04:59
it's creating that answer or creating that image from scratch
106
299754
4254
він створює відповідь або зображення з нуля,
05:04
when you ask.
107
304050
1168
коли ви його просите.
05:05
It's not like a search engine that goes and finds the right answer on a page.
108
305218
3670
Це не схоже на пошукову систему, яка знаходить правильну відповідь на сайті.
05:08
And so because its job is to make things up every time,
109
308888
3879
І тому, оскільки його робота полягає в тому, щоб щоразу щось створювати,
05:12
I don't know that we're going to be able to get it to make up correct stuff
110
312767
3587
я не знаю, як ми зможемо змусити його вигадувати щось правильно,
05:16
and then not make up other stuff.
111
316354
1627
а не вигадувати нісенітниці.
05:17
That's not what it's trained to do,
112
317981
1710
Це не те, чому його навчали,
05:19
and we're very far from achieving that.
113
319732
2128
і ми дуже далекі від досягнення цього.
05:21
And in fact, there are spaces where they're trying really hard.
114
321901
3170
Насправді є сфери, де докладають великих зусиль.
05:25
One space that there's a lot of enthusiasm for AI
115
325113
2627
Одна зі сфер, яка виявляє великий ентузіазм щодо ШІ, -
05:27
is in the legal area
116
327740
1335
це юридична сфера,
05:29
where they hope it will help write legal briefs or do research.
117
329117
3420
де він має допомагати писати судові записки або робити аналіз.
05:32
Some people have found out the hard way
118
332579
2168
Деякі люди на власному досвіді вже зрозуміли,
05:34
that they should not write legal briefs right now with ChatGPT
119
334789
3837
що не слід було писати судові записки за допомогою ChatGPT
05:38
and send them to federal court,
120
338668
1501
і надсилати їх до суду,
05:40
because it just makes up cases that sound right.
121
340211
3379
тому що він просто вигадує справи, які звучать правдоподібно.
05:43
And that's a really fast way to get a judge mad at you
122
343631
2836
І це дуже швидкий спосіб розсердити суддю і змусити його
05:46
and to get your case thrown out.
123
346509
1752
викинути справу.
05:49
Now there are legal research companies right now
124
349012
2544
Зараз є юридичні дослідницькі компанії
05:51
that advertise hallucination-free
125
351598
2961
які рекламують
05:54
generative AI.
126
354559
1626
генеративний ШІ без галюцинацій.
05:56
And I was really dubious about this.
127
356561
3003
Мені вони видавалися дуже сумнівними.
05:59
And researchers at Stanford actually went in and checked it,
128
359564
3628
Дослідники зі Стенфорда насправді їх перевірили
06:03
and they found the best-performing of these hallucination-free tools
129
363192
3754
і виявили, що найкращі з цих інструментів
06:06
still hallucinates 17 percent of the time.
130
366946
2544
у 17% ще мають галюцинації.
06:10
So like on one hand,
131
370158
1626
Отже, з одного боку,
06:11
it's a great scientific achievement that we have built a tool
132
371826
3629
це велике наукове досягнення, що ми створили інструмент,
06:15
that we can pose basically any query to,
133
375496
2920
якому можемо поставити будь-який запит,
06:18
and 60 or 70 or maybe even 80 percent of the time
134
378458
3211
і у 60, 70 або, можливо, навіть у 80% випадків
06:21
it gives us a reasonable answer.
135
381711
1919
він дасть розумну відповідь.
06:23
But if we're going to rely on using those tools
136
383963
2252
Але якщо ми покладатимемося на ці інструменти,
06:26
and they're wrong 20 or 30 percent of the time,
137
386257
2670
а вони помилятимуться у 20-30% випадків,
06:28
there's no model where that's really useful.
138
388927
2961
жодна така модель не буде дійсно корисною.
06:32
And that kind of leads us into
139
392472
2043
І це підводить нас до питання,
06:34
how do we make these tools that useful?
140
394557
2002
як зробити ці інструменти корисними.
06:36
Because even if you don't believe me
141
396601
1752
Тому що навіть якщо ви не вірите
06:38
and think we're going to solve this hallucination problem,
142
398353
2711
і думаєте, що ми вирішимо цю проблему з галюцинаціями,
06:41
we're going to solve the reliability problem,
143
401105
2127
вирішимо проблему з надійністю,
06:43
the tools still need to get better than they are now.
144
403274
2503
інструменти все одно мають стати кращими, ніж зараз.
06:45
And there's two things they need to do that.
145
405777
2085
І для цього їм потрібні дві речі.
06:47
One is lots more data
146
407862
1168
Набагато більше даних
06:49
and two is the technology itself has to improve.
147
409072
2294
і вдосконалення власне технології.
06:51
So where are we going to get that data?
148
411783
1960
Де ж отримати ці дані?
06:53
Because they've kind of taken all the reliable stuff online already.
149
413785
3837
Вони вже взяли все надійне в Інтернеті.
06:57
And if we were to find twice as much data as they've already had,
150
417622
3295
І якщо ми знайдемо вдвічі більше даних, ніж вони вже отримали,
07:00
that doesn't mean they're going to be twice as smart.
151
420959
2502
це не означає, що вони будуть вдвічі розумнішими.
07:04
I don't know if there's enough data out there,
152
424295
2169
Я не знаю, чи є достатньо даних,
07:06
and it's compounded by the fact
153
426506
1501
і це ускладнюється тим фактом,
07:08
that one way the generative AI has been very successful
154
428049
2920
що генеративний ШІ вже дуже успішно
07:10
is at producing low-quality content online.
155
430969
3211
створює низькоякісний контент в Інтернеті.
07:14
That's bots on social media, misinformation,
156
434222
3253
Це боти в соціальних мережах, дезінформація
07:17
and these SEO pages that don't really say anything
157
437475
2377
та SEO-сторінки, які насправді некорисні,
07:19
but have a lot of ads and come up high in the search results.
158
439894
3212
але мають багато реклами та займають високі місця в пошуку.
07:23
And if the AI starts training on pages that it generated,
159
443106
4254
І якщо ШІ починає тренуватися на сторінках, які він створив,
07:27
we know from decades of AI research that they just get progressively worse.
160
447360
4463
ми знаємо з десятиліть досліджень ШІ, що він поступово погіршується.
07:31
It's like the digital version of mad cow disease.
161
451823
2794
Це як цифрова версія хвороби божевільної корови.
07:34
(Laughter)
162
454951
1626
(Сміх)
07:36
Let's say we solve the data problem.
163
456577
2336
Скажімо, ми вирішимо проблему з даними.
07:39
You still have to get the technology better.
164
459247
2169
Все одно потрібно покращити технологію.
07:41
And we've seen 50 billion dollars in the last couple years
165
461457
3379
50 мільярдів доларів за останні пару років,
07:44
invested in improving generative AI.
166
464836
3128
були інвестовані у вдосконалення генеративного ШІ.
07:48
And that's resulted in three billion dollars in revenue.
167
468006
3336
І це дало 3 мільярди доларів доходу.
07:51
So that's not sustainable.
168
471342
1585
Тож це невигідно.
07:52
But of course it's early, right?
169
472927
1543
Але ще зарано, правда?
07:54
Companies may find ways to start using this technology.
170
474512
2586
Компанії можуть знайти шляхи застосування технології.
07:57
But is it going to be valuable enough
171
477140
2752
Але чи буде вона достатньо цінною,
07:59
to justify the tens and maybe hundreds of billions of dollars
172
479934
3170
щоб виправдати десятки і, можливо, сотні мільярдів долларів
08:03
of hardware that needs to be bought
173
483146
2586
на обладнання, яке потрібно придбати,
08:05
to make these models get better?
174
485773
1835
щоб ці моделі стали кращими?
08:08
I don't think so.
175
488109
1126
Я так не думаю.
08:09
And we can kind of start looking at practical examples to figure that out.
176
489277
3545
Ми можемо розглянути практичні приклади, щоб це зрозуміти.
08:12
And it leads us to think about where are the spaces we need to worry and not.
177
492864
3670
І це наштовхує нас на думку про те, де ми повинні непокоїтися, а де - ні.
08:16
Because one place that everybody's worried with this
178
496576
2502
Тому що єдине, через що всі непокояться,
08:19
is that AI is going to take all of our jobs.
179
499120
2085
- це те, що ШІ забере у всіх роботу.
08:21
Lots of people are telling us that’s going to happen,
180
501247
2503
Багато людей говорять, що це станеться,
08:23
and people are worried about it.
181
503750
1543
і люди непокояться через це.
08:25
And I think there's a fundamental misunderstanding at the heart of that.
182
505293
3420
Я думаю, що в основі цього - фундаментальне непорозуміння.
08:28
So imagine this scenario.
183
508713
1209
Уявіть собі сценарій.
08:29
We have a company,
184
509922
1168
У нас є компанія,
08:31
and they can afford to employ two software engineers.
185
511090
2628
яка може дозволити собі найняти двох програмістів.
08:33
And if we were to give those engineers some generative AI to help write code,
186
513760
4004
І якби ми дали цим програмістам генеративний ШІ, щоб писати код,
08:37
which is something it's pretty good at,
187
517805
1877
а це йому досить добре вдається,
08:39
let's say they're twice as efficient.
188
519682
1794
вони стали б вдвічі ефективнішими.
08:41
That's a big overestimate, but it makes the math easy.
189
521517
3462
Це дуже груба оцінка, але це полегшує розуміння цифр.
08:45
So in that case, the company has two choices.
190
525021
2127
Тож у цьому випадку у компанії два варіанти.
08:47
They could fire one of those software engineers
191
527148
2336
Вона може звільнити одного з цих програмістів,
08:49
because the other one can do the work of two people now,
192
529525
2670
адже інший може виконувати роботу за двох людей,
08:52
or they already could afford two of them,
193
532195
3712
або вона може дозволити собі обох,
08:55
and now they're twice as efficient,
194
535948
1877
і вони будуть вдвічі ефективнішими,
08:57
so they're bringing in more money.
195
537867
1627
тому принесуть більше грошей.
08:59
So why not keep both of them and take that extra profit?
196
539535
3671
То чому б не залишити обох і отримати додатковий прибуток?
09:03
The only way this math fails is if the AI is so expensive
197
543247
4338
Така математика не працює лише тоді, коли ШІ настільки дорогий,
09:07
that it's not worth it.
198
547585
1585
що це того не вартує.
09:09
But that would be like the AI is 100,000 dollars a year
199
549212
3670
Але ШІ мав би коштувати 100 000 доларів на рік,
09:12
to do one person's worth of work.
200
552882
2169
щоб виконувати роботу однієї людини.
09:15
So that sounds really expensive.
201
555093
2293
Це дійсно дорого.
09:17
And practically,
202
557428
1377
Наразі існують
09:18
there are already open-source versions of these tools
203
558805
2836
версії цих інструментів з відкритим кодом.
09:21
that are low-cost, that companies can install and run themselves.
204
561682
3295
Вони недорогі, компанії можуть встановлювати їх та запускати.
09:25
Now they don’t perform as well as the flagship models,
205
565019
2878
Зараз вони працюють не так добре, як флагманські моделі,
09:27
but if they're half as good and really cheap,
206
567939
3044
але, якщо вони хоча б наполовину такі хороші та дійсно дешеві,
09:30
wouldn't you take those over the one that costs 100,000 dollars a year
207
570983
3337
чи не варто взяти їх, а не ті, що коштують 100 000 доларів на рік,
09:34
to do one person's work?
208
574320
1168
замість однієї людини?
09:35
Of course you would.
209
575530
1167
Звісно, варто.
09:36
And so even if we solve reliability, we solve the data problem,
210
576697
3003
Тож навіть якщо ми вирішимо проблему з надійністю і з даними,
09:39
we make the models better,
211
579700
1585
а також покращимо моделі,
09:41
the fact that there are cheap versions of this available
212
581285
3212
той факт, що доступні дешеві версії, свідчить про те,
09:44
suggests that companies aren't going to be spending
213
584497
2419
що компанії не збираються витрачати
09:46
hundreds of millions of dollars to replace their workforce with AI.
214
586916
3712
сотні мільйонів доларів, щоб замінити своїх співробітників на ШІ.
09:50
There are areas that we need to worry, though.
215
590670
2169
Однак є й інші приводи для занепокоєння.
09:52
Because if we look at AI now,
216
592839
1835
Наразі ШІ має багато проблем
09:54
there are lots of problems that we haven't been able to solve.
217
594715
3045
які ми не змогли вирішити.
09:58
I've been building artificial intelligence for over 20 years,
218
598094
3086
Я працюю над ШІ вже понад 20 років,
10:01
and one thing we know
219
601222
1710
і ми певні одного:
10:02
is that if we train AI on human data,
220
602974
2919
якщо ШІ навчається на людських даних,
10:05
the AI adopts human biases,
221
605935
2711
ШІ переймає людські упередження,
10:08
and we have not been able to fix that.
222
608688
2586
і ми ще не змогли цього виправити.
10:11
We've seen those biases start showing up in generative AI,
223
611274
3545
Ми бачили, як ці упередження починають проявлятися в генеративному ШІ,
10:14
and the gut reaction is always, well,
224
614861
2085
і інстинктивно прагнули
10:16
let's just put in some guardrails to stop the AI from doing the biased thing.
225
616988
4337
просто встановити обмеження і не давати ШІ діяти упереджено.
10:21
But one, that never fixes the bias because the AI finds a way around it.
226
621325
3587
Але, по-перше, це не усуває упередження, бо ШІ знаходить спосіб це обійти.
10:24
And two, the guardrails themselves can cause problems.
227
624954
3253
По-друге, самі обмеження можуть викликати проблеми.
10:28
So Google has an AI image generator,
228
628249
2628
Google має ШІ-генератор зображень.
10:30
and they tried to put guardrails in place to stop the bias in the results.
229
630877
4087
Вони спробували встановити обмеження, щоб уникнути упереджень у результатах.
10:35
And it turned out it made it wrong.
230
635006
2210
І виявилося, що це мало зворотній ефект.
10:37
This is a request for a picture
231
637258
1627
Це запит на зображення
10:38
of the signing of the Declaration of Independence.
232
638926
2336
підписання Декларації незалежності.
10:41
And it's a great picture, but it is not factually correct.
233
641304
3879
Це чудове зображення, але воно не відповідає дійсності.
10:45
And so in trying to stop the bias,
234
645183
2460
Тому, намагаючись зупинити упередження,
10:47
we end up creating more reliability problems.
235
647685
4254
ми зрештою створюємо більше проблем з надійністю.
10:51
We haven't been able to solve this problem of bias.
236
651981
3670
Ми не змогли вирішити цю проблему упередженості.
10:55
And if we're thinking about deferring decision making,
237
655693
2794
І якщо ми думаємо про те, щоб перекласти прийняття рішень,
10:58
replacing human decision makers and relying on this technology
238
658529
3712
замінити людей, які приймають рішення, і покладатися на цю технологію,
11:02
and we can't solve this problem,
239
662283
1793
і не можемо вирішити цю проблему,
11:04
that's a thing that we should worry about
240
664076
2044
це має викликати занепокоєння
11:06
and demand solutions to
241
666120
1293
і вимагати рішень,
11:07
before it's just widely adopted and employed because it's sexy.
242
667455
3503
перш ніж це буде розповсюджено та використано, тому що це сексуально.
11:11
And I think there's one final thing that's missing here,
243
671459
3003
І я думаю, що тут забувають про дещо важливе:
11:14
which is our human intelligence
244
674503
1627
наш людський інтелект
11:16
is not defined by our productivity at work.
245
676172
3378
не визначає наша продуктивність на роботі.
11:20
At its core, it's defined by our ability to connect with other people.
246
680092
4171
По суті, його визначає наша здатність спілкуватися з іншими людьми.
11:24
Our ability to have emotional responses,
247
684263
2670
Наша здатність емоційно реагувати,
11:26
to take our past and integrate it with new information
248
686974
2878
брати минуле, поєднувати його з новою інформацією
11:29
and creatively come up with new things.
249
689894
2294
та креативно придумувати щось нове.
11:32
And that’s something that artificial intelligence is not now
250
692188
2919
І це те, чого штучний інтелект ні зараз,
11:35
nor will it ever be capable of doing.
251
695107
2461
ні будь-коли не зможе робити.
11:37
It may be able to imitate it
252
697610
1501
Можливо, він зможе імітувати
11:39
and give us a cheap facsimile of genuine connection
253
699153
3087
і давати нам дешеву копію справжнього зв’язку,
11:42
and empathy and creativity.
254
702281
2127
емпатії та творчості.
11:44
But it can't do those core things to our humanity.
255
704408
3671
Але він не зможе дати людству ці ключові речі.
11:48
And that's why I'm not really worried about AGI taking over civilization.
256
708120
5047
Тому я не дуже переживаю, що AGI захопить цивілізацію.
11:53
But if you come away from this disbelieving everything I have told you,
257
713209
4504
Але якщо ви досі не вірите всьому, що я вам сказала,
11:57
and right now you're worried
258
717755
1460
і занепокоєні тим,
11:59
about humanity being destroyed by AI overlords,
259
719257
3003
що людство буде знищено володарями ШІ,
12:02
the one thing to remember is,
260
722301
1877
єдине, що слід пам’ятати,
12:04
despite what the movies have told you,
261
724220
2085
незважаючи на те, що показують у фільмах,
12:06
if it gets really bad,
262
726347
1460
якщо все стане дуже погано,
12:07
we still can always just turn it off.
263
727807
2919
ми все одно завжди можемо просто його вимкнути.
12:10
(Laughter)
264
730768
1001
(Сміх)
12:11
Thank you.
265
731769
1168
Дякую.
12:12
(Applause)
266
732979
3837
(Оплески)
Про цей сайт

Цей сайт познайомить вас з відеороликами YouTube, корисними для вивчення англійської мови. Ви побачите уроки англійської мови, які проводять першокласні викладачі з усього світу. Двічі клацніть на англійських субтитрах, що відображаються на кожній сторінці відео, щоб відтворити відео з цієї сторінки. Субтитри прокручуються синхронно з відтворенням відео. Якщо у вас є коментарі або побажання, будь ласка, зв'яжіться з нами за допомогою цієї контактної форми.

https://forms.gle/WvT1wiN1qDtmnspy7