Is AI Progress Stuck? | Jennifer Golbeck | TED

129,795 views ・ 2024-11-19

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: Simin Kazemi Reviewer: shirin etebar
00:04
We've built artificial intelligence already
0
4334
2878
ما همین حالا هم هوش مصنوعی‌ای ساخته‌ایم
00:07
that, on specific tasks, performs better than humans.
1
7212
3837
که در کارهای خاصی، از انسان‌ها بهتر عمل می‌کند.
00:11
There's AI that can play chess and beat human grandmasters.
2
11049
4505
هوش مصنوعی‌ای هست که شطرنج بازی می‌کند و استادبزرگ‌های شطرنج را شکست می‌دهد.
00:15
But since the introduction of generative AI
3
15595
2336
اما از چند سال پیش، از زمان معرفیِ هوش مصنوعی مولد به عموم مردم،
00:17
to the general public a couple years ago,
4
17973
2544
00:20
there's been more talk about artificial general intelligence, or AGI,
5
20517
5297
بیشتر صحبت‌ها درباره‌ی هوش جامع مصنوعی یا اِی‌جی‌آی بوده است
00:25
and that describes the idea
6
25814
1418
و ایده‌ی این هوش مصنوعی این است که
00:27
that there's AI that can perform at or above human levels
7
27232
3879
هوش مصنوعی‌ای باشد که عملکردش هم‌سطح یا بالاتر از سطح انسانی باشد
00:31
on a wide variety of tasks, just like we humans are able to do.
8
31152
4004
آن هم در تنوعی از کارها، درست همان طور که ما انسان‌ها می‌توانیم.
00:35
And people who think about AGI are worried about what it means
9
35615
3587
و کسانی که به هوش جامع مصنوعی فکر می‌کنند نگران هستند که چه می‌شود اگر
00:39
if we reach that level of performance in the technology.
10
39244
3754
ما به آن سطح از عملکرد در این تکنولوژی برسیم.
00:42
Right now, there's people from the tech industry
11
42998
2252
همین حالا، افرادی در صنعت تکنولوژی هستند
00:45
coming out and saying
12
45292
1126
که می‌آیند و می‌گویند:
00:46
"The AI that we're building is so powerful and dangerous
13
46459
2962
«هوش مصنوعی‌ای که داریم می‌سازیم آنقدر قدرتمند و خطرناک است
00:49
that it poses a threat to civilization.”
14
49462
2711
که تهدیدی برای تمدن حساب می‌شود.»
00:52
And they’re going to government and saying,
15
52173
2002
و این افراد سراغ دولت می‌روند و می‌گویند:
00:54
"Maybe you need to regulate us."
16
54217
1794
«شاید لازم باشد ما را ساماندهی کنی.»
00:56
Now normally when an industry makes a powerful new tool,
17
56052
2878
خب، به‌طور معمول، وقتی صنعتی یک ابزار قدرتمندِ جدید می‌سازد،
00:58
they don't say it poses an existential threat to humanity
18
58930
2920
نمی‌گویند که تهدید وجودی‌ای برای بشر دارد
01:01
and that it needs to be limited, so why are we hearing that language?
19
61891
3963
و لازم است محدود شود، پس چرا ما این حرف‌ها را می‌شنویم؟
01:05
And I think there's two main reasons.
20
65895
2128
و به نظر من دو دلیل دارد.
01:08
One is if your technology is so powerful
21
68064
4046
یک دلیلش این است که اگر تکنولوژی شما آنقدر قدرتمند باشد
01:12
that it can destroy civilization, between now and then,
22
72152
4171
که بتواند تمدن بشر را نابود کند، از الان تا آن موقع،
01:16
there's an awful lot of money to be made with that.
23
76364
3003
می‌شود حسابی از آن پول درآورد.
01:19
And what better way to convince your investors
24
79409
2461
و برای این که سرمایه‌گذارانت را متقاعد کنی
01:21
to put some money with you
25
81911
1252
تا سرمایه‌شان را روی کار تو بگذارند
01:23
than to warn that your tool is that dangerous?
26
83204
3045
چه راهی بهتر از این که هشدار بدهی ابزارت تا چنین حدی خطرناک است؟
01:26
The other is that the idea of AI overtaking humanity
27
86291
3587
دلیل دیگر این است که ایده‌ی غلبه‌ی هوش مصنوعی بر بشر
01:29
is truly a cinematic concept.
28
89878
2169
حقیقتاً مفهومی سینمایی است.
01:32
We’ve all seen those movies.
29
92088
2127
همه‌ی ما از این فیلم‌ها دیده‌ایم.
01:34
And it’s kind of entertaining to think about what that would mean now
30
94215
3379
و به‌نوعی سرگرم‌کننده است که فکر کنیم این موضوع الان چه معنایی دارد
01:37
with tools that we're actually able to put our hands on.
31
97636
3461
با ابزارهایی که ما واقعاً می‌توانیم استفاده کنیم.
01:41
In fact, it’s so entertaining that it’s a very effective distraction
32
101097
4505
در واقع، آنقدر سرگرم‌کننده است که به‌طور موثری حواسمان را پرت می‌کند
01:45
from the real problems already happening in the world because of AI.
33
105644
4879
از مشکلات واقعی‌ای که الان دارند به‌خاطر هوش مصنوعی در دنیا می‌افتند.
01:50
The more we think about these improbable futures,
34
110565
3879
هرچه بیشتر به این آینده‌های غیرمحتمل فکر کنیم،
01:54
the less time we spend thinking about how do we correct deepfakes
35
114486
4004
کمتر زمان می‌گذاریم تا به این فکر کنیم که چگونه می‌توانیم دیپ‌فیک را تصحیح کنیم
01:58
or the fact that there's AI right now being used to decide
36
118531
3462
یا به این حقیقت که همین حالا از هوش مصنوعی استفاده می‌شود تا تصمیم بگیرد
02:01
whether or not people are let out of prison,
37
121993
2086
آیا مردم از زندان آزاد بشوند یا نه
02:04
and we know it’s racially biased.
38
124079
2127
و می‌دانیم که این هوش مصنوعی سوءگیری نژادی دارد.
02:06
But are we anywhere close to actually achieving AGI?
39
126665
3503
اما آیا ما حتی نزدیک به جایی هستیم که واقعاً به هوش جامع مصنوعی دست یابیم؟
02:10
Some people think so.
40
130210
1334
بعضی‌ها چنین عقیده‌ای دارند.
02:11
Elon Musk said that we'll achieve it within a year.
41
131544
2419
ایلان ماسک گفت که طی یک سال به آن دست خواهیم یافت.
02:13
I think he posted this a few weeks ago.
42
133963
2128
فکر می‌کنم چند هفته پیش چنین پستی گذاشت.
02:16
But like at the same time
43
136132
1502
اما تقریباً در همان زمان
02:17
Google put out their eye search tool that's supposed to give you the answer
44
137676
3753
گوگل ابزار جست‌وجوی هوش مصنوعی‌اش را ارائه کرد که قرار است به شما پاسخ دهد
02:21
so you don’t have to click on a link,
45
141471
1919
تا لازم نباشد روی لینکی کلیک کنید،
02:23
and it's not going super well.
46
143431
2169
و زیاد هم خوب پیش نمی‌رود.
02:25
["How many rocks should I eat?"]
47
145642
1543
[«باید چقدر سنگ بخورم؟»]
[«حداقل یک وعده از انواع سنگ‌ریزه‌ها، سنگ‌های ژئود، یا شن‌ریزه‌ها ...»]
02:27
["... at least a single serving of pebbles, geodes or gravel ..."]
48
147227
3128
02:30
Please don't eat rocks.
49
150355
1209
لطفاً سنگ نخورید.
02:31
(Laughter)
50
151564
1168
(صدای خنده)
02:32
Now of course these tools are going to get better.
51
152732
3003
خب البته که این ابزارها قرار است بهتر شوند.
02:35
But if we're going to achieve AGI
52
155777
2836
اما اگر قرار باشد به هوش جامع مصنوعی دست پیدا کنید،
02:38
or if they're even going to fundamentally change the way we work,
53
158613
3420
یا حتی اگر قرار باشد از اساس روش کارکردنِ ما را تغییر دهند،
02:42
we need to be in a place where they are continuing
54
162075
2628
باید به جایی رسیده باشیم که تواناییِ آن‌ها
02:44
on a sharp upward trajectory in terms of their abilities.
55
164703
3795
در خطِ سِیری با زاویه‌ای تند و روبه‌بالا قرار گرفته باشد.
02:48
And that may be one path.
56
168498
1835
و این شاید یک مسیر باشد.
02:50
But there's also the possibility that what we're seeing
57
170375
2586
اما این احتمال هم هست که آنچه ما می‌بینیم
02:53
is that these tools have basically achieved
58
173002
2420
این است که این ابزارها اساساً به آنچه می‌توانسته‌اند دست یافته‌اند
02:55
what they're capable of doing,
59
175422
1501
02:56
and the future is incremental improvements in a plateau.
60
176923
4129
و در آینده، بهبودهای تدریجی و اندکی در یک خط سِیرِ ثابت و مسطح خواهند داشت.
پس برای درک آینده‌ی هوش مصنوعی،
03:01
So to understand the AI future,
61
181052
2211
03:03
we need to look at all the hype around it and get under there
62
183304
2920
لازم است همه‌ی تبلیغات غلوآمیز حول آن را دیده و به پشت پرده برویم
03:06
and see what's technically possible.
63
186266
1751
و ببینیم از نظر فنی چه چیزی ممکن است.
03:08
And we also need to think about where are the areas that we need to worry
64
188017
3462
و این را هم لازم است بدانیم که در چه زمینه‌هایی باید نگران باشیم
03:11
and where are the areas that we don't.
65
191479
1835
و در چه زمینه‌هایی نباید.
03:13
So if we want to realize the hype around AI,
66
193857
3086
پس اگر می‌خواهیم متوجه تبلیغات غلوآمیز حول هوش مصنوعی بشویم،
03:16
the one main challenge that we have to solve is reliability.
67
196985
3712
چالش اصلی‌ای که باید حل کنیم قابل‌اعتمادبودن آن است.
03:20
These algorithms are wrong all the time, like we saw with Google.
68
200697
4421
این الگوریتم‌ها همیشه اشتباه هستند، مثل همین چیزی که در گوگل دیدیم.
03:25
And Google actually came out and said,
69
205118
2002
و در واقع گوگل بعد از این نتایج جست‌وجوی بدی که معروف شدند، اعلام کرد که
03:27
after these bad search results were popularized,
70
207162
3211
03:30
that they don't know how to fix this problem.
71
210415
2169
نمی‌دانند چگونه این مشکل را حل کنند.
03:32
I use ChatGPT every day.
72
212625
1335
من هر روز از چت‌جی‌پی‌تی استفاده می‌کنم.
03:34
I write a newsletter that summarizes discussions on far-right message boards,
73
214002
3754
خبرنامه‌ای می‌نویسم که بحث‌های تالارهای گفت‌وگوی راست‌گرای افراطی را خلاصه می‌کند
03:37
and so I download that data,
74
217797
1377
و در نتیجه چنین داده‌هایی را دانلود می‌کنم و با کمک چت‌جی‌پی‌تی خلاصه را بنویسم.
03:39
ChatGPT helps me write a summary.
75
219174
1918
03:41
And it makes me much more efficient than if I had to do it by hand.
76
221134
4546
و بازده کار من را بسیار بیشتر از زمانی می‌کند که با دست بنویسم.
03:45
But I have to correct it every day
77
225722
2044
اما هر روز باید تصحیحش کنم
03:47
because it misunderstands something,
78
227766
1751
چون یک‌چیزی را اشتباه می‌فهمد و این که متن در چه زمینه‌ای است را نادیده می‌گیرد.
03:49
it takes out the context.
79
229559
1793
03:51
And so because of that,
80
231394
1877
و به همین علت،
03:53
I can't just rely on it to do the job for me.
81
233313
2752
نمی‌توانم فقط به آن متکی باشم تا کارم را برایم انجام دهد.
03:56
And this reliability is really important.
82
236107
2878
و این قابل‌اعتمادبودن واقعاً مهم است.
03:58
Now a subpart of reliability in this space is AI hallucination,
83
238985
5255
حالا، از زیرمجموعه‌های قابل‌اعتمادنبودن در این فضا، توهم هوش مصنوعی است،
04:04
a great technical term for the fact that AI just makes stuff up
84
244282
3587
توهم، اصطلاح فنی‌ای عالی است برای این حقیقت که هوش مصنوعی خیلی وقت‌ها
04:07
a lot of the time.
85
247911
1418
پاسخ‌هایی جعلی از خودش درمی‌آورد.
04:09
I did this in my newsletter.
86
249370
1377
من در خبرنامه‌ام این کار را کردم.
04:10
I said, ChatGPT are there any people threatening violence?
87
250747
3128
گفتم: چت‌جی‌پی‌تی، آیا مردم تهدید به خشونت می‌کنند؟
04:13
If so, give me the quotes.
88
253917
1251
اگر می‌کنند، جملاتشان را بیاور.
04:15
And it produced these three really clear threats of violence
89
255210
2919
و چت‌جی‌پی‌تی این سه جمله را آورد که تهدید به خشونت را به‌وضوح نشان می‌دهند
04:18
that didn't sound anything like people talk
90
258171
2002
اما اصلاً شبیه نوع حرف‌زدن افراد در این تالارهای گفت‌وگوی اینترنتی نبود.
04:20
on these message boards.
91
260215
1167
04:21
And I went back to the data, and nobody ever said it.
92
261424
2503
و من دوباره سراغ داده‌ها رفتم و هیچ‌کس چنین حرفی نزده بود.
04:23
It just made it up out of thin air.
93
263927
2252
این حرف‌ها را از خودش درآورده بود.
04:26
And you may have seen this if you've used an AI image generator.
94
266221
3044
شاید همین را در استفاده از هوش مصنوعی تصویرساز دیده باشید.
04:29
I asked it to give me a close up of people holding hands.
95
269265
3295
من از آن خواستم تا تصویری از نمای نزدیک از افرادی که دست هم را گرفته‌اند، بدهد.
04:32
That's a hallucination and a disturbing one at that.
96
272602
3295
این هم توهم است و هم آزاردهنده.
04:35
(Laughter)
97
275939
1710
(صدای خنده)
04:37
We have to solve this hallucination problem
98
277649
3086
ما باید این مشکل توهم را حل کنیم
04:40
if this AI is going to live up to the hype.
99
280777
3003
اگر قرار است هوش مصنوعی به پای این تبلیغات غلوآمیز برسد.
04:43
And I don't think it's a solvable problem.
100
283780
2878
و به نظر من این مشکلی حل‌شدنی نیست.
04:46
With the way this technology works, there are people who say,
101
286699
2878
با روش کاری که این تکنولوژی دارد، کسانی هستند که می‌گویند
04:49
we're going to have it taken care of in a few months,
102
289619
2544
ما قرار است چند ماهی حواسمان به آن باشد،
04:52
but there’s no technical reason to think that’s the case.
103
292163
2711
اما هیچ دلیل فنی‌ای وجود ندارد که فکر کنیم موضوع این است.
04:54
Because generative AI always makes stuff up.
104
294874
3420
چون هوش مصنوعی مولد همیشه چیزهایی را از خودش درمی‌آورد.
04:58
When you ask it a question,
105
298294
1418
وقتی از آن سوالی می‌پرسید،
04:59
it's creating that answer or creating that image from scratch
106
299754
4254
دارد آن پاسخ یا آن تصویر را از صفر می‌سازد
همان موقع که می‌پرسید.
05:04
when you ask.
107
304050
1168
05:05
It's not like a search engine that goes and finds the right answer on a page.
108
305218
3670
شبیه موتور جست‌وجویی نیست که می‌رود و پاسخ درست را در صفحه‌ای پیدا می‌کند.
05:08
And so because its job is to make things up every time,
109
308888
3879
و چون کارش این است که هر بار چیزهایی را از خودش دربیاورد،
05:12
I don't know that we're going to be able to get it to make up correct stuff
110
312767
3587
نمی‌دانم که قادر خواهیم بود آن را به جایی برسانیم که چیزهایی درستی از خودش دربیاورد
05:16
and then not make up other stuff.
111
316354
1627
و بعد چیزهای دیگری سرهم نکند.
05:17
That's not what it's trained to do,
112
317981
1710
این کاری نیست که برایش آموزش دیده است و ما از دستیابی به چنین چیزی بسیار دور هستیم.
05:19
and we're very far from achieving that.
113
319732
2128
05:21
And in fact, there are spaces where they're trying really hard.
114
321901
3170
و در واقع، در برخی موضوعات هم دارند سخت تلاش می‌کنند.
یکی از این موضوعات که هوش مصنوعی شور و شوق زیادی برمی‌انگیزاند
05:25
One space that there's a lot of enthusiasm for AI
115
325113
2627
05:27
is in the legal area
116
327740
1335
حوزه‌ی حقوقی است
05:29
where they hope it will help write legal briefs or do research.
117
329117
3420
که امیدوارند کمکشان کند خلاصه‌ی دعوی‌ها را بنویسند یا تحقیق کنند.
05:32
Some people have found out the hard way
118
332579
2168
بعضی افراد از راه سختی فهمیدند
05:34
that they should not write legal briefs right now with ChatGPT
119
334789
3837
که همین الان نباید با چت‌جی‌پی‌تی خلاصه‌ی دعوی‌ها را بنویسند
05:38
and send them to federal court,
120
338668
1501
و آن‌ها را به دادگاه فدرال بفرستند،
05:40
because it just makes up cases that sound right.
121
340211
3379
چون پرونده‌هایی را از خودش درمی‌آورد که فقط درست به نظر می‌رسند.
05:43
And that's a really fast way to get a judge mad at you
122
343631
2836
و این راهی بسیار سریع است برای این که یک قاضی را از دست خودتان عصبانی کنید
05:46
and to get your case thrown out.
123
346509
1752
تا پرونده‌تان را دور بیندازد.
راستش همین حالا هم شرکت‌های تحقیقاتی‌ای هستند
05:49
Now there are legal research companies right now
124
349012
2544
05:51
that advertise hallucination-free
125
351598
2961
که هوش مصنوعی مولدِ بدون توهم را تبلیغ می‌کنند.
05:54
generative AI.
126
354559
1626
05:56
And I was really dubious about this.
127
356561
3003
و من به این موضوع بسیار بدگمان بودم.
05:59
And researchers at Stanford actually went in and checked it,
128
359564
3628
و پژوهشگران دانشگاه استنفورد واقعاً ورود کرده و چک کردند
06:03
and they found the best-performing of these hallucination-free tools
129
363192
3754
و متوجه شدند که آن ابزارهای بدون توهمی که بهترین عملکرد را داشتند
06:06
still hallucinates 17 percent of the time.
130
366946
2544
هنوز هم در ۱۷درصد مواقع توهم داشتند.
06:10
So like on one hand,
131
370158
1626
پس از یک طرف،
06:11
it's a great scientific achievement that we have built a tool
132
371826
3629
دستاورد علمی محشری است که ابزاری ساخته‌ایم
06:15
that we can pose basically any query to,
133
375496
2920
که می‌توانیم اساساً هر سوالی را از آن بپرسیم
06:18
and 60 or 70 or maybe even 80 percent of the time
134
378458
3211
و ۶۰ یا ۷۰ یا شاید حتی ۸۰ درصد مواقع
06:21
it gives us a reasonable answer.
135
381711
1919
به ما پاسخی منطقی بدهد.
06:23
But if we're going to rely on using those tools
136
383963
2252
اما اگر قرار باشد به استفاده از این ابزارها متکی باشیم
06:26
and they're wrong 20 or 30 percent of the time,
137
386257
2670
و ۲۰ یا ۳۰ درصد مواقع اشتباه می‌کنند،
06:28
there's no model where that's really useful.
138
388927
2961
هیچ مدلی وجود ندارد که واقعاً مفید باشد.
06:32
And that kind of leads us into
139
392472
2043
و این موضوع، تا حدودی، ما را به اینجا می‌رساند که
06:34
how do we make these tools that useful?
140
394557
2002
چگونه این ابزارها را واقعاً مفید کنیم؟
06:36
Because even if you don't believe me
141
396601
1752
چون حتی اگر حرف من را باور نکنید
06:38
and think we're going to solve this hallucination problem,
142
398353
2711
و فکر کنید که قرار است این مشکل توهم را حل کنیم،
قرار است مشکل قابل‌اعتمادبودن را حل کنیم،
06:41
we're going to solve the reliability problem,
143
401105
2127
این ابزارها هنوز هم لازم است بهتر از چیزی که الان هستند بشوند.
06:43
the tools still need to get better than they are now.
144
403274
2503
06:45
And there's two things they need to do that.
145
405777
2085
و برای بهترشدنشان دو چیز لازم است.
06:47
One is lots more data
146
407862
1168
اولی داده‌های خیلی بیشتر است
و دومی خود تکنولوژی‌اش است که باید بهبود یابد.
06:49
and two is the technology itself has to improve.
147
409072
2294
06:51
So where are we going to get that data?
148
411783
1960
خب از کجا قرار است آن داده‌ها را به دست بیاوریم؟
06:53
Because they've kind of taken all the reliable stuff online already.
149
413785
3837
چون تا الان تقریباً همه‌ی اطلاعات آنلاین قابل‌اعتماد را جمع کرده‌اند.
06:57
And if we were to find twice as much data as they've already had,
150
417622
3295
و اگر دو برابر اطلاعاتی که الان دارند را هم پیدا کنیم،
07:00
that doesn't mean they're going to be twice as smart.
151
420959
2502
معنایش این نیست که دو برابر هوشمندتر می‌شوند.
07:04
I don't know if there's enough data out there,
152
424295
2169
نمی‌دانم آیا اطلاعات کافی آن بیرون هست یا نه
07:06
and it's compounded by the fact
153
426506
1501
و وضع هم با این حقیقت وخیم‌تر می‌شود
07:08
that one way the generative AI has been very successful
154
428049
2920
که یک کاری که هوش مصنوعی مولد در آن بسیار موفق بوده است
07:10
is at producing low-quality content online.
155
430969
3211
در تولید محتوای آنلاین با کیفیت پایین است؛
07:14
That's bots on social media, misinformation,
156
434222
3253
یعنی ربات‌های شبکه‌های اجتماعی، اطلاعات غلط،
07:17
and these SEO pages that don't really say anything
157
437475
2377
و این صفحه‌های سئوشده‌ای که واقعاً حرف خاصی نمی‌زنند
07:19
but have a lot of ads and come up high in the search results.
158
439894
3212
اما تبلیغات بسیاری دارند و در نتایج جست‌وجو بالا می‌آیند.
07:23
And if the AI starts training on pages that it generated,
159
443106
4254
و اگر هوش مصنوعی آموزش‌دیدن با صفحاتی که خودش ساخته را شروع کند،
07:27
we know from decades of AI research that they just get progressively worse.
160
447360
4463
از دهه‌ها پژوهش روی هوش مصنوعی می‌دانیم که فقط به‌طور فزاینده‌ای وضعش بدتر خواهد شد.
07:31
It's like the digital version of mad cow disease.
161
451823
2794
شبیه نسخه‌ی دیجیتالِ بیماری جنون گاوی است.
07:34
(Laughter)
162
454951
1626
(صدای خنده)
07:36
Let's say we solve the data problem.
163
456577
2336
فرض کنیم که مشکل داده‌ها را حل کردیم.
07:39
You still have to get the technology better.
164
459247
2169
هنوز هم باید تکنولوژی را بهتر کرد.
07:41
And we've seen 50 billion dollars in the last couple years
165
461457
3379
و در یکی‌دو سال اخیر دیده‌ایم که ۵۰میلیارد دلار
07:44
invested in improving generative AI.
166
464836
3128
در بهبودِ هوش مصنوعی سرمایه‌گذاری شده است.
07:48
And that's resulted in three billion dollars in revenue.
167
468006
3336
و نتیجه‌اش سه‌میلیارد دلار درآمد بوده است.
07:51
So that's not sustainable.
168
471342
1585
پس نمی‌شود این روش را ادامه داد.
07:52
But of course it's early, right?
169
472927
1543
اما البته هنوز زود است، درست است؟
07:54
Companies may find ways to start using this technology.
170
474512
2586
شاید شرکت‌ها راه‌هایی بیابند تا شروع به استفاده از این تکنولوژی کنند.
07:57
But is it going to be valuable enough
171
477140
2752
اما آیا قرار هست انقدر ارزشمند شود
07:59
to justify the tens and maybe hundreds of billions of dollars
172
479934
3170
که ده‌ها و شاید صدها میلیارد دلار
08:03
of hardware that needs to be bought
173
483146
2586
سخت‌افزاری که لازم است بخرند را توجیه کند
08:05
to make these models get better?
174
485773
1835
تا این مدل‌ها را بهتر کنند؟
08:08
I don't think so.
175
488109
1126
من این طور فکر نمی‌کنم.
08:09
And we can kind of start looking at practical examples to figure that out.
176
489277
3545
و ما می‌توانیم با نگاهی به نمونه‌های عملی از این موضوع سر در بیاوریم.
08:12
And it leads us to think about where are the spaces we need to worry and not.
177
492864
3670
و به این نتیجه می‌رسیم که فکر کنیم کجا لازم است نگران باشیم و کجا نه.
08:16
Because one place that everybody's worried with this
178
496576
2502
چون یکی از موضوعاتی که همه نگرانش هستند
این است که هوش مصنوعی قرار است همه‌ی مشاغلمان را از ما بگیرد.
08:19
is that AI is going to take all of our jobs.
179
499120
2085
08:21
Lots of people are telling us that’s going to happen,
180
501247
2503
افراد بسیاری به ما می‌گویند که چنین اتفاقی می‌افتد
08:23
and people are worried about it.
181
503750
1543
و مردم درباره‌اش نگران‌اند.
08:25
And I think there's a fundamental misunderstanding at the heart of that.
182
505293
3420
و به نظر من سوءتفاهمی اساسی در قلب این موضوع وجود دارد.
08:28
So imagine this scenario.
183
508713
1209
خب این سناریو را تصور کنید.
08:29
We have a company,
184
509922
1168
یک شرکت داریم و می‌تواند هزینه‌ی استخدام دو مهندس نرم‌افزار را بدهد.
08:31
and they can afford to employ two software engineers.
185
511090
2628
08:33
And if we were to give those engineers some generative AI to help write code,
186
513760
4004
و اگر بخواهیم به این مهندسان هوش مصنوعیِ مولدی بدهیم تا کمکشان کند کد بنویسند،
08:37
which is something it's pretty good at,
187
517805
1877
که هوش مصنوعی خیلی ماهری در این کار باشد، فرض کنیم بهره‌وری‌شان دو برابر می‌شود.
08:39
let's say they're twice as efficient.
188
519682
1794
08:41
That's a big overestimate, but it makes the math easy.
189
521517
3462
این برآورد ما بیش‌ازحد خوش‌بینانه است اما حساب‌کتابش را آسان می‌کند.
08:45
So in that case, the company has two choices.
190
525021
2127
پس در این مورد، این شرکت دو گزینه دارد.
08:47
They could fire one of those software engineers
191
527148
2336
می‌تواند یکی از آن مهندسان نرم‌افزار را اخراج کند
08:49
because the other one can do the work of two people now,
192
529525
2670
چون مهندسِ دیگر حالا می‌تواند کار دو نفر را انجام دهد،
08:52
or they already could afford two of them,
193
532195
3712
یا همین حالا هم می‌تواند حقوق هر دو مهندس را بدهد،
08:55
and now they're twice as efficient,
194
535948
1877
بهره‌وری‌شان هم دو برابر شده است،
08:57
so they're bringing in more money.
195
537867
1627
پس پول بیشتری برای شرکت در خواهند آورد.
08:59
So why not keep both of them and take that extra profit?
196
539535
3671
پس چرا هر دوی آن‌ها را نگه ندارد و آن سود اضافه را به جیب نزند؟
09:03
The only way this math fails is if the AI is so expensive
197
543247
4338
تنها دلیلی که این حساب‌کتاب شکست می‌خورد این است که اگر هوش مصنوعی خیلی گران باشد
09:07
that it's not worth it.
198
547585
1585
ارزشش را ندارد.
09:09
But that would be like the AI is 100,000 dollars a year
199
549212
3670
اما شبیه این است که هوش مصنوعی سالانه صدهزار دلار هزینه دارد
09:12
to do one person's worth of work.
200
552882
2169
تا کار یک نفر را انجام دهد.
09:15
So that sounds really expensive.
201
555093
2293
پس حسابی گران به نظر می‌رسد.
09:17
And practically,
202
557428
1377
و در عمل،
09:18
there are already open-source versions of these tools
203
558805
2836
همین حالا هم نسخه‌های متن‌باز این ابزارها هست
09:21
that are low-cost, that companies can install and run themselves.
204
561682
3295
که کم‌هزینه‌‌اند و شرکت‌ها می‌توانند خودشان نصب و اجرا کنند.
09:25
Now they don’t perform as well as the flagship models,
205
565019
2878
خب این مدل‌ها به‌خوبی مدل‌های پرچم‌دار نیستند،
09:27
but if they're half as good and really cheap,
206
567939
3044
اما اگر نصف آن‌ها خوب‌اند و حسابی ارزان‌اند،
09:30
wouldn't you take those over the one that costs 100,000 dollars a year
207
570983
3337
حاضر نیستید آن‌ها را در عوضِ مدل‌های صدهزار دلاری انتخاب کنید
09:34
to do one person's work?
208
574320
1168
تا کار یک نفر را انجام دهند؟ البته که حاضرید.
09:35
Of course you would.
209
575530
1167
09:36
And so even if we solve reliability, we solve the data problem,
210
576697
3003
پس حتی اگر مشکل قابل‌اعتمادبودن را حل کنیم، مشکل داده‌ها را حل کنیم،
09:39
we make the models better,
211
579700
1585
مدل‌ها را بهتر کنیم،
09:41
the fact that there are cheap versions of this available
212
581285
3212
این حقیقت که نسخه‌های ارزانشان هم در دسترس است،
09:44
suggests that companies aren't going to be spending
213
584497
2419
حاکی از این است که شرکت‌ها قرار نیست
09:46
hundreds of millions of dollars to replace their workforce with AI.
214
586916
3712
صدها میلیون دلار هزینه کنند تا نیروی انسانی‌شان را با هوش مصنوعی جایگزین کنند.
09:50
There are areas that we need to worry, though.
215
590670
2169
البته حوزه‌هایی هم هستند که لازم است نگرانشان باشیم.
09:52
Because if we look at AI now,
216
592839
1835
زیرا اگر به هوش مصنوعی الان نگاه کنیم،
09:54
there are lots of problems that we haven't been able to solve.
217
594715
3045
مشکلات بسیاری دارد که نتوانسته‌ایم حل کنیم.
09:58
I've been building artificial intelligence for over 20 years,
218
598094
3086
من بیش از ۲۰ سال است که دارم هوش مصنوعی می‌سازم
10:01
and one thing we know
219
601222
1710
و یک چیزی که می‌دانیم
10:02
is that if we train AI on human data,
220
602974
2919
این است که اگر هوش مصنوعی را با داده‌های انسانی آموزش دهیم،
10:05
the AI adopts human biases,
221
605935
2711
هوش مصنوعی، سوگیری‌های انسانی را نیز پی می‌گیرد
10:08
and we have not been able to fix that.
222
608688
2586
و ما نتوانسته‌ایم این مشکل را حل کنیم.
10:11
We've seen those biases start showing up in generative AI,
223
611274
3545
دیده‌ایم که این سوگیری‌ها در هوش مصنوعیِ مولد دارند کم‌کم خودشان را نشان می‌دهند
10:14
and the gut reaction is always, well,
224
614861
2085
و واکنش غریزی همیشه این است که، خب،
10:16
let's just put in some guardrails to stop the AI from doing the biased thing.
225
616988
4337
بیایید چند حفاظ بگذاریم تا نگذاریم هوش مصنوعی کارهای سوگیرانه را انجام دهد.
اما اولاً، این کار هیچ‌وقت سوگیری را حل نمی‌کند
10:21
But one, that never fixes the bias because the AI finds a way around it.
226
621325
3587
چون هوش مصنوعی راه دورزدنش را پیدا می‌کند.
10:24
And two, the guardrails themselves can cause problems.
227
624954
3253
و دوماً، خود حفاظ‌ها هم می‌توانند مشکل‌ساز شوند.
10:28
So Google has an AI image generator,
228
628249
2628
پس گوگل هوش مصنوعی تصویرساز دارد،
10:30
and they tried to put guardrails in place to stop the bias in the results.
229
630877
4087
و تلاش کرده‌اند حفاظ‌هایی بگذارند تا نتایج سوگیری نداشته باشند.
10:35
And it turned out it made it wrong.
230
635006
2210
و معلوم شده است که خرابش کرده است.
10:37
This is a request for a picture
231
637258
1627
این درخواستی برای تصویری است
10:38
of the signing of the Declaration of Independence.
232
638926
2336
از امضای بیانیه‌ی استقلال.
10:41
And it's a great picture, but it is not factually correct.
233
641304
3879
و تصویری عالی است اما از منظر واقعیت‌ها درست نیست.
10:45
And so in trying to stop the bias,
234
645183
2460
و برای متوقف‌کردن این سوگیری،
10:47
we end up creating more reliability problems.
235
647685
4254
نهایتاً مشکلات بیشتری در زمینه‌ی قابل‌اعتمادبودن می‌آفرینیم.
10:51
We haven't been able to solve this problem of bias.
236
651981
3670
ما نتوانسته‌ایم این مشکل سوگیری را حل کنیم.
10:55
And if we're thinking about deferring decision making,
237
655693
2794
و اگر دنبال به‌تاخیرانداختن تصمیم‌گیری‌ها،
10:58
replacing human decision makers and relying on this technology
238
658529
3712
دنبال جایگزین‌کردن تصمیم‌گیرانِ انسانی و اتکا‌کردن به این تکنولوژی هستیم
11:02
and we can't solve this problem,
239
662283
1793
و نمی‌توانیم این مشکل را حل کنیم،
11:04
that's a thing that we should worry about
240
664076
2044
این چیزی است که باید نگرانش باشیم
11:06
and demand solutions to
241
666120
1293
و برایش دنبال راهکارهایی باشیم
11:07
before it's just widely adopted and employed because it's sexy.
242
667455
3503
قبل از این که دیگر حسابی پذیرفته و به کار گرفته شده باشد، چون جذاب است.
11:11
And I think there's one final thing that's missing here,
243
671459
3003
و به نظر من فقط یک نکته‌ی نهایی باقی مانده که اینجا نادیده گرفته شده است
11:14
which is our human intelligence
244
674503
1627
که هوش انسانی ما با بازده ما در کار تعریف نمی‌شود.
11:16
is not defined by our productivity at work.
245
676172
3378
11:20
At its core, it's defined by our ability to connect with other people.
246
680092
4171
در اصل، هوش ما با توانایی ما در برقراری ارتباط با دیگر افراد تعریف می‌شود.
11:24
Our ability to have emotional responses,
247
684263
2670
توانایی ما در داشتن پاسخ‌های احساسی،
11:26
to take our past and integrate it with new information
248
686974
2878
تا گذشته‌مان را بگیریم و با اطلاعات جدید ترکیبش کنیم
11:29
and creatively come up with new things.
249
689894
2294
و خلاقانه به چیزهای جدیدی برسیم.
11:32
And that’s something that artificial intelligence is not now
250
692188
2919
و این چیزی است که هوش مصنوعی نه الان
11:35
nor will it ever be capable of doing.
251
695107
2461
و نه هیچ‌وقت نمی‌تواند توانایی انجامش را داشته باشد.
11:37
It may be able to imitate it
252
697610
1501
شاید بتواند تقلیدش کند
11:39
and give us a cheap facsimile of genuine connection
253
699153
3087
و به ما کپی نامرغوبی از ارتباطات اصیل و همدلی و خلاقیت بدهد.
11:42
and empathy and creativity.
254
702281
2127
11:44
But it can't do those core things to our humanity.
255
704408
3671
اما نمی‌تواند این کارهایی را که اَس‌واساس نوع بشر ما هستند، انجام دهد.
11:48
And that's why I'm not really worried about AGI taking over civilization.
256
708120
5047
و به همین علت است ک من واقعاً نگران نیستم که هوش جامع مصنوعی بر تمدن مسلط شود.
11:53
But if you come away from this disbelieving everything I have told you,
257
713209
4504
اما اگر در حالی از اینجا بروید که هیچ‌کدام از حرف‌هایم را باور نکرد‌ه‌اید،
11:57
and right now you're worried
258
717755
1460
و همین حالا هم نگران هستید
11:59
about humanity being destroyed by AI overlords,
259
719257
3003
که خداوندگار هوش مصنوعی بشریت را نابود کند،
12:02
the one thing to remember is,
260
722301
1877
یک چیز که باید یادتان بماند این است که
12:04
despite what the movies have told you,
261
724220
2085
برخلاف چیزی که فیلم‌ها به شما گفته‌اند،
12:06
if it gets really bad,
262
726347
1460
اگر خیلی خرابکار شود،
12:07
we still can always just turn it off.
263
727807
2919
هنوز هم همیشه می‌توانیم راحت خاموشش کنیم.
12:10
(Laughter)
264
730768
1001
(صدای خنده)
12:11
Thank you.
265
731769
1168
ممنونم.
12:12
(Applause)
266
732979
3837
(صدای تشویق)
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7