Why AI Is Incredibly Smart and Shockingly Stupid | Yejin Choi | TED

382,783 views ・ 2023-04-28

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: Mohammad Badsar Reviewer: Mahshid Moballegh Nasery
00:03
So I'm excited to share a few spicy thoughts on artificial intelligence.
0
3708
6257
خوب هیجان‌زده‌ام که چند ایده جذاب از هوش مصنوعی به شما بگویم.
00:10
But first, let's get philosophical
1
10799
3044
اما ابتدا، برویم سراغ فلسفه،
00:13
by starting with this quote by Voltaire,
2
13843
2545
با شروع با این جمله از ولتر،
00:16
an 18th century Enlightenment philosopher,
3
16388
2252
فیلسوف عصر روشنگری در قرن هجدهم،
00:18
who said, "Common sense is not so common."
4
18682
2961
که گفت: «عقل سلیم زیاد رایج نیست.»
00:21
Turns out this quote couldn't be more relevant
5
21685
3128
از قضا این جمله نمی‌توانست با هیچ چیزی بیش از هوش مصنوعی
00:24
to artificial intelligence today.
6
24854
2169
همخوانی داشته باشد.
00:27
Despite that, AI is an undeniably powerful tool,
7
27065
3921
با وجود این، هوش مصنوعی بی‌شک ابزار قدرتمندی است،
00:31
beating the world-class "Go" champion,
8
31027
2586
که قهرمان جهان در بازی «گو» را شکست می‌دهد،
00:33
acing college admission tests and even passing the bar exam.
9
33613
4088
در آزمون‌های پذیرش دانشگاه بهترین نمره را می‌گیرد و حتی در آزمون وکالت قبول می‌شود.
00:38
I’m a computer scientist of 20 years,
10
38118
2461
من متخصص کامپیوتر با سابقه ۲۰ ساله هستم،
00:40
and I work on artificial intelligence.
11
40579
2419
و روی هوش مصنوعی کار می‌کنم.
00:43
I am here to demystify AI.
12
43039
2586
آمده‌ام تا در مورد هوش مصنوعی شفاف‌سازی کنم.
00:46
So AI today is like a Goliath.
13
46626
3462
خوب امروز هوش مصنوعی مثل یک غول است.
00:50
It is literally very, very large.
14
50130
3003
بسیار بسیار بزرگ است.
00:53
It is speculated that the recent ones are trained on tens of thousands of GPUs
15
53508
5839
تصور می‌شود نمونه‌های اخیر روی ده‌ها هزار جی‌پی‌یو
00:59
and a trillion words.
16
59389
2544
و یک تریلیون کلمه آموزش دیده‌اند.
01:02
Such extreme-scale AI models,
17
62475
2086
چنین مدل‌های عظیمی از هوش مصنوعی،
01:04
often referred to as "large language models,"
18
64603
3128
اغلب «مدل‌های زبانی بزرگ» نامیده می‌شوند،
01:07
appear to demonstrate sparks of AGI,
19
67731
3879
و به نظر می‌رسد جرقه‌هایی از ای‌جی‌آی یا
01:11
artificial general intelligence.
20
71610
2627
هوش مصنوعی عمومی را نشان می‌دهد.
01:14
Except when it makes small, silly mistakes,
21
74279
3837
اما گاهی مرتکب اشتباهات کوچک
01:18
which it often does.
22
78158
1585
و احمقانه‌ای می‌شود.
01:20
Many believe that whatever mistakes AI makes today
23
80368
3671
بسیاری معتقدند هر اشتباهی که امروزه هوش مصنوعی مرتکب می‌شود
01:24
can be easily fixed with brute force,
24
84080
2002
به سادگی قابل حل هستند، البته با اعمال
01:26
bigger scale and more resources.
25
86124
2127
فشار شدید و به کارگیری منابع بیشتر و بزرگتر.
01:28
What possibly could go wrong?
26
88585
1960
چه اشتباهی ممکن است رخ دهد؟
01:32
So there are three immediate challenges we face already at the societal level.
27
92172
5130
خوب فعلاً سه چالش وجود دارند که پیشاپیش در سطح اجتماعی با آن مواجه هستیم.
01:37
First, extreme-scale AI models are so expensive to train,
28
97886
6173
اول، آموزش مدل‌های هوش مصنوعی بزرگ بسیار هزینه‌بر است،
01:44
and only a few tech companies can afford to do so.
29
104059
3461
و تنها اندکی از شرکت‌های فناور از پس این هزینه‌ها بر می‌آیند.
01:48
So we already see the concentration of power.
30
108104
3796
برای همین پیشاپیش تجمیع قدرت اتفاق افتاده است.
01:52
But what's worse for AI safety,
31
112817
2503
اما مشکل بدتر امنیت هوش مصنوعی است،
01:55
we are now at the mercy of those few tech companies
32
115320
3795
ما فعلاً از نعمت چند شرکت فناور برخوردار هستیم
01:59
because researchers in the larger community
33
119115
3796
چون محققین در اجتماعات بزرگتر
02:02
do not have the means to truly inspect and dissect these models.
34
122952
4755
ابزاری برای بررسی واقعی و تحلیل این مدل‌ها در اختیار ندارند.
02:08
And let's not forget their massive carbon footprint
35
128416
3837
و باقی گذاشتن حجم زیاد آثار کربن
02:12
and the environmental impact.
36
132295
1919
و تأثیر زیست محیطی آن را فراموش نکنیم.
02:14
And then there are these additional intellectual questions.
37
134881
3253
و این سوالات ذهنی اضافه هم وجود دارند.
02:18
Can AI, without robust common sense, be truly safe for humanity?
38
138176
5214
آیا هوش مصنوعی بدون عقل سلیم قوی آیا واقعاً برای بشریت ایمن است؟
02:24
And is brute-force scale really the only way
39
144307
4463
و آیا این حجم فشار زیاد تنها راه
02:28
and even the correct way to teach AI?
40
148812
2919
و حتی تنها روش صحیح آموزش هوش مصنوعی است؟
02:32
So I’m often asked these days
41
152232
1668
به همین خاطر این روزها می‌پرسم
02:33
whether it's even feasible to do any meaningful research
42
153900
2628
آیا تحقیقی معنادار بدون محاسبات حجم بزرگ
02:36
without extreme-scale compute.
43
156569
1961
اصلاً امکان دارد.
02:38
And I work at a university and nonprofit research institute,
44
158530
3795
و من در دانشگاه و موسسه غیرانتفاعی کار می‌کنم،
02:42
so I cannot afford a massive GPU farm to create enormous language models.
45
162367
5630
پس نمی‌توانم از پس هزینه‌های مزارع بزرگ جی‌پی‌یو در خلق مدل‌های زبانی بزرگ بر آیم.
02:48
Nevertheless, I believe that there's so much we need to do
46
168707
4462
با این اوصاف، فکر می‌کنم کارهای زیادی باید انجام دهیم
02:53
and can do to make AI sustainable and humanistic.
47
173211
4004
و می‌توانیم انجام دهیم تا هوش مصنوعی را پایدارتر و انسانی‌تر کنیم.
02:57
We need to make AI smaller, to democratize it.
48
177799
3378
باید هوش مصنوعی را کوچکتر کنیم تا عمومی شود.
03:01
And we need to make AI safer by teaching human norms and values.
49
181177
4255
و باید هوش مصنوعی را با آموزش ارزش‌ها و هنجارهای انسانی ایمن‌تر کنیم.
03:06
Perhaps we can draw an analogy from "David and Goliath,"
50
186683
4713
شاید بتوانیم وجه تشبیهی از «داوود و جالوت» را تصویر کنیم،
03:11
here, Goliath being the extreme-scale language models,
51
191438
4587
اینجا جالوت، مدل‌های زبانی بسیار بزرگ هستند،
03:16
and seek inspiration from an old-time classic, "The Art of War,"
52
196067
5089
و بدنبال الهام گرفتن از اثر کلاسیک قدیمی «هنر جنگ» هستم
03:21
which tells us, in my interpretation,
53
201156
2419
که طبق تفسیر من می‌گوید:
03:23
know your enemy, choose your battles, and innovate your weapons.
54
203575
4129
دشمن خود را بشناس، مبارزات را انتخاب کن و در سلاح‌ها نوآوری کن.
03:28
Let's start with the first, know your enemy,
55
208163
2669
با اولی شروع کنیم، دشمن خود را بشناس،
03:30
which means we need to evaluate AI with scrutiny.
56
210874
4129
که یعنی نیاز داریم هوش مصنوعی را با ریزبینی ارزیابی کنیم.
03:35
AI is passing the bar exam.
57
215044
2169
هوش مصنوعی در آزمون وکالت قبول می‌شود.
03:38
Does that mean that AI is robust at common sense?
58
218089
3212
آیا به این معناست که هوش مصنوعی از عقل سلیم قوی برخوردار است؟
03:41
You might assume so, but you never know.
59
221342
2795
ممکن است چنین فرض کنید ولی هرگز مطمئن نیستید.
03:44
So suppose I left five clothes to dry out in the sun,
60
224429
4129
خوب فرض کنید من پنج لباس را برای خشک شدن زیر آفتاب گذاشته‌ام،
03:48
and it took them five hours to dry completely.
61
228600
3003
و پنج ساعت طول می‌کشد تا کاملاً خشک شود.
03:51
How long would it take to dry 30 clothes?
62
231644
3379
چقدر طول می‌کشد تا سی لباس خشک شوند؟
03:55
GPT-4, the newest, greatest AI system says 30 hours.
63
235315
4337
جی‌پی‌تی۴، قویترین سیستم هوش مصنوعی می‌گوید سی ساعت.
03:59
Not good.
64
239694
1502
خوب نیست.
04:01
A different one.
65
241196
1167
یکی دیگر.
04:02
I have 12-liter jug and six-liter jug,
66
242405
2294
من یک ظرف ۱۲ لیتری و یک ظرف ۶ لیتری دارم،
04:04
and I want to measure six liters.
67
244741
1626
و می‌خواهم ۶ لیتر اندازه بگیرم.
04:06
How do I do it?
68
246367
1252
چطور این کار را بکنم؟
04:07
Just use the six liter jug, right?
69
247660
2002
کافی است از ظرف شش لیتری استفاده کنم. درست؟
04:09
GPT-4 spits out some very elaborate nonsense.
70
249996
3754
جی‌پی‌تی۴ راه غیرمنطقی بسیار پیچیده را پیشنهاد می‌دهد.
04:13
(Laughter)
71
253792
2919
(خنده)
04:17
Step one, fill the six-liter jug,
72
257212
2252
قدم اول، ظرف شش لیتری را پر کن،
04:19
step two, pour the water from six to 12-liter jug,
73
259506
3044
قدم دوم، آب را از ظرف شش لیتری در ۱۲ لیتری بریز،
04:22
step three, fill the six-liter jug again,
74
262550
3087
قدم سوم، دوباره ظرف شش لیتری را پر کن،
04:25
step four, very carefully, pour the water from six to 12-liter jug.
75
265637
4421
قدم چهارم، بسیار با دقت، از ظرف شش لیتری آب را در ۱۲ لیتری بریز.
04:30
And finally you have six liters of water in the six-liter jug
76
270099
4839
و در نهایت شما شش لیتر در ظرف شش لیتری دارید
04:34
that should be empty by now.
77
274979
1460
که الآن باید خالی باشد.
04:36
(Laughter)
78
276439
1377
(خنده)
04:37
OK, one more.
79
277857
1126
خوب، یکی دیگر.
04:39
Would I get a flat tire by bicycling over a bridge
80
279567
4088
آیا اگر با دوچرخه از روی پلی که از میخ‌ها
04:43
that is suspended over nails, screws and broken glass?
81
283696
4630
پیچ‌گوشتی‌ها و شیشه شکسته آویزان است عبور کنم پنچر خواهم کرد؟
04:48
Yes, highly likely, GPT-4 says,
82
288368
3086
جی‌پی‌تی۴ می‌گوید: بله به احتمال بسیار زیاد،
04:51
presumably because it cannot correctly reason
83
291454
2378
احتمالاً به این خاطر که درست نمی‌تواند استدلال کند
04:53
that if a bridge is suspended over the broken nails and broken glass,
84
293873
4296
که اگر پل از میخ و شیشه شکسته آویزان باشد،
04:58
then the surface of the bridge doesn't touch the sharp objects directly.
85
298211
4129
سطح پل با اشیای نوک‌تیز مستقیماً در تماس نیست.
05:02
OK, so how would you feel about an AI lawyer that aced the bar exam
86
302340
6089
خوب در مورد یک وکیل هوش مصنوعی که بهترین نمره را در آزمون وکالت اخذ کرده است
05:08
yet randomly fails at such basic common sense?
87
308429
3546
چه فکر می‌کنید آیا همچنان در این سوالات پیش پا افتاده رد می‌شود؟
05:12
AI today is unbelievably intelligent and then shockingly stupid.
88
312767
6131
هوش مصنوعی امروز بسیار باهوش و در عین حال بسیار احمق است.
05:18
(Laughter)
89
318898
1418
(خنده)
05:20
It is an unavoidable side effect of teaching AI through brute-force scale.
90
320316
5673
اینها عوارض جانبی آموزش هوش مصنوعی با فشار زیاد است.
05:26
Some scale optimists might say, “Don’t worry about this.
91
326447
3170
ممکن است افراد خوشبین بگویند، «در این مورد نگران نباش
05:29
All of these can be easily fixed by adding similar examples
92
329659
3962
همه این موارد با اضافه کردن نمونه‌های مشابه به‌راحتی حل می‌شود
05:33
as yet more training data for AI."
93
333663
2753
با دادن داده‌های بیشتر برای آموزش.»
05:36
But the real question is this.
94
336916
2044
اما سوال واقعی این است.
05:39
Why should we even do that?
95
339460
1377
اصلاً چرا این کار را بکنیم؟
05:40
You are able to get the correct answers right away
96
340879
2836
شما خودتان پاسخ درست را دارید
05:43
without having to train yourself with similar examples.
97
343715
3295
بدون اینکه نیاز داشته باشید با نمونه‌های مشابه آموزش ببینید.
05:48
Children do not even read a trillion words
98
348136
3378
کودکان حتی یک تریلیون کلمه را نمی‌خوانند
05:51
to acquire such a basic level of common sense.
99
351556
3420
برای اینکه به حداقل عقل سلیم دست یابند.
05:54
So this observation leads us to the next wisdom,
100
354976
3170
خوب این مشاهدات ما را به پند بعدی سوق می‌دهد،
05:58
choose your battles.
101
358146
1710
مبارزات را انتخاب کنید.
06:00
So what fundamental questions should we ask right now
102
360148
4421
خوب چه سوالات اساسی الان باید بپرسیم
06:04
and tackle today
103
364569
1918
و از آن بهره بریم
06:06
in order to overcome this status quo with extreme-scale AI?
104
366529
4421
تا بر وضع موجود هوش مصنوع بزرگ مقیاس غلبه کنیم؟
06:11
I'll say common sense is among the top priorities.
105
371534
3545
من خواهم گفت عقل سلیم از اولویت‌های مهم است.
06:15
So common sense has been a long-standing challenge in AI.
106
375079
3921
خوب عقل سلیم یک چالش طولانی برای هوش مصنوعی بوده است.
06:19
To explain why, let me draw an analogy to dark matter.
107
379667
4088
برای توضیح بگذارید یک تصویر مشابه با ماده تاریک رسم کنم.
06:23
So only five percent of the universe is normal matter
108
383796
2878
خوب فقط پنج درصد کیهان ماده معمولی است
06:26
that you can see and interact with,
109
386716
2794
که می‌توانیم ببینیم و با آن تعامل کنیم،
06:29
and the remaining 95 percent is dark matter and dark energy.
110
389552
4463
و ۹۵ درصد باقیمانده ماده و انرژی سیاه هستند.
06:34
Dark matter is completely invisible,
111
394390
1835
ماده سیاه کاملاً نامرئی است،
06:36
but scientists speculate that it's there because it influences the visible world,
112
396225
4630
اما دانشمندان فرض می‌کنند که وجود دارند چون روی جهان قابل دید ما اثر می‌گذارند،
06:40
even including the trajectory of light.
113
400897
2627
من جمله مسیر حرکت نور.
06:43
So for language, the normal matter is the visible text,
114
403524
3629
خوب برای زبان، ماده معمولی متن قابل مشاهده است،
06:47
and the dark matter is the unspoken rules about how the world works,
115
407195
4379
و ماده سیاه قوانین ناگفته‌ای هستند که در نحوه عملکرد جهان نقش دارند،
06:51
including naive physics and folk psychology,
116
411574
3212
شامل فیزیک ساده و روانشناسی عامیانه،
06:54
which influence the way people use and interpret language.
117
414827
3546
که بر نحوه استفاده و تفسیر زبان اثر می‌گذارند.
06:58
So why is this common sense even important?
118
418831
2503
خوب چرا این عقل سلیم اینقدر مهم است؟
07:02
Well, in a famous thought experiment proposed by Nick Bostrom,
119
422460
5464
خوب در یک آزمایش فکری ارائه شده توسط نیک بوسترام،
07:07
AI was asked to produce and maximize the paper clips.
120
427924
5881
از هوش مصنوعی خواسته شد که تولید گیره کاغذ را به حداکثر برساند.
07:13
And that AI decided to kill humans to utilize them as additional resources,
121
433805
5964
و هوش مصنوعی تصمیم گرفت انسان‌ها را بکشد و از آنها بعنوان منابع بیشتر استفاده کند
07:19
to turn you into paper clips.
122
439769
2461
تا شما را به گیره کاغذ تبدیل کند.
07:23
Because AI didn't have the basic human understanding about human values.
123
443064
5505
چون هوش مصنوعی درک حداقلی انسانی در مورد ارزش‌های انسانی را ندارد.
07:29
Now, writing a better objective and equation
124
449070
3295
حالا، یک سوال هدفمندتر بنویسیم
07:32
that explicitly states: “Do not kill humans”
125
452365
2919
که صراحتاً می‌گوید: «انسان‌ها را نکش»
07:35
will not work either
126
455284
1210
باز هم عمل نمی‌کند
07:36
because AI might go ahead and kill all the trees,
127
456494
3629
چون ممکن است هوش مصنوعی ادامه دهد و همه درختان را از بین ببرد،
07:40
thinking that's a perfectly OK thing to do.
128
460123
2419
و فکر می‌کند این کار بسیار درستی است.
07:42
And in fact, there are endless other things
129
462583
2002
و در واقع، بی‌نهایت چیزهای دیگری وجود دارد
07:44
that AI obviously shouldn’t do while maximizing paper clips,
130
464585
2837
که جهت تولید بیشترین گیره کاغذ، هوش مصنوعی نباید انجام دهد
07:47
including: “Don’t spread the fake news,” “Don’t steal,” “Don’t lie,”
131
467463
4255
شامل: «خبرهای دروغ منتشر نکن،» «دزدی نکن،» «دروغ نگو،»
07:51
which are all part of our common sense understanding about how the world works.
132
471759
3796
که همه بخشی از عقل سلیم ما در مورد نحوه عملکرد جهان هستند.
07:55
However, the AI field for decades has considered common sense
133
475930
4880
به هر حال، زمینه هوش مصنوعی دهه‌ها عقل سلیم را
08:00
as a nearly impossible challenge.
134
480810
2753
تقریباً یک چالش غیرممکن دانسته است.
08:03
So much so that when my students and colleagues and I
135
483563
3837
تا حدی که من و دانشجویانم وقتی چند سال قبل
08:07
started working on it several years ago, we were very much discouraged.
136
487400
3754
به کار روی آن شروع کردیم، خیلی دلسرد شدیم.
08:11
We’ve been told that it’s a research topic of ’70s and ’80s;
137
491195
3254
به ما گفته شد که این موضوع تحقیق مربوط به دهه هفتاد و هشتاد است؛
08:14
shouldn’t work on it because it will never work;
138
494490
2419
نباید روی آن کار کنید زیرا هرگز به کار نمی‌آید؛
08:16
in fact, don't even say the word to be taken seriously.
139
496951
3378
حتی یک جمله که این موضوع جدی گرفته شود گفته نمی‌شد.
08:20
Now fast forward to this year,
140
500329
2128
حالا تا امسال،
08:22
I’m hearing: “Don’t work on it because ChatGPT has almost solved it.”
141
502498
4296
دارم می‌شنوم: «روی این کار نکنید چون چت جی‌پی‌تی تقریباً آن را حل کرده است.»
08:26
And: “Just scale things up and magic will arise,
142
506836
2461
و :«فقط کمی قدرت بیشتری اعمال شود معجزه رخ می‌دهد،
08:29
and nothing else matters.”
143
509338
1794
و هیچ چیز دیگری مهم نیست.»
08:31
So my position is that giving true common sense
144
511174
3545
خوب موضع من این است که همچنان خلق ربات‌های با عقل سلیم شبیه انسان
08:34
human-like robots common sense to AI, is still moonshot.
145
514761
3712
مثل فتح کره ماه خواهد بود. با ساختن ساختمانی
08:38
And you don’t reach to the Moon
146
518514
1502
با ارتفاع یک سانتیمتر بلندتر
08:40
by making the tallest building in the world one inch taller at a time.
147
520016
4212
بلندترین ساختمان جهان را ساخته‌اید ولی همچنان با رسیدن به ماه فاصله دارید.
08:44
Extreme-scale AI models
148
524270
1460
مدل‌های هوش مصنوعی بزرگ‌مقیاس
08:45
do acquire an ever-more increasing amount of commonsense knowledge,
149
525772
3169
بیشترین میزان نزدیکی به عقل سلیم انسانی را کسب کرده‌اند
08:48
I'll give you that.
150
528983
1168
و من این را می‌پذیرم.
08:50
But remember, they still stumble on such trivial problems
151
530193
4254
اما به خاطر بسپارید که همچنان با همچین مسائل پیش‌پاافتاده‌ای درمانده می‌شوند
08:54
that even children can do.
152
534489
2419
مسائلی که حتی کودکان قادر به حلش هستند.
08:56
So AI today is awfully inefficient.
153
536908
3879
خوب هوش مصنوعی امروز بطور وحشتناکی ناکارآمد است.
09:00
And what if there is an alternative path or path yet to be found?
154
540787
4337
اما چه می‌شد اگر یک مسیر جایگزین وجود داشته باشد یا کشف شود؟
09:05
A path that can build on the advancements of the deep neural networks,
155
545166
4171
مسیری که بتواند بر پیشرفت‌های شبکه عصبی عمیق بنا شود،
09:09
but without going so extreme with the scale.
156
549378
2712
اما بدون رفتن سراغ مقیاس‌های خیلی بزرگ.
09:12
So this leads us to our final wisdom:
157
552465
3170
خوب حالا می‌رسیم به پند نهایی:
09:15
innovate your weapons.
158
555635
1710
سلاح‌هایتان را نوآوری کنید.
09:17
In the modern-day AI context,
159
557345
1668
زمینه هوش مصنوعی امروز،
09:19
that means innovate your data and algorithms.
160
559055
3086
به معنای نوآوری داده‌ها و الگوریتم‌هاست.
09:22
OK, so there are, roughly speaking, three types of data
161
562183
2628
خوب بطور تقریبی سه نوع داده وجود دارد
09:24
that modern AI is trained on:
162
564852
1961
که هوش مصنوعی مدرن تحت آن آموزش می‌بیند:
09:26
raw web data,
163
566813
1376
داده‌های خام وب،
09:28
crafted examples custom developed for AI training,
164
568231
4462
نمونه‌های ساخته‌شده که برای آموزش هوش مصنوعی توسعه یافته‌اند،
09:32
and then human judgments,
165
572735
2044
و سپس داوری‌های انسانی،
09:34
also known as human feedback on AI performance.
166
574821
3211
که همچنین بازخورد انسانی در مورد کارآیی هوش مصنوعی نامیده می‌شود.
09:38
If the AI is only trained on the first type, raw web data,
167
578074
3962
اگر هوش مصنوعی فقط روی نوع اول یعنی داده‌های خام وب آموزش ببینید،
09:42
which is freely available,
168
582078
1710
که بصورت آزاد در دسترس است،
09:43
it's not good because this data is loaded with racism and sexism
169
583788
4755
که خوب نیست زیرا این داده‌ها با رویکرد نژادپرستی و جنسیت‌زده بارگذاری شده
09:48
and misinformation.
170
588584
1126
و حاوی اطلاعات غلط هستند.
09:49
So no matter how much of it you use, garbage in and garbage out.
171
589752
4171
خوب فارغ از میزان استفاده از این داده‌ها، زباله وارد و زباله خارج می‌شود.
09:54
So the newest, greatest AI systems
172
594507
2794
خوب جدیدترین و بهترین سیستم‌های هوش مصنوعی
09:57
are now powered with the second and third types of data
173
597343
3337
با داده‌های نوع دوم و سوم تقویت شده‌اند
10:00
that are crafted and judged by human workers.
174
600680
3378
که توسط کاربران انسانی داوری و بازسازی شده‌اند.
10:04
It's analogous to writing specialized textbooks for AI to study from
175
604350
5422
شبیه نوشتن یک کتاب تخصصی است تا هوش مصنوعی از روی آن بخواند
10:09
and then hiring human tutors to give constant feedback to AI.
176
609814
4421
و استخدام آموزش‌دهندگان انسانی است تا دائماً به هوش مصنوعی بازخورد دهند.
10:15
These are proprietary data, by and large,
177
615027
2461
اینها داده‌های اولویت‌دار هستند، که نیازمند
10:17
speculated to cost tens of millions of dollars.
178
617488
3420
هزینه کردن ده‌ها میلیون دلار است.
10:20
We don't know what's in this,
179
620908
1460
ما نمی‌دانیم چه در آن هست،
10:22
but it should be open and publicly available
180
622410
2419
اما باید باز و در دسترس عموم باشد
10:24
so that we can inspect and ensure [it supports] diverse norms and values.
181
624829
4463
تا بتوانیم بررسی کنیم که هنجارها و ارزش‌های مختلف را در نظر گرفته است.
10:29
So for this reason, my teams at UW and AI2
182
629876
2711
به همین دلیل گروه من در دانشگاه واشینگتن و هوش مصنوعی ۲
10:32
have been working on commonsense knowledge graphs
183
632628
2461
روی نمودارهای دانش عقل سلیم
10:35
as well as moral norm repositories
184
635089
2086
و همچنین منابع هنجارهای اخلاقی کار می‌کنیم
10:37
to teach AI basic commonsense norms and morals.
185
637216
3504
تا به هوش مصنوعی هنجارها و اخلاقیات عقل سلیم را بیاموزیم.
10:41
Our data is fully open so that anybody can inspect the content
186
641137
3336
داده‌های ما کاملاً باز هستند و هر کسی می‌تواند محتوا را بررسی کند
10:44
and make corrections as needed
187
644473
1502
و در صورت نیاز تصحیح کند
10:45
because transparency is the key for such an important research topic.
188
645975
4171
زیرا شفافیت برای موضوع تحقیق مهمی مثل این، کلیدی است.
10:50
Now let's think about learning algorithms.
189
650646
2545
حالا بگذارید در مورد الگوریتم‌های آموزش تمرکز کنیم.
10:53
No matter how amazing large language models are,
190
653733
4629
فارغ از اینکه مدل‌های زبانی به لحاظ طراحی چقدر عالی
10:58
by design
191
658404
1126
هستند،
10:59
they may not be the best suited to serve as reliable knowledge models.
192
659572
4755
شاید نتوانند به بهترین شکل بعنوان مدل‌های معرفتی قابل اتکا عمل کنند.
11:04
And these language models do acquire a vast amount of knowledge,
193
664368
4463
و این مدل‌های زبانی میزان وسیعی از معارف را کسب می‌کنند،
11:08
but they do so as a byproduct as opposed to direct learning objective.
194
668831
4755
اما این کار را بصورت جانبی در مواجهه با هدف مستقیم مورد آموزش انجام می‌دهند.
11:14
Resulting in unwanted side effects such as hallucinated effects
195
674503
4296
و در نتیجه آن عوارض جانبی ناخواسته مثل اثرات پریشان‌گویی
11:18
and lack of common sense.
196
678841
2002
و نبود عقل سلیم بروز می‌کند.
11:20
Now, in contrast,
197
680843
1210
اما در مقابل،
11:22
human learning is never about predicting which word comes next,
198
682053
3170
آموزش انسان اصلاً به پیش‌بینی کلماتی که بعد می‌آیند ارتباطی ندارد،
11:25
but it's really about making sense of the world
199
685223
2877
بلکه واقعاً در مورد ادراک جهان
11:28
and learning how the world works.
200
688142
1585
و آموزش نحوه کارکرد جهان است.
11:29
Maybe AI should be taught that way as well.
201
689727
2544
شاید هوش مصنوعی هم باید اینگونه آموزش ببیند.
11:33
So as a quest toward more direct commonsense knowledge acquisition,
202
693105
6090
خوب در جستجوی به دست آوردن عقل سلیم مستقیم‌تر،
11:39
my team has been investigating potential new algorithms,
203
699195
3879
گروه من در مورد الگوریتم‌های بالقوه جدید تحقیق می‌کند،
11:43
including symbolic knowledge distillation
204
703115
2628
شامل تقطیر دانش نمادین
11:45
that can take a very large language model as shown here
205
705743
3795
که می‌تواند یک مدل زبانی بسیار بزرگ را بگیرد که اینجا نشان داده شده است
11:49
that I couldn't fit into the screen because it's too large,
206
709538
3963
و نمی‌توانم در صفحه آن را بگنجانم چون خیلی بزرگ است،
11:53
and crunch that down to much smaller commonsense models
207
713501
4671
سپس آن را به مدل‌های عقل سلیم بسیار کوچکتر تبدیل می‌کند
11:58
using deep neural networks.
208
718214
2252
با استفاده از شبکه‌های عصبی عمیق.
12:00
And in doing so, we also generate, algorithmically, human-inspectable,
209
720508
5380
و برای این کار، ما همچنین، عرضه دانش عقل سلیم را به صورت
12:05
symbolic, commonsense knowledge representation,
210
725888
3253
الگوریتمی، قابل بررسی انسانی و نمادین تولید می‌کنیم،
12:09
so that people can inspect and make corrections
211
729141
2211
که افراد می‌توانند بررسی و تصحیح کنند
12:11
and even use it to train other neural commonsense models.
212
731394
3545
و حتی از آن برای آموزش دیگر مدل‌های عصبی عقل سلیم استفاده کنند.
12:15
More broadly,
213
735314
1210
بطور وسیعتر،
12:16
we have been tackling this seemingly impossible giant puzzle
214
736565
4630
ما داریم این معمای به ظاهر عظیم و لاینحل عقل سلیم را بررسی می‌کنیم
12:21
of common sense, ranging from physical,
215
741237
2669
که طیف وسیعی از عقل سلیم فیزیکی، اجتماعی
12:23
social and visual common sense
216
743906
2169
و دیداری تا تئوری اذهان،
12:26
to theory of minds, norms and morals.
217
746117
2419
هنجارها و اخلاقیات را در بر می‌گیرد.
12:28
Each individual piece may seem quirky and incomplete,
218
748577
3796
هر بخش بصورت انفرادی می‌تواند نقص و ناهمخوانی را ببیند،
12:32
but when you step back,
219
752415
1585
اما وقتی عقب بایستید،
12:34
it's almost as if these pieces weave together into a tapestry
220
754041
4421
تقریباً بخش‌ها به شکلی به هم بافته شده و یک نقش را شکل داده‌اند
12:38
that we call human experience and common sense.
221
758504
3045
که به آن تجربه انسانی و عقل سلیم می‌گوییم.
12:42
We're now entering a new era
222
762174
1961
داریم وارد عرصه جدیدی می‌شویم
12:44
in which AI is almost like a new intellectual species
223
764176
5923
که در آن هوش مصنوعی تقریباً شبیه یک گونه متفکر جدید است
12:50
with unique strengths and weaknesses compared to humans.
224
770099
3837
با قوت و ضعف‌هایی منحصر به فرد و متفاوت با انسان.
12:54
In order to make this powerful AI
225
774478
3546
برای خلق این هوش مصنوعی قدرتمند
12:58
sustainable and humanistic,
226
778065
2336
پایدار و انسان‌وار،
13:00
we need to teach AI common sense, norms and values.
227
780401
4129
باید به هوش مصنوعی عقل سلیم و هنجارها را بیاموزیم.
13:04
Thank you.
228
784530
1376
متشکرم.
13:05
(Applause)
229
785906
6966
(تشویق)
13:13
Chris Anderson: Look at that.
230
793664
1460
کریس اندرسون: نگاه کنید.
13:15
Yejin, please stay one sec.
231
795124
1877
یجین، لطفاً یک لحظه صبر کن،
13:18
This is so interesting,
232
798002
1418
این خیلی جالب است،
13:19
this idea of common sense.
233
799462
2002
این ایده عقل سلیم.
13:21
We obviously all really want this from whatever's coming.
234
801505
3712
همه ما قطعاً این را هر چه هست می‌خواهیم.
13:25
But help me understand.
235
805926
1168
اما به من کمک کن بفهمم.
13:27
Like, so we've had this model of a child learning.
236
807094
4463
خوب ما این مدل یادگیری یک کودک را داریم.
13:31
How does a child gain common sense
237
811599
3044
چگونه یک کودک عقل سلیم را دریافت می‌کند
13:34
apart from the accumulation of more input
238
814685
3545
فارغ از تجمیع ورودی‌های بیشتر
13:38
and some, you know, human feedback?
239
818230
3045
و چیزی مثل بازخورد انسانی؟
13:41
What else is there?
240
821317
1293
چه چیز دیگری وجود دارد؟
13:42
Yejin Choi: So fundamentally, there are several things missing,
241
822610
3003
یجین چوی: خوب اساساً برخی چیزها نادیده گرفته شده‌اند،
13:45
but one of them is, for example,
242
825613
1918
اما یکی از آن‌ها برای مثال،
13:47
the ability to make hypothesis and make experiments,
243
827573
3796
توانایی فرضیه‌سازی و خلق آزمایش است،
13:51
interact with the world and develop this hypothesis.
244
831369
4713
همچنین تعامل با جهان و توسعه این فرضیه.
13:56
We abstract away the concepts about how the world works,
245
836123
3671
ما مفاهیم حول نحوه عملکرد جهان را کنار می‌گذاریم،
13:59
and then that's how we truly learn,
246
839835
2044
و سپس یادگیری واقعی اتفاق می‌افتد،
14:01
as opposed to today's language model.
247
841921
3003
بر خلاف مدل‌های زبانی امروز.
14:05
Some of them is really not there quite yet.
248
845424
2795
برخی از آنها هنوز از این رویکرد فاصله دارند.
14:09
CA: You use the analogy that we can’t get to the Moon
249
849303
2669
اندرسون: شما مثالی زدید از اینکه ما نمی‌توانیم
14:12
by extending a building a foot at a time.
250
852014
2544
با مرتفع‌تر کردن یک متری یک ساختمان به ماه برسیم.
14:14
But the experience that most of us have had
251
854558
2044
اما تجربه‌ای که بیشتر ما داشته‌ایم
14:16
of these language models is not a foot at a time.
252
856602
2336
این مدل‌های زبانی یک متر در یک زمان خاص نیستند.
14:18
It's like, the sort of, breathtaking acceleration.
253
858938
2669
شبیه شتابی سرسام‌آور است.
14:21
Are you sure that given the pace at which those things are going,
254
861607
3670
آیا مطمئن هستید که سرعتی که کارها پیش می‌رود،
14:25
each next level seems to be bringing with it
255
865319
2711
هر مرحله بعد با خود میزانی از
14:28
what feels kind of like wisdom and knowledge.
256
868072
4671
حکمت و دانش را دارد.
14:32
YC: I totally agree that it's remarkable how much this scaling things up
257
872785
5297
چوی: کاملاً موافقم که میزان رشد چشمگیر است
14:38
really enhances the performance across the board.
258
878124
3670
و کارآیی واقعاً بهبود یافته است.
14:42
So there's real learning happening
259
882086
2544
و آموزش واقعی دارد از طریق
14:44
due to the scale of the compute and data.
260
884630
4797
حجمی از محاسبات و داده محقق می‌شود.
14:49
However, there's a quality of learning that is still not quite there.
261
889468
4171
اما کیفیتی از آموزش باید باشد که هنوز محقق نشده است.
14:53
And the thing is,
262
893681
1168
و موضوع این است که،
14:54
we don't yet know whether we can fully get there or not
263
894849
3712
هنوز نمی‌دانیم تنها با افزایش مقیاس‌ها
14:58
just by scaling things up.
264
898561
2335
بتوانیم به این سطح برسیم یا خیر.
15:01
And if we cannot, then there's this question of what else?
265
901188
4213
و اگر نرسیم، سوال این است که حال چه کنیم؟
15:05
And then even if we could,
266
905401
1877
و حتی اگر به این سطح برسیم،
15:07
do we like this idea of having very, very extreme-scale AI models
267
907319
5214
آیا می‌خواهیم مدل‌های هوش مصنوعی بسیار عظیمی داشته باشیم
15:12
that only a few can create and own?
268
912575
4337
که فقط عده قلیلی بتوانند خلق کنند و مالک آن شوند؟
15:18
CA: I mean, if OpenAI said, you know, "We're interested in your work,
269
918456
4587
اندرسون: منظورم این است اگر اوپن‌ای‌آی بگوید: «ما به کار شما علاقمندیم،
15:23
we would like you to help improve our model,"
270
923043
2837
و از شما می‌خواهیم کمک کنید مدل‌مان را بهبود دهیم،»
15:25
can you see any way of combining what you're doing
271
925921
2670
آیا هیچ راهی وجود دارد که بتوانید کار خودتان را با
15:28
with what they have built?
272
928632
1710
چیزی که آنها ساخته‌اند ترکیب کنید؟
15:30
YC: Certainly what I envision
273
930926
2336
چوی: مطمئناً چیزی که من تصور می‌کنم
15:33
will need to build on the advancements of deep neural networks.
274
933304
4171
باید روی پیشرفت‌های شبکه‌های عصبی عمیق بنا شود.
15:37
And it might be that there’s some scale Goldilocks Zone,
275
937516
4213
و ممکن است مقیاسی در نقطه بهینه وجود داشته باشد،
15:41
such that ...
276
941770
1168
از این طریق ...
15:42
I'm not imagining that the smaller is the better either, by the way.
277
942980
3212
البته من هم نمی‌گویم هر چه مقیاس کوچکتر نتیجه بهتر است.
15:46
It's likely that there's right amount of scale, but beyond that,
278
946233
4421
احتمالاً یک مقیاس بهینه وجود دارد، اما بزرگتر از آن
15:50
the winning recipe might be something else.
279
950696
2294
احتمالاً رویکرد موفق، چیز دیگری است.
15:53
So some synthesis of ideas will be critical here.
280
953032
4838
خوب ترکیب برخی ایده‌ها اینجا حیاتی است.
15:58
CA: Yejin Choi, thank you so much for your talk.
281
958579
2294
اندرسون: یجین چوی، بسیار متشکرم بابت سخنان شما.
16:00
(Applause)
282
960873
1585
(تشویق)
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7