The Inside Story of ChatGPT’s Astonishing Potential | Greg Brockman | TED

1,799,698 views

2023-04-20 ・ TED


New videos

The Inside Story of ChatGPT’s Astonishing Potential | Greg Brockman | TED

1,799,698 views ・ 2023-04-20

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: Pari A Reviewer: Sadegh Vahdati Nia
00:03
We started OpenAI seven years ago
0
3875
2503
شرکت اُپن‌ای‌ای را هفت سال پیش شروع کردیم
00:06
because we felt like something really interesting was happening in AI
1
6378
3712
چون احساس می‌کردیم چیزی واقعاً جذاب در هوش مصنوعی در حال رخ دادن بود.
00:10
and we wanted to help steer it in a positive direction.
2
10131
3170
و می‌خواستیم به هدایت آن در جهتی مثبت کمک کنیم.
00:15
It's honestly just really amazing to see
3
15220
2085
صادقانه، خیلی شگفت‌انگیز است دیدن اینکه
00:17
how far this whole field has come since then.
4
17347
3086
کل این حوزه از آن زمان تاحالا چقدر پیشرفت کرده است.
00:20
And it's really gratifying to hear from people like Raymond
5
20433
3629
و شنیدن سخنان افرادی مانند ریموند
00:24
who are using the technology we are building, and others,
6
24104
2836
که از فناوری در حال ساخت ما استفاده می‌کنند و سخن دیگران
00:26
for so many wonderful things.
7
26982
2127
برای بسیاری از چیزهای شگفت‌انگیز مسرت‌بخش است.
00:29
We hear from people who are excited,
8
29150
2503
ما از افراد هیجان‌زده می‌شنویم،
00:31
we hear from people who are concerned,
9
31653
1835
از افرادی که نگران هستند می‌شنویم،
00:33
we hear from people who feel both those emotions at once.
10
33530
2961
از افرادی می‌شنویم که این دو احساس را همزمان تجربه می‌کنند.
00:36
And honestly, that's how we feel.
11
36533
2252
و صادقانه بگویم، ما این احساس را داریم.
00:40
Above all, it feels like we're entering an historic period right now
12
40245
4087
مهمتر از همه، به نظر می‌رسد که ما در حال ورود به یک دوره تاریخی هستیم
00:44
where we as a world are going to define a technology
13
44374
4421
که در آن به عنوان یک جهان، می‌خواهیم فناوری را تعریف کنیم
00:48
that will be so important for our society going forward.
14
48795
3086
که برای جامعه ما در آینده بسیار مهم خواهد بود.
00:52
And I believe that we can manage this for good.
15
52924
2628
و معتقدم که ما می‌توانیم این را به خوبی مدیریت کنیم.
00:56
So today, I want to show you the current state of that technology
16
56845
4171
بنابراین امروز، می‌خواهم وضعیت فعلی آن فناوری
01:01
and some of the underlying design principles that we hold dear.
17
61016
3086
و برخی از اصول اساسی طراحی را که برای ما عزیز است، نشان‌ دهم.
01:09
So the first thing I'm going to show you
18
69983
1918
خب اولین چیزی که می‌خواهم نشان‌تان دهم
01:11
is what it's like to build a tool for an AI
19
71943
2086
این است که ساختن ابزاری برای هوش مصنوعی
01:14
rather than building it for a human.
20
74029
1876
به جای ساختن آن برای انسان چگونه است.
01:17
So we have a new DALL-E model, which generates images,
21
77574
3545
خب ما نسخه‌ی تازه‌ی هوش مصنوعی دال-ای را داریم که تصویر تولید می‌کند،
01:21
and we are exposing it as an app for ChatGPT to use on your behalf.
22
81161
4045
و به عنوان نرم افزاری برای چت‌جی‌پی‌تی، در اختیارتان می‌گذاریم که استفاده کنید.
01:25
And you can do things like ask, you know,
23
85248
2461
و می‌توانید کارهایی مانند پرسیدن انجام دهید، مثلاً:
01:27
suggest a nice post-TED meal and draw a picture of it.
24
87751
6631
یک غذای خوب برای بعد از TED پیشنهاد بده و تصویر آن را بکش.
01:35
(Laughter)
25
95216
1419
(خنده)
01:38
Now you get all of the, sort of, ideation and creative back-and-forth
26
98303
4671
حالا شما تمام ایده‌ها و خلاقیت‌ها را پشت سر می‌گذارید
01:43
and taking care of the details for you that you get out of ChatGPT.
27
103016
4004
و مراقب جزئیاتی هستید که از چت‌جی‌پی‌تی دریافت می‌کنید.
01:47
And here we go, it's not just the idea for the meal,
28
107062
2669
و بفرمایید، این نه تنها ایده‌ی غذا است،
01:49
but a very, very detailed spread.
29
109773
3587
بلکه پاسخی بسیار، بسیار دقیق‌تر است.
01:54
So let's see what we're going to get.
30
114110
2044
پس بگذارید ببینیم چه به دست خواهیم آورد.
01:56
But ChatGPT doesn't just generate images in this case --
31
116154
3795
اما چت‌جی‌پی‌تی در این مورد فقط تصویر تولید نمی‌کند...
01:59
sorry, it doesn't generate text, it also generates an image.
32
119991
2836
ببخشید، فقط متن تولید نمی‌کند، تصویر هم تولید می‌کند.
02:02
And that is something that really expands the power
33
122827
2419
و این چیزی است که واقعاً قدرت
02:05
of what it can do on your behalf in terms of carrying out your intent.
34
125246
3504
انجام کارهایی در راستای اجرای نیت‌ شما، به جای خودتان را گسترش می‌دهد.
02:08
And I'll point out, this is all a live demo.
35
128750
2085
و اشاره کنم که تمامش یک نسخه نمایشی زنده است.
02:10
This is all generated by the AI as we speak.
36
130835
2169
تمام آنچه گفتیم با هوش مصنوعی ایجاد می‌شود.
02:13
So I actually don't even know what we're going to see.
37
133046
2544
بنابراین راستش حتی نمی‌دانم چه چیزی قرار است ببینیم.
02:16
This looks wonderful.
38
136216
2294
فوق‌العاده به نظر می‌رسد.
02:18
(Applause)
39
138510
3712
(تشویق ببیندگان)
02:22
I'm getting hungry just looking at it.
40
142514
1877
با دیدن آن اشتهایم باز شد.
02:24
Now we've extended ChatGPT with other tools too,
41
144724
2753
اکنون چت‌جی‌پی‌تی را با ابزارهای دیگر نیز گسترش داده‌ایم،
02:27
for example, memory.
42
147519
1168
به عنوان مثال، حافظه.
02:28
You can say "save this for later."
43
148728
2795
می‌توانید بگویید: «این را برای بعداً ذخیره کن.»
02:33
And the interesting thing about these tools
44
153233
2043
و نکته جالب در مورد این ابزارها این است که به راحتی قابل بازرسی هستند.
02:35
is they're very inspectable.
45
155318
1377
02:36
So you get this little pop up here that says "use the DALL-E app."
46
156695
3128
اینجا تبلیغی می‌گیرید حاوی: «از برنامه دال-ای استفاده کنید.»
02:39
And by the way, this is coming to you, all ChatGPT users, over upcoming months.
47
159823
3712
به هر حال، این در ماه‌های آینده در دسترس همه‌ی کاربران چت‌جی‌پی‌تی است.
و به زیر و بم آن نگاه کنید، می‌بینید کاری که در اصل انجام داد
02:43
And you can look under the hood and see that what it actually did
48
163535
3086
نوشتن یک درخواست بود، درست مانند یک انسان.
02:46
was write a prompt just like a human could.
49
166621
2169
02:48
And so you sort of have this ability to inspect
50
168790
2628
و بنابراین به نوعی امکان بررسی
02:51
how the machine is using these tools,
51
171459
2086
استفاده‌‌ دستگاه از این ابزارها را دارید،
02:53
which allows us to provide feedback to them.
52
173586
2086
که به ما امکان ارائه بازخورد را می‌دهد.
02:55
Now it's saved for later,
53
175714
1209
حالا در خصوص اطلاعاتی که قبلا ذخیره شد،
02:56
and let me show you what it's like to use that information
54
176965
2878
اکنون اجازه دهید به شما نشان دهم که استفاده از آن اطلاعات
02:59
and to integrate with other applications too.
55
179884
2503
و ادغام با سایر برنامه‌ها چگونه است.
03:02
You can say,
56
182387
2210
می‌توانید بگویید:
03:04
“Now make a shopping list for the tasty thing
57
184639
5506
«حالا یک لیست خرید برای آن چیز خوشمزه‌ای
03:10
I was suggesting earlier.”
58
190186
1835
که قبلاً پیشنهاد داده بودم، تهیه کن.»
03:12
And make it a little tricky for the AI.
59
192021
2128
و آن را برای هوش مصنوعی کمی دشوار کنید.
03:16
"And tweet it out for all the TED viewers out there."
60
196276
4337
«و آن را برای همه‌ی بینندگان TED توییت کن.»
03:20
(Laughter)
61
200655
2252
(خنده بینندگان)
03:22
So if you do make this wonderful, wonderful meal,
62
202949
2461
پس اگر این غذای خیلی فوق‌العاده را درست می‌کنید،
03:25
I definitely want to know how it tastes.
63
205410
2044
قطعاً می‌خواهم طعم آن را بدانم.
03:28
But you can see that ChatGPT is selecting all these different tools
64
208496
3504
اما می‌بینید که چت‌جی‌پی‌تی همه این ابزارهای مختلف را انتخاب می‌کند،
03:32
without me having to tell it explicitly which ones to use in any situation.
65
212000
4379
بدون اینکه مجبور باشم به صراحت بگویم در هر موقعیتی از کدام یک استفاده کند.
03:37
And this, I think, shows a new way of thinking about the user interface.
66
217088
3879
و این، به نظر من، شیوه جدیدی از تفکر در مورد رابط کاربری را نشان می‌دهد.
03:40
Like, we are so used to thinking of, well, we have these apps,
67
220967
3796
مثلاً خیلی عادت کرده‌ایم اینطور فکر کنیم که خب، ما این برنامه‌ها را داریم،
03:44
we click between them, we copy/paste between them,
68
224763
2335
بین آنها کلیک می‌کنیم، بین آنها کپی/پیست می‌کنیم،
03:47
and usually it's a great experience within an app
69
227098
2294
و این معمولاً تجربه‌ای عالی در یک برنامه است
03:49
as long as you kind of know the menus and know all the options.
70
229434
2961
تا زمانی که همه چیز را بدانید، و همه‌ی گزینه‌ها را بشناسید.
03:52
Yes, I would like you to.
71
232395
1293
بله، می‌خواهم این کار را بکنید. بله، لطفاً.
03:53
Yes, please.
72
233730
1126
03:54
Always good to be polite.
73
234898
1251
مؤدب بودن همیشه خوب است.
03:56
(Laughter)
74
236149
2628
(خنده بینندگان)
04:00
And by having this unified language interface on top of tools,
75
240361
5464
و با داشتن این رابط زبانی یکپارچه در بالای ابزارها،
04:05
the AI is able to sort of take away all those details from you.
76
245867
4630
هوش مصنوعی قادر است تمام آن جزئیات را از شما بگیرد.
04:10
So you don't have to be the one
77
250538
1543
بنابراین لازم نیست شما خود
04:12
who spells out every single sort of little piece
78
252123
2294
ریز به ریز هر آنچه که قرار است اتفاق بیفتد را بیان کنید.
04:14
of what's supposed to happen.
79
254459
1543
04:16
And as I said, this is a live demo,
80
256419
1710
گفتم این یک نسخه‌ آزمایشی زنده است،
04:18
so sometimes the unexpected will happen to us.
81
258129
3379
بنابراین گاهی اوقات اتفاقات غیرمنتظره‌ای برای ما رخ می‌دهد.
04:21
But let's take a look at the Instacart shopping list while we're at it.
82
261549
3420
اما برویم سراغ لیست خریدمان در فروشگاه اینستاکارت، حال که در آن هستیم.
04:25
And you can see we sent a list of ingredients to Instacart.
83
265386
3254
و می‌ببینید که لیست خرید مورد نیازمان را به اینستاکارت فرستادیم.
04:29
Here's everything you need.
84
269349
1543
این همه‌ چیزی است که نیاز دارید.
04:30
And the thing that's really interesting
85
270892
1877
و چیزی که واقعاً جالب است
04:32
is that the traditional UI is still very valuable, right?
86
272811
2919
ارزش رابط کاربری سنتی همچنان حفظ شده است، درست است؟
04:35
If you look at this,
87
275772
1877
اگر به این نگاه کنید،
04:37
you still can click through it and sort of modify the actual quantities.
88
277690
4296
هنوز هم می‌توانید روی آن کلیک کنید و مقادیر واقعی را تغییر دهید.
04:41
And that's something that I think shows
89
281986
1877
و این چیزی است که به نظرم نشان می‌دهد
04:43
that they're not going away, traditional UIs.
90
283863
3253
که به رابط‌های کاربری سنتی خدشه‌ای وارد نمی‌شود.
04:47
It's just we have a new, augmented way to build them.
91
287158
2795
اما ما یک راه جدید و تقویت شده برای ساخت آنها داریم.
04:49
And now we have a tweet that's been drafted for our review,
92
289994
2920
اکنون توییتی داریم که برای بررسی ما آماده شده است،
04:52
which is also a very important thing.
93
292956
1793
و خیلی هم چیز مهمی است.
04:54
We can click “run,” and there we are, we’re the manager, we’re able to inspect,
94
294749
3712
می‌توانیم روی گزینه‌ی «اجرا» بزنیم، و حالا به عنوان تصمیم‌گیرنده بررسی کنیم.
04:58
we're able to change the work of the AI if we want to.
95
298461
2836
قادریم که در صورت نیاز، کار هوش مصنوعی را تغییر دهیم.
05:02
And so after this talk, you will be able to access this yourself.
96
302924
5964
و بعد از این رویداد، خودتان قادر به دسترسی خواهید بود.
05:17
And there we go.
97
317647
1710
و بفرمایید!
05:19
Cool.
98
319816
1126
جالب است.
05:22
Thank you, everyone.
99
322485
1168
از همگان متشکرم.
05:23
(Applause)
100
323653
3003
(تشویق بینندگان)
05:29
So we’ll cut back to the slides.
101
329367
1627
به اسلایدها برگردیم.
05:32
Now, the important thing about how we build this,
102
332954
3587
در حال حاضر، نکته مهم در مورد نحوه‌ی ساخت این ابزار،
05:36
it's not just about building these tools.
103
336583
2210
فقط ساخت این ابزارها نیست.
05:38
It's about teaching the AI how to use them.
104
338793
2252
بلکه آموزش هوش مصنوعی در استفاده از آنها است.
05:41
Like, what do we even want it to do
105
341087
1710
مثلاً می‌خواهیم چه کار کند،
05:42
when we ask these very high-level questions?
106
342839
2419
وقتی که این سؤالات سطح بالا را می‌پرسیم؟
05:45
And to do this, we use an old idea.
107
345258
2669
و برای این کار، از ایده‌ای قدیمی استفاده می‌کنیم.
05:48
If you go back to Alan Turing's 1950 paper on the Turing test, he says,
108
348261
3337
مقاله آلن تورینگ در سال ۱۹۵۰، در مورد آزمون تورینگ اینطور می‌گوید:
05:51
you'll never program an answer to this.
109
351598
2043
شما هرگز پاسخی به این برنامه نخواهید داد.
05:53
Instead, you can learn it.
110
353683
1627
در عوض، می‌توانید آن را بیاموزید.
05:55
You could build a machine, like a human child,
111
355351
2169
می‌توانید ماشینی بسازید، مانند یک کودک انسان،
05:57
and then teach it through feedback.
112
357520
2127
و سپس آن را از طریق بازخوردها آموزش دهید.
05:59
Have a human teacher who provides rewards and punishments
113
359689
2711
یک معلم انسانی داشته باشد که پاداش‌ها و تنبیه‌ها را
06:02
as it tries things out and does things that are either good or bad.
114
362400
3212
در حین امتحان چیزها و یا انجام کارها، چه درست و چه غلط فراهم کند.
06:06
And this is exactly how we train ChatGPT.
115
366237
2002
و این دقیقاً نحوه‌ی آموزش چت‌جی‌پی‌تی است.
06:08
It's a two-step process.
116
368239
1168
فرآیندی دو مرحله‌ای است.
06:09
First, we produce what Turing would have called a child machine
117
369449
3086
اول، چیزی را تولید می‌کنیم که تورینگ آن را ماشین کودک می‌نامد،
06:12
through an unsupervised learning process.
118
372535
1960
از طریق یک فرآیند یادگیری بدون نظارت.
06:14
We just show it the whole world, the whole internet
119
374495
2461
ما صرفاً کل دنیا، کل اینترنت را به آن نشان می‌دهیم
06:16
and say, “Predict what comes next in text you’ve never seen before.”
120
376956
3212
و می‌گوییم: «پیش‌بینی کن که در متنی که قبلاً ندیده‌ای، چه می‌آید.»
06:20
And this process imbues it with all sorts of wonderful skills.
121
380168
3044
و طی این فرآیند، آن را با مهارت‌های شگفت‌انگیزی آغشته می‌کند.
06:23
For example, if you're shown a math problem,
122
383212
2086
مثلاً، اگر یک مسئله ریاضی به شما بدهند،
06:25
the only way to actually complete that math problem,
123
385298
2544
تنها راه برای تکمیل آن مسئله ریاضی، برای گفتن آنچه بعداً می‌آید،
06:27
to say what comes next,
124
387884
1334
06:29
that green nine up there,
125
389218
1293
آن نُه سبز رنگ،
06:30
is to actually solve the math problem.
126
390511
2294
این است که واقعاً مسئله ریاضی را حل کنید.
06:34
But we actually have to do a second step, too,
127
394432
2169
اما در واقع باید مرحله دوم را نیز انجام دهیم،
06:36
which is to teach the AI what to do with those skills.
128
396601
2544
این که به هوش مصنوعی یاد دهیم با این مهارت‌ها چه کند.
06:39
And for this, we provide feedback.
129
399187
1668
از این رو نیاز به بازخورد داریم.
06:40
We have the AI try out multiple things, give us multiple suggestions,
130
400855
3253
هوش مصنوعی چندین چیز را امتحان می‌کند، پیشنهاداتی می‌دهد،
06:44
and then a human rates them, says “This one’s better than that one.”
131
404150
3212
بعد یک انسان به آنها امتیاز می‌دهد و می‌گوید: «این بهتر از آن است.»
06:47
And this reinforces not just the specific thing that the AI said,
132
407362
3086
و این نه تنها آنچه که هوش مصنوعی گفته است را تقویت می‌کند،
06:50
but very importantly, the whole process that the AI used to produce that answer.
133
410448
3795
بلکه مهم‌تر از آن، فرآیند تولید آن پاسخ توسط هوش مصنوعی را نیز قوت می‌بخشد.
06:54
And this allows it to generalize.
134
414243
1585
و این به آن امکان تعمیم می‌دهد؛
06:55
It allows it to teach, to sort of infer your intent
135
415828
2419
اجازه‌ی یادگیری می‌دهد تا خواسته‌تان را استنباط کند
06:58
and apply it in scenarios that it hasn't seen before,
136
418247
2503
و آن را در سناریوهایی اعمال کند که قبلاً ندیده‌
07:00
that it hasn't received feedback.
137
420750
1585
و یا هنوز بازخورد‌ی نگرفته است.
07:02
Now, sometimes the things we have to teach the AI
138
422669
2460
گاهی اوقات چیزی که باید به هوش مصنوعی بیاموزیم،
07:05
are not what you'd expect.
139
425171
1543
آن چیزی نیست که انتظار داریم.
07:06
For example, when we first showed GPT-4 to Khan Academy,
140
426756
3086
مثلاً وقتی بار اول جی‌پی‌تی-۴ را به خان آکادمی نشان دادیم،
07:09
they said, "Wow, this is so great,
141
429884
1627
آنها گفتند: «وای! خیلی عالی است،
07:11
We're going to be able to teach students wonderful things.
142
431552
2753
می‌توانیم چیزهای شگفت‌انگیزی به دانش آموزان آموزش دهیم.
07:14
Only one problem, it doesn't double-check students' math.
143
434347
3462
فقط مشکل این است که ریاضی دانش آموزان را دوبار چک نمی‌کند.
07:17
If there's some bad math in there,
144
437809
1626
اگر غلط ریاضی وجود داشته باشد،
07:19
it will happily pretend that one plus one equals three and run with it."
145
439477
3462
به سادگی عنوان می‌کند یک به علاوه یک مساوی‌ است با سه، و اجرایش می‌کند.»
07:23
So we had to collect some feedback data.
146
443523
2294
پس باید داده‌‌ی بازخورد‌ها را جمع‌آوری می‌کردیم.
07:25
Sal Khan himself was very kind
147
445858
1544
شخص سال خان بسیار سخاوتمند بود
07:27
and offered 20 hours of his own time to provide feedback to the machine
148
447443
3337
و بیست ساعت از وقت خود را وقف ارائه بازخورد به دستگاه،
07:30
alongside our team.
149
450780
1501
در کنار تیم ما کرد.
07:32
And over the course of a couple of months we were able to teach the AI that,
150
452323
3587
و در طول چند ماه، توانستیم به هوش مصنوعی آموزش دهیم که
07:35
"Hey, you really should push back on humans
151
455910
2044
«ببین، گاهی جداً لازم است در یک سناریوی خاص با انسان مخالفت کنی.»
07:37
in this specific kind of scenario."
152
457954
2044
07:41
And we've actually made lots and lots of improvements to the models this way.
153
461416
4921
و در واقع از این طریق، پیشرفت‌های زیادی در مدل‌ها ایجاد کردیم.
07:46
And when you push that thumbs down in ChatGPT,
154
466379
2544
وقتی در چت‌جی‌پی‌تی گزینه‌ی بازخورد منفی را می‌زنید،
07:48
that actually is kind of like sending up a bat signal to our team to say,
155
468965
3462
مثل نوعی ارسال سیگنال بتمنی به تیم ما عمل می‌کند که می‌گوید:
07:52
“Here’s an area of weakness where you should gather feedback.”
156
472427
2919
«در اینجا نقطه ضعفی هست که نیازمند جمع‌آوری بازخورد می‌باشد.»
07:55
And so when you do that,
157
475388
1168
پس با انجام این کار،
07:56
that's one way that we really listen to our users
158
476597
2294
از این راه به کاربران خود گوش می‌دهیم
07:58
and make sure we're building something that's more useful for everyone.
159
478933
3378
و مطمئن می‌شویم آنچه که داریم می‌سازیم، برای همگان مفید است.
08:02
Now, providing high-quality feedback is a hard thing.
160
482895
3754
حالا، ارائه بازخورد با کیفیت بالا کار سختی است.
08:07
If you think about asking a kid to clean their room,
161
487025
2460
فرضاً اگر از یک بچه بخواهید اتاقش را تمیز کند،
08:09
if all you're doing is inspecting the floor,
162
489485
2711
اگر تمام کار شما صرفاً بررسی زمین باشد،
08:12
you don't know if you're just teaching them to stuff all the toys in the closet.
163
492196
3796
نمی‌دانید فقط دارید به او می‌آموزید که همه اسباب‌بازی‌ها را در کمد قرار دهد.
08:15
This is a nice DALL-E-generated image, by the way.
164
495992
2627
این تصویر زیبا را دال-ای ساخته است، به هر حال.
08:19
And the same sort of reasoning applies to AI.
165
499912
4713
و همین استدلال در مورد هوش مصنوعی هم صدق می‌کند.
08:24
As we move to harder tasks,
166
504667
1794
همچنان که سمت وظایف سخت‌تر در حرکتیم،
08:26
we will have to scale our ability to provide high-quality feedback.
167
506502
3796
باید توانایی خود را برای ارائه بازخوردهای باکیفیت هم افزایش دهیم.
08:30
But for this, the AI itself is happy to help.
168
510882
3879
اما برای این کار، خود هوش مصنوعی خوشحال است که کمک می‌کند.
08:34
It's happy to help us provide even better feedback
169
514761
2335
خوشحالیم که کمک‌مان می‌کند بازخوردهای خوبی بگیریم
08:37
and to scale our ability to supervise the machine as time goes on.
170
517138
3587
و با گذشت زمان، توانایی خود را برای نظارت بر این دستگاه افزایش دهیم.
08:40
And let me show you what I mean.
171
520767
1543
اجازه دهید منظورم را برسانم.
08:42
For example, you can ask GPT-4 a question like this,
172
522810
4546
به عنوان مثال، می‌توانید از جی‌پی‌تی-۴ سؤالی مانند این بپرسید
08:47
of how much time passed between these two foundational blogs
173
527356
3295
که چقدر زمان بین این دو بلاگ اساسی،
08:50
on unsupervised learning
174
530693
1668
برای یادگیری بدون نظارت و یادگیری از بازخورد‌های انسانی سپری شده است.
08:52
and learning from human feedback.
175
532403
1794
08:54
And the model says two months passed.
176
534197
2460
و مدل پاسخ می‌دهد که دو ماه سپری شده است.
08:57
But is it true?
177
537075
1167
اما آیا حقیقت دارد؟
08:58
Like, these models are not 100-percent reliable,
178
538284
2252
مثلاً، این مدل‌ها ۱۰۰ درصد قابل اعتماد نیستند،
09:00
although they’re getting better every time we provide some feedback.
179
540536
3921
اگرچه با ارائه‌ی هر بازخوردی بهتر می‌شوند.
09:04
But we can actually use the AI to fact-check.
180
544457
3086
اما می‌توانیم از هوش مصنوعی برای تأیید داده‌ها استفاده کنیم.
09:07
And it can actually check its own work.
181
547543
1877
در واقع می‌تواند کار خود را بررسی کند.
09:09
You can say, fact-check this for me.
182
549462
1877
می‌توانید بگویید: «این را بررسی کن.»
09:12
Now, in this case, I've actually given the AI a new tool.
183
552757
3670
حال در این مورد، در واقع ابزار جدیدی به هوش مصنوعی داده‌ام.
09:16
This one is a browsing tool
184
556427
1710
این یک ابزار مرور است،
09:18
where the model can issue search queries and click into web pages.
185
558137
3879
ابزاری که مدل می‌تواند صفحات وب را جستجو و کلیک کند.
09:22
And it actually writes out its whole chain of thought as it does it.
186
562016
3253
و در واقع کل زنجیره فکری خود را همانطور که انجام می‌دهد، می‌نویسد.
09:25
It says, I’m just going to search for this and it actually does the search.
187
565269
3587
می‌گوید، فقط می‌خواهم این را جستجو کنم و در واقع جستجو را انجام می‌دهد.
09:28
It then it finds the publication date and the search results.
188
568856
3128
سپس تاریخ انتشار و نتایج جستجو را پیدا می‌کند.
09:32
It then is issuing another search query.
189
572026
1919
سپس درخواست جستجوی دیگری را صادر می‌کند.
09:33
It's going to click into the blog post.
190
573945
1877
روی پست وبلاگ کلیک می‌کند.
09:35
And all of this you could do, but it’s a very tedious task.
191
575822
2877
همه این‌ها را می‌توانید بکنید، اما کار خسته کننده‌ای است.
09:38
It's not a thing that humans really want to do.
192
578741
2211
این چیزی نیست که آدم جداً بخواهد انجام دهد.
09:40
It's much more fun to be in the driver's seat,
193
580952
2169
نشستن روی صندلی راننده بسیار لذت‌بخش‌تر است،
09:43
to be in this manager's position where you can, if you want,
194
583162
2836
قرار گرفتن در موقعیتی اجرایی که در صورت تمایل می‌توانید
09:45
triple-check the work.
195
585998
1210
کار را سه بار بررسی کنید.
09:47
And out come citations
196
587208
1501
و استنادها را بیرون بیاورید
09:48
so you can actually go
197
588709
1168
تا به راحتی بروید
09:49
and very easily verify any piece of this whole chain of reasoning.
198
589919
3754
و هر قطعه‌ای از کل این زنجیره‌ی استدلال را تأیید کنید.
09:53
And it actually turns out two months was wrong.
199
593673
2210
و در واقع، معلوم شد که دو ماه اشتباه بود.
09:55
Two months and one week,
200
595883
2169
دو ماه و یک هفته،
09:58
that was correct.
201
598094
1251
درست بود.
10:00
(Applause)
202
600888
3837
(تشویق بینندگان)
10:07
And we'll cut back to the side.
203
607645
1502
و بیایید به اسلاید برگردیم.
10:09
And so thing that's so interesting to me about this whole process
204
609147
3920
و چیزی که در کل این فرآیند برای من بسیار جالب است
10:13
is that it’s this many-step collaboration between a human and an AI.
205
613067
3962
این است که این یک همکاری چند مرحله‌ای میان یک انسان و یک هوش مصنوعی است.
10:17
Because a human, using this fact-checking tool
206
617029
2461
چون انسان با استفاده از این ابزار حقیقت‌سنج
10:19
is doing it in order to produce data
207
619532
2210
کاری می‌کند که داده‌هایی را
10:21
for another AI to become more useful to a human.
208
621742
3170
برای هوش مصنوعی دیگری تولید کند که برای انسان مفیدتر باشد.
10:25
And I think this really shows the shape of something
209
625454
2545
و من فکر می‌کنم این واقعاً شکل چیزی را نشان می‌دهد
10:28
that we should expect to be much more common in the future,
210
628040
3087
که ما باید انتظار داشته باشیم در آینده بسیار فراگیرتر باشد،
10:31
where we have humans and machines kind of very carefully
211
631127
2711
جایی که انسان‌ها و دستگاه‌هایی را داریم که با دقت
10:33
and delicately designed in how they fit into a problem
212
633880
3503
و ظرافتِ متناسب با یک مشکل
10:37
and how we want to solve that problem.
213
637425
1918
و نحوه‌ی حل آن مشکل طراحی شده‌اند.
10:39
We make sure that the humans are providing the management, the oversight,
214
639385
3462
ما اطمینان می‌دهیم که انسان‌ها مدیریت، نظارت، بازخورد
10:42
the feedback,
215
642847
1168
و دستگاه‌ها را به گونه‌ای قابل بازرسی و قابل اعتماد ارائه می‌کنند.
10:44
and the machines are operating in a way that's inspectable
216
644015
2752
10:46
and trustworthy.
217
646809
1126
و با هم می‌توانیم دستگاه‌های قابل اعتمادتری بیافرینیم.
10:47
And together we're able to actually create even more trustworthy machines.
218
647977
3503
و فکر می‌کنم با گذشت زمان، اگر که این روند درست پیش رود،
10:51
And I think that over time, if we get this process right,
219
651522
2711
می‌توانیم مشکلات غیرممکن را حل کنیم.
10:54
we will be able to solve impossible problems.
220
654233
2127
و برای اینکه بفهمید چقدر غیرممکن صحبت می‌کنم،
10:56
And to give you a sense of just how impossible I'm talking,
221
656360
3963
11:00
I think we're going to be able to rethink almost every aspect
222
660323
2878
فکر می‌کنم می‌توانیم تقریباً در هر جنبه‌ای
11:03
of how we interact with computers.
223
663242
2378
از نحوه‌ی تعامل خود با رایانه‌ها تجدید نظر کنیم.
11:05
For example, think about spreadsheets.
224
665620
2502
به عنوان مثال، به برگه‌های گسترده فکر کنید.
11:08
They've been around in some form since, we'll say, 40 years ago with VisiCalc.
225
668122
4379
آنها حدود چهل سال است که از زمان ویسی‌کلک به هر شکلی وجود داشته‌اند.
11:12
I don't think they've really changed that much in that time.
226
672543
2878
من فکر نمی‌کنم واقعاً در این مدت تغییر زیادی کرده باشند.
11:16
And here is a specific spreadsheet of all the AI papers on the arXiv
227
676214
5922
و این برگه‌ای گسترده‌ حاوی تمام مقالات هوش مصنوعی، موجود در سرویس آرکایو
11:22
for the past 30 years.
228
682178
1168
طی سی سال گذشته است.
11:23
There's about 167,000 of them.
229
683346
1960
حدوداً ۱۶۷ هزار مقاله.
11:25
And you can see there the data right here.
230
685348
2878
و می‌توانید داده‌ها را در آن ببینید.
11:28
But let me show you the ChatGPT take on how to analyze a data set like this.
231
688267
3837
اما بگذارید نشان دهم که چگونه چت‌جی‌پی‌تی این مجموعه داده‌ها را تحلیل می‌کند.
11:37
So we can give ChatGPT access to yet another tool,
232
697318
3837
خب، می‌توانیم به چت‌جی‌پی‌تی به ابزار دیگری دسترسی دهیم،
11:41
this one a Python interpreter,
233
701197
1460
این ابزار یک مفسر پایتون است،
11:42
so it’s able to run code, just like a data scientist would.
234
702657
4004
بنابراین درست مانند یک متخصص داده می‌تواند کد را اجرا کند،
11:46
And so you can just literally upload a file
235
706661
2335
می‌توانید به راحتی فایلی را بارگذاری کنید
11:48
and ask questions about it.
236
708996
1335
و در مورد آن سؤال بپرسید.
11:50
And very helpfully, you know, it knows the name of the file and it's like,
237
710373
3545
و بسیار کاربردی است، می‌دانید، ابزار با تشخیص نام پوشه می‌گوید:
11:53
"Oh, this is CSV," comma-separated value file,
238
713960
2419
«این سی‌اس‌وی(CSV) است»، فایل مقدار جدا شده با ویرگول،
11:56
"I'll parse it for you."
239
716420
1335
«برای‌تان تحلیلش می‌کنم.»
11:57
The only information here is the name of the file,
240
717755
2794
تنها اطلاعاتی که اینجا هست، نام فایل،
12:00
the column names like you saw and then the actual data.
241
720591
3671
نام ستون‌هایی که دیدید و سپس داده‌های واقعی می‌باشد.
12:04
And from that it's able to infer what these columns actually mean.
242
724262
4504
و از آن می‌تواند نتیجه‌گیری کند که این ستون‌ها در اصل چه معنایی دارند.
12:08
Like, that semantic information wasn't in there.
243
728766
2294
در حالی که اطلاعات معناداری در آن دیده نمی‌شد.
12:11
It has to sort of, put together its world knowledge of knowing that,
244
731102
3211
شما باید دانش خود را جمع‌آوری کنید به طور کلی بدانید که
12:14
“Oh yeah, arXiv is a site that people submit papers
245
734355
2502
«آرکایو سایتی است که افراد در آن مقاله می‌فرستند،
12:16
and therefore that's what these things are and that these are integer values
246
736857
3587
و این‌ چیزها این‌گونه هستند و این‌ها مقادیر صحیح‌ می‌باشند
12:20
and so therefore it's a number of authors in the paper,"
247
740486
2628
و این‌ها تعدادی از نویسندگان در یک مقاله هستند»،
12:23
like all of that, that’s work for a human to do,
248
743114
2252
کار‌هایی از این دست را انسان انجام می‌دهد،
12:25
and the AI is happy to help with it.
249
745408
1751
و هوش مصنوعی خوشحال است کمک می‌کند.
12:27
Now I don't even know what I want to ask.
250
747159
2002
حال، حتی نمی‌دانم می‌خواهم چه بپرسم.
12:29
So fortunately, you can ask the machine,
251
749203
3003
خب خوشبختانه، می‌توانید از دستگاه بپرسید:
12:32
"Can you make some exploratory graphs?"
252
752248
1877
«می‌توانی برایم چند نمودار بکشی؟»
12:37
And once again, this is a super high-level instruction with lots of intent behind it.
253
757461
4004
و یک بار دیگر، این آموزش در سطح بالا با کلی نیت در پشت آن است.
12:41
But I don't even know what I want.
254
761507
1668
اما من حتی نمی‌دانم چه می‌خواهم.
12:43
And the AI kind of has to infer what I might be interested in.
255
763175
2920
و هوش مصنوعی باید استنباط کند که علاقمندی احتمالی شما چیست.
12:46
And so it comes up with some good ideas, I think.
256
766137
2294
بنابراین با ایده‌های خوبی همراه است، از نظر من.
12:48
So a histogram of the number of authors per paper,
257
768472
2336
نمودار تعداد نویسندگان هر مقاله،
12:50
time series of papers per year, word cloud of the paper titles.
258
770850
2961
سری زمانی مقالات بر اساس سال، ابر کلماتی از تیتر مقالات.
12:53
All of that, I think, will be pretty interesting to see.
259
773853
2627
فکر می‌کنم دیدن همه‌ی اینها بسیار جالب خواهد بود.
و نکته‌ی خوب آن توانایی انجام این‌ها است.
12:56
And the great thing is, it can actually do it.
260
776522
2169
12:58
Here we go, a nice bell curve.
261
778691
1460
در این منحنی زنگی شکل زیبا
می‌بینید که سه رایج‌ترین عدد است.
13:00
You see that three is kind of the most common.
262
780151
2169
سپس این نمودار جذاب از مقالات را بر اساس سال ایجاد می کند.
13:02
It's going to then make this nice plot of the papers per year.
263
782320
5797
13:08
Something crazy is happening in 2023, though.
264
788117
2294
اتفاق عجیبی در سال ۲۰۲۳ در حال رخ دادن است.
13:10
Looks like we were on an exponential and it dropped off the cliff.
265
790411
3128
منحنی نمایی ناگهان سقوط می‌کند.
چه می‌تواند آنجا رخ دهد؟
13:13
What could be going on there?
266
793539
1460
در کل، همه این‌ها کد پایتون هستند، می‌توانید بررسی کنید.
13:14
By the way, all this is Python code, you can inspect.
267
794999
2753
13:17
And then we'll see word cloud.
268
797752
1459
سراغ ابر کلمات می‌رویم.
13:19
So you can see all these wonderful things that appear in these titles.
269
799253
3378
با آن می‌توانید همه‌ی چیزهای بی‌نظیری که در عناوین هست را ببینید.
13:23
But I'm pretty unhappy about this 2023 thing.
270
803090
2127
اما من از این منحنی ۲۰۲۳ راضی نیستم.
13:25
It makes this year look really bad.
271
805634
1711
این تصویر بدی از امسال می‌رساند‌.
13:27
Of course, the problem is that the year is not over.
272
807345
2877
البته مشکل اینجاست که سال تمام نشده است.
13:30
So I'm going to push back on the machine.
273
810222
2878
بنابراین می‌خواهم دستگاه را به عقب برگردانم.
13:33
[Waitttt that's not fair!!!
274
813142
1585
[صبر کنننن، این منصفانه نیست!!!
13:34
2023 isn't over.
275
814727
1293
سال ۲۰۲۳ تمام نشده است.
13:38
What percentage of papers in 2022 were even posted by April 13?]
276
818481
5088
چند درصد از مقالات در سال ۲۰۲۲، حتی تا ۱۳ آوریل منتشر شده‌اند؟]
13:44
So April 13 was the cut-off date I believe.
277
824695
2294
بنابراین من معتقدم که ۱۳ آوریل تاریخ قطعی بود.
13:47
Can you use that to make a fair projection?
278
827656
4922
آیا می‌توانی از آن برای ایجاد یک طرح‌ریزی منصفانه استفاده کنی؟
13:54
So we'll see, this is the kind of ambitious one.
279
834747
2294
بنابراین خواهیم دید که این یک نوع جاه‌طلبی است.
13:57
(Laughter)
280
837083
1126
(خنده)
13:59
So you know,
281
839877
1251
پس می‌دانید،
14:01
again, I feel like there was more I wanted out of the machine here.
282
841128
3921
یک بار دیگر، احساس می‌کنم چیزهای بیشتری هست که می‌خواستم دستگاه به من بدهد.
14:05
I really wanted it to notice this thing,
283
845049
2502
واقعاً می‌خواستم متوجه این موضوع شود،
14:07
maybe it's a little bit of an overreach for it
284
847593
3128
شاید کمی اغراق است که به شکلی جادویی استنباط کند
14:10
to have sort of, inferred magically that this is what I wanted.
285
850763
3378
که این همان چیزی است که من می‌خواستم.
14:14
But I inject my intent,
286
854183
1627
اما نیتم را منتقل می‌کنم،
14:15
I provide this additional piece of, you know, guidance.
287
855810
4754
می‌دانید، این بخش اضافی از راهنمایی را ارائه می‌کنم.
14:20
And under the hood,
288
860564
1168
و در پشت پرده،
14:21
the AI is just writing code again, so if you want to inspect what it's doing,
289
861774
3629
هوش مصنوعی دوباره در حال نوشتن کد است، پس اگر می‌خواهید کار آن را بررسی کنید،
14:25
it's very possible.
290
865403
1251
کاملاً امکان‌پذیر است.
14:26
And now, it does the correct projection.
291
866654
3628
و اکنون، طرح ریزی صحیح را انجام می‌دهد.
14:30
(Applause)
292
870282
5005
(تشویق ببیندگان)
14:35
If you noticed, it even updates the title.
293
875287
2169
اگر دقت کنید، حتی عنوان را به روز می‌کند.
14:37
I didn't ask for that, but it know what I want.
294
877498
2336
من این را درخواست نکردم، اما می‌داند چه می‌خواهم.
14:41
Now we'll cut back to the slide again.
295
881794
2544
حالا بیایید دوباره به اسلاید برگردیم.
14:45
This slide shows a parable of how I think we ...
296
885714
4880
این اسلاید، یک نمونه از چشم‌اندازی که به نظرم
14:51
A vision of how we may end up using this technology in the future.
297
891220
3212
در آینده از موارد استفاده این تکنولوژی خواهد بود را نشان می‌دهد.
14:54
A person brought his very sick dog to the vet,
298
894849
3712
شخصی سگ بسیار بیمار خود را پیش دامپزشک آورد
14:58
and the veterinarian made a bad call to say, “Let’s just wait and see.”
299
898561
3336
و دامپزشک تصمیم بدی گرفت و گفت: «بیا صبر کنیم و ببینیم.»
15:01
And the dog would not be here today had he listened.
300
901897
2795
و اگر گوش می‌داد، سگش امروز اینجا نبود.
15:05
In the meanwhile, he provided the blood test,
301
905401
2252
در همین حین او آزمایش خون را،
15:07
like, the full medical records, to GPT-4,
302
907653
2586
سوابق پزشکی کامل‌اش را به جی‌پی‌تی-۴ داد،
15:10
which said, "I am not a vet, you need to talk to a professional,
303
910281
3170
که گفت: «من دامپزشک نیستم، باید با یک متخصص صحبت کنید،
15:13
here are some hypotheses."
304
913492
1710
این چند فرضیه است.»
15:15
He brought that information to a second vet
305
915786
2127
او این اطلاعات را برای دامپزشک دوم برد
15:17
who used it to save the dog's life.
306
917913
1835
که از آن برای نجات جان سگ استفاده کرد.
15:21
Now, these systems, they're not perfect.
307
921292
2252
حالا، این سیستم‌ها کامل نیستند.
15:23
You cannot overly rely on them.
308
923544
2336
نمی‌توانید بیش از حد به آنها اعتماد کنید.
15:25
But this story, I think, shows
309
925880
3712
اما این داستان، به نظر من، نشان می‌دهد
15:29
that a human with a medical professional
310
929592
3044
که فردی با همراهی یک متخصص پزشکی
15:32
and with ChatGPT as a brainstorming partner
311
932678
2461
و با چت‌جی‌پی‌تی به عنوان شریک طوفان فکری
15:35
was able to achieve an outcome that would not have happened otherwise.
312
935181
3295
توانسته‌اند به نتیجه‌ای برسند که در حالتی غیر از این رخ نمی‌داد‌.
15:38
I think this is something we should all reflect on,
313
938476
2419
فکر می‌کنم همه‌ی ما باید به این فکر کنیم
15:40
think about as we consider how to integrate these systems
314
940895
2711
که چگونه این سیستم‌ها را در دنیای خود ادغام کنیم.
15:43
into our world.
315
943606
1167
15:44
And one thing I believe really deeply,
316
944815
1835
و آنچه که واقعاً و عمیقاً به آن معتقدم
این است که بی‌نقص ساختن هوش مصنوعی نیازمند مشارکت همگانی‌ است.
15:46
is that getting AI right is going to require participation from everyone.
317
946650
4338
15:50
And that's for deciding how we want it to slot in,
318
950988
2377
ما تصمیم می‌گیریم چگونه از هوش مصنوعی بهره ببریم،
15:53
that's for setting the rules of the road,
319
953365
1961
قوانین مسیر چیست،
15:55
for what an AI will and won't do.
320
955367
2044
اینکه هوش مصنوعی چه می‌تواند بکند و چه نه.
15:57
And if there's one thing to take away from this talk,
321
957453
2502
و اگر نکته‌ای باشد که در این سخنرانی جا مانده باشد
15:59
it's that this technology just looks different.
322
959997
2211
این است که این فناوری جداً متفاوت است.
16:02
Just different from anything people had anticipated.
323
962208
2502
متفاوت با هر آنچه که مردم پیش‌بینی می‌کردند.
16:04
And so we all have to become literate.
324
964710
1835
و بنابراین همه‌ی ما باید باسواد شویم.
16:06
And that's, honestly, one of the reasons we released ChatGPT.
325
966587
2961
و صادقانه، این یکی از دلایلی است که چت‌جی‌پی‌تی را منتشر کردیم.
16:09
Together, I believe that we can achieve the OpenAI mission
326
969548
3128
معتقدم که ما با هم می‌توانیم به مأموریت شرکت اپن‌ای‌آی دست یابیم
16:12
of ensuring that artificial general intelligence
327
972718
2252
تا اطمینان حاصل شود که هوش جامع مصنوعی
16:14
benefits all of humanity.
328
974970
1877
به نفع همه بشریت است.
16:16
Thank you.
329
976847
1168
متشکرم.
16:18
(Applause)
330
978057
6965
(تشویق بینندگان)
16:33
(Applause ends)
331
993322
1168
(پایان تشویق)
16:34
Chris Anderson: Greg.
332
994532
1334
کریس اندرسون: گرِگ.
16:36
Wow.
333
996242
1167
وای!
16:37
I mean ...
334
997868
1126
منظورم این است که...
16:39
I suspect that within every mind out here
335
999662
3753
گمان می‌کنم همه‌ی ما کاملاً گیج شده‌ باشیم.
16:43
there's a feeling of reeling.
336
1003457
2503
16:46
Like, I suspect that a very large number of people viewing this,
337
1006001
3379
مثلاً، گمان می‌کنم که تعداد بسیار زیادی از تماشاگران،
16:49
you look at that and you think, “Oh my goodness,
338
1009421
2419
نگاه می‌کنند و با خود فکر می‌کنند، «اوه، خدای من،
16:51
pretty much every single thing about the way I work, I need to rethink."
339
1011882
3462
تقریباً در مورد هر چیزی از نحوه‌ی کارم باید دوباره فکر کنم.»
16:55
Like, there's just new possibilities there.
340
1015386
2002
مانند، چه امکانات تازه‌‌ای وجود دارد.
16:57
Am I right?
341
1017388
1168
درست می‌گویم؟
16:58
Who thinks that they're having to rethink the way that we do things?
342
1018597
3337
چه کسی فکر می‌کند که آنها باید در نحوه‌ی انجام کارها تجدید نظر کنند؟
17:01
Yeah, I mean, it's amazing,
343
1021976
1543
بله، یعنی حیرت‌انگیز است‌،
17:03
but it's also really scary.
344
1023561
2002
همچنین واقعاً ترسناک است.
17:05
So let's talk, Greg, let's talk.
345
1025604
1585
خب صحبت کنیم، گرگ، حرف بزنیم.
17:08
I mean, I guess my first question actually is just
346
1028524
2377
یعنی حدس می‌زنم اولین سؤال من این باشد
17:10
how the hell have you done this?
347
1030901
1585
که چگونه این کار را انجام دادید؟
(خنده)
17:12
(Laughter)
348
1032486
1251
17:13
OpenAI has a few hundred employees.
349
1033737
2962
شرکت اپن‌ای‌آی چند صد کارمند دارد.
17:16
Google has thousands of employees working on artificial intelligence.
350
1036740
4755
گوگل هزاران کارمند دارد که روی هوش مصنوعی کار می‌کنند.
17:21
Why is it you who's come up with this technology
351
1041996
3503
چطور شما با این چنین فناوری‌ای آمدید
که جهان را شوکه کرد؟
17:25
that shocked the world?
352
1045541
1168
17:26
Greg Brockman: I mean, the truth is,
353
1046709
1751
گرگ براکمن: راستش، حقیقت این است
که ما روی شانه‌‌ی غول‌ها قد علم کرده‌ایم، بله، شکی در آن نیست.
17:28
we're all building on shoulders of giants, right, there's no question.
354
1048502
3295
17:31
If you look at the compute progress,
355
1051797
1752
اگر به پیشرفت‌ محاسباتی،پیشرفت‌ الگوریتمی، پیشرفت داده‌ها نگاه کنید،
17:33
the algorithmic progress, the data progress,
356
1053549
2085
تمام اینها واقعاً در سطح صنعتی هستند.
17:35
all of those are really industry-wide.
357
1055634
1835
اما به نظرم در اپن‌‌ای‌آی،
17:37
But I think within OpenAI,
358
1057469
1252
ما از همان روزهای اولیه انتخاب‌های بسیار عمدی انجام دادیم.
17:38
we made a lot of very deliberate choices from the early days.
359
1058762
2878
و اولین مورد فقط رویارویی با واقعیت بود.
17:41
And the first one was just to confront reality as it lays.
360
1061640
2711
و اینکه واقعاً به سختی در مورد آن فکر کردیم، مثل:
17:44
And that we just thought really hard about like:
361
1064393
2294
برای پیشرفت در اینجا چه چیزی لازم است؟
17:46
What is it going to take to make progress here?
362
1066687
2210
17:48
We tried a lot of things that didn't work, so you only see the things that did.
363
1068939
3754
چیزهای ناموفق زیادی را امتحان کردیم، شما چیزهایی را می‌بینید که جواب داده‌اند.
و فکر می‌کنم که مهمترین چیز این بوده است که تیم‌هایی از افراد
17:52
And I think that the most important thing has been to get teams of people
364
1072693
3462
که بسیار متفاوت از یکدیگر هستند، به طور هماهنگ با هم کار می‌کنند.
17:56
who are very different from each other to work together harmoniously.
365
1076196
3254
17:59
CA: Can we have the water, by the way, just brought here?
366
1079450
2711
می‌توانید کمی برای ما آب بیاورید؟
فکر می‌کنم آب لازم داشته باشیم، این موضوعی تشنه‌کننده است.
18:02
I think we're going to need it, it's a dry-mouth topic.
367
1082202
3170
18:06
But isn't there something also just about the fact
368
1086665
2795
اما آیا این یک حقیقت نیست
18:09
that you saw something in these language models
369
1089501
4755
که شما چیزی در این مدل‌های زبانی دیدید
18:14
that meant that if you continue to invest in them and grow them,
370
1094256
3921
که باعث شد فکر کنید اگر به سرمایه‌گذاری روی آن‌ها و رشد آن‌ها ادامه دهید،
18:18
that something at some point might emerge?
371
1098218
3129
ممکن است در مقطعی چیزی ظهور کند؟
18:21
GB: Yes.
372
1101847
1126
گ‍رِگ: بله.
18:23
And I think that, I mean, honestly,
373
1103015
2836
و من فکر می‌کنم که، یعنی صادقانه بگویم،
18:25
I think the story there is pretty illustrative, right?
374
1105893
2544
فکر می‌کنم این به خوبی این موضوع را نشان می‌دهد، خب؟
18:28
I think that high level, deep learning,
375
1108437
2002
فکر می‌کنم آن یادگیری عمیق در سطح بالا،
18:30
like we always knew that was what we wanted to be,
376
1110481
2335
همان چیزی که همیشه به دنبال آن بوده‌ایم،
18:32
was a deep learning lab, and exactly how to do it?
377
1112858
2419
یک آزمایشگاه یادگیری عمیق بود، و چگونه به آن برسیم؟
فکر می‌کنم که در روزهای اول نمی‌دانستیم.
18:35
I think that in the early days, we didn't know.
378
1115277
2211
18:37
We tried a lot of things,
379
1117529
1210
چیزهای زیادی امتحان کردیم، یک نفر روی آموزش مدلی کار می‌کرد
18:38
and one person was working on training a model
380
1118739
2336
که حرف بعدی را در نظرات آمازون پیش‌بینی می‌کرد،
18:41
to predict the next character in Amazon reviews,
381
1121075
2877
18:43
and he got a result where -- this is a syntactic process,
382
1123994
4755
و به نتیجه رسید؛ این یک فرآیند نحوی است،
18:48
you expect, you know, the model will predict where the commas go,
383
1128749
3086
مدل پیش‌بینی می‌کند ویرگول کجا قرار می‌گیرد،
18:51
where the nouns and verbs are.
384
1131835
1627
و اسامی و افعال کجا هستند.
18:53
But he actually got a state-of-the-art sentiment analysis classifier out of it.
385
1133504
4337
اما او در واقع یک طبقه‌بندی تحلیلی از احساسات پیشرفته را از آن استخراج کرد.
18:57
This model could tell you if a review was positive or negative.
386
1137883
2961
این مدل می‌تواند بگوید که این نظردهی مثبت یا منفی بوده است.
19:00
I mean, today we are just like, come on, anyone can do that.
387
1140886
3378
یعنی امروز اینطور می‌گوییم: «بیخیال! هر کسی می‌تواند این کار را بکند.»
19:04
But this was the first time that you saw this emergence,
388
1144306
3087
اما این اولین باری بود که شما شاهد این ظهور بوده‌اید،
19:07
this sort of semantics that emerged from this underlying syntactic process.
389
1147434
5005
این نوع معناشناسی که از این فرآیند نحوی اساسی پدید آمده است.
19:12
And there we knew, you've got to scale this thing,
390
1152481
2336
و آنجا می‌دانستیم که باید این چیز را مقایسه کرد،
19:14
you've got to see where it goes.
391
1154858
1544
باید دید که به کجا می‌رود.
19:16
CA: So I think this helps explain
392
1156402
1626
کریس: پس فکر می‌کنم که این به شفافیت
19:18
the riddle that baffles everyone looking at this,
393
1158028
2544
معمایی که همه‌ی شاهدین را گیج کرده است، کمک می‌کند.
19:20
because these things are described as prediction machines.
394
1160572
2753
زیرا این چیزها به عنوان دستگاه‌های پیش‌بینی توصیف می‌شوند.
19:23
And yet, what we're seeing out of them feels ...
395
1163367
2669
و همچنان آنچه که از دیدن آنها برداشت ‌می‌کنیم...
19:26
it just feels impossible that that could come from a prediction machine.
396
1166036
3420
جداً غیرممکن به نظر می‌رسد که یک دستگاه‌ از عهده‌ پیش‌بینی برآید.
19:29
Just the stuff you showed us just now.
397
1169456
2378
همین چیزایی که الان به ما نشان دادید.
19:31
And the key idea of emergence is that when you get more of a thing,
398
1171875
3838
و ایده‌ی کلیدی ظهور این است که وقتی چیزی بیشتر به دست می‌آورید،
19:35
suddenly different things emerge.
399
1175754
1585
ناگهان چیزهای مختلفی پدید می‌آید.
19:37
It happens all the time, ant colonies, single ants run around,
400
1177339
3045
همیشه اینطور است، در کلونی مورچه‌ها، تعدادی منفرد راه می‌روند،
19:40
when you bring enough of them together,
401
1180384
1877
وقتی تعداد کافی از آنها را جمع کنید،
19:42
you get these ant colonies that show completely emergent, different behavior.
402
1182302
3629
کلونی‌ای از مورچه‌ها خواهید داشت که رفتاری نوظهور و متفاوت بروز می‌دهند.
19:45
Or a city where a few houses together, it's just houses together.
403
1185973
3086
یا یک شهر با تعدادی خانه در آن، صرفاً چند خانه کنار هم هستند.
19:49
But as you grow the number of houses,
404
1189059
1794
اما با افزایش تعداد خانه‌ها،
19:50
things emerge, like suburbs and cultural centers and traffic jams.
405
1190894
4588
چیزهایی مانند حومه شهرها و مراکز فرهنگی و راهبندان‌ها پدیدار می‌شود.
19:57
Give me one moment for you when you saw just something pop
406
1197276
3211
از لحظه‌ای برای ما بگویید که چیزی ظاهر شد
20:00
that just blew your mind
407
1200529
1668
که شما را غافلگیر کرد
20:02
that you just did not see coming.
408
1202197
1627
و انتظارش را نداشتید.
20:03
GB: Yeah, well,
409
1203824
1209
گرِگ: بله، خب،
20:05
so you can try this in ChatGPT, if you add 40-digit numbers --
410
1205075
3462
این را در چت‌جی‌پی‌تی امتحان کنید، اگر اعداد چهل رقمی را اضافه کنید؛
20:08
CA: 40-digit?
411
1208537
1168
کریس: چهل رقمی؟
20:09
GB: 40-digit numbers, the model will do it,
412
1209705
2169
گرِگ: اعداد چهل رقمی، مدل انجامش می‌دهد،
20:11
which means it's really learned an internal circuit for how to do it.
413
1211915
3254
این یعنی که مدار داخلی‌ نحوه‌ی انجام آن را یاد گرفته است.
20:15
And the really interesting thing is actually,
414
1215210
2127
و نکته واقعاً جالب این است که
20:17
if you have it add like a 40-digit number plus a 35-digit number,
415
1217337
3212
اگر آن را مانند یک عدد چهل رقمی به اضافه یک عدد ۳۵ رقمی اضافه کنید،
20:20
it'll often get it wrong.
416
1220591
1710
اغلب اشتباه می‌کند.
20:22
And so you can see that it's really learning the process,
417
1222676
2795
و پس می‌توانید ببینید که واقعاً در حال یادگیری فرآیند است،
20:25
but it hasn't fully generalized, right?
418
1225471
1876
اما کاملاً تعمیم نداده است، درست است؟
20:27
It's like you can't memorize the 40-digit addition table,
419
1227389
2711
مثل اینکه نمی‌توانید جدول جمع چهل رقمی را به یاد بسپارید،
20:30
that's more atoms than there are in the universe.
420
1230100
2294
این اتم‌ها تعدادشان بیشتر از اتم‌های جهان است.
20:32
So it had to have learned something general,
421
1232394
2086
بنابراین باید چیزی کلی یاد می‌گرفت،
20:34
but that it hasn't really fully yet learned that,
422
1234480
2377
اما واقعاً هنوز به طور کامل یاد نگرفته است که
20:36
Oh, I can sort of generalize this to adding arbitrary numbers
423
1236899
2961
«اوه! من می‌توانم این را به اضافه کردن تعداد دلخواه به طول‌های دلخواه تعمیم دهم.
20:39
of arbitrary lengths.
424
1239902
1167
20:41
CA: So what's happened here
425
1241111
1335
کریس: پس اتفاقی که افتاد
20:42
is that you've allowed it to scale up
426
1242488
1793
این است که به آن اجازه بزرگنمایی و مشاهده‌ تعداد باورنکردنی تکه‌های متن را داده‌اید.
20:44
and look at an incredible number of pieces of text.
427
1244281
2419
20:46
And it is learning things
428
1246742
1209
و چیزهایی یاد می‌گیرد
20:47
that you didn't know that it was going to be capable of learning.
429
1247951
3379
که شما نمی‌دانستید می‌تواند فرا بگیرد.
20:51
GB Well, yeah, and it’s more nuanced, too.
430
1251371
2002
گرِگ: خب، آره، و نکات ظریف‌تری نیز دارد.
20:53
So one science that we’re starting to really get good at
431
1253415
2878
بنابراین یکی از علومی که در حال پیشرفت در آن هستیم،
20:56
is predicting some of these emergent capabilities.
432
1256335
2586
پیش‌بینی برخی از این قابلیت‌های نوظهور است.
20:58
And to do that actually,
433
1258962
1335
و برای انجام آن در واقع،
21:00
one of the things I think is very undersung in this field
434
1260339
2711
یکی از چیزهایی که به نظرم در این زمینه دست کم گرفته شده،
21:03
is sort of engineering quality.
435
1263050
1501
نوعی کیفیت مهندسی است.
21:04
Like, we had to rebuild our entire stack.
436
1264551
2044
مثلاً مجبور به بازسازی کل پشته خود شدیم.
21:06
When you think about building a rocket,
437
1266637
1877
وقتی می‌خواهیم موشک بسازیم،
21:08
every tolerance has to be incredibly tiny.
438
1268555
2211
حاشیه تحمل خطا بسیار ناچیز است،
21:10
Same is true in machine learning.
439
1270766
1626
در یادگیری ماشینی هم همینطور است.
21:12
You have to get every single piece of the stack engineered properly,
440
1272434
3212
شما باید هر جزء از تکه‌های پشته را به درستی مهندسی کنید،
21:15
and then you can start doing these predictions.
441
1275646
2210
و بعد می‌توانید این پیش‌بینی‌ها را انجام دهید.
21:17
There are all these incredibly smooth scaling curves.
442
1277856
2503
نمودارهای فوق‌العاده دقیقی وجود دارد.
21:20
They tell you something deeply fundamental about intelligence.
443
1280359
2919
آنها گویای چیزهای اساسی و عمیقی در مورد هوش هستند.
21:23
If you look at our GPT-4 blog post,
444
1283320
1710
در پستی از بلاگ جی‌پی‌تی-۴،
21:25
you can see all of these curves in there.
445
1285030
1960
می توانید این منحنی‌ها را آنجا ببینید.
21:26
And now we're starting to be able to predict.
446
1286990
2127
و اکنون می‌توانیم پیش‌بینی کنیم.
21:29
So we were able to predict, for example, the performance on coding problems.
447
1289117
3713
از این رو توانستیم، برای مثال، عملکرد مشکلات کدنویسی را پیش‌بینی کنیم.
21:32
We basically look at some models
448
1292871
1585
اساساً به مدل‌هایی نگاه می‌کنیم
21:34
that are 10,000 times or 1,000 times smaller.
449
1294456
2461
که ده هزار برابر یا هزار برابر کوچک‌تر هستند.
21:36
And so there's something about this that is actually smooth scaling,
450
1296959
3211
و بنابراین ما یک انتقال آرام به مقیاس داریم،
21:40
even though it's still early days.
451
1300170
2044
حتی اگر صرفاً در مراحل اولیه باشیم.
21:42
CA: So here is, one of the big fears then,
452
1302756
2544
کریس: پس این یکی از بزرگترین ترس‌هایی است
21:45
that arises from this.
453
1305300
1252
که این موضوع ایجاد می‌کند.
21:46
If it’s fundamental to what’s happening here,
454
1306593
2127
در حالی که واضح است
21:48
that as you scale up,
455
1308720
1210
که با توسعه این مدل،
21:49
things emerge that
456
1309930
2419
چیزهایی ظاهر می‌شوند که
21:52
you can maybe predict in some level of confidence,
457
1312349
4171
ممکن است بتوانید با اطمینان خاطر خاصی پش‌بینی کنید،
21:56
but it's capable of surprising you.
458
1316562
2544
اما همچنان می‌تواند شما را غافلگیر کند.
22:00
Why isn't there just a huge risk of something truly terrible emerging?
459
1320816
4463
آیا این خطر وجود ندارد که اتفاق جداً وحشتناکی پیش آید؟
22:05
GB: Well, I think all of these are questions of degree
460
1325320
2545
گرِگ: خب، فکر می‌کنم همه این‌ها سؤالاتی در مورد درجه،
22:07
and scale and timing.
461
1327865
1209
مقیاس و زمان است.
22:09
And I think one thing people miss, too,
462
1329116
1877
و همچنین فکر می‌کنم آنچه مردم نمی‌بینند
22:10
is sort of the integration with the world is also this incredibly emergent,
463
1330993
3587
نوعی یکپارچگی نوظهور با جهان است
22:14
sort of, very powerful thing too.
464
1334621
1585
که چیز خیلی قدرتمندی هم هست.
22:16
And so that's one of the reasons that we think it's so important
465
1336248
3045
و این یکی از دلایلی است که معتقدیم پیاده‌سازی تدریجی هوش مصنوعی مهم است.
22:19
to deploy incrementally.
466
1339293
1167
22:20
And so I think that what we kind of see right now, if you look at this talk,
467
1340502
3629
و بنابراین به نظرم آنچه اکنون می‌بینیم، اگر به این سخنرانی نگاه کنید،
22:24
a lot of what I focus on is providing really high-quality feedback.
468
1344131
3170
من روی ارائه بازخورد بسیار با کیفیت تمرکز دارم.
22:27
Today, the tasks that we do, you can inspect them, right?
469
1347301
2711
امروزه، قادریم کارهایی که می‌کنیم را مرور کنیم، درست است؟
22:30
It's very easy to look at that math problem and be like, no, no, no,
470
1350012
3211
خیلی آسان است که به آن مسئله ریاضی نگاه کنید و بگویید: «نه، نه، نه،
22:33
machine, seven was the correct answer.
471
1353265
1835
ماشین، پاسخ صحیح عدد هفت بود.»
22:35
But even summarizing a book, like, that's a hard thing to supervise.
472
1355100
3212
اما حتی خلاصه کردن یک کتاب، مثلاً، نظارت بر آن کار سختی است.
22:38
Like, how do you know if this book summary is any good?
473
1358312
2586
مثلاً از کجا می‌دانید که این خلاصه از کتاب خوب است؟
22:40
You have to read the whole book.
474
1360939
1543
شما باید کل کتاب را بخوانید.
22:42
No one wants to do that.
475
1362482
1168
کسی این کار را نمی‌کند.
22:43
(Laughter)
476
1363692
1293
(خنده‌ مجریان و بینندگان)
22:44
And so I think that the important thing will be that we take this step by step.
477
1364985
4296
و بنابراین فکر می‌کنم که مهم این است که قدم به قدم این کار را انجام دهیم.
22:49
And that we say, OK, as we move on to book summaries,
478
1369323
2544
و تصمیم می‌گیریم سراغ خلاصه کتاب‌ها برویم،
22:51
we have to supervise this task properly.
479
1371867
1960
باید به درستی بر آن نظارت کنیم.
22:53
We have to build up a track record with these machines
480
1373827
2586
باید با این دستگاه‌ها سابقه‌ای ایجاد کنیم
22:56
that they're able to actually carry out our intent.
481
1376413
2586
که آن‌ها بتوانند واقعاً هدف ما را اجرایی کنند.
22:59
And I think we're going to have to produce even better, more efficient,
482
1379041
3336
و فکر می‌کنم که باید اقدام به خلق راهکارهای بهتر، کارآمدتر،
23:02
more reliable ways of scaling this,
483
1382419
1710
مطمئن‌تری برای مقیاس‌بندی آن کنیم،
23:04
sort of like making the machine be aligned with you.
484
1384129
2878
به طوری که دستگاه با شما هماهنگ شود.
23:07
CA: So we're going to hear later in this session,
485
1387049
2294
کریس: پس قرار است بعد از این جلسه از منتقدانی بشنویم که می‌گویند:
23:09
there are critics who say that,
486
1389343
1543
23:10
you know, there's no real understanding inside,
487
1390928
4587
«می‌دانید، هیچ درک واقعی در درون وجود ندارد،
23:15
the system is going to always --
488
1395557
1627
سیستم همیشه...
23:17
we're never going to know that it's not generating errors,
489
1397225
3212
ما هرگز نمی‌دانیم که خطا ایجاد نمی‌کند،
23:20
that it doesn't have common sense and so forth.
490
1400479
2210
اینکه عقل سلیم ندارد و غیره.
23:22
Is it your belief, Greg, that it is true at any one moment,
491
1402689
4088
اگر این باور شماست، گرِگ، که آن نیز کاملاً درست است،
23:26
but that the expansion of the scale and the human feedback
492
1406818
3629
اما گسترش مقیاس و بازخورد انسانی
23:30
that you talked about is basically going to take it on that journey
493
1410489
4963
که در مورد آن صحبت کردید، اساساً آن را به سفری می‌برد
23:35
of actually getting to things like truth and wisdom and so forth,
494
1415494
3837
که در واقع به چیزهایی مانند حقیقت و حکمت و دیگر موارد مشابه می‌رسد،
23:39
with a high degree of confidence.
495
1419331
1627
آن هم با درجه‌ی بالایی از اطمینان.
23:40
Can you be sure of that?
496
1420999
1335
آیا از آن اطمینان دارید؟
23:42
GB: Yeah, well, I think that the OpenAI, I mean, the short answer is yes,
497
1422334
3462
گرِگ: بله، خب، به نظرم که اُپن‌ای‌آی... یعنی پاسخ کوتاه این است که بله،
23:45
I believe that is where we're headed.
498
1425796
1793
معتقدم که ما به این سمت می‌رویم.
23:47
And I think that the OpenAI approach here has always been just like,
499
1427631
3211
و به نظرم رویکرد اُپن‌ای‌آی در اینجا همیشه
23:50
let reality hit you in the face, right?
500
1430842
1877
رویارویی ما با واقعیت بوده است، خب؟
23:52
It's like this field is the field of broken promises,
501
1432719
2503
انگار که این ناحیه، ناحیه‌ی وعده‌های شکسته است،
23:55
of all these experts saying X is going to happen, Y is how it works.
502
1435263
3212
و کارشناسانی که می‌گویند فلان رخ می‌دهد، بهمان نحوه‌ی کار آن است.
23:58
People have been saying neural nets aren't going to work for 70 years.
503
1438475
3337
مردم هفتاد سال است که می‌گویند شبکه‌های عصبی کار نمی‌کنند.
24:01
They haven't been right yet.
504
1441812
1376
آنها هنوز درست نشده‌اند.
24:03
They might be right maybe 70 years plus one
505
1443188
2044
شاید درست باشد، شاید هفتاد به اضافه یک سال
24:05
or something like that is what you need.
506
1445232
1918
یا چیزی شبیه به آن نیاز داشته باشید.
24:07
But I think that our approach has always been,
507
1447192
2169
اما به نظرم رویکرد ما همیشه این بوده است،
24:09
you've got to push to the limits of this technology
508
1449361
2419
شما باید به محدودیت‌های این فناوری فشار بیاورید
24:11
to really see it in action,
509
1451822
1293
تا آن را در عمل ببینید،
24:13
because that tells you then, oh, here's how we can move on to a new paradigm.
510
1453115
3670
زیرا این به شما می‌گوید: اوه! این نحوه‌ی حرکت به یک الگوی جدید است.
24:16
And we just haven't exhausted the fruit here.
511
1456785
2127
ما هنوز همه احتمالات را بررسی نکرده‌ایم.
24:18
CA: I mean, it's quite a controversial stance you've taken,
512
1458954
2794
کریس: خب، این موضعی که اتخاذ کردید، کاملاً بحث‌برانگیز است
24:21
that the right way to do this is to put it out there in public
513
1461748
2920
که راه درست انجامش این است که آن را در معرض دید عموم قرار دهید
24:24
and then harness all this, you know,
514
1464710
1751
و از آن بهره‌برداری کنید، می‌دانید،
24:26
instead of just your team giving feedback,
515
1466461
2002
به جای اینکه تیم شما فقط بازخورد بدهد،
24:28
the world is now giving feedback.
516
1468463
2461
اکنون دنیا دارد بازخورد می‌دهد.
24:30
But ...
517
1470924
1168
اما...
24:33
If, you know, bad things are going to emerge,
518
1473135
3753
اگر، می‌دانید، چیزهای بدی قرار است ظهور کند،
24:36
it is out there.
519
1476930
1168
از قبل وجود دارد.
24:38
So, you know, the original story that I heard on OpenAI
520
1478140
2919
بنابراین، می‌دانید، داستان اصلی که من از اُپن‌ای‌آی شنیدم،
24:41
when you were founded as a nonprofit,
521
1481101
1793
شما به عنوان سازمانی غیرانتفاعی
24:42
well you were there as the great sort of check on the big companies
522
1482894
4463
آمدید تا به عنوان بررسی‌گری خوب، شرکت‌های بزرگی را مورد بررسی قرار دهید
24:47
doing their unknown, possibly evil thing with AI.
523
1487399
3837
که کارهای ناشناخته و احتمالاً شیطانی خود را با هوش مصنوعی انجام می‌دهند.
24:51
And you were going to build models that sort of, you know,
524
1491278
4755
و شما می‌خواستید مدل‌هایی بسازید که به نوعی آنها را مسئول می‌دانستند
24:56
somehow held them accountable
525
1496033
1418
24:57
and was capable of slowing the field down, if need be.
526
1497492
4380
و می‌توانستند سرعت این حوزه را کاهش دهند، در صورت نیاز.
25:01
Or at least that's kind of what I heard.
527
1501872
1960
یا حداقل این چیزی است که من شنیدم.
25:03
And yet, what's happened, arguably, is the opposite.
528
1503832
2461
و همچنان، آنچه رخ داده است، برعکس آن بوده است.
25:06
That your release of GPT, especially ChatGPT,
529
1506334
5673
معرفی جی‌پی‌تی شما، به خصوص چت‌جی‌پی‌تی،
25:12
sent such shockwaves through the tech world
530
1512049
2002
چنان موجی از شوک در دنیای فناوری ایجاد کرد
25:14
that now Google and Meta and so forth are all scrambling to catch up.
531
1514051
3795
که اکنون شرکت‌های گوگل و متا و غیره، همگی در تلاش برای رسیدن به آن هستند.
25:17
And some of their criticisms have been,
532
1517888
2085
و برخی از انتقادات آنها این بوده است
25:20
you are forcing us to put this out here without proper guardrails or we die.
533
1520015
4963
که شما آنها را مجبور می‌کنید این موضوع را
بدون وجود راه نجات مناسبی مطرح کنند، وگرنه مرده‌اند.
25:25
You know, how do you, like,
534
1525020
2794
می دانید، چگونه می‌توانید
25:27
make the case that what you have done is responsible here and not reckless.
535
1527814
3754
به این نتیجه برسید که کاری که کرده‌اید قابل اعتماد و بافکر بوده است.
25:31
GB: Yeah, we think about these questions all the time.
536
1531568
3128
گرگ: بله، ما همیشه به این سؤالات فکر می‌کنیم.
25:34
Like, seriously all the time.
537
1534738
1418
به طور جدی همیشه.
25:36
And I don't think we're always going to get it right.
538
1536198
2711
و فکر نمی‌کنم که همیشه آن را درست انجام دهیم.
25:38
But one thing I think has been incredibly important,
539
1538909
2460
اما فکر می‌کنم یک چیز فوق‌العاده مهم بوده است،
25:41
from the very beginning, when we were thinking
540
1541411
2169
از همان ابتدا، زمانی که به این فکر می‌کردیم
25:43
about how to build artificial general intelligence,
541
1543580
2419
که چگونه هوش عمومی مصنوعی بسازیم،
25:45
actually have it benefit all of humanity,
542
1545999
2002
که در واقع، به نفع تمام بشریت باشد،
25:48
like, how are you supposed to do that, right?
543
1548001
2127
اینکه چگونه قرار است این کار را بکنید، نه؟
25:50
And that default plan of being, well, you build in secret,
544
1550170
2711
و آن طرحِ پیش‌فرضِ بودن، خب، مخفیانه می‌سازید،
25:52
you get this super powerful thing,
545
1552923
1626
این چیز قدرتمند را بدست می‌آورید،
25:54
and then you figure out the safety of it and then you push “go,”
546
1554549
3003
و بعد امنیت آن را ارزیابی می‌کنید و سپس «برو» را فشار می‌دهید،
25:57
and you hope you got it right.
547
1557552
1460
و امیدوارید چیزها خوب پیش رود.
25:59
I don't know how to execute that plan.
548
1559012
1835
نمی‌دانم چگونه این طرح را اجرا کنم.
26:00
Maybe someone else does.
549
1560889
1168
شاید شخص دیگری بداند.
26:02
But for me, that was always terrifying, it didn't feel right.
550
1562099
2877
اما برای من، این همیشه وحشتناک بود، احساس درستی نداشت.
26:04
And so I think that this alternative approach
551
1564976
2128
و بنابراین فکر می‌کنم که این رویکرد جایگزین
26:07
is the only other path that I see,
552
1567104
2043
تنها راه دیگری است که سراغ دارم،
26:09
which is that you do let reality hit you in the face.
553
1569147
2503
اینکه اجازه می‌دهید واقعیت به چهره‌ی شما ضربه بزند.
26:11
And I think you do give people time to give input.
554
1571691
2336
و به نظرم شما به مردم زمان می‌دهید تا نظر بدهند.
26:14
You do have, before these machines are perfect,
555
1574027
2211
خب، قبل از اینکه این ماشین‌ها بی‌نقص باشند،
26:16
before they are super powerful, that you actually have the ability
556
1576279
3128
قبل از اینکه بسیار قدرتمند باشند، جداً این توانایی را دارید
26:19
to see them in action.
557
1579407
1168
آنها را در عمل ببینید.
26:20
And we've seen it from GPT-3, right?
558
1580617
1752
ما آن را از چی‌پی‌تی-۳ دیدیم، خب؟
26:22
GPT-3, we really were afraid
559
1582369
1376
جی‌پی‌تی-۳، جداً می‌ترسیدیم
26:23
that the number one thing people were going to do with it
560
1583745
2711
که مبادا اولین کاری که مردم قرار است با آن بکنند
26:26
was generate misinformation, try to tip elections.
561
1586456
2336
تولید اطلاعات نادرست و اثرگذاری بر انتخابات باشد.
26:28
Instead, the number one thing was generating Viagra spam.
562
1588834
2711
هرچند، اولین کاری که کردند ایجاد هرزنامه‌ ویاگرا بود.
26:31
(Laughter)
563
1591545
3169
(خنده)
26:36
CA: So Viagra spam is bad, but there are things that are much worse.
564
1596007
3212
کریس: هرزنامه ویاگارا بد است، اما چیزهای بدتری هم وجود دارد.
26:39
Here's a thought experiment for you.
565
1599219
1752
اینجا یک آزمایش فکری برای شما داریم.
26:40
Suppose you're sitting in a room,
566
1600971
1710
فرض کنید در اتاقی نشسته‌اید،
26:42
there's a box on the table.
567
1602681
1668
جعبه‌ای روی میز است.
26:44
You believe that in that box is something that,
568
1604349
3003
شما معتقدید که در آن جعبه چیزی است که
26:47
there's a very strong chance it's something absolutely glorious
569
1607394
2961
به احتمال بسیار زیاد چیزی کاملاً باشکوه است
26:50
that's going to give beautiful gifts to your family and to everyone.
570
1610397
3920
که هدایای زیبایی به خانواده‌ی شما و به همه بدهد.
26:54
But there's actually also a one percent thing in the small print there
571
1614359
3629
اما در واقع به احتمال ۱ درصد، چاپی ظریف روی آن وجود دارد
26:58
that says: “Pandora.”
572
1618029
1877
که نوشته است: «پاندورا».
26:59
And there's a chance
573
1619906
1669
و این احتمال وجود دارد
27:01
that this actually could unleash unimaginable evils on the world.
574
1621616
4088
که واقعاً می‌تواند شرارت‌های غیرقابل تصوری را در جهان ایجاد کند.
27:06
Do you open that box?
575
1626538
1543
آیا آن جعبه را باز می‌کنید؟
27:08
GB: Well, so, absolutely not.
576
1628123
1460
گرِگ: خب، قطعاً خیر.
27:09
I think you don't do it that way.
577
1629624
1919
به نظرم این کار را نمی‌کنید.
27:12
And honestly, like, I'll tell you a story that I haven't actually told before,
578
1632210
3796
و صادقانه بگویم، داستانی را تعریف می‌کنم که قبلاً نگفته بودم،
27:16
which is that shortly after we started OpenAI,
579
1636006
2586
اینکه مدت کوتاهی پس از شروع اُپن‌ای‌آی،
27:18
I remember I was in Puerto Rico for an AI conference.
580
1638592
2711
یادم است برای یک کنفرانس هوش مصنوعی، در پورتوریکو بودم.
27:21
I'm sitting in the hotel room just looking out over this wonderful water,
581
1641344
3462
در اتاق هتل نشسته‌ بودم و فقط به آب بی‌نظیر نگاه می‌کردم،
27:24
all these people having a good time.
582
1644806
1752
همگان اوقات خوبی را سپری می‌کردند.
27:26
And you think about it for a moment,
583
1646558
1752
و برای لحظه‌ای به آن فکر می‌کنید
27:28
if you could choose for basically that Pandora’s box
584
1648310
4504
که اگر بتوانید اساساً جعبه پاندورا را انتخاب کنید
27:32
to be five years away
585
1652814
2711
که پنج سال یا پانصد سال شما را در زمان جابه‌جا کند،
27:35
or 500 years away,
586
1655567
1585
27:37
which would you pick, right?
587
1657194
1501
کدام را انتخاب می‌کنید، خب؟
27:38
On the one hand you're like, well, maybe for you personally,
588
1658737
2836
از یک طرف به خود می‌گویید: «خب، شاید برای شخص شما،
27:41
it's better to have it be five years away.
589
1661573
2002
بهتر است پنج سال دیگر باشد.»
27:43
But if it gets to be 500 years away and people get more time to get it right,
590
1663617
3628
اگر طی پانصد سال فاصله، مردم زمان بیشتری برای انجام درست آن داشته باشند،
27:47
which do you pick?
591
1667287
1168
کدام را انتخاب می‌کنید؟
27:48
And you know, I just really felt it in the moment.
592
1668496
2336
و می‌دانید، من واقعاً آن را در لحظه احساس کردم.
27:50
I was like, of course you do the 500 years.
593
1670874
2002
با خود گفتم: «البته که پانصد سال.»
27:53
My brother was in the military at the time
594
1673293
2002
برادر من در آن زمان در ارتش بود
27:55
and like, he puts his life on the line in a much more real way
595
1675295
2961
و مانند آن، او زندگی خود را بسیار واقعی‌تر
27:58
than any of us typing things in computers
596
1678256
2628
از ما به خطر انداخت که آن موقع مشغول تایپ در کامپیوتر
28:00
and developing this technology at the time.
597
1680926
2585
و توسعه‌ی این فناوری بودیم‌.
28:03
And so, yeah, I'm really sold on the you've got to approach this right.
598
1683511
4547
و خب، بله، متقاعد شدم که باید به درستی با این مسائل برخورد کنم.
28:08
But I don't think that's quite playing the field as it truly lies.
599
1688058
3628
من فکر می‌کنم که این بازی با قوانین درست آن انجام نمی‌شود.
28:11
Like, if you look at the whole history of computing,
600
1691686
2670
مثلاً، اگر به کل تاریخ محاسبات نگاه کنید،
28:14
I really mean it when I say that this is an industry-wide
601
1694397
4463
واقعاً می‌خواهم بگویم که این یک تحول در سطح صنعت
28:18
or even just almost like
602
1698902
1543
یا حتی تقریباً شبیه یک تغییر توسعه انسانی در سراسر فناوری است.
28:20
a human-development- of-technology-wide shift.
603
1700487
3336
28:23
And the more that you sort of, don't put together the pieces
604
1703865
4088
و هر چه بیشتر بخواهید قطعات موجود را کنار هم نگذارید، خب،
28:27
that are there, right,
605
1707994
1293
28:29
we're still making faster computers,
606
1709329
1752
ما باز کامپیوترهای تندتری می‌سازیم،
28:31
we're still improving the algorithms, all of these things, they are happening.
607
1711081
3670
و در حال بهبود الگوریتم‌هاییم، تمام این چیزها‌ جاری هستند.
28:34
And if you don't put them together, you get an overhang,
608
1714793
2627
اگر عناصر را به هم وصل نکنیم، رشد بیش از حدی رخ می‌دهد،
28:37
which means that if someone does,
609
1717420
1627
یعنی که اگر کسی این کار را بکند،
28:39
or the moment that someone does manage to connect to the circuit,
610
1719089
3086
یا لحظه‌ای که یک نفر موفق شود به مدار متصل شود،
28:42
then you suddenly have this very powerful thing,
611
1722175
2252
ناگهان چیزی بسیار قدرتمند را خواهید داشت
28:44
no one's had any time to adjust,
612
1724427
1544
که هیچ کس برای آن آمادگی ندارد،
28:46
who knows what kind of safety precautions you get.
613
1726012
2336
کسی نمی‌داند چه تدابیر احتیاطی در کار خواهد داشت.
28:48
And so I think that one thing I take away
614
1728390
1918
و فکر می‌کنم طبق نتیجه‌گیری من
28:50
is like, even you think about development of other sort of technologies,
615
1730308
3837
با در نظر گرفتن توسعه‌ی سایر فناوری‌ها، مثلاً سلاح هسته‌ای را در نظر بگیریم،
28:54
think about nuclear weapons,
616
1734187
1376
28:55
people talk about being like a zero to one,
617
1735563
2002
مردم وقتی صحبت از پتانسیل انسانی می‌شود، تغییرات را صفر و یک می‌بینند.
28:57
sort of, change in what humans could do.
618
1737565
2628
29:00
But I actually think that if you look at capability,
619
1740235
2461
اما فکر می‌کنم که اگر نگاهی به ظرفیت‌ها بیندازید،
29:02
it's been quite smooth over time.
620
1742696
1585
در طول زمان کاملاً ثابت بوده است.
29:04
And so the history, I think, of every technology we've developed
621
1744281
3670
و خب به نظرم تاریخچه‌ی هر فناوری‌ای که ما توسعه داده‌ایم
29:07
has been, you've got to do it incrementally
622
1747993
2002
بدین شرح است: باید آن را تدریجاً پیش ببرید
29:10
and you've got to figure out how to manage it
623
1750036
2127
و باید دریابید که در عین بزرگتر‌ کردن‌اش، چگونه آن را مدیریت کنید.
29:12
for each moment that you're increasing it.
624
1752163
2461
29:14
CA: So what I'm hearing is that you ...
625
1754666
2252
کریس: پس چیزی که شنیدم این بود که شما...
29:16
the model you want us to have
626
1756918
1668
مدلی که می‌خواهید ما داشته باشیم
29:18
is that we have birthed this extraordinary child
627
1758628
2795
این است که کودکی خارق‌العاده به دنیا آورده‌ایم
29:21
that may have superpowers
628
1761423
2544
که می‌تواند قدرت‌ فوق‌العاده‌ای داشته باشد
29:24
that take humanity to a whole new place.
629
1764009
2544
که بشریت را به مکانی کاملاً جدید می‌برد.
29:26
It is our collective responsibility to provide the guardrails
630
1766594
5005
این وظیفه جمعی ماست که نقطه امنی را برای این کودک فراهم کنیم
29:31
for this child
631
1771641
1210
29:32
to collectively teach it to be wise and not to tear us all down.
632
1772892
5047
تا به طور جمعی به او بیاموزیم عاقل باشد و همه ما را خراب نکند.
29:37
Is that basically the model?
633
1777939
1377
آیا اساساً این مدل است؟
29:39
GB: I think it's true.
634
1779357
1168
گرِگ: به نظرم درست است.
29:40
And I think it's also important to say this may shift, right?
635
1780567
2878
و به نظرم مهم است که بگوییم این ممکن است تغییر کند، درست است؟
29:43
We've got to take each step as we encounter it.
636
1783445
3253
ما باید هر قدمی که با آن روبرو می‌شویم را برداریم.
29:46
And I think it's incredibly important today
637
1786740
2002
و من فکر می‌کنم امروز بسیار مهم است
29:48
that we all do get literate in this technology,
638
1788783
2878
که همه ما در این فناوری سواد داشته باشیم،
29:51
figure out how to provide the feedback,
639
1791661
1919
نحوه‌ی ارائه بازخورد را بیابیم،
29:53
decide what we want from it.
640
1793621
1377
بدانیم از آن چه می‌خواهیم.
29:54
And my hope is that that will continue to be the best path,
641
1794998
3128
و من امیدوارم که این مسیرِ درست ادامه پیدا کند،
29:58
but it's so good we're honestly having this debate
642
1798168
2377
اما خیلی خوب است که حقیقتاً ما این بحث را داریم،
30:00
because we wouldn't otherwise if it weren't out there.
643
1800545
2628
زیرا چت‌جی‌پی‌تی را منتشر نمی‌کردیم، این بحث هم نمی‌بود.
30:03
CA: Greg Brockman, thank you so much for coming to TED and blowing our minds.
644
1803631
3629
کریس: گرِگ براکمن، متشکرم که به TED تشریف آوردید و هوش از سر ما پراندید.
30:07
(Applause)
645
1807302
1626
(تشویق بینندگان)
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7