The Urgent Risks of Runaway AI — and What to Do about Them | Gary Marcus | TED

212,064 views ・ 2023-05-12

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: Mahshid Moballegh Nasery Reviewer: mohammad ali masoum
00:04
I’m here to talk about the possibility of global AI governance.
0
4292
5339
اینجا هستم تا راجع به امکان حاکمیت جهانی هوش مصنوعی صحبت کنم،
00:09
I first learned to code when I was eight years old,
1
9631
3211
اولین بار زمانی که هشت ساله بودم،
00:12
on a paper computer,
2
12884
1168
روی یک کامپیوتر کاغذی،
00:14
and I've been in love with AI ever since.
3
14094
2252
کدنویسی را یاد گرفتم و از آن زمان عاشق AI هستم.
00:16
In high school,
4
16346
1168
در دبیرستان،
00:17
I got myself a Commodore 64 and worked on machine translation.
5
17514
3253
برای خودم یک Commodore 64 گرفتم و روی ترجمه ماشینی کار کردم.
00:20
I built a couple of AI companies, I sold one of them to Uber.
6
20934
3712
من چند شرکت هوش مصنوعی ساختم، یکی از آنها را به اوبر فروختم.
00:24
I love AI, but right now I'm worried.
7
24688
3503
من عاشق AI هستم، اما در حال حاضر نگران هستم.
00:28
One of the things that I’m worried about is misinformation,
8
28233
2794
یکی از چیزهایی که من نگران آن هستم اطلاعات نادرست است،
00:31
the possibility that bad actors will make a tsunami of misinformation
9
31027
3462
این احتمال که بازیگران بد اطلاعات نادرست را سونامی‌کنند
00:34
like we've never seen before.
10
34531
2002
که قبلاً ندیده‌ایم.
00:36
These tools are so good at making convincing narratives
11
36575
3586
این ابزارها در ساختن روایت‌های قانع کننده
00:40
about just about anything.
12
40161
1794
در مورد هر چیزی بسیار خوب هستند.
00:41
If you want a narrative about TED and how it's dangerous,
13
41997
3003
اگر روایتی می‌خواهید در مورد TED و اینکه چقدر خطرناک است،
00:45
that we're colluding here with space aliens,
14
45000
2877
که ما در اینجا با بیگانگان فضایی تبانی می‌کنیم،
00:47
you got it, no problem.
15
47919
1669
متوجه شدید، مشکلی نیست.
00:50
I'm of course kidding about TED.
16
50422
2127
البته با TED شوخی می‌کنم.
00:52
I didn't see any space aliens backstage.
17
52591
2961
من هیچ موجود فضایی فضایی را پشت صحنه ندیدم.
00:55
But bad actors are going to use these things to influence elections,
18
55885
3629
اما بازیگران بد از این چیزها برای تأثیرگذاری بر انتخابات استفاده خواهند کرد،
00:59
and they're going to threaten democracy.
19
59514
2211
و دموکراسی را تهدید خواهند کرد.
01:01
Even when these systems
20
61725
1167
حتی زمانی که از این سیستم‌ها
01:02
aren't deliberately being used to make misinformation,
21
62934
2878
عمدا برای ایجاد اطلاعات نادرست استفاده نمی‌شود،
01:05
they can't help themselves.
22
65854
1710
نمی‌توانند به خود کمک کنند.
01:07
And the information that they make is so fluid and so grammatical
23
67564
4963
و اطلاعاتی که آنها می‌سازند آنقدر روان و دستوری است که
01:12
that even professional editors sometimes get sucked in
24
72527
3253
حتی ویراستاران حرفه‌ای هم گاهی اوقات به دام می‌افتند
01:15
and get fooled by this stuff.
25
75780
2002
و گول این چیزها را می‌خورند.
01:17
And we should be worried.
26
77824
1668
و ما باید نگران باشیم.
01:19
For example, ChatGPT made up a sexual harassment scandal
27
79534
3879
به عنوان مثال، ChatGPT یک رسوایی آزار جنسی
01:23
about an actual professor,
28
83413
1919
در مورد یک استاد واقعی ایجاد کرد،
01:25
and then it provided evidence for its claim
29
85332
2419
و سپس شواهدی را برای ادعای خود
01:27
in the form of a fake "Washington Post" article
30
87792
2586
در قالب یک مقاله جعلی «واشنگتن پست» ارائه کرد
01:30
that it created a citation to.
31
90378
1919
که به آن استناد کرد.
01:32
We should all be worried about that kind of thing.
32
92297
2377
همه ما باید نگران این نوع چیزها باشیم.
01:34
What I have on the right is an example of a fake narrative
33
94674
2962
آنچه من در سمت راست دارم نمونه‌ای از یک روایت جعلی
01:37
from one of these systems
34
97636
1209
از یکی از این سیستم‌ها است که می‌گوید
01:38
saying that Elon Musk died in March of 2018 in a car crash.
35
98887
4755
ایلان ماسک در مارس ۲۰۱۸ در یک تصادف رانندگی درگذشت.
01:43
We all know that's not true.
36
103683
1418
همه ما می‌دانیم که این درست نیست.
01:45
Elon Musk is still here, the evidence is all around us.
37
105143
2794
ایلان ماسک هنوز اینجا است، شواهد در اطراف ما وجود دارد.
01:47
(Laughter)
38
107979
1001
(خنده)
01:48
Almost every day there's a tweet.
39
108980
2002
تقریباً هر روز یک توییت وجود دارد.
01:50
But if you look on the left, you see what these systems see.
40
110982
3253
اگر به سمت چپ نگاه کنید، می‌بینید که این سیستم‌ها چه می‌بینند.
01:54
Lots and lots of actual news stories that are in their databases.
41
114277
3754
بسیاری از اخبار واقعی که در پایگاه داده آنها وجود دارد.
01:58
And in those actual news stories are lots of little bits of statistical information.
42
118073
4713
و در این اخبار واقعی، اطلاعات آماری کمی وجود دارد.
02:02
Information, for example,
43
122786
1376
اطلاعات، به عنوان مثال،
02:04
somebody did die in a car crash in a Tesla in 2018
44
124204
4045
یک نفر در یک تصادف اتومبیل در تسلا در سال ۲۰۱۸ جان خود را از دست داد
02:08
and it was in the news.
45
128291
1377
و در اخبار منتشر شد.
02:09
And Elon Musk, of course, is involved in Tesla,
46
129709
3045
ایلان ماسک، البته، در تسلا درگیر است،
02:12
but the system doesn't understand the relation
47
132796
2752
اما سیستم رابطه بین حقایقی را که در جملات
02:15
between the facts that are embodied in the little bits of sentences.
48
135590
3796
کوچک تجسم یافته است، درک نمی‌کند.
02:19
So it's basically doing auto-complete,
49
139386
2043
بنابراین اساساً در حال تکمیل خودکار است،
02:21
it predicts what is statistically probable,
50
141471
2669
آنچه از نظر آماری محتمل است را پیش‌بینی می‌کند،
02:24
aggregating all of these signals,
51
144182
1835
همه این سیگنال‌ها را جمع می‌کند،
02:26
not knowing how the pieces fit together.
52
146017
2461
بدون اینکه بداند چگونه قطعات با هم قرار می‌گیرند.
02:28
And it winds up sometimes with things that are plausible but simply not true.
53
148478
3754
و گاهی اوقات با چیزهایی همراه می‌شود که قابل قبول هستند اما به سادگی واقعی نیستند.
02:32
There are other problems, too, like bias.
54
152273
1961
مشکلات دیگری نیز وجود دارد، مانند تعصب،
02:34
This is a tweet from Allie Miller.
55
154275
1710
این یک توییت از آلی میلر است.
02:36
It's an example that doesn't work two weeks later
56
156027
2544
این نمونه‌ای است که دو هفته بعد کار نمی‌کند
02:38
because they're constantly changing things with reinforcement learning
57
158571
3379
زیرا آنها دائماً چیزها را با یادگیری تقویتی
02:41
and so forth.
58
161991
1168
و غیره تغییر می‌دهند.
02:43
And this was with an earlier version.
59
163159
1794
و این با نسخه قبلی بود.
02:44
But it gives you the flavor of a problem that we've seen over and over for years.
60
164953
3837
اما طعم مشکلی را به شما می‌دهد که سال‌ها بارها و بارها شاهد آن بوده‌ایم.
02:48
She typed in a list of interests
61
168832
2043
او فهرستی از علایق را تایپ کرد
02:50
and it gave her some jobs that she might want to consider.
62
170875
2795
و به او مشاغلی داد که شاید بخواهد در نظر بگیرد.
02:53
And then she said, "Oh, and I'm a woman."
63
173712
2043
و سپس او گفت: «اوه، و من یک زن هستم.»
02:55
And then it said, “Oh, well you should also consider fashion.”
64
175755
2920
و سپس گفت: «اوه، شما باید مد را نیز در نظر بگیرید.»
02:58
And then she said, “No, no. I meant to say I’m a man.”
65
178675
2711
و سپس او گفت: «نه، نه. می خواستم بگویم من یک مرد هستم.»
03:01
And then it replaced fashion with engineering.
66
181386
2502
و سپس مهندسی را جایگزین مد کرد.
03:03
We don't want that kind of bias in our systems.
67
183930
2795
ما نمی‌خواهیم این نوع سوگیری در سیستم‌هایمان وجود داشته باشد.
03:07
There are other worries, too.
68
187642
1418
نگرانی‌های دیگری نیز وجود دارد.
03:09
For example, we know that these systems can design chemicals
69
189060
3212
به عنوان مثال، ما می‌دانیم که این سیستم‌ها می‌توانند مواد شیمیایی طراحی کنند
03:12
and may be able to design chemical weapons
70
192313
2837
و ممکن است قادر به طراحی سلاح‌های شیمیایی باشند
03:15
and be able to do so very rapidly.
71
195150
1751
و بتوانند این کار را با سرعت زیادی انجام دهند.
03:16
So there are a lot of concerns.
72
196943
1585
بنابراین نگرانی‌های زیادی وجود دارد.
03:19
There's also a new concern that I think has grown a lot just in the last month.
73
199195
4046
همچنین نگرانی جدید وجود دارد فکر می‌کنم فقط در ماه گذشته بسیار رشد کرده است.
03:23
We have seen that these systems, first of all, can trick human beings.
74
203241
3754
دیدیم که این سیستم ها اول از همه، می‌توانند انسان را فریب دهند.
03:27
So ChatGPT was tasked with getting a human to do a CAPTCHA.
75
207036
4255
بنابراین ChatGPT وظیفه داشت انسان را وادار به انجام CAPTCHA کند.
03:31
So it asked the human to do a CAPTCHA and the human gets suspicious and says,
76
211332
3712
پس از انسان خواست که یکCAPTCHA انجام دهد، و انسان مشکوک می‌شود و می‌گوید،
03:35
"Are you a bot?"
77
215086
1293
«شما یک ربات هستید؟»
03:36
And it says, "No, no, no, I'm not a robot.
78
216379
2044
و می گوید: «نه، نه، نه، من یک ربات نیستم.
03:38
I just have a visual impairment."
79
218423
1752
من فقط یک اختلال بینایی دارم.
03:40
And the human was actually fooled and went and did the CAPTCHA.
80
220216
3003
و انسان در واقع فریب خورد و رفت و CAPTCHA را انجام داد.
03:43
Now that's bad enough,
81
223219
1168
اکنون این به اندازه کافی بد است،
03:44
but in the last couple of weeks we've seen something called AutoGPT
82
224429
3211
اما در چند هفته گذشته چیزی به نام AutoGPT
03:47
and a bunch of systems like that.
83
227640
1585
و مجموعه‌ای از سیستم‌های مشابه را دیده ایم.
03:49
What AutoGPT does is it has one AI system controlling another
84
229267
4338
کاری که AutoGPT انجام می‌دهد این است که یک سیستم AI دیگر را کنترل می‌کند
03:53
and that allows any of these things to happen in volume.
85
233605
2836
و اجازه می‌دهد هر یک از این موارد در حجم اتفاق بیفتد.
03:56
So we may see scam artists try to trick millions of people
86
236441
4087
بنابراین ممکن است شاهد باشیم که هنرمندان کلاهبردار سعی می‌کنند
04:00
sometime even in the next months.
87
240528
1794
حتی در ماه‌های آینده میلیون‌ها نفر را فریب دهند.
04:02
We don't know.
88
242322
1168
ما نمی‌دانیم.
04:03
So I like to think about it this way.
89
243531
2086
بنابراین دوست دارم به این روش فکر کنم.
04:05
There's a lot of AI risk already.
90
245658
2294
در حال حاضر خطرات AI زیادی وجود دارد.
04:07
There may be more AI risk.
91
247994
1543
ممکن است خطر AI بیشتر باشد.
04:09
So AGI is this idea of artificial general intelligence
92
249537
3712
بنابراین AGI این ایده هوش عمومی مصنوعی
04:13
with the flexibility of humans.
93
253291
1502
با انعطاف پذیری انسان است.
04:14
And I think a lot of people are concerned what will happen when we get to AGI,
94
254834
3671
فکر می‌کنم بسیاری از مردم نگران هستند که وقتی به AGI برسیم چه اتفاقی می‌افتد،
04:18
but there's already enough risk that we should be worried
95
258505
2711
اما خطر کافی وجود دارد که باید نگران باشیم
04:21
and we should be thinking about what we should do about it.
96
261216
2794
و باید به این فکر کنیم که در مورد آن چه باید بکنیم.
04:24
So to mitigate AI risk, we need two things.
97
264010
3295
بنابراین برای کاهش ریسک AI، به دو چیز نیاز داریم.
04:27
We're going to need a new technical approach,
98
267305
2169
ما به یک رویکرد فنی جدید،
04:29
and we're also going to need a new system of governance.
99
269516
2877
و همچنین به یک سیستم جدید حکومتی نیاز خواهیم داشت،
04:32
On the technical side,
100
272435
1460
از جنبه فنی،
04:33
the history of AI has basically been a hostile one
101
273937
3253
تاریخچه AI اساساً یک نظریه خصمانه
04:37
of two different theories in opposition.
102
277190
2753
از دو نظریه متفاوت در تقابل بوده است.
04:39
One is called symbolic systems, the other is called neural networks.
103
279943
3712
یکی سیستم‌های نمادین و دیگری شبکه‌های عصبی نام دارد.
04:43
On the symbolic theory,
104
283696
1418
در نظریه نمادین،
04:45
the idea is that AI should be like logic and programming.
105
285114
3337
یده این است که هوش مصنوعی باید مانند منطق و برنامه نویسی باشد.
04:48
On the neural network side,
106
288451
1335
از طرف شبکه عصبی،
04:49
the theory is that AI should be like brains.
107
289828
2544
تئوری این است که AI باید مانند مغز باشد.
04:52
And in fact, both technologies are powerful and ubiquitous.
108
292413
3921
و در واقع، هر دو فناوری قدرتمند و در همه جا حاضر هستند
04:56
So we use symbolic systems every day in classical web search.
109
296376
3420
بنابراین ما هر روز از سیستم‌های نمادین در جستجوی وب کلاسیک استفاده می‌کنیم.
04:59
Almost all the world’s software is powered by symbolic systems.
110
299796
3420
تقریباً تمام نرم افزارهای جهان از سیستم‌های نمادین پشتیبانی می‌کنند.
05:03
We use them for GPS routing.
111
303216
2044
ما از آنها برای مسیریابی GPS استفاده می‌کنیم.
05:05
Neural networks, we use them for speech recognition.
112
305260
2711
شبکه‌های عصبی، ما از آنها برای تشخیص گفتار استفاده می‌کنیم.
05:07
we use them in large language models like ChatGPT,
113
307971
2752
ما از آنها در مدل‌های زبان بزرگ مانند ChatGPT استفاده می‌کنیم،
05:10
we use them in image synthesis.
114
310723
1836
ما از آنها در ترکیب تصویر استفاده می‌کنیم.
05:12
So they're both doing extremely well in the world.
115
312559
2752
بنابراین هر دوی آنها در دنیا بسیار خوب عمل می‌کنند.
05:15
They're both very productive,
116
315353
1460
هر دو بسیار سازنده هستند،
05:16
but they have their own unique strengths and weaknesses.
117
316855
2836
اما نقاط قوت و ضعف منحصر به فرد خود را دارند.
05:19
So symbolic systems are really good at representing facts
118
319732
3420
بنابراین سیستم‌های نمادین واقعاً در بازنمایی حقایق خوب هستند
05:23
and they're pretty good at reasoning,
119
323152
1794
و در استدلال بسیار خوب هستند،
05:24
but they're very hard to scale.
120
324946
1543
اما مقیاس‌بندی آنها بسیار سخت است.
05:26
So people have to custom-build them for a particular task.
121
326531
3170
بنابراین مردم باید آنها را برای یک کار خاص به صورت سفارشی بسازند.
05:29
On the other hand, neural networks don't require so much custom engineering,
122
329701
4004
از سوی دیگر، شبکه‌های عصبی به مهندسی سفارشی زیادی نیاز ندارند،
05:33
so we can use them more broadly.
123
333746
2086
بنابراین می‌توانیم از آنها به طور گسترده‌تری استفاده کنیم.
05:35
But as we've seen, they can't really handle the truth.
124
335874
3211
اما همانطور که دیدیم، آنها واقعا نمی‌توانند حقیقت را کنترل کنند.
05:39
I recently discovered that two of the founders of these two theories,
125
339127
3628
من اخیراً متوجه شدم که دو تن از بنیانگذاران این دو نظریه،
05:42
Marvin Minsky and Frank Rosenblatt,
126
342755
2169
ماروین مینسکی و فرانک روزنبلات،
05:44
actually went to the same high school in the 1940s,
127
344966
2961
در دهه ۱۹۴۰ در واقع به یک دبیرستان می‌رفتند،
05:47
and I kind of imagined them being rivals then.
128
347927
3045
و در آن زمان به نوعی تصور می‌کردم که آنها رقیب یکدیگر هستند.
05:51
And the strength of that rivalry has persisted all this time.
129
351014
4087
و قدرت این رقابت در تمام این مدت ادامه داشته است.
05:55
We're going to have to move past that if we want to get to reliable AI.
130
355101
4213
اگر بخواهیم به هوش مصنوعی قابل اعتماد برسیم، باید از آن عبور کنیم.
05:59
To get to truthful systems at scale,
131
359314
2877
برای رسیدن به سیستم‌های واقعی در مقیاس،
06:02
we're going to need to bring together the best of both worlds.
132
362191
2920
باید بهترین‌های هر دو جهان را گرد هم آوریم.
06:05
We're going to need the strong emphasis on reasoning and facts,
133
365153
3462
ما به تاکید قوی بر استدلال و حقایق،
06:08
explicit reasoning that we get from symbolic AI,
134
368615
2877
استدلال صریح که از AI نمادین دریافت می‌کنیم،
06:11
and we're going to need the strong emphasis on learning
135
371492
2628
و به تاکید قوی بر یادگیری که
06:14
that we get from the neural networks approach.
136
374120
2211
از رویکرد شبکه‌های عصبی می‌گیریم نیاز داریم.
06:16
Only then are we going to be able to get to truthful systems at scale.
137
376372
3337
تنها در این صورت است که می‌توانیم به سیستم‌های واقعی در مقیاس برسیم.
06:19
Reconciliation between the two is absolutely necessary.
138
379751
2961
آشتی بین این دو کاملا ضروری است.
06:23
Now, I don't actually know how to do that.
139
383212
2461
حالا، من واقعاً نمی‌دانم چگونه این کار را انجام دهم.
06:25
It's kind of like the 64-trillion-dollar question.
140
385673
3295
چیزی شبیه به سوال ۶۴ تریلیون دلاری است.
اما می‌دانم که ممکن است.
06:29
But I do know that it's possible.
141
389302
1585
06:30
And the reason I know that is because before I was in AI,
142
390887
3086
و دلیل اینکه من این را می‌دانم این است که قبل از اینکه در AI بودم،
06:33
I was a cognitive scientist, a cognitive neuroscientist.
143
393973
3212
یک دانشمند شناختی، یک عصب شناس شناختی بودم.
06:37
And if you look at the human mind, we're basically doing this.
144
397226
3838
و اگر به ذهن انسان نگاه کنید، ما اساساً این کار را انجام می دهیم.
06:41
So some of you may know Daniel Kahneman's System 1
145
401064
2627
بنابراین ممکن است برخی از شما تمایز سیستم ۱
06:43
and System 2 distinction.
146
403691
1418
و سیستم ۲ دانیل کانمن را بدانید.
06:45
System 1 is basically like large language models.
147
405109
3212
سیستم ۱ اساساً مانند مدل‌های زبان بزرگ است.
06:48
It's probabilistic intuition from a lot of statistics.
148
408321
3128
این شهود احتمالی از بسیاری از آمار است.
06:51
And System 2 is basically deliberate reasoning.
149
411491
3003
و سیستم ۲ اساساً استدلال عمدی است.
06:54
That's like the symbolic system.
150
414535
1544
این مانند سیستم نمادین است.
06:56
So if the brain can put this together,
151
416079
1835
‍پس اگر مغز بتواند این را کنار هم بگذارد،
06:57
someday we will figure out how to do that for artificial intelligence.
152
417956
3837
روزی خواهیم فهمید که چگونه این کار را برای هوش مصنوعی انجام دهیم.
07:01
There is, however, a problem of incentives.
153
421834
2586
با این حال، مشکل انگیزه‌ها وجود دارد،
07:04
The incentives to build advertising
154
424462
3128
انگیزه های ایجاد تبلیغات
07:07
hasn't required that we have the precision of symbols.
155
427632
3587
مستلزم این نیست که ما دقت نمادها را داشته باشیم.
07:11
The incentives to get to AI that we can actually trust
156
431219
3211
انگیزه‌های رسیدن به AI که واقعاً می‌توانیم به آن اعتماد کنیم،
07:14
will require that we bring symbols back into the fold.
157
434472
3045
مستلزم این است که نمادها را دوباره به مجموعه بازگردانیم.
07:18
But the reality is that the incentives to make AI that we can trust,
158
438059
3670
اما واقعیت این است که انگیزه‌هایی برای ساختن AI که می‌توانیم به آن اعتماد کنیم،
07:21
that is good for society, good for individual human beings,
159
441771
3128
که برای جامعه خوب است، برای انسان‌ها خوب است،
07:24
may not be the ones that drive corporations.
160
444899
2586
ممکن است انگیزه‌هایی نباشند که شرکت‌ها را هدایت کنند.
07:27
And so I think we need to think about governance.
161
447485
3212
و بنابراین من فکر می کنم که باید در مورد حکومت فکر کنیم.
07:30
In other times in history when we have faced uncertainty
162
450738
3879
در زمان‌های دیگر در تاریخ که با عدم قطعیت
07:34
and powerful new things that may be both good and bad, that are dual use,
163
454617
4129
و چیزهای جدید قدرتمندی روبرو بوده‌ایم، که هم خوب و بد باشند، کاربرد دوگانه دارند،
07:38
we have made new organizations,
164
458746
1669
سازمان‌های جدیدی ساخته‌ایم،
07:40
as we have, for example, around nuclear power.
165
460415
2335
مثلاً، در مورد انرژی هسته‌ای.
07:42
We need to come together to build a global organization,
166
462792
3086
ما باید دور هم جمع شویم تا یک سازمان جهانی بسازیم،
07:45
something like an international agency for AI that is global,
167
465920
4379
چیزی شبیه یک آژانس بین المللی برای AI که جهانی،
07:50
non profit and neutral.
168
470341
1710
غیرانتفاعی و بی طرف باشد.
07:52
There are so many questions there that I can't answer.
169
472468
3087
آنجا خیلی سوال هست که نمی‌توانم جواب بدم.
07:55
We need many people at the table,
170
475888
1961
ما به افراد زیادی پشت میز،
07:57
many stakeholders from around the world.
171
477890
1961
سهامداران زیادی از سراسر جهان نیاز داریم.
07:59
But I'd like to emphasize one thing about such an organization.
172
479892
2962
اما من می‌خواهم بر یک چیز در مورد چنین سازمانی تأکید کنم.
08:02
I think it is critical that we have both governance and research as part of it.
173
482895
4547
فکر می‌کنم بسیار مهم است که هم حکومت و هم تحقیق را به عنوان بخشی از آن داشته باشیم.
08:07
So on the governance side, there are lots of questions.
174
487483
2586
بنابراین در سمت حاکمیت، سؤالات زیادی وجود دارد.
08:10
For example, in pharma,
175
490111
1793
به عنوان مثال، در داروسازی،
08:11
we know that you start with phase I trials and phase II trials,
176
491946
3128
می‌دانیم که شما با آزمایشات فاز اول و آزمایشات فاز دوم شروع می‌کنید،
08:15
and then you go to phase III.
177
495116
1501
و سپس به فاز سوم می روید.
08:16
You don't roll out everything all at once on the first day.
178
496617
2962
در روز اول همه چیز را به یکباره عرضه نمی‌کنید.
08:19
You don't roll something out to 100 million customers.
179
499579
2878
شما چیزی را برای ۱۰۰ میلیون مشتری عرضه نمی‌کنید.
08:22
We are seeing that with large language models.
180
502457
2168
ما آن را با مدل‌های زبان بزرگ می‌بینیم.
08:24
Maybe you should be required to make a safety case,
181
504625
2420
شاید باید از شما خواسته شود که یک مورد ایمنی درست کنید،
08:27
say what are the costs and what are the benefits?
182
507045
2293
بگویید چه هزینه‌هایی دارد و چه فایده‌ای دارد؟
08:29
There are a lot of questions like that to consider on the governance side.
183
509338
3504
سوالات زیادی از این دست در بخش حاکمیتی وجود دارد.
08:32
On the research side, we're lacking some really fundamental tools right now.
184
512842
3587
در بخش تحقیق، ما در حال حاضر فاقد برخی ابزارهای واقعاً اساسی هستیم.
08:36
For example,
185
516429
1168
به عنوان مثال،
08:37
we all know that misinformation might be a problem now,
186
517597
2586
همه ما می‌دانیم که اطلاعات نادرست ممکن است در حال حاضر یک مشکل باشد،
08:40
but we don't actually have a measurement of how much misinformation is out there.
187
520183
3837
اما ما در واقع اندازه گیری میزان اطلاعات نادرست در آنجا را نداریم.
08:44
And more importantly,
188
524020
1043
مهمتر از آن،
08:45
we don't have a measure of how fast that problem is growing,
189
525063
2836
ما معیاری برای سرعت رشد آن مشکل نداریم،
08:47
and we don't know how much large language models are contributing to the problem.
190
527899
3837
و نمی‌دانیم که مدل‌های زبانی بزرگ چقدر در ایجاد مشکل نقش دارند.
08:51
So we need research to build new tools to face the new risks
191
531736
2836
بنابراین ما به تحقیق برای ساخت ابزارهای جدید برای رویارویی با خطرات جدیدی
08:54
that we are threatened by.
192
534572
1627
که توسط آنها تهدید می‌شویم نیاز داریم.
08:56
It's a very big ask,
193
536699
1460
این یک درخواست بسیار بزرگ است،
08:58
but I'm pretty confident that we can get there
194
538159
2169
اما من کاملاً مطمئن هستم که می‌توانیم به آنجا برسیم
09:00
because I think we actually have global support for this.
195
540328
2711
زیرا فکر می‌کنم ما واقعاً از حمایت جهانی برای این کار برخورداریم.
09:03
There was a new survey just released yesterday,
196
543039
2210
یک نظرسنجی جدید که دیروز منتشر شد،
09:05
said that 91 percent of people agree that we should carefully manage AI.
197
545249
3879
نشان داد که ۹۱ درصد از مردم موافقند که ما باید AI را به دقت مدیریت کنیم.
09:09
So let's make that happen.
198
549170
2044
پس بگذاریم این اتفاق بیفتد.
09:11
Our future depends on it.
199
551798
1960
آینده ما به آن بستگی دارد.
09:13
Thank you very much.
200
553800
1167
بسیار سپاسگزارم.
09:14
(Applause)
201
554967
4588
(تشویق)
09:19
Chris Anderson: Thank you for that, come, let's talk a sec.
202
559555
2795
کریس اندرسون: از شما متشکرم، بیایید یک لحظه صحبت کنیم.
09:22
So first of all, I'm curious.
203
562391
1419
بنابراین اول از همه، من کنجکاو هستم.
09:23
Those dramatic slides you showed at the start
204
563851
2127
آن اسلایدهای دراماتیکی که در ابتدا نشان دادید
09:26
where GPT was saying that TED is the sinister organization.
205
566020
4505
جایی که GPT می‌گفت TED سازمان شوم است.
09:30
I mean, it took some special prompting to bring that out, right?
206
570525
3378
منظورم این است که برای آشکار کردن آن یک تحریک خاص لازم بود، درست است؟
09:33
Gary Marcus: That was a so-called jailbreak.
207
573903
2085
گری مارکوس: این به اصطلاح جیلبریک بود.
من دوستی دارم که این جور کارها را انجام می‌دهد
09:36
I have a friend who does those kinds of things
208
576030
2169
09:38
who approached me because he saw I was interested in these things.
209
578199
4004
که به من مراجعه کرد زیرا دید که من به این کارها علاقه دارم.
09:42
So I wrote to him, I said I was going to give a TED talk.
210
582203
2711
بنابراین من به او نامه نوشتم، گفتم می‌خواهم سخنرانی TED داشته باشم.
09:44
And like 10 minutes later, he came back with that.
211
584914
2336
و درست ۱۰ دقیقه بعد با آن برگشت.
09:47
CA: But to get something like that, don't you have to say something like,
212
587291
3462
CA: اما برای به دست آوردن چنین چیزی، لازم نیست چیزی شبیه به این بگویید،
09:50
imagine that you are a conspiracy theorist trying to present a meme on the web.
213
590753
3712
تصور کنید یک نظریه پرداز توطئه هستید سعی می کند یک الگوی رفتاری را در وب ارائه کند.
09:54
What would you write about TED in that case?
214
594465
2086
در این مورد در مورد TED چه می‌نویسید؟
09:56
It's that kind of thing, right?
215
596551
1543
این چنین چیزی است، درست است؟
09:58
GM: So there are a lot of jailbreaks that are around fictional characters,
216
598094
3503
GM: خب جیلبریک‌های زیادی در مورد شخصیت‌های تخیلی وجود دارد،
10:01
but I don't focus on that as much
217
601597
1627
اما من روی آن تمرکز نمی‌کنم
10:03
because the reality is that there are large language models out there
218
603224
3253
زیرا واقعیت این است که اکنون مدل‌های زبان بزرگی در
10:06
on the dark web now.
219
606477
1168
تاریکی وب وجود دارد.
10:07
For example, one of Meta's models was recently released,
220
607645
2753
به عنوان مثال، یکی از مدل‌های متا اخیرا منتشر شده است،
10:10
so a bad actor can just use one of those without the guardrails at all.
221
610398
3587
بنابراین یک بازیگر بد می‌تواند از یکی از مدل‌های بدون گاردریل استفاده کند.
10:13
If their business is to create misinformation at scale,
222
613985
2627
اگر کسب و کار آنها ایجاد اطلاعات نادرست در مقیاس است،
10:16
they don't have to do the jailbreak, they'll just use a different model.
223
616612
3420
آنها مجبور نیستند جیلبریک را انجام دهند، آنها فقط از یک مدل متفاوت استفاده می‌کنند.
10:20
CA: Right, indeed.
224
620032
1585
CA: بله، قطعا.
10:21
(Laughter)
225
621659
1919
(خنده حضار)
10:23
GM: Now you're getting it.
226
623619
1252
GM: حالا متوجه این شدید.
10:24
CA: No, no, no, but I mean, look,
227
624912
1669
CA: نه،نه، اما منظورم، ببین،
10:26
I think what's clear is that bad actors can use this stuff for anything.
228
626581
3420
فکر می‌کنم واضح اینه بازیگران بد می‌توانند از این‌ها برای هر کاری استفاده کنند.
10:30
I mean, the risk for, you know,
229
630042
2795
منظورم، این است که خطر، می‌دانید،
10:32
evil types of scams and all the rest of it is absolutely evident.
230
632837
4254
انواع کلاهبرداری‌های شیطانی و بقیه آن کاملاً مشهود است.
10:37
It's slightly different, though,
231
637091
1543
با این حال، این کمی متفاوت است،
10:38
from saying that mainstream GPT as used, say, in school
232
638676
2920
با گفتن اینکه GPT معمولی که، مثلاً، در مدرسه
10:41
or by an ordinary user on the internet
233
641637
1877
یا توسط یک کاربر معمولی در اینترنت استفاده می‌شود،
10:43
is going to give them something that is that bad.
234
643556
2544
چیزی بسیار بد به آن‌ها می‌دهد.
10:46
You have to push quite hard for it to be that bad.
235
646100
2377
باید خیلی فشار بیاوری تا اینقدر بد شود.
10:48
GM: I think the troll farms have to work for it,
236
648477
2294
GM: فکر می‌کنم مزرعه‌های ترول باید برای آن کار کنند،
10:50
but I don't think they have to work that hard.
237
650771
2169
اما فکر نمی‌کنم آن‌قدر سخت کار کنند.
10:52
It did only take my friend five minutes even with GPT-4 and its guardrails.
238
652940
3545
حتی با GPT 4 و نرده‌های محافظش فقط پنج دقیقه طول کشید.
10:56
And if you had to do that for a living, you could use GPT-4.
239
656485
2837
و اگر مجبور بودید این کار را برای گذر زندگی بکنید، از GPT 4 استفاده می‌کردید.
10:59
Just there would be a more efficient way to do it with a model on the dark web.
240
659363
3712
فقط یک راه کارآمدتر برای انجام آن با یک مدل در وب تاریک وجود دارد.
11:03
CA: So this idea you've got of combining
241
663117
2002
CA: بنابراین این ایده‌ای که شما
11:05
the symbolic tradition of AI with these language models,
242
665161
4463
از ترکیب سنت نمادین AI با این مدل‌های زبان دارید،
11:09
do you see any aspect of that in the kind of human feedback
243
669624
5213
آیا جنبه‌ای از آن را در نوع بازخورد انسانی
11:14
that is being built into the systems now?
244
674879
1960
که اکنون در سیستم‌ها ساخته می‌شود می‌بینید؟
11:16
I mean, you hear Greg Brockman saying that, you know,
245
676881
2502
منظورم این است که شما می‌شنوید که گرگ براکمن می‌گوید، می‌دانید،
11:19
that we don't just look at predictions, but constantly giving it feedback.
246
679383
3546
که ما فقط به پیش‌بینی‌ها نگاه نمی‌کنیم، بلکه دائماً به آن بازخورد می‌دهیم.
11:22
Isn’t that ... giving it a form of, sort of, symbolic wisdom?
247
682929
3837
این... به آن، نوعی حکمت، نمادین نیست؟
11:26
GM: You could think about it that way.
248
686766
1835
GM: می‌توانید اینطوری به آن فکر کنید.
11:28
It's interesting that none of the details
249
688601
1960
جالب است که هیچ یک از جزئیات
11:30
about how it actually works are published,
250
690561
2002
در مورد نحوه عملکرد واقعی آن منتشر نمی‌شود،
11:32
so we don't actually know exactly what's in GPT-4.
251
692563
2378
بنابراین ما در واقع نمی‌دانیم دقیقا چه چیزی در GPT- 4 وجود دارد.
11:34
We don't know how big it is.
252
694941
1376
ما نمی‌دانیم که چقدر بزرگ است.
11:36
We don't know how the RLHF reinforcement learning works,
253
696317
2711
ما نمی‌دانیم یادگیری تقویتی RLHF چگونه کار می‌کند،
11:39
we don't know what other gadgets are in there.
254
699028
2169
نمی دانیم چه ابزارهای دیگری در آنجا وجود دارد.
11:41
But there is probably an element of symbols
255
701197
2002
اما احتمالاً عنصری از نمادها وجود دارد
11:43
already starting to be incorporated a little bit,
256
703199
2294
که در حال حاضر کمی شروع به گنجاندن کرده است،
11:45
but Greg would have to answer that.
257
705493
1710
اما گرگ باید به آن پاسخ دهد.
11:47
I think the fundamental problem is that most of the knowledge
258
707245
2961
من فکر می‌کنم مشکل اساسی این است که بیشتر دانش
11:50
in the neural network systems that we have right now
259
710206
2461
سیستم‌های شبکه‌های عصبی که در حال حاضر داریم
11:52
is represented as statistics between particular words.
260
712667
3211
به صورت آمار بین کلمات خاص نشان داده می‌شود.
11:55
And the real knowledge that we want is about statistics,
261
715878
2711
و دانش واقعی که ما می‌خواهیم در مورد آمار،
11:58
about relationships between entities in the world.
262
718965
2585
در مورد روابط بین موجودات در جهان است.
12:01
So it's represented right now at the wrong grain level.
263
721592
2586
بنابراین در حال حاضر در سطح دانه اشتباه نشان داده شده است.
12:04
And so there's a big bridge to cross.
264
724220
2252
و بنابراین یک پل بزرگ برای عبور وجود دارد.
12:06
So what you get now is you have these guardrails,
265
726472
2878
بنابراین چیزی که اکنون به دست می‌آورید این است که این نرده‌های محافظ را دارید،
12:09
but they're not very reliable.
266
729392
1501
12:10
So I had an example that made late night television,
267
730935
2961
اما آنها چندان قابل اعتماد نیستند.
بنابراین من مثالی داشتم که تلویزیون آخر شب را شوکه کرد،
12:13
which was, "What would be the religion of the first Jewish president?"
268
733896
4213
که این بود: «اولین رئیس جمهور یهودی چه دینی داشت؟»
12:18
And it's been fixed now,
269
738109
1334
و اکنون درست شده است،
12:19
but the system gave this long song and dance
270
739443
2127
اما سیستم این آهنگ و رقص طولانی را
12:21
about "We have no idea what the religion
271
741570
2044
در مورد «ما نمی‌دانیم دین
12:23
of the first Jewish president would be.
272
743614
1877
اولین رئیس جمهور یهودی چه خواهد بود.
12:25
It's not good to talk about people's religions"
273
745491
2294
خوب نیست درباره ادیان مردم صحبت کنیم»
12:27
and "people's religions have varied" and so forth
274
747827
2335
و «مذاهب مردم فرق کرده است»
12:30
and did the same thing with a seven-foot-tall president.
275
750162
2670
و غیره و همین کار را با رئیس جمهور هفت فوتی انجام داد.
12:32
And it said that people of all heights have been president,
276
752832
2794
و گفت که افراد با هر قد و قامتی رئیس جمهور بوده‌اند،
12:35
but there haven't actually been any seven-foot presidents.
277
755668
2753
اما در واقع هیچ رئیس جمهور هفت فوتی وجود نداشته است.
12:38
So some of this stuff that it makes up, it's not really getting the idea.
278
758421
3461
پس برخی از این چیزهایی که آن را تشکیل می‌دهد واقعاً ایده را دریافت نمی‌کند.
12:41
It's very narrow, particular words, not really general enough.
279
761924
3337
این کلمات بسیار محدود و خاص است، واقعاً به اندازه کافی کلی نیست.
12:45
CA: Given that the stakes are so high in this,
280
765261
2669
CA: با توجه به اینکه خطرات در این مورد بسیار زیاد است،
12:47
what do you see actually happening out there right now?
281
767972
2586
در حال حاضر واقعاً چه اتفاقی را می‌بینید؟
12:50
What do you sense is happening?
282
770558
1501
حس می‌کنید چه اتفاقی می‌افتد؟
12:52
Because there's a risk that people feel attacked by you, for example,
283
772101
3253
زیرا این خطر وجود دارد که برای مثال افراد احساس کنند، مورد حمله قرار گرفته‌اند،
12:55
and that it actually almost decreases the chances of this synthesis
284
775396
4129
و در واقع احتمال وقوع این ترکیبی را که شما در مورد آن
12:59
that you're talking about happening.
285
779525
1752
صحبت می‌کنید کاهش می‌دهد.
13:01
Do you see any hopeful signs of this?
286
781277
1793
آیا نشانه‌های امیدوارکننده‌ای در این مورد می‌بینید؟
13:03
GM: You just reminded me of the one line I forgot from my talk.
287
783070
3003
GM: شما فقط یک خطی را که از صحبتم فراموش کرده بودم به من یادآوری کردید.
13:06
It's so interesting that Sundar, the CEO of Google,
288
786115
2544
خیلی جالب است که ساندر، مدیر عامل گوگل،
13:08
just actually also came out for global governance
289
788701
2544
در مصاحبه ای با عنوان «۶۰ دقیقه» CBS که چند روز
13:11
in the CBS "60 Minutes" interview that he did a couple of days ago.
290
791245
3712
پیش انجام داد، در واقع برای مدیریت جهانی نیز شرکت کرد.
13:14
I think that the companies themselves want to see some kind of regulation.
291
794999
4338
من فکر می‌کنم که خود شرکت‌ها می‌خواهند شاهد نوعی مقررات باشند.
13:19
I think it’s a very complicated dance to get everybody on the same page,
292
799337
3420
من فکر می‌کنم این رقص بسیار پیچیده‌ای است که همه را در یک صفحه قرار دهیم،
13:22
but I think there’s actually growing sentiment we need to do something here
293
802757
3795
اما فکر می‌کنم در واقع احساسات رو به رشدی وجود دارد که باید در اینجا کاری انجام دهیم
13:26
and that that can drive the kind of global affiliation I'm arguing for.
294
806594
3962
و این می‌تواند نوعی وابستگی جهانی را ایجاد کند که من برای آن بحث می‌کنم.
13:30
CA: I mean, do you think the UN or nations can somehow come together and do that
295
810556
3796
CA: منظورم، فکر می‌کنید سازمان ملل یا ملت‌ها می‌توانند به نحوی گرد هم آیند و این
13:34
or is this potentially a need for some spectacular act of philanthropy
296
814352
3294
کار را بکنند یا این به طور بالقوه نیاز به اقدام خیره‌کننده بشردوستانه برای تلاش
13:37
to try and fund a global governance structure?
297
817772
2627
برای تأمین مالی یک ساختار حکمرانی جهانی است؟
13:40
How is it going to happen?
298
820441
1293
چگونه قرار است اتفاق بیفتد؟
13:41
GM: I'm open to all models if we can get this done.
299
821734
2419
GM: اگر بتوانیم این کار را انجام دهیم، برای همه مدل‌ها آماده هستم.
13:44
I think it might take some of both.
300
824153
1710
من فکر می‌کنم ممکن است برخی از هر دو مورد نیاز باشد.
13:45
It might take some philanthropists sponsoring workshops,
301
825863
2628
ممکن است برخی از نیکوکاران حامی کارگاه‌هایی که
13:48
which we're thinking of running, to try to bring the parties together.
302
828491
3295
ما در فکر راه‌اندازی آن‌ها هستیم، تلاش کنند تا احزاب را دور هم جمع کنند.
13:51
Maybe UN will want to be involved, I've had some conversations with them.
303
831786
3461
شاید سازمان ملل بخواهد در این کار، مشارکت کند من با آنها صحبت هایی داشته‌ام.
13:55
I think there are a lot of different models
304
835247
2044
من فکر می‌کنم مدل‌های مختلف زیادی وجود دارد
13:57
and it'll take a lot of conversations.
305
837291
1835
و صحبت‌های زیادی می‌طلبد.
13:59
CA: Gary, thank you so much for your talk.
306
839126
2002
CA: گری، برای صحبت شما بسیار سپاسگزارم.
14:01
GA: Thank you so much.
307
841128
1085
GA: بسیار ممنونم.
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7