How will AI change the world?

2,024,306 views ・ 2022-12-06

TED-Ed


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: sadegh vn Reviewer: shirin etebar
در سال‌های پیش‌رو، هوش مصنوعی
00:07
In the coming years, artificial intelligence
0
7336
2169
احتمالاً قرار است زندگی شما و شاید هم کل جهان را دستخوش تغییر کند.
00:09
is probably going to change your life, and likely the entire world.
1
9505
3629
اما مردم در توافق بر سر چگونگی این فرایند مشکل دارند.
00:13
But people have a hard time agreeing on exactly how.
2
13301
3295
ادامه ویدیو، گزیده‌‌هایی از یک مصاحبه در مجمع جهانی اقتصاد است
00:16
The following are excerpts from an interview
3
16804
2127
00:18
where renowned computer science professor and AI expert Stuart Russell
4
18931
3504
که پروفسور بلندآوازه علوم کامپیوتر و هوش مصنوعی، آقای استوارت راسل
00:22
helps separate the sense from the nonsense.
5
22435
2586
کمک می‌کند تا بتوانیم درست را از نادرست تشخیص دهیم.
00:25
There’s a big difference between asking a human to do something
6
25313
3754
بین درخواست کردن از یک انسان برای انجام کاری
00:29
and giving that as the objective to an AI system.
7
29067
3461
و تعریف کردن آن به صورت یک هدف برای سیستم هوش مصنوعی زمین تا آسمان فرق است.
00:32
When you ask a human to get you a cup of coffee,
8
32528
2628
وقتی از کسی می‌خواهید که برایتان یک فنجان قهوه بیاورد،
00:35
you don’t mean this should be their life’s mission,
9
35156
2586
منظورتان این نیست که این باید ماموریت زندگی او تلقی شود
00:37
and nothing else in the universe matters.
10
37742
1960
و به هیچ چیز دیگری جز انجامش فکر نکند.
00:39
Even if they have to kill everybody else in Starbucks
11
39702
2586
مثلا حتی اگر مجبور شد همه افراد حاضر در استارباکس را بکشد
00:42
to get you the coffee before it closes— they should do that.
12
42288
2836
تا قهوه‌تان را قبل از اینکه فروشگاه بسته شود، بگیرد.
00:45
No, that’s not what you mean.
13
45124
1627
نه، منظور شما این نیست.
00:46
All the other things that we mutually care about,
14
46751
2294
هر چیزی را که ما متقابلاً به آن اهمیت می‌دهیم،
00:49
they should factor into your behavior as well.
15
49045
2169
باید در رفتار ما هم نمود داشته باشد.
و مشکلی که اکنون در مسیر ساخت سیستم‌های هوش مصنوعی با آن مواجهیم
00:51
And the problem with the way we build AI systems now
16
51214
3169
این است که به آنها یک هدف واحد می‌دهیم.
00:54
is we give them a fixed objective.
17
54383
1627
الگوریتم‌ها به ما نیاز دارند تا برایشان هرچیز مربوط به هدف را ذکر کنیم.
00:56
The algorithms require us to specify everything in the objective.
18
56010
3545
00:59
And if you say, can we fix the acidification of the oceans?
19
59555
3420
و اگر از من بپرسید که، آیا می‌توانیم مشکل اسیدی شدن اقیانوس‌ها را حل کنیم؟
01:02
Yeah, you could have a catalytic reaction that does that extremely efficiently,
20
62975
4046
می‌گویم بله،با یک واکنش کاتالیستی به شدت کارآمد هم می‌تواند انجام شود
01:07
but it consumes a quarter of the oxygen in the atmosphere,
21
67021
3253
اما یک‌چهارم اکسیژن موجود در اتمسفر مصرف می‌شود،
01:10
which would apparently cause us to die fairly slowly and unpleasantly
22
70274
3712
که ظاهراً باعث می‌شود که ما به طور نسبتاً آرام و زجرآوری
01:13
over the course of several hours.
23
73986
1752
در عرض چند ساعت بمیریم.
01:15
So, how do we avoid this problem?
24
75780
3211
بنابراین، چطور ما جلوی این مشکل را بگیریم؟
01:18
You might say, okay, well, just be more careful about specifying the objective—
25
78991
4088
شاید پیشنهادتان این باشد که باشه، خب، فقط باید در تعیین هدف بیشتر مراقب باشیم،
01:23
don’t forget the atmospheric oxygen.
26
83079
2544
و اکسیژن هوا را فراموش نکنیم.
01:25
And then, of course, some side effect of the reaction in the ocean
27
85873
3545
و خب، البته که برخی از اثرات جانبی واکنش در اقیانوس
01:29
poisons all the fish.
28
89418
1377
باعث مسمومیت تمام ماهی‌ها می‌شود
01:30
Okay, well I meant don’t kill the fish either.
29
90795
2669
خب، باشه، ماهی‌ها را هم نباید بکشیم.
01:33
And then, well, what about the seaweed?
30
93464
1919
و خب، حالا جلبک‌های دریایی چطور؟
01:35
Don’t do anything that’s going to cause all the seaweed to die.
31
95383
2961
نباید کاری کنیم که منجر به نابودی همه جلبک‌های دریایی شود.
01:38
And on and on and on.
32
98344
1210
و غیره...
01:39
And the reason that we don’t have to do that with humans is that
33
99679
3920
و دلیل اینکه ما این کار را روی بشر انجام نمی‌دهیم این است که
01:43
humans often know that they don’t know all the things that we care about.
34
103599
4505
انسان‌ها اغلب می‌دانند که از تمام چیزهایی که برایمان اهمیت دارد مطلع نیستیم.
01:48
If you ask a human to get you a cup of coffee,
35
108354
2961
اگر از یک انسان یک فنجان قهوه درخواست کنید
01:51
and you happen to be in the Hotel George Sand in Paris,
36
111315
2878
و این اتفاق در جایی مثل هتل جورج سند در پاریس بیفتد،
01:54
where the coffee is 13 euros a cup,
37
114193
2628
که قیمت هر فنجان قهوه در آنجا ۱۳ یورو است،
01:56
it’s entirely reasonable to come back and say, well, it’s 13 euros,
38
116821
4171
این کاملاً منطقی بنظر می‌رسد که او برگردد و به شما بگوید خب، هر فنجان ۱۳ یورو است،
02:00
are you sure you want it, or I could go next door and get one?
39
120992
2961
آیا مطمئنی همین را می‌خواهی، وگرنه می‌توانم از این نزدیکی‌ها قهوه بگیرم
02:03
And it’s a perfectly normal thing for a person to do.
40
123953
2878
و انجام این کار توسط یک انسان کاملاً طبیعی است.
02:07
To ask, I’m going to repaint your house—
41
127039
3003
اگر بخواهم خانه‌تان را دوباره رنگ کنم، اشکالی ندارد که بپرسم
02:10
is it okay if I take off the drainpipes and then put them back?
42
130042
3337
می‌شود لوله‌های ناودون را باز کنم و پس از اتمام کار دوباره نصبشان کنم؟
02:13
We don't think of this as a terribly sophisticated capability,
43
133504
3128
ما این را یک قابلیت بسیار پیچیده در نظر نمی‌گیریم،
02:16
but AI systems don’t have it because the way we build them now,
44
136632
3087
اما سیستم‌های هوش مصنوعی از آن بی‌بهره‌اند چون در روند ساخت کنونی آنها،
02:19
they have to know the full objective.
45
139719
1793
آنها موظف‌اند به دنبال هدف اصلی باشند.
02:21
If we build systems that know that they don’t know what the objective is,
46
141721
3753
اگر ما سیستم‌هایی طراحی کنیم که بفهمند از ماهیت هدف آگاهی کامل ندارند،
02:25
then they start to exhibit these behaviors,
47
145474
2586
آنگاه شروع به بروز دادن چنین رفتارهایی از خود می‌کنند،
02:28
like asking permission before getting rid of all the oxygen in the atmosphere.
48
148060
4046
مثلاً قبل از اینکه کلک کل اکسیژن اتمسفر را بکنند، برای انجام این کار اجازه می‌گیرند.
02:32
In all these senses, control over the AI system
49
152565
3378
در تمامی این موارد، کنترل داشتن بر سیستم هوش مصنوعی
02:35
comes from the machine’s uncertainty about what the true objective is.
50
155943
4463
از عدم قطعیت دستگاه بر اینکه کدام هدف حقیقی‌ست نشأت می‌گیرد.
02:41
And it’s when you build machines that believe with certainty
51
161282
3086
و زمانی که دستگاه‌هایی طراحی شوند که اطمینان قطعی داشته باشند
02:44
that they have the objective,
52
164368
1418
که یک هدف مشخص و واحد دارند،
02:45
that’s when you get this sort of psychopathic behavior.
53
165786
2753
آن وقت است که شما شاهد نوعی رفتار روان‌پریشانه خواهید بود.
02:48
And I think we see the same thing in humans.
54
168539
2127
و بنظرم ما شاهد چنین چیزی در انسان‌ها هم هستیم.
02:50
What happens when general purpose AI hits the real economy?
55
170750
4254
چه اتفاقی می‌افتد اگر که هوش مصنوعی، خود اقتصاد واقعی را هدف قرار دهد؟
02:55
How do things change? Can we adapt?
56
175379
3587
شرایط چگونه تغییر می‌کنند؟ آیا ما با آن سازگاری پیدا خواهیم کرد؟
02:59
This is a very old point.
57
179175
1835
این دیدگاه خیلی قدیمی است.
03:01
Amazingly, Aristotle actually has a passage where he says,
58
181010
3587
ارسطو به صورت شگفت‌انگیزی یک نقل قول دارد که در آن می‌گوید،
03:04
look, if we had fully automated weaving machines
59
184597
3045
ببینید، اگر ما یک دستگاه بافندگی کاملاً اتوماتیک داشته باشیم
03:07
and plectrums that could pluck the lyre and produce music without any humans,
60
187642
3837
و مضراب‌هایی وجود داشته باشند که بتوانند به خودی خود بدون کمک انسان چنگ بنوازند،
03:11
then we wouldn’t need any workers.
61
191604
2002
آن موقع ما دیگر نیازمند هیچ نیروی کاری نخواهیم بود.
03:13
That idea, which I think it was Keynes
62
193814
2878
دیدگاهی وجود داشت که بنظرم آقای کینز بود که
03:16
who called it technological unemployment in 1930,
63
196692
2836
در سال ۱۹۳۰ این روند را بیکاری بیولوژیک نامید،
03:19
is very obvious to people.
64
199528
1919
که بسیار هم برای مردم واضح است.
03:21
They think, yeah, of course, if the machine does the work,
65
201447
3086
آنها عقیده‌شان این بود که بله، البته که اگر ماشین‌ها روی کار بیایند،
03:24
then I'm going to be unemployed.
66
204533
1669
من شغلم را از دست خواهم داد.
03:26
You can think about the warehouses that companies are currently operating
67
206369
3503
شما می‌توانید انبار‌های کارخانه‌هایی را در نظر بگیرید که در حال حاضر
03:29
for e-commerce, they are half automated.
68
209872
2711
برای تجارت الکترونیک عملیاتی شده‌اند همه‌شان نیمه‌اتوماتیک هستند.
03:32
The way it works is that an old warehouse— where you’ve got tons of stuff piled up
69
212583
4046
روش کار اینگونه است که یک انبار قدیمی که هزاران وسیله در سراسر آن روی هم انباشته شده
03:36
all over the place and humans go and rummage around
70
216629
2461
کارگران می‌روند و همه چیز را زیر و رو می‌کنند
و نهایتا وسیله‌ای پیدا کرده و بیرون می‌فرستند
03:39
and then bring it back and send it off—
71
219090
1877
03:40
there’s a robot who goes and gets the shelving unit
72
220967
3586
در اینجا رباتی تعبیه شده است که به سراغ واحد قفسه موردنظر می‌رود
03:44
that contains the thing that you need,
73
224553
1919
که همان چیزی که به آن نیاز دارید آنجاست،
03:46
but the human has to pick the object out of the bin or off the shelf,
74
226472
3629
اما کارگر انسانی مجبور است که وسیله را از قفسه یا بخش مربوطه خودش بردارد،
03:50
because that’s still too difficult.
75
230101
1877
به همین دلیل این روش بسیار دشوار است.
03:52
But, at the same time,
76
232019
2002
اما، در همان زمان،
03:54
would you make a robot that is accurate enough to be able to pick
77
234021
3921
آیا رباتی می‌سازید که به قدری بادقت باشد که بتواند هر وسیله‌ای را از بین تعداد زیادی
03:57
pretty much any object within a very wide variety of objects that you can buy?
78
237942
4338
اجناس قابل خریداری، شناسایی و پیدا کند؟
04:02
That would, at a stroke, eliminate 3 or 4 million jobs?
79
242280
4004
و با یک حرکت باعث از بین رفتن ۳ تا ۴ میلیون شغل شود؟
04:06
There's an interesting story that E.M. Forster wrote,
80
246409
3336
آقای ای.ام فورستر داستان جالبی نوشته است
04:09
where everyone is entirely machine dependent.
81
249745
3504
که در آن همه بشر کاملاً به ماشین‌ها وابسته هستند.
04:13
The story is really about the fact that if you hand over
82
253499
3754
در واقع داستان به این واقعیت اشاره می‌کند که اگر انسان‌ها
04:17
the management of your civilization to machines,
83
257253
2961
افسار سازوکار سرزمینشان را برای مدیریت به ماشین‌ها بسپارند،
04:20
you then lose the incentive to understand it yourself
84
260214
3504
انگیزه لازم برای درک شخصی آن
04:23
or to teach the next generation how to understand it.
85
263718
2544
یا منتقل کردن دانش درک آن به نسل‌های بعدی را از دست خواهند داد.
04:26
You can see “WALL-E” actually as a modern version,
86
266262
3003
می‌توانید انیمیشن«وال-ای» را به عنوان یک دید تازه تماشا کنید،
04:29
where everyone is enfeebled and infantilized by the machine,
87
269265
3628
که در آن تمام بشر ناتوان شده‌اند و مثل رابطه بچه و مادر به ماشین‌ها وابسته‌اند
04:32
and that hasn’t been possible up to now.
88
272893
1961
و چنین چیزی تا به امروز ممکن نبوده است.
04:34
We put a lot of our civilization into books,
89
274854
2419
ما مطالب زیادی در مورد تمدن‌مان داخل کتاب‌ها چاپ کردیم،
04:37
but the books can’t run it for us.
90
277273
1626
اما کتاب‌ها چندان مؤثر واقع نشدند.
04:38
And so we always have to teach the next generation.
91
278899
2795
پس ما باید همیشه در حال آموزش دادن به نسل جدید باشیم.
04:41
If you work it out, it’s about a trillion person years of teaching and learning
92
281736
4212
اگر این کار ادامه پیدا کند، به اندازه حدود یک تریلیون سال آموزش و یادگیری وجود دارد
04:45
and an unbroken chain that goes back tens of thousands of generations.
93
285948
3962
که زنجیره‌ای ناگسستنی می‌سازد که می‌تواند ده‌ها هزار نسل را در امان نگه دارد.
04:50
What happens if that chain breaks?
94
290119
1919
اگر این زنجیره از هم پاره شود چه خواهد شد؟
04:52
I think that’s something we have to understand as AI moves forward.
95
292038
3461
به نظرم چیزی در خصوص پیشرفت هوش مصنوعی وجود دارد که باید آن را درک کنیم.
04:55
The actual date of arrival of general purpose AI—
96
295624
3587
تاریخ حقیقی رونمایی از هوش مصنوعی همه‌کاره -
04:59
you’re not going to be able to pinpoint, it isn’t a single day.
97
299211
3087
نمی‌توان یک تاریخ بخصوص را اعلام کرد چون فقط یک روز که نیست.
چیزی نخواهد بود که هرکاری بتواند بکند یا که بلااستفاده باشد
05:02
It’s also not the case that it’s all or nothing.
98
302298
2294
05:04
The impact is going to be increasing.
99
304592
2461
اثرگذاری‌اش روزبه‌روز بیشتر خواهد شد.
05:07
So with every advance in AI,
100
307053
2043
بنابراین با بروز هر پیشرفت در هوش مصنوعی،
05:09
it significantly expands the range of tasks.
101
309096
2962
دامنه وظایفش به طرز وسیعی افزایش می‌یابد.
05:12
So in that sense, I think most experts say by the end of the century,
102
312058
5338
بنابراین از این جهت، به نظر من و طبق گفته اکثر کارشناسان، ما تا آخر این قرن
05:17
we’re very, very likely to have general purpose AI.
103
317396
3337
به احتمال بسیار بسیار زیاد به هوش مصنوعی همه‌کاره دست خواهیم یافت.
05:20
The median is something around 2045.
104
320733
3754
تا سال ۲۰۴۵، ما چیزی حدود نصف این زمان را طی می‌کنیم.
05:24
I'm a little more on the conservative side.
105
324487
2002
من خودم بیشتر به ریسک و خطر آنها فکر می‌کنم
05:26
I think the problem is harder than we think.
106
326489
2085
به نظرم مسئله از آنچه که فکر می‌کنیم دشوار‌تر است
05:28
I like what John McAfee, he was one of the founders of AI,
107
328574
3253
من هم با جان مک‌آفی، یکی از بنیانگذاران هوش مصنوعی، هم‌نظر هستم
05:31
when he was asked this question, he said, somewhere between five and 500 years.
108
331911
3837
وقتی که این سوال از او هم پرسیده شد، جواب داد: چیزی حدودا بین ۵ تا ۵۰۰ سال.
05:35
And we're going to need, I think, several Einsteins to make it happen.
109
335748
3337
و به نظرم، ما برای تحقق آن به چندین انیشتین نیاز خواهیم داشت.

Original video on YouTube.com
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7