The Turing test: Can a computer pass for a human? - Alex Gendler

1,661,434 views ・ 2016-04-25

TED-Ed


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: sadegh zabihi Reviewer: Hajar Almasi
00:06
What is consciousness?
0
6999
2035
هوشیاری چیست؟
00:09
Can an artificial machine really think?
1
9034
2794
آیا واقعا یک ماشین مصنوعی می‌تواند فکر کند؟
00:11
Does the mind just consist of neurons in the brain,
2
11828
3286
آیا ذهن فقط شامل عصب‌های درون مغز است٬
00:15
or is there some intangible spark at its core?
3
15114
3643
یا بارقه‌ای باور نکردنی در مرکز آن است؟
00:18
For many, these have been vital considerations
4
18757
2568
برای بسیاری٬ این‌ها مسائلی حیاتی
00:21
for the future of artificial intelligence.
5
21325
3027
برای آینده هوش مصنوعی بوده است.
00:24
But British computer scientist Alan Turing decided to disregard all these questions
6
24352
5187
اما دانشمند علوم کامپیوتر بریتانیایی الن تورینگ تصمیم گرفت همه‌ی این سوالات را
00:29
in favor of a much simpler one:
7
29539
2311
برای حل سوالی بسیار ساده تر نادیده بگیرد:
00:31
can a computer talk like a human?
8
31850
3419
آیا یک رایانه می‌تواند مثل یک انسان صحبت کند؟
00:35
This question led to an idea for measuring aritificial intelligence
9
35269
3996
این سوال به ایده‌ای برای اندازه گیری هوش مصنوعی منجر شد
00:39
that would famously come to be known as the Turing test.
10
39265
4051
که با نام آزمون تورینگ شهرت یافت.
00:43
In the 1950 paper, "Computing Machinery and Intelligence,"
11
43316
4025
در مقاله‌ی سال ۱۹۵۰ ٬ «ماشین‌های محاسبه‌گر و هوش»٬
00:47
Turing proposed the following game.
12
47341
2473
تورینگ این بازی را ارائه کرد.
00:49
A human judge has a text conversation with unseen players
13
49814
4092
یک قاضی انسان با بازیکنانی که آنها را ندیده است مکالمه نوشتاری انجام می‌دهد
00:53
and evaluates their responses.
14
53906
2476
و بازخوردهای آنها را ارزیابی می‌کند.
00:56
To pass the test, a computer must be able to replace one of the players
15
56382
4027
برای قبولی در آزمون٬ یک رایانه باید بتواند جای یکی از بازیکنان را بگیرد
01:00
without substantially changing the results.
16
60409
3448
بدون اینکه نتایج تغییر قابل ملاحظه‌ای داشته باشند.
01:03
In other words, a computer would be considered intelligent
17
63857
2959
به بیان دیگر٬ رایانه‌ای هوشمند شناخته می‌شود
01:06
if its conversation couldn't be easily distinguished from a human's.
18
66816
5697
که نتوان صحبت‌های او را به راحتی از یک انسان تشخیص داد.
01:12
Turing predicted that by the year 2000,
19
72513
2154
تورینگ پیش بینی کرد که تا سال ۲۰۰۰ ٬
01:14
machines with 100 megabytes of memory would be able to easily pass his test.
20
74667
5955
ماشین‌هایی با ۱۰۰ مگا بایت حافظه می‌توانند به سادگی در آزمون او پذیرفته شوند.
01:20
But he may have jumped the gun.
21
80622
2164
اما ممکن است زیادی تند رفته باشد.
01:22
Even though today's computers have far more memory than that,
22
82786
3054
با وجود اینکه امروزه رایانه‌ها خیلی بیشتر از آن مقدار حافظه دارند٬
01:25
few have succeeded,
23
85840
1803
تعداد کمی قبول شده‌اند٬
01:27
and those that have done well
24
87643
1795
و آنهایی هم که قبول شده‌اند
01:29
focused more on finding clever ways to fool judges
25
89438
3770
بیشتر روی پیدا کردن راهی برای فریب دادن داوران تمرکز کرده‌اند
01:33
than using overwhelming computing power.
26
93208
2966
تا پیشبرد توانایی‌های رایانه.
01:36
Though it was never subjected to a real test,
27
96174
2922
هرچند این آزمون هرگز به عنوان یک امتحان واقعی شناخته نشد٬
01:39
the first program with some claim to success was called ELIZA.
28
99096
4769
اولین برنامه‌ای که ادعای موفقیت کرد «ELIZA» نام داشت.
01:43
With only a fairly short and simple script,
29
103865
2547
با متنی نسبتا کوتاه و ساده٬
01:46
it managed to mislead many people by mimicking a psychologist,
30
106412
4022
عده‌ی زیادی را با تقلید از یک روانشناس فریب داد٬
01:50
encouraging them to talk more
31
110434
1961
و آنها را به بیشتر حرف زدن تشویق کرد
01:52
and reflecting their own questions back at them.
32
112395
3510
و سوالات آنها را به خودشان انعکاس داد.
01:55
Another early script PARRY took the opposite approach
33
115905
3507
روشی دیگر در همان زمان به نام «PARRY» راهی کاملا برعکس را در پیش گرفت،
01:59
by imitating a paranoid schizophrenic
34
119412
2801
و از یک مجنون مبتلا به شیزوفرنی تقلید کرد
02:02
who kept steering the conversation back to his own preprogrammed obsessions.
35
122213
5726
که دائما مکالمه را به موضوعات برنامه ریزی شده‌ی خودش هدایت می‌کرد.
02:07
Their success in fooling people highlighted one weakness of the test.
36
127939
4864
موفقیت آنها در فریب دادن افراد یکی از نقاط ضعف آزمون را آشکار ساخت.
02:12
Humans regularly attribute intelligence to a whole range of things
37
132803
4630
انسان‌ها معمولا هوش را با چیزهایی توصیف می‌کنند
02:17
that are not actually intelligent.
38
137433
3643
که در واقع هوشمند نیستند.
02:21
Nonetheless, annual competitions like the Loebner Prize,
39
141076
3213
به هرحال٬ مسابقات سالانه مثل جایزه لوبنر،
02:24
have made the test more formal
40
144289
1720
به آزمون شکل رسمی تری داده‌،
02:26
with judges knowing ahead of time
41
146009
2146
با داورانی که با گذشت زمان متوجه می‌شوند
02:28
that some of their conversation partners are machines.
42
148155
3864
که بعضی از طرف‌های صحبت‌های آنها ماشین‌ها هستند.
02:32
But while the quality has improved,
43
152019
1901
اما با وجود افزایش کیفیت٬
02:33
many chatbot programmers have used similar strategies to ELIZA and PARRY.
44
153920
5176
تعداد زیادی از برنامه نویسان از روش‌های مشابه ELIZA و PARRY استفاده کرده‌اند.
02:39
1997's winner Catherine
45
159096
2036
برنده سال ۱۹۹۷ کاترین
02:41
could carry on amazingly focused and intelligent conversation,
46
161132
4081
می‌توانست مکالمه‌ی متمرکز و هوشمند بسیار جالبی انجام دهد٬
02:45
but mostly if the judge wanted to talk about Bill Clinton.
47
165213
3962
اما بیشتر وقتی که داور می‌خواست درباره بیل کلینتون صحبت کند.
02:49
And the more recent winner Eugene Goostman
48
169175
2638
و برنده اخیر Eugene Goostman
02:51
was given the persona of a 13-year-old Ukrainian boy,
49
171813
3736
شخصیتی مشابه یک پسر ۱۳ ساله‌ی اکراینی داشت٬
02:55
so judges interpreted its nonsequiturs and awkward grammar
50
175549
4021
پس داور زبان غیر منطقی و عجیب او را
02:59
as language and culture barriers.
51
179570
3346
ناشی از تفاوت‌های زبان و فرهنگ تفسیر می‌کرد.
03:02
Meanwhile, other programs like Cleverbot have taken a different approach
52
182916
4219
در همین حین٬ برنامه‌های دیگری مانند Cleverbot روش‌های دیگری در پیش گرفته‌اند
03:07
by statistically analyzing huge databases of real conversations
53
187135
4605
و یک بانک داده عظیم از مکالمات واقعی را به صورتی هدفمند تحلیل می‌کنند
03:11
to determine the best responses.
54
191740
2541
تا بهترین واکنش‌ها را شناسایی کنند.
03:14
Some also store memories of previous conversations
55
194281
3249
بعضی هم مکالمات پیشین را به حافظه می‌سپارند
03:17
in order to improve over time.
56
197530
3385
و با گذشت زمان پیشرفت می‌کنند.
03:20
But while Cleverbot's individual responses can sound incredibly human,
57
200915
4151
اما با وجود اینکه واکنش‌های متفاوت Cleverbot می‌تواند خیلی انسانی به نظر برسد
03:25
its lack of a consistent personality
58
205066
2026
اما عدم وجود یک شخصیت ثابت
03:27
and inability to deal with brand new topics
59
207092
3153
و عدم توانایی در انجام مکالمات با موضوعات کاملا جدید
03:30
are a dead giveaway.
60
210245
2613
مانع از توفیق یافتن آنها شده است.
03:32
Who in Turing's day could have predicted that today's computers
61
212858
3254
چه کسی در زمان تورینگ می‌توانست تصور کند که روزی رایانه‌ها
03:36
would be able to pilot spacecraft,
62
216112
2089
می‌توانند فضاپیماها را خلبانی کنند٬
03:38
perform delicate surgeries,
63
218201
2317
جراحی‌های ظریف را انجام دهند٬
03:40
and solve massive equations,
64
220518
2289
و معادلات پرحجم را انجام دهند٬
03:42
but still struggle with the most basic small talk?
65
222807
3503
اما هنوز با ابتدایی ترین مکالمه‌ها دست و پنجه نرم کنند؟
03:46
Human language turns out to be an amazingly complex phenomenon
66
226310
3509
مشخص شده است که زبان انسان‌ها یک پدیده‌ی شگفت انگیز و پیچیده است
03:49
that can't be captured by even the largest dictionary.
67
229819
3705
که حتی با بزرگترین فرهنگ لغات هم نمی‌توان آن را ثبت کرد.
03:53
Chatbots can be baffled by simple pauses, like "umm..."
68
233524
4469
Chatbotها می‌توانند با مکث‌های ساده مثل «آم...» گیج شوند
03:57
or questions with no correct answer.
69
237993
2422
یا سولاتی که جواب صحیح ندارند آنها را سردرگم می‌کنند.
04:00
And a simple conversational sentence,
70
240415
1900
و یک جمله‌ی مکالمه‌ای ساده
04:02
like, "I took the juice out of the fridge and gave it to him,
71
242315
3280
مثل٬ «آبمیوه را از یخچال بیرون آوردم و به او دادم٬
04:05
but forgot to check the date,"
72
245595
1811
اما یادم رفت تاریخ را چک کنم٬»
04:07
requires a wealth of underlying knowledge and intuition to parse.
73
247406
5466
برای تحلیل به دانش پیش زمینه‌ی غنی و بینش کافی نیاز دارد.
04:12
It turns out that simulating a human conversation
74
252872
2631
مشخص شده که شبیه سازی یک مکالمه‌ی انسانی،
04:15
takes more than just increasing memory and processing power,
75
255503
3609
به چیزی بیش از تنها بالابردن حافظه و توانایی تحلیل نیاز دارد٬
04:19
and as we get closer to Turing's goal,
76
259112
2511
و با نزدیک تر شدن ما به هدف آزمون تورینگ٬
04:21
we may have to deal with all those big questions about consciousness after all.
77
261623
4860
شاید در آخر مجبور شویم دوباره با همان پرسش بزرگ درباره هوشیاری سر و کله بزنیم.
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7