Will robots out-think humans? 6 Minute English

79,866 views ・ 2018-01-25

BBC Learning English


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید. زیرنویس های ترجمه شده به صورت ماشینی ترجمه می شوند.

00:07
Dan: Hello and welcome to 6 Minute English.
0
7300
1640
دن: سلام و به 6 دقیقه انگلیسی خوش آمدید.
00:08
I'm Dan and joining me today is Neil. Hi Neil.
1
8940
2519
من دن هستم و نیل امروز به من می پیوندد. سلام نیل.
00:11
Neil: Hi Dan. What’s with the protective
2
11459
2321
نیل: سلام دن.
00:13
gear and helmet?
3
13780
929
تجهیزات محافظ و کلاه ایمنی چیست؟
00:14
Dan: I’m just getting ready for the inevitable
4
14709
2676
دن: من برای ظهور اجتناب ناپذیر ماشین ها آماده می شوم
00:17
rise of the machines. That’s the takeover
5
17385
2385
. این
00:19
of the world by artificial intelligence, or
6
19770
3486
تسلط بر جهان توسط هوش مصنوعی یا
00:23
AI, which some people predict will happen.
7
23256
3404
هوش مصنوعی است که برخی افراد پیش‌بینی می‌کنند این اتفاق خواهد افتاد.
00:26
Neil: Inevitable means cannot be avoided or
8
26660
2615
نیل: وسایل اجتناب ناپذیر را نمی توان اجتناب کرد یا
00:29
stopped. Rise of the machines? What do you mean?
9
29275
3555
متوقف کرد. ظهور ماشین آلات؟ منظورت چیه؟
00:32
Dan: It’s our topic in this 6 Minute English.
10
32830
2138
دن: موضوع ما در این 6 دقیقه انگلیسی است.
00:34
We’ll be talking about that, giving you
11
34968
1852
ما در مورد آن صحبت خواهیم کرد و
00:36
six related pieces of vocabulary and, of course,
12
36820
3055
شش قطعه واژگان مرتبط و البته
00:39
our regular quiz question.
13
39875
1655
سوال امتحانی معمولی خود را در اختیار شما قرار خواهیم داد.
00:41
Neil: That’s the first thing you’ve said
14
41530
1907
نیل: این اولین چیزی است که گفتی و
00:43
that makes any sense. What’s the question?
15
43437
2003
منطقی است. سوال چیست؟
00:45
Dan: The word ‘robot’ as we use it today
16
45440
3218
دن: کلمه "ربات" همانطور که امروز استفاده می کنیم
00:48
was first used in a 1920’s Czech play ‘Rossum’s
17
48658
3782
اولین بار در یک نمایشنامه چک در سال 1920 "Rossum's
00:52
Universal Robots’. But before this, what
18
52440
3356
Universal Robots" استفاده شد. اما قبل از این،
00:55
was its original meaning? a) forced labour
19
55796
3524
معنای اصلی آن چه بود؟ الف) کار اجباری
00:59
b) metal man c) heartless thing
20
59320
3640
ب) مرد فلزی ج) چیز بی عاطفه
01:02
Neil: I will go for a) forced labour
21
62960
3250
نیل: من برای الف) کار اجباری می روم
01:06
Dan: We’ll find out if you were right or
22
66210
2335
دن: بعداً در برنامه متوجه خواهیم شد که آیا حق با شما بود یا
01:08
not later in the show.
23
68545
1285
نه.
01:09
Neil: OK Dan. Tell me what’s going on.
24
69830
2310
نیل: باشه دن. به من بگو چه خبر است.
01:12
Dan: I saw a news article written by BBC technology
25
72140
3431
دن: من یک مقاله خبری دیدم که توسط خبرنگار فناوری بی‌بی‌سی،
01:15
correspondent Rory Cellan-Jones about the
26
75571
2759
روری سلان جونز، درباره
01:18
recent CES technology show in Las Vegas. He
27
78330
3865
نمایشگاه اخیر فناوری CES در لاس وگاس نوشته شده بود. او
01:22
interviewed David Hanson, founder of Hanson
28
82195
3865
با دیوید هنسون، بنیانگذار Hanson
01:26
Robotics, who said it was his ambition to
29
86060
3660
Robotics، مصاحبه کرد که گفت این جاه طلبی او
01:29
achieve an AI that can beat humans at any
30
89720
3660
دستیابی به هوش مصنوعی است که بتواند انسان ها را در هر
01:33
intellectual task.
31
93380
1500
کار فکری شکست دهد.
01:34
Neil: Surely it’s a good thing! Better AI
32
94880
2655
نیل: مطمئناً چیز خوبی است! هوش مصنوعی
01:37
and robotics could take over many of the jobs
33
97535
2915
و روباتیک بهتر می‌توانند بسیاری از مشاغلی را
01:40
that we don’t want to do, or that are so
34
100450
2466
که ما نمی‌خواهیم انجام دهیم، یا برای انجام 100 درصد درستی آن‌ها بسیار مهم هستند،
01:42
important to get 100% right… like air traffic
35
102916
2774
مانند کنترل ترافیک هوایی، به
01:45
control. We’d never have another plane crash.
36
105690
2566
عهده بگیرند. ما هرگز سقوط هواپیمای دیگری نخواهیم داشت.
01:48
It would be infallible because it would be
37
108256
2394
خطاناپذیر خواهد بود زیرا
01:50
so clever.
38
110650
1190
بسیار هوشمندانه خواهد بود.
01:51
Dan: Infallible means never failing. And that’s
39
111840
2767
دان: معصوم یعنی هرگز شکست نخوردن. و این
01:54
what bothers me. What happens when its intelligence
40
114607
3003
چیزی است که مرا آزار می دهد. چه اتفاقی می افتد وقتی هوش آن
01:57
surpasses ours? Why should it do what
41
117610
2774
از ما پیشی می گیرد؟ چرا باید کاری را که
02:00
we want it to do?
42
120384
1275
ما می خواهیم انجام دهد؟
02:01
Neil: To surpass something is to do or be
43
121659
2076
نیل: پیشی گرفتن از چیزی انجام دادن یا
02:03
better than it. Dan, you’ve been watching
44
123735
2075
بهتر بودن از آن است. دن، تو
02:05
too many movies. Robots fighting humanity
45
125810
2971
فیلم های زیادی تماشا می کنی. ربات هایی که با انسانیت مبارزه می کنند
02:08
is a popular theme. Guess what… humanity
46
128781
2899
موضوع محبوبی است. حدس بزنید... انسانیت
02:11
often wins. And besides, we would programme
47
131680
2498
اغلب برنده می شود. و علاوه بر این، ما کامپیوتر را طوری برنامه ریزی می کنیم که
02:14
the computer to be benevolent.
48
134178
1742
خیرخواه باشد.
02:15
Dan: Benevolent means kind and helpful. But
49
135920
2805
دان: خیرخواه به معنای مهربان و کمک کننده است. اما
02:18
that’s just it, once the intelligence becomes
50
138725
2935
فقط همین است، زمانی که هوش
02:21
sentient, or able to think for itself, who
51
141660
2781
حساس شود، یا بتواند خودش فکر کند، چه کسی
02:24
knows what it will do. We humans are not exactly
52
144441
3179
می داند چه خواهد کرد. می دانید ما انسان ها دقیقاً
02:27
perfect, you know. What happens if it decides
53
147620
2602
کامل نیستیم. اگر تصمیم بگیرد
02:30
that it is better than us and wants us out
54
150222
2428
که از ما بهتر است و بخواهد ما را
02:32
of the way?
55
152650
1000
از راه دور کنیم، چه اتفاقی می افتد؟
02:33
Neil: Don’t worry. Asimov thought of that.
56
153650
2524
نیل: نگران نباش. آسیموف به این فکر کرد.
02:36
Isaac Asimov was an American science fiction
57
156174
2645
ایزاک آسیموف نویسنده آمریکایی علمی تخیلی
02:38
writer who, among other things, wrote about
58
158819
2747
بود که از جمله در مورد
02:41
robots. He came up with three laws that every
59
161566
2874
روبات ها می نوشت. او سه قانون را ارائه کرد که هر
02:44
robot would have to follow to stop it from
60
164440
2624
روباتی باید از آنها پیروی کند تا از
02:47
acting against humanity. So we’re safe!
61
167064
2436
اقدام علیه بشریت جلوگیری کند. پس ما در امانیم!
02:49
Dan: I’m not so sure. A sentient robot could
62
169500
2933
دن: من خیلی مطمئن نیستم. یک ربات هوشیار می
02:52
make up its own mind about how to interpret
63
172433
2867
تواند در مورد چگونگی
02:55
the laws. For example, imagine if we created
64
175300
3284
تفسیر قوانین تصمیم گیری کند. به عنوان مثال، تصور کنید اگر
02:58
an AI system to protect all of humanity.
65
178584
2985
یک سیستم هوش مصنوعی برای محافظت از تمام بشریت ایجاد کنیم.
03:01
Neil: Well, that’s great! No more war. No
66
181569
2195
نیل: خوب، عالی است! دیگر جنگی نیست.
03:03
more murder. No more fighting.
67
183764
1606
دیگر خبری از قتل نیست دیگر دعوا نیست.
03:05
Dan: Do you really think that humans can stop
68
185370
2694
دن: آیا واقعاً فکر می‌کنید که انسان‌ها می‌توانند دست از
03:08
fighting? What if the AI decides that the
69
188064
2455
جنگیدن بردارند؟ اگر هوش مصنوعی تصمیم بگیرد که
03:10
only way to stop us from hurting ourselves
70
190519
3286
تنها راه برای جلوگیری از آسیب رساندن به خود
03:13
and each other is to control everything we
71
193805
3285
و یکدیگر این است که هر کاری را که انجام می‌دهیم کنترل
03:17
do, so it takes over to protect us. Then we
72
197090
3507
کند، بنابراین باید از ما محافظت کند. آن وقت
03:20
would lose our freedom to a thing that we
73
200597
3343
ما آزادی خود را در برابر چیزی که خودمان
03:23
created that is infallible and more intelligent
74
203940
3377
خلق کرده ایم که خطاناپذیرتر و باهوش
03:27
than we are! That’s the end, Neil!
75
207317
2443
تر از ماست از دست می دهیم! این پایان است، نیل!
03:29
Neil: I think that’s a little far-fetched,
76
209760
2216
نیل: فکر می‌کنم کمی دور از ذهن است،
03:31
which means difficult to believe. I’m sure
77
211976
2215
یعنی باور کردنش سخت است. مطمئنم
03:34
others don’t think that way.
78
214191
1539
دیگران اینطور فکر نمی کنند.
03:35
Dan: OK. Let’s hear what the Learning English
79
215730
2523
دن: باشه. بیایید بشنویم که تیم یادگیری انگلیسی
03:38
team say when I ask them if they are worried
80
218253
2467
چه می گویند وقتی از آنها می پرسم که آیا نگران هستند
03:40
that AI and robots could take over the world.
81
220720
3519
که هوش مصنوعی و روبات ها بتوانند جهان را تسخیر کنند.
03:44
Phil: Well, it’s possible, but unlikely.
82
224240
3580
فیل: خوب، ممکن است، اما بعید است.
03:47
There will come a point where our technology
83
227820
1880
زمانی فرا می رسد که فناوری
03:49
will be limited – probably before real AI
84
229700
3125
ما محدود می شود - احتمالاً قبل از
03:52
is achieved.
85
232825
1935
دستیابی به هوش مصنوعی واقعی.
03:54
Sam: Never in a million years. First of all
86
234760
2360
سام: هرگز در یک میلیون سال. اول از همه
03:57
we’d programme them so that they couldn’t,
87
237124
3306
ما آنها را طوری برنامه ریزی می کردیم که نتوانند،
04:00
and secondly we’d beat them anyway. Haven’t
88
240430
3632
و دوم اینکه به هر حال آنها را شکست می دادیم. تا
04:04
you ever seen a movie?
89
244062
1858
حالا فیلم ندیدی؟
04:05
Kee: I totally think it could happen. We
90
245920
2371
کی: من کاملا فکر می کنم ممکن است اتفاق بیفتد. ما
04:08
only have to make a robot that’s smart enough
91
248291
2668
فقط باید رباتی بسازیم که آنقدر باهوش باشد
04:10
to start thinking for itself. After that,
92
250959
2605
که بتواند خودش فکر کند. پس از آن،
04:13
who knows what it might do.
93
253564
2796
چه کسی می داند که چه کاری ممکن است انجام دهد.
04:16
Neil: A mixed bag of opinions there, Dan.
94
256360
1796
نیل: مجموعه ای از نظرات وجود دارد، دن.
04:18
It seems you aren’t alone.
95
258156
1823
به نظر می رسد شما تنها نیستید
04:19
Dan: Nope. But I don’t exactly have an army
96
259979
2459
دن: نه. اما من دقیقاً
04:22
of support either. I guess we’ll just have
97
262438
2402
ارتش پشتیبانی هم ندارم. من حدس می زنم که ما فقط
04:24
to wait and see.
98
264840
1000
باید صبر کنیم و ببینیم.
04:25
Neil: Speak for yourself. I’ve waited long
99
265840
1949
نیل: برای خودت صحبت کن. من به اندازه کافی منتظر ماندم
04:27
enough – for our quiz question that is.
100
267789
1810
- برای سوال مسابقه ما که این است.
04:29
Dan: Oh yeah! I asked you what the original
101
269599
2496
دن: اوه آره! من از شما پرسیدم که
04:32
meaning of the word ‘robot’ was before
102
272095
2205
معنی اصلی کلمه "ربات" قبل
04:34
it was used in its modern form. a) forced
103
274300
3633
از استفاده به شکل امروزی آن چیست؟ الف)
04:37
labour b) metal man c) heartless thing
104
277933
3367
کار اجباری ب) مرد فلزی ج) چیز بی عاطفه
04:41
Neil: And I said a) forced labour
105
281300
1709
نیل: و من گفتم الف) کار اجباری
04:43
Dan: And you were… right!
106
283009
1971
دن: و تو راست می گفتی!
04:44
Neil: Shall we take a look at the vocabulary then?
107
284980
2580
نیل: پس باید نگاهی به واژگان بیندازیم؟
04:47
Dan: OK. First we had inevitable. If something
108
287569
3450
دن: باشه. اول ما اجتناب ناپذیر بود. اگر
04:51
is inevitable then it cannot be avoided or
109
291019
3150
چیزی اجتناب ناپذیر است، نمی توان از آن اجتناب کرد یا
04:54
stopped. Can you think of something inevitable, Neil?
110
294169
2571
متوقف کرد. آیا می توانی به چیزی اجتناب ناپذیر فکر کنی، نیل؟
04:56
Neil: It is inevitable that one day the Sun
111
296749
3005
نیل: این اجتناب ناپذیر است که روزی خورشید
04:59
will stop burning. Then we had infallible,
112
299754
2936
از سوختن باز می ماند. بعد ما معصوم داشتیم
05:02
which means never failing. Give us an example, Dan.
113
302690
3050
یعنی هرگز شکست نخوردن. یک مثال بزن، دن.
05:05
Dan: The vaccine for small pox is infallible.
114
305740
2332
دن: واکسن آبله کوچک خطا ناپذیر است.
05:08
The natural spread of that disease has been
115
308072
2228
گسترش طبیعی آن بیماری
05:10
completely stopped. After that was surpasses.
116
310300
3470
کاملاً متوقف شده است. پس از آن پیشی گرفت.
05:13
If something surpasses something else then
117
313770
3239
اگر چیزی از چیز دیگری پیشی
05:17
it becomes better than it.
118
317009
1711
بگیرد، بهتر از آن می شود.
05:18
Neil: Many parents across the world hope that
119
318720
2275
نیل: بسیاری از والدین در سراسر جهان امیدوارند که
05:20
their children will surpass them in wealth,
120
320995
2174
فرزندانشان از نظر ثروت، موقعیت یا موفقیت از آنها پیشی بگیرند
05:23
status or achievement. After that we heard
121
323169
2662
. بعد از آن
05:25
benevolent, which means kind and helpful.
122
325831
2599
خیرخواهی شنیدیم که به معنای مهربان و کمک کننده است.
05:28
Name a person famous for being benevolent, Dan.
123
328430
3019
یک نفر را که به نیکوکاری معروف است، دان نام ببرید.
05:31
Dan: Father Christmas is a benevolent character.
124
331449
3216
دن: پدر کریسمس یک شخصیت خیرخواه است.
05:34
After that we heard sentient. If something
125
334665
2814
پس از آن ما احساسی شنیدیم. اگر
05:37
is sentient, it is able to think for itself.
126
337479
2720
چیزی حساس باشد، می تواند خودش فکر کند.
05:40
Neil: Indeed. Many people wonder about the
127
340200
2340
نیل: در واقع. بسیاری از مردم در مورد
05:42
possibility of sentient life on other planets.
128
342620
3060
امکان وجود حیات در سیارات دیگر تعجب می کنند.
05:45
Finally we heard far-fetched, which means
129
345680
2176
در نهایت ما دور از ذهن شنیدیم، که به معنای
05:47
difficult to believe. Like that far-fetched
130
347856
2283
دشوار است. مثل آن داستان دور از ذهنی
05:50
story you told me the other day about being
131
350139
1932
که روز پیش در مورد
05:52
late because of a dragon, Dan.
132
352071
1348
دیر آمدن به خاطر اژدها به من گفتی، دن.
05:53
Dan: I swear it was real! It had big sharp
133
353419
2480
دن: قسم می خورم که واقعی بود! دندان های تیز بزرگی داشت
05:55
teeth and everything!
134
355899
1240
و همه چیز!
05:57
Neil: Yeah, yeah, yeah. And that’s the end
135
357139
1938
نیل: آره، آره، آره. و این
05:59
of this 6 Minute English. Don’t forget to
136
359077
1892
پایان این 6 دقیقه انگلیسی است. فراموش نکنید که صفحات
06:00
check out our Facebook, Twitter, and YouTube
137
360969
2171
فیس بوک، توییتر و یوتیوب ما را بررسی کنید
06:03
pages. See you next time!
138
363140
1640
. بعدا می بینمت!
06:04
Dan: Bye!
139
364780
640
دن: خداحافظ!
06:05
Neil: Bye.
140
365420
860
نیل: خداحافظ.
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7