Are computers always right? 6 Minute English

255,147 views ・ 2018-07-19

BBC Learning English


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید. زیرنویس های ترجمه شده به صورت ماشینی ترجمه می شوند.

00:06
Catherine: Hello and welcome to 6 Minute
0
6480
2280
کاترین: سلام و به 6 دقیقه انگلیسی خوش آمدید
00:08
English. I'm Catherine.
1
8760
1420
. من کاترین هستم.
00:10
Rob: And hello, I'm Rob.
2
10180
1400
راب: و سلام، من راب هستم.
00:11
Catherine: Today we have another
3
11580
1389
کاترین: امروز
00:12
technology topic.
4
12969
761
موضوع فناوری دیگری داریم.
00:13
Rob: Oh good! I love technology. It makes
5
13730
2470
راب: اوه خوب! من عاشق تکنولوژی هستم. این کار
00:16
things easier, it's fast and means I can
6
16240
2160
را آسان‌تر می‌کند، سریع است و به این معنی است که می‌توانم
00:18
have gadgets.
7
18400
1400
ابزارهایی داشته باشم.
00:19
Catherine: Do you think that technology
8
19800
1760
کاترین: آیا فکر می‌کنید که فناوری
00:21
can actually do things better than humans?
9
21560
2200
واقعاً می‌تواند کارها را بهتر از انسان انجام دهد؟
00:23
Rob: For some things, yes. I think cars
10
23760
2640
راب: برای بعضی چیزها، بله. من فکر می‌کنم خودروهایی
00:26
that drive themselves will be safer than
11
26400
1600
که خودشان رانندگی می‌کنند از انسان‌ها ایمن‌تر خواهند بود،
00:28
humans but that will take away some of
12
28000
3180
00:31
the pleasure of driving. So I guess it
13
31180
2180
اما لذت رانندگی را از بین می‌برند. بنابراین حدس می‌زنم
00:33
depends on what you mean by better.
14
33360
1940
بستگی به این دارد که منظور شما از بهتر بودن چیست.
00:35
Catherine: Good point, Rob. And that
15
35300
1680
کاترین: نکته خوب، راب. و این
00:36
actually ties in very closely with today's
16
36980
2420
در واقع با
00:39
topic which is technochauvinism.
17
39400
3200
موضوع امروزی که تکنووینیسم است ارتباط نزدیکی دارد.
00:42
Rob: What's that?
18
42600
1480
راب: اون چیه؟
00:44
Catherine: We'll find out shortly, Rob, but
19
44080
1520
کاترین: به زودی متوجه می شویم، راب، اما
00:45
before we do, today's quiz question.
20
45600
3200
قبل از انجام این کار، سوال مسابقه امروز.
00:48
Artificial Intelligence, or A.I., is an area of
21
48800
3260
هوش مصنوعی یا A.I حوزه‌ای از
00:52
computer science that develops the
22
52060
2040
علوم کامپیوتر است که
00:54
ability of computers to learn to do things
23
54100
2540
توانایی رایانه‌ها را برای یادگیری انجام کارهایی
00:56
like solve problems or drive cars without
24
56640
2495
مانند حل مشکلات یا رانندگی با اتومبیل بدون
00:59
crashing. But in what decade was the
25
59140
2800
تصادف توسعه می‌دهد. اما در چه دهه ای
01:01
term 'Artificial Intelligence'
26
61940
2640
اصطلاح «هوش مصنوعی»
01:04
coined? Was it: a) the 1940s, b) the 1950s
27
64589
4901
ابداع شد؟ آیا این بود: الف) دهه 1940، ب) دهه 1950
01:09
or c) the 1960s?
28
69490
2070
یا ج) دهه 1960؟
01:11
Rob: I think it's quite a new expression so
29
71560
3000
راب: من فکر می کنم این یک عبارت کاملاً جدید است، بنابراین
01:14
I'll go for c) the 1960s.
30
74560
2380
من به ج) دهه 1960 می روم.
01:16
Catherine: Good luck with that, Rob, and
31
76940
1420
کاترین: در این مورد موفق باشی، راب، و
01:18
we'll give you the answer later in the
32
78360
1300
ما پاسخ شما را بعداً در
01:19
programme. Now, let's get back to our
33
79660
2940
برنامه خواهیم داد. حال، بیایید به
01:22
topic of technochauvinism.
34
82600
2040
موضوع تکنوشوینیسم خود برگردیم.
01:24
Rob: I know what a chauvinist is. It's
35
84640
1920
راب: می دانم شوونیست چیست. این
01:26
someone who thinks that their country or
36
86580
2380
کسی است که فکر می کند کشور یا
01:28
race or sex is better than others. But how
37
88960
3140
نژاد یا جنسش بهتر از دیگران است. اما این موضوع
01:32
does this relate to technology?
38
92100
1340
چگونه با فناوری ارتباط دارد؟
01:33
Catherine: We're about to find out.
39
93440
1891
کاترین: ما در حال کشف کردن هستیم.
01:35
Meredith Broussard is Professor of
40
95340
1984
مردیت بروسارد استاد
01:37
Journalism at New York University and
41
97324
2236
روزنامه نگاری در دانشگاه نیویورک است
01:39
she's written a book called
42
99560
1660
و کتابی به نام بی
01:41
Artificial Unintelligence. She appeared on
43
101220
3420
هوشی مصنوعی نوشته است. او در
01:44
the BBC Radio 4 programme More or Less
44
104640
2580
برنامه کم و بیش رادیو بی بی سی حاضر شد
01:47
to talk about it. Listen carefully and find
45
107220
2620
تا در مورد آن صحبت کند. با دقت گوش کنید
01:49
out her definition of technochauvinism.
46
109840
3320
و تعریف او از تکنوشوینیسم را دریابید.
01:53
Meredith Broussard: Technochauvinism is
47
113160
1811
مردیت بروسارد: تکنوشوونیسم
01:54
the idea that technology is always the
48
114980
2540
این ایده است که فناوری همیشه
01:57
highest and best solution. So somehow
49
117520
3120
بالاترین و بهترین راه حل است. بنابراین
02:00
over the past couple of decades we got
50
120640
2260
در طول چند دهه گذشته ما
02:02
into the habit of
51
122900
1360
به نوعی عادت
02:04
thinking that doing something with a
52
124270
3410
کردیم که فکر کنیم انجام کاری با
02:07
computer is always the best and most
53
127680
3480
رایانه همیشه بهترین و
02:11
objective way to do something and
54
131180
2060
عینی ترین راه برای انجام کاری است و
02:13
that's simply not true.
55
133240
1540
این به سادگی درست نیست.
02:14
Computers are not objective, they are
56
134780
3000
کامپیوترها عینی نیستند، آنها
02:17
proxies for the people who make them.
57
137780
2300
پروکسی برای افرادی هستند که آنها را می سازند.
02:20
Catherine: What is Meredith Broussard's
58
140080
2200
کاترین: تعریف مردیت بروسارد
02:22
definition of technochauvinism?
59
142300
2280
از تکنوشوینیسم چیست؟
02:24
Rob: It's this idea that using technology
60
144580
2250
راب: این ایده است که استفاده از
02:26
is better than not using technology.
61
146830
2450
فناوری بهتر از عدم استفاده از فناوری است.
02:29
Catherine: She says that we have this idea
62
149280
2360
کاترین: او می گوید که ما این تصور را داریم
02:31
that a computer is objective. Something
63
151640
2800
که کامپیوتر عینی است. چیزی
02:34
that is objective is neutral, it doesn't have
64
154440
2500
که عینی است، خنثی است
02:36
an opinion, it's fair and it's unbiased - so
65
156940
3160
، نظری ندارد، منصفانه است و بی طرفانه است -
02:40
it's the opposite of being a chauvinist. But
66
160100
3080
پس برعکس شوونیست بودن است. اما
02:43
Meredith Broussard says this is not true.
67
163180
2860
مردیت بروسارد می گوید که این درست نیست.
02:46
Rob: She argues that computers are not
68
166040
2635
راب: او استدلال می کند که کامپیوترها عینی نیستند
02:48
objective. They are proxies for the people
69
168680
2880
. آنها نیابتی برای افرادی هستند
02:51
that make them. You might know the
70
171560
1800
که آنها را می سازند.
02:53
word proxy when you are using your
71
173360
1735
هنگامی که از
02:55
computer in one country and want to look
72
175095
2235
رایانه خود در یک کشور استفاده می کنید و می خواهید
02:57
at something that is only available
73
177330
1871
به چیزی که فقط
02:59
in a different country. You can use a piece
74
179201
2298
در کشور دیگری در دسترس است نگاه کنید، ممکن است کلمه پروکسی را بدانید. برای این کار می توانید
03:01
of software called a proxy to do that.
75
181500
2640
از نرم افزاری به نام پروکسی استفاده کنید.
03:04
Catherine: But a proxy is also a person or
76
184140
2840
کاترین: اما پروکسی نیز شخص
03:06
a thing that carries out your wishes and
77
186980
2660
یا چیزی است که خواسته ها و
03:09
your instructions for you.
78
189640
2000
دستورات شما را برای شما انجام می دهد.
03:11
So computers are only as smart or as
79
191640
2860
بنابراین کامپیوترها فقط به
03:14
objective as the people that
80
194500
2560
اندازه افرادی که
03:17
programme them. Computers are proxies
81
197060
3060
آنها را برنامه ریزی می کنند هوشمند یا عینی هستند. کامپیوترها پروکسی
03:20
for their programmers. Broussard says
82
200120
2620
برای برنامه نویسان خود هستند. بروسارد می گوید
03:22
that believing too much in Artificial
83
202740
2400
که اعتقاد بیش از حد به هوش مصنوعی
03:25
Intelligence can make the world worse.
84
205140
2820
می تواند جهان را بدتر کند.
03:27
Let's hear a bit more. This time find out
85
207960
2920
بیایید کمی بیشتر بشنویم. این بار دریابید که به نظر او
03:30
what serious problems in society
86
210880
2820
چه مشکلات جدی در جامعه
03:33
does she think may be reflected in AI?
87
213700
3900
ممکن است در هوش مصنوعی منعکس شود؟
03:37
Meredith Broussard: It's a nuanced
88
217600
1400
مردیت بروسارد: این یک
03:39
problem. What we have is data on the
89
219000
2700
مشکل ظریف است. آنچه که ما داریم داده‌هایی درباره
03:41
world as it is and we have serious
90
221700
3100
جهان است که هست و ما مشکلات جدی
03:44
problems with racism, sexism, classism,
91
224800
2920
با نژادپرستی، تبعیض جنسی، طبقه‌گرایی
03:47
ageism, in the world right now so there is
92
227720
2300
، سن‌گرایی در جهان در حال حاضر داریم، بنابراین
03:50
no such thing as perfect data. We also
93
230020
3760
چیزی به نام داده‌های کامل وجود ندارد. ما همچنین
03:53
have a problem inside the tech world
94
233780
2379
در دنیای فناوری مشکل داریم
03:56
where the creators of algorithms do not
95
236160
3080
که در آن سازندگان الگوریتم‌ها
03:59
have sufficient awareness of social
96
239240
3960
آگاهی کافی از
04:03
issues such that they can make good
97
243200
2680
مسائل اجتماعی ندارند تا بتوانند فناوری خوبی بسازند
04:05
technology that gets us closer to a world
98
245880
3800
که ما را به
04:09
as it should be.
99
249680
1660
دنیایی که باید نزدیک‌تر کند.
04:11
Rob: She said that society has problems
100
251340
2640
راب: او گفت که جامعه
04:13
with racism, sexism, classism and ageism.
101
253984
3296
با نژادپرستی، جنسیت گرایی، طبقه گرایی و سن گرایی مشکل دارد.
04:17
Catherine: And she says it's a nuanced
102
257280
2531
کاترین: و او می گوید که این یک
04:19
problem. A nuanced problem is not
103
259820
2231
مشکل ظریف است. یک مشکل ظریف
04:22
simple, but it does have small and
104
262060
1960
ساده نیست، اما دارای مناطق کوچک و
04:24
important areas which may be
105
264020
2200
مهمی است که تشخیص آنها ممکن است
04:26
hard to spot, but they need to be considered.
106
266220
3020
سخت باشد، اما باید در نظر گرفته شوند.
04:29
Rob: And she also talked about
107
269240
1800
راب: و او همچنین در مورد
04:31
algorithms used to program these
108
271053
2220
الگوریتم های مورد استفاده برای برنامه ریزی این
04:33
technological systems.
109
273273
1527
سیستم های تکنولوژیکی صحبت کرد.
04:34
An algorithm is a set of instructions that
110
274800
2497
الگوریتم مجموعه ای از دستورالعمل ها است که
04:37
computers use to perform their tasks.
111
277300
2240
رایانه ها برای انجام وظایف خود از آنها استفاده می کنند.
04:39
Essentially it's the rules that they use
112
279540
1680
اساساً این قوانینی است که آنها
04:41
to come up with their answers and
113
281220
2220
برای ارائه پاسخ های خود از آنها استفاده می کنند و
04:43
Broussard believes that technology will
114
283440
2560
بروسارد معتقد است که فناوری
04:46
reflect the views of those who create the algorithms.
115
286000
2680
دیدگاه های کسانی را که الگوریتم ها را ایجاد می کنند منعکس خواهد کرد.
04:48
Catherine: Next time you're using a piece
116
288680
1640
کاترین: دفعه بعد که از یک
04:50
of software or your favourite app, you
117
290320
2120
نرم‌افزار یا برنامه مورد علاقه‌تان استفاده می‌کنید،
04:52
might find yourself wondering if it's a
118
292440
2040
ممکن است از خود بپرسید که آیا این
04:54
useful tool or does it contain these little
119
294480
3020
ابزار مفیدی است یا حاوی این تفاوت‌های کوچک است
04:57
nuances that
120
297500
1100
که
04:58
reflect the views of the developer.
121
298600
2220
نظرات توسعه‌دهنده را منعکس می‌کند.
05:00
Rob: Right, Catherine. How about the
122
300830
1735
راب: درسته، کاترین.
05:02
answer to this week's question then?
123
302565
1735
پس جواب سوال این هفته چطوره؟
05:04
Catherine: I asked in which decade was
124
304300
2160
کاترین: من پرسیدم در کدام
05:06
the term 'Artificial Intelligence' coined.
125
306460
2300
دهه اصطلاح "هوش مصنوعی" ابداع شد.
05:08
Was it the 40s, the 50s or the 60s?
126
308760
2740
دهه 40، 50 یا 60 بود؟
05:11
Rob: And I said the 60s.
127
311500
1060
راب: و من گفتم دهه 60.
05:12
Catherine: But it was actually the 1950s.
128
312560
2500
کاترین: اما در واقع دهه 1950 بود.
05:15
Never mind, Rob. Let's review today's vocabulary.
129
315060
3520
مهم نیست، راب. بیایید واژگان امروز را مرور کنیم.
05:18
Rob: Well, we had a chauvinist - that's
130
318580
2100
راب: خب، ما یک شوونیست داشتیم - این
05:20
someone who believes their country, race
131
320700
2460
کسی است که معتقد است کشور، نژاد
05:23
or sex is better than any others.
132
323160
2000
یا جنسش بهتر از دیگران است.
05:25
Catherine: And this gives us
133
325160
1540
کاترین: و این به ما
05:26
technochauvinism,
134
326700
1380
تکنوشوینیسم می‌دهد،
05:28
the belief that a technological solution is
135
328080
2809
این باور که راه‌حل تکنولوژیک
05:30
always a better solution to a problem.
136
330889
2180
همیشه راه‌حل بهتری برای یک مشکل است.
05:33
Rob: Next - someone or something that is
137
333069
2776
راب: بعد - کسی یا چیزی که
05:35
objective is neutral, fair and balanced.
138
335845
2775
عینی است خنثی، منصفانه و متعادل است.
05:38
Catherine: A proxy is a piece of software
139
338620
2760
کاترین: پروکسی یک نرم افزار است،
05:41
but also someone who does something
140
341380
1660
اما همچنین کسی است که از
05:43
for you, on your behalf.
141
343040
2340
طرف شما کاری برای شما انجام می دهد.
05:45
A nuanced problem is a subtle
142
345380
2220
یک مشکل ظریف یک مشکل ظریف
05:47
one, it's not a simple case of right or
143
347600
3000
است، این یک مورد ساده از درست یا
05:50
wrong, in a nuanced problem there are
144
350600
2740
غلط نیست، در یک مشکل ظریف
05:53
small but important things that you need
145
353340
2140
چیزهای کوچک اما مهمی وجود دارد که باید
05:55
to consider.
146
355480
800
در نظر بگیرید.
05:56
Rob: And an algorithm is a set of software
147
356280
2560
Rob: و یک الگوریتم مجموعه ای از دستورالعمل های نرم افزاری
05:58
instructions for a computer system.
148
358842
2128
برای یک سیستم کامپیوتری است.
06:00
Catherine: Well, that's all we have time for
149
360970
1430
کاترین: خوب، این تمام وقت ما برای
06:02
today. Goodbye for now.
150
362400
1780
امروز است. فعلا خدانگهدار.
06:04
Rob: Bye bye!
151
364180
700
راب: خداحافظ!
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7