How to keep human bias out of AI | Kriti Sharma

99,340 views ・ 2019-04-12

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

00:00
Translator: Ivana Korom Reviewer: Joanna Pietrulewicz
0
0
7000
Translator: Behdad Khazaeli Reviewer: sadegh zabihi
00:12
How many decisions have been made about you today,
1
12875
3768
امروز چند تصمیم درباره شما،
00:16
or this week or this year,
2
16667
2601
یا این هفته، یا امسال،
00:19
by artificial intelligence?
3
19292
1958
توسط هوش مصنوعی گرفته شده؟
00:22
I build AI for a living
4
22958
1685
کار من ساختن هوش مصنوعی است
00:24
so, full disclosure, I'm kind of a nerd.
5
24667
3017
رک بگویم از آن خوره‌ها هستم.
00:27
And because I'm kind of a nerd,
6
27708
2393
و چون خوره هستم،
00:30
wherever some new news story comes out
7
30125
2351
هرجایی که خبر تازه‌ای بشنوم
00:32
about artificial intelligence stealing all our jobs,
8
32500
3434
از اینکه هوش مصنوعی همه کار‌هایمان را می‌دزدد،
00:35
or robots getting citizenship of an actual country,
9
35958
4185
یا ربات‌ها واقعا شهروند کشور می‌شوند،
00:40
I'm the person my friends and followers message
10
40167
3142
من کسی هستم که دوستان و هواداران به او پیغام می‌دهند
00:43
freaking out about the future.
11
43333
1542
و ترسشان از آینده را عنوان می‌کنند.
00:45
We see this everywhere.
12
45833
2101
این را همه‌ جا می‌بینیم.
00:47
This media panic that our robot overlords are taking over.
13
47958
4893
این ترس رسانه‌ای که فرمان‌روایان رباتیک ما دارند پیروز می‌شوند.
00:52
We could blame Hollywood for that.
14
52875
1917
می‌شود هالیوود را بخاطرش سرزنش کرد.
00:56
But in reality, that's not the problem we should be focusing on.
15
56125
4125
اما در واقع، این مشکلی نیست که باید رویش تمرکز کنیم.
01:01
There is a more pressing danger, a bigger risk with AI,
16
61250
3643
یک خطر مهمتر وجود دارد، خطری بزرگتر با هوش مصنوعی،
01:04
that we need to fix first.
17
64917
1583
که باید اول تصحیحش کرد.
01:07
So we are back to this question:
18
67417
2309
پس به این سوال بر می‌گردیم:
01:09
How many decisions have been made about you today by AI?
19
69750
4708
امروز هوش مصنوعی چند تصمیم درباره‌ات گرفته؟
01:15
And how many of these
20
75792
1976
و چند‌تای آنها
01:17
were based on your gender, your race or your background?
21
77792
4500
بر مبنای جنسیت، نژاد یا پیشینه‌ات بوده؟
01:24
Algorithms are being used all the time
22
84500
2768
دائما از الگوریتم‌ها
01:27
to make decisions about who we are and what we want.
23
87292
3833
در تصمیم‌گیری از اینکه که هستیم و چه می‌خواهیم استفاده می‌شود.
01:32
Some of the women in this room will know what I'm talking about
24
92208
3643
بعضی از خانم‌های حاضر در اینجا می‌دانند از چه صحبت می‌کنم
01:35
if you've been made to sit through those pregnancy test adverts on YouTube
25
95875
3768
اگر شما هم مجبور بودید آن تبلیغات آزمایش بارداری را
01:39
like 1,000 times.
26
99667
2059
روزی هزار بار روی یو‌تیوب ببینید.
01:41
Or you've scrolled past adverts of fertility clinics
27
101750
2851
یا اگر روزی تبلیغات کلینیک‌های بارور‌سازی را
01:44
on your Facebook feed.
28
104625
2042
روی فیس‌بوک دیده بودید.
01:47
Or in my case, Indian marriage bureaus.
29
107625
2393
یا در مورد من دفتر‌خانه‌های ازدواج هندی‌ها
01:50
(Laughter)
30
110042
1267
(خنده حضار)
01:51
But AI isn't just being used to make decisions
31
111333
2976
اما از هوش مصنوعی فقط برای تصمیم گیری
01:54
about what products we want to buy
32
114333
2601
در باره اینکه چه محصولی بخریم
01:56
or which show we want to binge watch next.
33
116958
2500
یا کدام برنامه تلویزیونی را می‌ببینیم استفاده نمی‌شود.
02:01
I wonder how you'd feel about someone who thought things like this:
34
121042
5184
دوست دارم احساس شما را در مورد کسانی که به این چیز‌ها فکر کرده‌اند بدانم:
02:06
"A black or Latino person
35
126250
1934
«سیاه‌پوست‌ها یا لاتین تبار‌ها
02:08
is less likely than a white person to pay off their loan on time."
36
128208
4125
کمتر احتمال دارد تا وامشان را سر وقت تسویه کنند.»
02:13
"A person called John makes a better programmer
37
133542
2809
«کسی که نامش جان باشد احتمالا برنامه نویس بهتری است
02:16
than a person called Mary."
38
136375
1667
از کسی که نامش مِری است.»
02:19
"A black man is more likely to be a repeat offender than a white man."
39
139250
5083
«یک مرد سیاه احتمال بیشتری دارد که یک جرم را چند بار مرتکب شود.»
02:26
You're probably thinking,
40
146958
1268
احتمالا فکر می‌کنید که،
02:28
"Wow, that sounds like a pretty sexist, racist person," right?
41
148250
3750
«عجب، خیلی جنسیتی، و تبعیض گرایانه است،» درسته؟
02:33
These are some real decisions that AI has made very recently,
42
153000
4851
این‌ها واقعا تصمیم‌هایی است که هوش مصنوعی همین اخیرا گرفته است،
02:37
based on the biases it has learned from us,
43
157875
2934
بر مبنای تمایلاتی که از ما یاد گرفته،
02:40
from the humans.
44
160833
1250
از انسانها.
02:43
AI is being used to help decide whether or not you get that job interview;
45
163750
4809
هوش مصنوعی برای کمک به تصمیم‌گیری برای انجام یک مصاحبه شغلی استفاده می‌شده؛
02:48
how much you pay for your car insurance;
46
168583
2393
چقدر برای بیمه ماشین پرداخت می‌کنی؛
02:51
how good your credit score is;
47
171000
1893
رتبه اعتباری‌ات چقدر خوب است؛
02:52
and even what rating you get in your annual performance review.
48
172917
3125
و در بازبینی سالانه کارایی، چه رتبه‌ای می‌گیری.
02:57
But these decisions are all being filtered through
49
177083
3143
اما همه این تصمیم‌ها
03:00
its assumptions about our identity, our race, our gender, our age.
50
180250
5875
بر مبنای فرضیاتی در مورد هویت ما، نژاد ما، جنسیت ما و سن ما گرفته می‌شود.
03:08
How is that happening?
51
188250
2268
چطور اتفاق می‌افتد؟
03:10
Now, imagine an AI is helping a hiring manager
52
190542
3517
فرض کنید که هوش مصنوعی می‌خواهد به مدیر استخدامی‌ کمک کند
03:14
find the next tech leader in the company.
53
194083
2851
تا یک راهبر فنی دیگر برای شرکت پیدا کند.
03:16
So far, the manager has been hiring mostly men.
54
196958
3101
تا حالا این مدیر بیشتر مردان را استخدام می‌کرده.
03:20
So the AI learns men are more likely to be programmers than women.
55
200083
4750
پس هوش مصنوعی یاد گرفته که احتمال اینکه مردها برنامه نویس بشوند بیشتر است.
03:25
And it's a very short leap from there to:
56
205542
2892
و از اینجا تا مرحله بعد تنها یک قدم است:
03:28
men make better programmers than women.
57
208458
2042
مردها از زنها برنامه‌نویس‌‌های بهتری هستند.
03:31
We have reinforced our own bias into the AI.
58
211417
3726
ما هوش مصنوعی را به تمایلات خودمان تجهیز کردیم.
03:35
And now, it's screening out female candidates.
59
215167
3625
و حالا، او خودش کاندیدا‌های زن را حذف می‌کند.
03:40
Hang on, if a human hiring manager did that,
60
220917
3017
ببین اگر یک مسئول استخدام مرد این کار را می‌کرد،
03:43
we'd be outraged, we wouldn't allow it.
61
223958
2351
ناراحت می‌شدیم، اجازه نمی‌دادیم.
03:46
This kind of gender discrimination is not OK.
62
226333
3476
این نوع از تبعیض‌های جنسیتی درست نیست.
03:49
And yet somehow, AI has become above the law,
63
229833
4518
با این همه حالا، هوش مصنوعی از قانون هم بالاتر رفته،
03:54
because a machine made the decision.
64
234375
2083
چون ماشین تصمیم می‌گیرد.
03:57
That's not it.
65
237833
1518
این تنها نیست.
03:59
We are also reinforcing our bias in how we interact with AI.
66
239375
4875
ما در رابطه با هوش مصنوعی هم تمایلات خودمان را وارد می کنیم.
04:04
How often do you use a voice assistant like Siri, Alexa or even Cortana?
67
244917
5976
معمولا چقدر از دستیار‌های صوتی مانند سیری، اَلکسا یا کورتانا استفاده می‌کنید؟
04:10
They all have two things in common:
68
250917
2559
همه آنها دو چیز مشترک دارند:
04:13
one, they can never get my name right,
69
253500
3101
اول، هیچوقت اسمم را درست نمی‌گویند،
04:16
and second, they are all female.
70
256625
2667
و دوم، همه‌شان زن هستند.
04:20
They are designed to be our obedient servants,
71
260417
2767
طراحی شده‌اند تا مطیع و خدمتگذارمان باشند،
04:23
turning your lights on and off, ordering your shopping.
72
263208
3250
چراغ‌هایتان را خاموش روشن کنند، خریدتان را سفارش بدهند.
04:27
You get male AIs too, but they tend to be more high-powered,
73
267125
3309
هوش مصنوعی مذکر هم داریم، اما قرار بوده تا قوی‌تر باشند،
04:30
like IBM Watson, making business decisions,
74
270458
3059
مثل واتسون از آی بی ام، که تصمیم‌های تجاری می‌گیرد،
04:33
Salesforce Einstein or ROSS, the robot lawyer.
75
273541
3792
انیشتین از سیلزفورس، یا راس که وکیل ربات است.
04:38
So poor robots, even they suffer from sexism in the workplace.
76
278208
4060
بیچاره ربات‌ها، حتی آنها هم دچار تبعیض جنسی شغلی هستند.
04:42
(Laughter)
77
282292
1125
(خنده حضار)
04:44
Think about how these two things combine
78
284542
2851
حالا فکر کنید که چطور این دو با هم ترکیب می‌شوند
04:47
and affect a kid growing up in today's world around AI.
79
287417
5309
و روی کودکی که در جهان اطراف هوش مصنوعی بزرگ می‌شود اثر می‌گذارند.
04:52
So they're doing some research for a school project
80
292750
2934
تحقیقی روی یک پروژه در مدرسه انجام شده
04:55
and they Google images of CEO.
81
295708
3018
و آنها عکس مدیر عامل را با گوگل جستجو کرده‌اند.
04:58
The algorithm shows them results of mostly men.
82
298750
2893
و الگوریتم به آنها بیشتر تصویر مردان را نشان داده است.
05:01
And now, they Google personal assistant.
83
301667
2559
بعد آنها دستیار شخصی را با گوگل جستجو کردند.
05:04
As you can guess, it shows them mostly females.
84
304250
3434
و همانطور که حدس می‌زنید، بیشتر تصویر زن‌ها را نشان می‌دهد.
05:07
And then they want to put on some music, and maybe order some food,
85
307708
3601
بعد خواستند تا موسیقی پخش کند و غذا سفارش بدهند،
05:11
and now, they are barking orders at an obedient female voice assistant.
86
311333
6584
و حالا دارند سر دستیار صوتی زن داد می‌زنند.
05:19
Some of our brightest minds are creating this technology today.
87
319542
5309
این فناوری‌ها را بعضی از درخشان‌ترین اندیشمندان ما خلق می‌کنند.
05:24
Technology that they could have created in any way they wanted.
88
324875
4184
فناوری که می‌توانستند به هر شکلی که می‌خواهند خلق کنند.
05:29
And yet, they have chosen to create it in the style of 1950s "Mad Man" secretary.
89
329083
5685
اما خواستند تا آن را به شکل منشی‌های سریال «مَد من» دهه ۱۹۵۰ بسازند.
05:34
Yay!
90
334792
1500
چه عالی!
05:36
But OK, don't worry,
91
336958
1310
اما نگران نباشید.
05:38
this is not going to end with me telling you
92
338292
2059
قرار نیست صحبتم با گفتن اینکه
05:40
that we are all heading towards sexist, racist machines running the world.
93
340375
3477
ما به سوی ماشین‌های جنسیتی، نژاد پرستانه می‌رویم تمام شود.
05:44
The good news about AI is that it is entirely within our control.
94
344792
5791
خبر خوب درباره هوش مصنوعی اینکه کاملا در اختیار خودمان است.
05:51
We get to teach the right values, the right ethics to AI.
95
351333
4000
ما باید ارزش‌های صحیح، اخلاقیات درست را به آن آموزش دهیم.
05:56
So there are three things we can do.
96
356167
2184
می‌توانیم سه کار انجام دهیم.
05:58
One, we can be aware of our own biases
97
358375
3351
اول، می‌شود از تمایلات خودمان
06:01
and the bias in machines around us.
98
361750
2726
و تمایلات ماشین‌های اطرافمان آگاه باشیم.
06:04
Two, we can make sure that diverse teams are building this technology.
99
364500
4518
دوم، مطمئن شویم که گروهی با افکار متنوع این فناوری را می‌سازند.
06:09
And three, we have to give it diverse experiences to learn from.
100
369042
4916
و سوم، باید تجربیاتی متنوع برایش ایجاد کنیم تا از آن یاد بگیرد.
06:14
I can talk about the first two from personal experience.
101
374875
3309
می‌توانم در دو مورد اول از تجربه خودم برایتان بگویم.
06:18
When you work in technology
102
378208
1435
اگر کارتان فناوری باشد
06:19
and you don't look like a Mark Zuckerberg or Elon Musk,
103
379667
3392
و شبیه مارک زاکربرگ یا ایلان ماسک نباشید،
06:23
your life is a little bit difficult, your ability gets questioned.
104
383083
3750
کمی زندگی برایتان سخت است، توانایی‌هایتان زیر سوال است.
06:27
Here's just one example.
105
387875
1393
مثالی می‌آورم،
06:29
Like most developers, I often join online tech forums
106
389292
3726
مثل خیلی از برنامه نویس‌ها، اغلب عضو انجمن‌های آنلاین فناوری می‌شوم
06:33
and share my knowledge to help others.
107
393042
3226
و اطلاعاتم را برای کمک به دیگران به اشتراک می‌گذارم.
06:36
And I've found,
108
396292
1309
فهمیدم که،
06:37
when I log on as myself, with my own photo, my own name,
109
397625
3976
اگر به عنوان خودم وارد شوم، با عکس خودم، اسم خودم،
06:41
I tend to get questions or comments like this:
110
401625
4601
معمولا سوال‌ها یا نظراتی مثل این را می‌گیرم:
06:46
"What makes you think you're qualified to talk about AI?"
111
406250
3000
«چرا فکر می‌کنی واجد شرایط صحبت در مورد هوش مصنوعی هستی؟»
06:50
"What makes you think you know about machine learning?"
112
410458
3476
«چرا فکر می‌کنی که یادگیری ماشینی را می‌دانی؟»
06:53
So, as you do, I made a new profile,
113
413958
3435
پس من هم مثل شما، پروفایل جدیدی ساختم،
06:57
and this time, instead of my own picture, I chose a cat with a jet pack on it.
114
417417
4851
و این دفعه به جای عکس خودم، عکس یک گربه با موتور جت را گذاشتم.
07:02
And I chose a name that did not reveal my gender.
115
422292
2458
و اسمی را انتخاب کردم که جنسیتم را نشان ندهد.
07:05
You can probably guess where this is going, right?
116
425917
2726
احتمالا فهمیده‌اید که به کجا می‌رسم، نه؟
07:08
So, this time, I didn't get any of those patronizing comments about my ability
117
428667
6392
خوب این بار، هیچکدام از آن پیام‌های از موضع بالا در مورد تواناییم را نگرفتم
07:15
and I was able to actually get some work done.
118
435083
3334
و واقعا توانستم کار‌هایی انجام دهم.
07:19
And it sucks, guys.
119
439500
1851
و دوستان این خیلی بد است.
07:21
I've been building robots since I was 15,
120
441375
2476
من از ۱۵ سالگی روبات می‌سازم،
07:23
I have a few degrees in computer science,
121
443875
2268
و چندین مدرک در علوم رایانه دارم،
07:26
and yet, I had to hide my gender
122
446167
2434
و هنوز باید جنسیتم را مخفی کنم
07:28
in order for my work to be taken seriously.
123
448625
2250
تا کارم جدی گرفته شود.
07:31
So, what's going on here?
124
451875
1893
اینجا چه خبر است؟
07:33
Are men just better at technology than women?
125
453792
3208
آیا مردان در فناوری از زنان بهترند؟
07:37
Another study found
126
457917
1559
تحقیق دیگری می‌گوید
07:39
that when women coders on one platform hid their gender, like myself,
127
459500
4934
که برنامه نویسان زنی که مثل من جنسیتشان را مخفی می‌کنند،
07:44
their code was accepted four percent more than men.
128
464458
3250
برنامه‌هایشان چهار درصد بیشتر از مردان پذیرفته می‌شود.
07:48
So this is not about the talent.
129
468542
2916
پس ربطی به استعداد ندارد.
07:51
This is about an elitism in AI
130
471958
2893
مربوط به نخبه‌گرایی در هوش مصنوعی است
07:54
that says a programmer needs to look like a certain person.
131
474875
2792
که می‌گوید یک برنامه نویس باید شکل خاصی باشد.
07:59
What we really need to do to make AI better
132
479375
3101
کاری که واقعا باید انجام دهیم تا هوش مصنوعی را بهتر کنیم
08:02
is bring people from all kinds of backgrounds.
133
482500
3042
این است که آدمهایی با سوابق متفاوت را کنار هم قرار دهیم.
08:06
We need people who can write and tell stories
134
486542
2559
افرادی را می‌خواهیم که بتوانند بنویسند و داستان بگویند
08:09
to help us create personalities of AI.
135
489125
2167
تا بتوانیم شخصیت‌های هوش مصنوعی را بسازیم.
08:12
We need people who can solve problems.
136
492208
2042
آدمهایی می‌خواهیم که مشکلات را حل کنند،
08:15
We need people who face different challenges
137
495125
3768
آدمهایی می‌خواهیم که با چالش‌های مختلف مواجه باشند
08:18
and we need people who can tell us what are the real issues that need fixing
138
498917
5351
و ما به افرادی نیاز داریم تا بگویند که کدام مسائل واقعا باید حل شوند
08:24
and help us find ways that technology can actually fix it.
139
504292
3041
و کمک کنند تا راه‌هایی برای حل آنها توسط فناوری پیدا کنیم.
08:29
Because, when people from diverse backgrounds come together,
140
509833
3726
چون، وقتی افرادی با سوابق مختلف کنار هم قرار گیرند،
08:33
when we build things in the right way,
141
513583
2143
وقتی چیز‌‌ها را به شکل صحیحی بسازیم،
08:35
the possibilities are limitless.
142
515750
2042
دیگر محدودیتی نخواهیم داشت.
08:38
And that's what I want to end by talking to you about.
143
518750
3309
و می‌خواهم با صحبت در این باره تمام کنم.
08:42
Less racist robots, less machines that are going to take our jobs --
144
522083
4225
ربات‌های نژاد‌پرست کم شوند، ماشین‌هایی که کار‌هایمان را می‌گیرند باید کم شوند --
08:46
and more about what technology can actually achieve.
145
526332
3125
و آنهایی که فناوری واقعا برایمان می‌آورد بیشتر شوند.
08:50
So, yes, some of the energy in the world of AI,
146
530292
3434
درست است بخشی از انرژی در دنیای هوش مصنوعی،
08:53
in the world of technology
147
533750
1393
در جهان فناوری
08:55
is going to be about what ads you see on your stream.
148
535167
4267
صرف تبلیغاتی می‌شود که در این جریان می‌بینید.
08:59
But a lot of it is going towards making the world so much better.
149
539458
5209
اما بیشتر آن برای بهتر شدن جهان صرف می‌شود.
09:05
Think about a pregnant woman in the Democratic Republic of Congo,
150
545500
3768
به زنی باردار در جمهوری دموکراتیک کنگو توجه کنید،
09:09
who has to walk 17 hours to her nearest rural prenatal clinic
151
549292
4184
که باید ۱۷ ساعت تا نزدیکترین کلینیک زنان پیاده راه برود
09:13
to get a checkup.
152
553500
1851
برای معاینه.
09:15
What if she could get diagnosis on her phone, instead?
153
555375
2917
چه می‌شد اگر می‌توانست توسط تلفنش معاینه شود؟
09:19
Or think about what AI could do
154
559750
1809
یا فکر کنید هوش مصنوعی می‌تواند چه کاری
09:21
for those one in three women in South Africa
155
561583
2726
برای یکی از هر سه زن در آفریقای جنوبی
09:24
who face domestic violence.
156
564333
2125
که دچار خشونت‌های خانوادگی هستند انجام دهد.
09:27
If it wasn't safe to talk out loud,
157
567083
2726
اگر بلند صحبت کردن امن نباشد،
09:29
they could get an AI service to raise alarm,
158
569833
2476
می‌توانند از هوش مصنوعی برای فعال کردن اخطار استفاده کنند،
09:32
get financial and legal advice.
159
572333
2459
و راهنمایی مالی و قانونی بگیرند.
09:35
These are all real examples of projects that people, including myself,
160
575958
5018
این‌ها مثال‌هایی واقعی از پروژه‌هایی است که افرادی، مثل خودم،
09:41
are working on right now, using AI.
161
581000
2500
با استفاده از هوش مصنوعی، همین حالا رویش کار می‌کنند.
09:45
So, I'm sure in the next couple of days there will be yet another news story
162
585542
3601
مطمئنم که ظرف چند روز آینده داستانی خبری
09:49
about the existential risk,
163
589167
2684
از تهدید وجودی اینکه،
09:51
robots taking over and coming for your jobs.
164
591875
2434
رباتها می‌آیند و کارهایتان را می‌گیرند خواهیم داشت.
09:54
(Laughter)
165
594333
1018
(خنده حضار)
09:55
And when something like that happens,
166
595375
2309
و وقتی چیزی شبیه این اتفاق بیفتد،
09:57
I know I'll get the same messages worrying about the future.
167
597708
3601
می‌دانم که همین پیام نگرانی از آینده را می‌گیرم.
10:01
But I feel incredibly positive about this technology.
168
601333
3667
اما بی‌نهایت در مورد این فناوری مثبت هستم.
10:07
This is our chance to remake the world into a much more equal place.
169
607458
5959
این فرصتی برای تبدیل دوباره جهان به مکانی خیلی بیشتر برابر است.
10:14
But to do that, we need to build it the right way from the get go.
170
614458
4000
اما برای این کار باید به شکلی صحیح آن را شروع کنیم.
10:19
We need people of different genders, races, sexualities and backgrounds.
171
619667
5083
ما به افرادی با جنسیت‌ها، نژاد‌ها و سوابق مختلف نیاز داریم.
10:26
We need women to be the makers
172
626458
2476
نیاز داریم تا زنان سازنده باشند
10:28
and not just the machines who do the makers' bidding.
173
628958
3000
نه ماشین‌هایی که خواسته‌های سازندگان را انجام می‌دهند.
10:33
We need to think very carefully what we teach machines,
174
633875
3768
باید به دقت فکر کنیم که چه چیزی به ماشین‌ها می‌آموزیم،
10:37
what data we give them,
175
637667
1642
چه اطلاعاتی به آنها می‌دهیم،
10:39
so they don't just repeat our own past mistakes.
176
639333
3125
تا آنها فقط اشتباهات گذشته ما را تکرار نکنند.
10:44
So I hope I leave you thinking about two things.
177
644125
3542
امیدوارم که بعد از رفتنم شما به دو چیز فکر کنید.
10:48
First, I hope you leave thinking about bias today.
178
648542
4559
اول، امیدوارم که به تمایلات امروز فکر نکنید.
10:53
And that the next time you scroll past an advert
179
653125
3184
و بار بعدی که از روی تبلیغی عبور می‌کنید
10:56
that assumes you are interested in fertility clinics
180
656333
2810
که فکر می‌کند شما به کلینیک‌های باروری علاقه‌‌مندید
10:59
or online betting websites,
181
659167
2851
یا وب‌سایت‌های شرط بندی،
11:02
that you think and remember
182
662042
2017
فکر کنید و بیاد آورید
11:04
that the same technology is assuming that a black man will reoffend.
183
664083
4625
که همین تکنولوژی فرض می‌کند که مرد سیاه‌پوست قانون‌شکن است.
11:09
Or that a woman is more likely to be a personal assistant than a CEO.
184
669833
4167
یا اینکه زنها احتمال بیشتری دارد که دستیار شوند تا مدیرعامل.
11:14
And I hope that reminds you that we need to do something about it.
185
674958
3709
و امیدوارم که به یادتان بیاورد باید کاری در موردش انجام دهیم.
11:20
And second,
186
680917
1851
و دوم،
11:22
I hope you think about the fact
187
682792
1892
امیدوارم در باره این واقعیت فکر کنید
11:24
that you don't need to look a certain way
188
684708
1976
که نیازی نیست تا ظاهری خاص
11:26
or have a certain background in engineering or technology
189
686708
3851
یا سابقه‌ای ویژه در مهندسی یا فناوری داشته باشید
11:30
to create AI,
190
690583
1268
تا هوش مصنوعی خلق کنید.
11:31
which is going to be a phenomenal force for our future.
191
691875
2875
که نیروی خالق العاده‌ای برای آینده‌مان خواهد بود.
11:36
You don't need to look like a Mark Zuckerberg,
192
696166
2143
نیازی نیست شبیه مارک زاکربرگ باشید.
11:38
you can look like me.
193
698333
1250
می‌توانید شکل من باشید.
11:41
And it is up to all of us in this room
194
701250
2893
و این بر عهده همه ما در این سالن است
11:44
to convince the governments and the corporations
195
704167
2726
تا دولت‌ها و شرکت‌ها را قانع کنیم
11:46
to build AI technology for everyone,
196
706917
2892
تا فناوری هوش مصنوعی را برای همه بسازند،
11:49
including the edge cases.
197
709833
2393
حتی آنهایی که مرزی هستند.
11:52
And for us all to get education
198
712250
2059
و برای ما تا همه آموزش ببینند
11:54
about this phenomenal technology in the future.
199
714333
2375
در مورد این فناوری فوق‌العاده آینده.
11:58
Because if we do that,
200
718167
2017
چون اگر این کار را انجام دهیم،
12:00
then we've only just scratched the surface of what we can achieve with AI.
201
720208
4893
تازه تنها به لایه سطحی چیزی رسیده‌ایم که با هوش‌مصنوعی می‌توانیم انجام دهیم.
12:05
Thank you.
202
725125
1268
متشکرم.
12:06
(Applause)
203
726417
2708
(تشویق حضار)
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7