How we can build AI to help humans, not hurt us | Margaret Mitchell

81,080 views ・ 2018-03-12

TED


يرجى النقر نقرًا مزدوجًا فوق الترجمة الإنجليزية أدناه لتشغيل الفيديو.

المترجم: Wadah Essam المدقّق: Oualid Hamzi
00:13
I work on helping computers communicate about the world around us.
0
13381
4015
أعمل لأساعد الحواسب للتواصل مع العالم حولنا.
00:17
There are a lot of ways to do this,
1
17754
1793
هناك طرق كثيرة لعمل ذلك،
00:19
and I like to focus on helping computers
2
19571
2592
وأحب أن أركز على مساعدة الحواسب
00:22
to talk about what they see and understand.
3
22187
2874
للتحدث عما ترى وتفهم.
00:25
Given a scene like this,
4
25514
1571
فعلى سبيل المثال،
00:27
a modern computer-vision algorithm
5
27109
1905
إن آلخوارزمية المعاصرة الحاسوبية الإبصار
00:29
can tell you that there's a woman and there's a dog.
6
29038
3095
بإمكانها إخبارك ان كانت هناك امرأة و كلب.
00:32
It can tell you that the woman is smiling.
7
32157
2706
وتستطيع أن تخبرك أن كانت تبتسم ام لا.
00:34
It might even be able to tell you that the dog is incredibly cute.
8
34887
3873
وربما تستطيع أن تخبرك أن الكلب محبوبة للغاية.
أنا أعمل على هذه المشكلة
00:38
I work on this problem
9
38784
1349
00:40
thinking about how humans understand and process the world.
10
40157
4212
افكر كيف يفهم البشر ويتعامل مع العالم.
00:45
The thoughts, memories and stories
11
45577
2952
الأفكار، الذكريات، والقصص
00:48
that a scene like this might evoke for humans.
12
48553
2818
التي صُورها ممكن أن تثيرهم.
00:51
All the interconnections of related situations.
13
51395
4285
جميع الترابط في الظروف ذات الصلة.
00:55
Maybe you've seen a dog like this one before,
14
55704
3126
ربما رأيت كلبا مثل هذا من قبل،
00:58
or you've spent time running on a beach like this one,
15
58854
2969
أو قد أنفقت أوقاتا تجري في شاطئ مثل هذا.
01:01
and that further evokes thoughts and memories of a past vacation,
16
61847
4778
وهذا أيضا يثير أفكارك وذكرياتك للإجازات الماضية،
01:06
past times to the beach,
17
66649
1920
الأوقات المنصرمة في الشواطئ،
01:08
times spent running around with other dogs.
18
68593
2603
أزمنة قضيتها مع كلاب أخرى.
01:11
One of my guiding principles is that by helping computers to understand
19
71688
5207
أن من موجهاتي الأساسية هي أن أساعد الحواسيب لفهم
01:16
what it's like to have these experiences,
20
76919
2896
أشياء تتشابه تجارب.
01:19
to understand what we share and believe and feel,
21
79839
5176
ولفهم ما ننقل ونعتقد ونشعر
01:26
then we're in a great position to start evolving computer technology
22
86094
4310
إذن،نحن في مرتبة أعلى للبدء بتكنولوجيا الحاسوبية المتطورة
01:30
in a way that's complementary with our own experiences.
23
90428
4587
بطريقة لزومية تتناسب مع تجاربنا.
01:35
So, digging more deeply into this,
24
95539
3387
لذا، فبعمق التفكير في الأمر،
01:38
a few years ago I began working on helping computers to generate human-like stories
25
98950
5905
بدأت عملي هذا قبل سنوات قليلة لبناء حواسيب تشتبه الإنسان
01:44
from sequences of images.
26
104879
1666
من خلال صور متسلسلة.
01:47
So, one day,
27
107427
1904
لذا، ذات يوم،
01:49
I was working with my computer to ask it what it thought about a trip to Australia.
28
109355
4622
لقد كنت أعمل مع حاسوبي أسأله عما فكر عن رحلة إلى أستراليا.
01:54
It took a look at the pictures, and it saw a koala.
29
114768
2920
وأخذ نظرة إلى تلك الصور، ورأى كوالا،
01:58
It didn't know what the koala was,
30
118236
1643
ولم يعلم ما هو كوالا،
01:59
but it said it thought it was an interesting-looking creature.
31
119903
2999
لكنه قال إنه مخلوق مثير للاهتمام.
02:04
Then I shared with it a sequence of images about a house burning down.
32
124053
4004
ثم شاركت معه بعض الصور عن منزل يتحرق.
02:09
It took a look at the images and it said,
33
129704
3285
ونظرت إليه فقال،
02:13
"This is an amazing view! This is spectacular!"
34
133013
3500
إنه منظر رائع ! هذا مذهل !"
02:17
It sent chills down my spine.
35
137450
2095
لقد اصبت بقشعريره أسفل عمودي الفقري
02:20
It saw a horrible, life-changing and life-destroying event
36
140983
4572
لقد رأى أحداث درامية، أثرت على حياة الآخرين
02:25
and thought it was something positive.
37
145579
2382
و اعتقد انه شيء ايجابي.
02:27
I realized that it recognized the contrast,
38
147985
3441
انا ادركت انه رأى تباين الألوان
02:31
the reds, the yellows,
39
151450
2699
الأحمر و الأصفر
02:34
and thought it was something worth remarking on positively.
40
154173
3078
و اعتقد انه شيء جدير بالذكر في الإيجابية
02:37
And part of why it was doing this
41
157928
1615
وجزء من لماذا كانت تفعل هذا
02:39
was because most of the images I had given it
42
159577
2945
كان بسبب معظم الصور التي حصلت عليها
02:42
were positive images.
43
162546
1840
كانوا صور ايجابية
02:44
That's because people tend to share positive images
44
164903
3658
وذلك لان الناس تميل إلى مشاركة الصور الأيجابية
02:48
when they talk about their experiences.
45
168585
2190
عندما يتحدثون عن خبراتهم.
02:51
When was the last time you saw a selfie at a funeral?
46
171267
2541
متي أخر مره رأيت فيها صورة سيلفي في جنازة ؟
02:55
I realized that, as I worked on improving AI
47
175434
3095
انا ادركت هذا كمطورة للذكاء الاصطناعي
02:58
task by task, dataset by dataset,
48
178553
3714
مهمة بمهمة ، وبيانات بعد بيانات
03:02
that I was creating massive gaps,
49
182291
2897
انا كنت اخلق ثغرات كبيرة،
03:05
holes and blind spots in what it could understand.
50
185212
3999
حفر و نقاط عمياء في الاشياء التي يمكن فهمها
03:10
And while doing so,
51
190307
1334
واثناء فعل ذلك،
03:11
I was encoding all kinds of biases.
52
191665
2483
كنت اشفر جميع انواع التحيزات.
03:15
Biases that reflect a limited viewpoint,
53
195029
3318
التحيزات التي تعكس وجهه نظر محدودة،
03:18
limited to a single dataset --
54
198371
2261
محدوده في بيانات من نوع واحد
03:21
biases that can reflect human biases found in the data,
55
201283
3858
التحيزات التي يمكن أن تعكس التحيز البشري الموجود في البيانات،
03:25
such as prejudice and stereotyping.
56
205165
3104
مثل التحامل و الصورة النمطية.
03:29
I thought back to the evolution of the technology
57
209554
3057
فكرت مره اخرى في تطوير التكنولوجيا
03:32
that brought me to where I was that day --
58
212635
2502
التي جعلتني هكذا اليوم
03:35
how the first color images
59
215966
2233
كيف الصور الملونة الأولى
03:38
were calibrated against a white woman's skin,
60
218223
3048
يتم معايرتها ضد المرأه ذات البشره البيضاء
03:41
meaning that color photography was biased against black faces.
61
221665
4145
بمعني ان اللون الفوتغرافي انشئ ضد الوجوه السوداء.
03:46
And that same bias, that same blind spot
62
226514
2925
وهذا الانحياز هذه النقطة العمياء
03:49
continued well into the '90s.
63
229463
1867
استمرت جيدا حتى التسعينات
03:51
And the same blind spot continues even today
64
231701
3154
و نفس النقطه العمياء استمرت لليوم
03:54
in how well we can recognize different people's faces
65
234879
3698
كيف ندرك جيدا وجوه الناس المختلفة
03:58
in facial recognition technology.
66
238601
2200
في تكنولوجيا نظام التعرف على الوجه
04:01
I though about the state of the art in research today,
67
241323
3143
فكرت في مثال رائع من الفن في بحث اليوم
04:04
where we tend to limit our thinking to one dataset and one problem.
68
244490
4514
حيث نميل إلي الحد من تفكيرنا إلى مجموعة بيانات واحدة و مشكلة واحدة
04:09
And that in doing so, we were creating more blind spots and biases
69
249688
4881
و بهذا كنا نخلق المزيد من النقط العمياء و التحيزات
04:14
that the AI could further amplify.
70
254593
2277
يمكن أن يضخمها الذكاء الاصطناعي
04:17
I realized then that we had to think deeply
71
257712
2079
ادركت ذالك الحين ان علينا التفكير بعمق
04:19
about how the technology we work on today looks in five years, in 10 years.
72
259815
5519
في التكنولوجيا التي نعمل بها اليوم في الخمس أو العشر سنين القادمة
04:25
Humans evolve slowly, with time to correct for issues
73
265990
3142
مع الوقت يتطور البشر ببطء لتصحيح القضايا
04:29
in the interaction of humans and their environment.
74
269156
3534
في التفاعل بين البشر و البيئة
04:33
In contrast, artificial intelligence is evolving at an incredibly fast rate.
75
273276
5429
في المقابل، الذكاء الاصطناعي يتطور بمعدل سريع لا يصدق.
04:39
And that means that it really matters
76
279013
1773
وهذا يعني انه أمر مهم حقا.
04:40
that we think about this carefully right now --
77
280810
2317
أن نفكر في هذا الآن بعناية
04:44
that we reflect on our own blind spots,
78
284180
3008
اننا نفكر في البقع العمياء الخاصة بنا،
04:47
our own biases,
79
287212
2317
التحيز الخاص بنا،
04:49
and think about how that's informing the technology we're creating
80
289553
3857
والتفكير في كيفية تغذية التكنولوجيا التي نخلقها
04:53
and discuss what the technology of today will mean for tomorrow.
81
293434
3902
و مناقشة كيف ستفيد تكنولوجيا اليوم غدا
04:58
CEOs and scientists have weighed in on what they think
82
298593
3191
الرئيس التنفيذي و العلماء قد اثقلوا على ما يفكرون به
05:01
the artificial intelligence technology of the future will be.
83
301808
3325
تقنية الذكاء الاصطناعي ستحدث في المستقبل
05:05
Stephen Hawking warns that
84
305157
1618
ستيفن هوكنج حذر من ذلك
05:06
"Artificial intelligence could end mankind."
85
306799
3007
"الذكاء الاصطناعي يمكن ان يقضي على الجنس البشري".
05:10
Elon Musk warns that it's an existential risk
86
310307
2683
ايلون مسك حذر من انه خطر وجودي
05:13
and one of the greatest risks that we face as a civilization.
87
313014
3574
وواحد من اكبر المخاطر التي سنواجهها كحضارة.
05:17
Bill Gates has made the point,
88
317665
1452
قدم بيل غيتس هذه النقطة
05:19
"I don't understand why people aren't more concerned."
89
319141
3185
"انا لا افهم لماذا الناس ليسوا اكثر قلقا".
05:23
But these views --
90
323412
1318
ولكن هذه الآراء--
05:25
they're part of the story.
91
325618
1734
انهم جزء من القصة.
05:28
The math, the models,
92
328079
2420
الرياضيات، النماذج
05:30
the basic building blocks of artificial intelligence
93
330523
3070
القواعد الاساسية للذكاء إلإصطناعي
05:33
are something that we call access and all work with.
94
333617
3135
هو شيء نستطيع كلنا الوصول إليه و العمل به
05:36
We have open-source tools for machine learning and intelligence
95
336776
3785
لدينا ادوات مفتوحة المصدر للتعلم الآلي و الذكاء
05:40
that we can contribute to.
96
340585
1734
التي يمكننا المساهمة فيها.
05:42
And beyond that, we can share our experience.
97
342919
3340
و بعد ذلك، يمكننا ان نشارك تجربتنا
05:46
We can share our experiences with technology and how it concerns us
98
346760
3468
يمكننا ان نشارك تجاربنا مع التكنولوجيا و كيف تقلقنا
05:50
and how it excites us.
99
350252
1467
و كيف تحمسنا.
05:52
We can discuss what we love.
100
352251
1867
يمكننا مناقشة ما نحب.
05:55
We can communicate with foresight
101
355244
2031
يمكننا التواصل مع البصيرة
05:57
about the aspects of technology that could be more beneficial
102
357299
4857
عن جوانب التكنولوجيا التي سوف تكون مفيدة اكثر
06:02
or could be more problematic over time.
103
362180
2600
او التي قد تكون اكثر صعوبة مع مرور الوقت.
06:05
If we all focus on opening up the discussion on AI
104
365799
4143
لو ركزنا على الانفتاح في مناقشة الذكاء الاصطناعي
06:09
with foresight towards the future,
105
369966
1809
مع البصيرة تجاه المستقبل،
06:13
this will help create a general conversation and awareness
106
373093
4270
هذا سوف يساعد على خلق محادثات عامة و وعي
06:17
about what AI is now,
107
377387
2513
عن ما هو الذكاء الأصطناعي الآن،
06:21
what it can become
108
381212
2001
و ماذا سوف يكون
06:23
and all the things that we need to do
109
383237
1785
و كل الأشياء التي نحن بحاجة ان نفعلها
06:25
in order to enable that outcome that best suits us.
110
385046
3753
من أجل تحقيق هذه النتيجة، بما يناسبنا
06:29
We already see and know this in the technology that we use today.
111
389490
3674
نحن نرى و نعلم بالفعل هذا في التكنولوجيا التي نستخدمها اليوم.
06:33
We use smart phones and digital assistants and Roombas.
112
393767
3880
نحن نستخدم الهواتف الذكية والآلات الحاسبة و المكانس الحديثة.
06:38
Are they evil?
113
398457
1150
هل هي مضرة؟
06:40
Maybe sometimes.
114
400268
1547
أحيانا في بعض الأوقات.
06:42
Are they beneficial?
115
402664
1333
هل هي نافعة ؟
06:45
Yes, they're that, too.
116
405005
1533
نعم، انها كذلك ايضا.
06:48
And they're not all the same.
117
408236
1761
و كلها ليست مثل بعض
06:50
And there you already see a light shining on what the future holds.
118
410489
3540
وهناك ترى بالفعل ضوءا ساطعا يدل على ما يحمله المستقبل.
06:54
The future continues on from what we build and create right now.
119
414942
3619
المستقبل لا يزال مستمر بفضل الذي نبنيه و ننشئه الآن
06:59
We set into motion that domino effect
120
419165
2642
نبدأ في حركة تأثير الدينامو
07:01
that carves out AI's evolutionary path.
121
421831
2600
التي تقطع الطريق التطوري للذكاء الإصطناعي
07:05
In our time right now, we shape the AI of tomorrow.
122
425173
2871
في وقتنا الحالي نحن نشكل الذكاء الاصطناعي للغد.
07:08
Technology that immerses us in augmented realities
123
428566
3699
التكنولوجيا التي تغمرنا في الواقع المعزز
07:12
bringing to life past worlds.
124
432289
2566
يجلب الحياة لعوالم الماضي.
07:15
Technology that helps people to share their experiences
125
435844
4312
التكنولوجيا التي تساعد الناس على مشاركة تجاربهم
07:20
when they have difficulty communicating.
126
440180
2262
عندما يكون عندهم صعوبة في التواصل.
07:23
Technology built on understanding the streaming visual worlds
127
443323
4532
التكنولوجيا مبنية على فهم العوالم البصرية المتدفقة
07:27
used as technology for self-driving cars.
128
447879
3079
تستخدم كتكنولوجيا للسيارات ذاتية القيادة.
07:32
Technology built on understanding images and generating language,
129
452490
3413
التكنولوجيا مبنية على فهم الصور و إخراج اللغة،
07:35
evolving into technology that helps people who are visually impaired
130
455927
4063
تتطور التكنولوجيا التي تساعد الناس الذين يعانون من ضعف البصر
07:40
be better able to access the visual world.
131
460014
2800
لتكون اكثر قدرة على الوصول للعالم المرئي.
07:42
And we also see how technology can lead to problems.
132
462838
3261
و نحن ايضا نرى كيف يمكن أن تؤدي التكنولوجيا إلى مشكلات.
07:46
We have technology today
133
466885
1428
لدينا تكنولوجيا اليوم
07:48
that analyzes physical characteristics we're born with --
134
468337
3835
هذا يحلل الخصائص الجسمانية التي ولدنا بها --
07:52
such as the color of our skin or the look of our face --
135
472196
3272
مثل لون بشرتنا او منظر وجهنا --
07:55
in order to determine whether or not we might be criminals or terrorists.
136
475492
3804
من أجل تحديد إذا كان من الممكن أن نكون مجرمين أو إرهابين.
07:59
We have technology that crunches through our data,
137
479688
2905
لدينا تكنولوجيا بإمكانها اختراق بياناتنا،
08:02
even data relating to our gender or our race,
138
482617
2896
حتى البيانات المتعلقة بنوع جنسنا أوإثنيتنا،
08:05
in order to determine whether or not we might get a loan.
139
485537
2865
من أجل تحديد إذا كان بإمكاننا الحصول على قرض ام لا.
08:09
All that we see now
140
489494
1579
كل الذي نراه الآن
08:11
is a snapshot in the evolution of artificial intelligence.
141
491097
3617
هي مجرد لقطة في تطوير الذكاء الإصطناعي.
08:15
Because where we are right now,
142
495763
1778
لأننا حيث نوجد الآن،
08:17
is within a moment of that evolution.
143
497565
2238
في غضون لحظة من هذا التطور.
08:20
That means that what we do now will affect what happens down the line
144
500690
3802
هذا يعني إن ما يحدث الآن سيؤثر على ما يحدث بعده
08:24
and in the future.
145
504516
1200
و في المستقبل.
08:26
If we want AI to evolve in a way that helps humans,
146
506063
3951
إذا كنا نريد تطوير الذكاء الإصطناعي بطريقة تساعد البشر،
08:30
then we need to define the goals and strategies
147
510038
2801
إذن نحن بحاجة لمعرفة الأهداف و الاستراتيجيات
08:32
that enable that path now.
148
512863
1733
التي تمكننا من هذا الطريق الآن.
08:35
What I'd like to see is something that fits well with humans,
149
515680
3738
الذي أرغب في رؤيته هو شيء يتناسب بشكل جيد مع البشر،
08:39
with our culture and with the environment.
150
519442
2800
مع ثقافتنا و بيئتنا .
08:43
Technology that aids and assists those of us with neurological conditions
151
523435
4484
التكنولوجيا التي تساعد و تمكن هؤلاء الناس الذين يعانون من ظروف صعبة.
08:47
or other disabilities
152
527943
1721
أو ذوي الإحتياجات الخاصة
08:49
in order to make life equally challenging for everyone.
153
529688
3216
من جعل الحياة تحد مساو للجميع.
08:54
Technology that works
154
534097
1421
التكنولوجيا التي تعمل
08:55
regardless of your demographics or the color of your skin.
155
535542
3933
بغض النظر عن خلفيتك الاقتصادية أو لون بشرتك.
09:00
And so today, what I focus on is the technology for tomorrow
156
540383
4742
و حتى اليوم ما أركز عليه هو تكنولوجيا الغد
09:05
and for 10 years from now.
157
545149
1733
ولمدة عشر سنوات من الآن .
09:08
AI can turn out in many different ways.
158
548530
2634
الذكاء الإصطناعي يمكن أن يتحول لطرق مختلفة.
09:11
But in this case,
159
551688
1225
ولكن في هذه الحالة
09:12
it isn't a self-driving car without any destination.
160
552937
3328
أنها ليست سيارة ذاتية القيادة بدون أي هدف.
09:16
This is the car that we are driving.
161
556884
2400
هذه السيارة التي نسوقها.
09:19
We choose when to speed up and when to slow down.
162
559953
3595
نحن نختار متى نسرع و متى نبطئ.
09:23
We choose if we need to make a turn.
163
563572
2400
نحن نختار إذا كنا نريد ان نعمل جولة.
09:26
We choose what the AI of the future will be.
164
566868
3000
نحن نختار ماذا سيكون الذكاء الإصطناعي في المستقبل.
09:31
There's a vast playing field
165
571186
1337
هناك مجال واسع للعب
09:32
of all the things that artificial intelligence can become.
166
572547
2965
في كل الأشياء الذي يستطيع ان يفعلها الذكاء الإصطناعي.
09:36
It will become many things.
167
576064
1800
ستصبح أشياء عديدة.
09:39
And it's up to us now,
168
579694
1732
و الموضوع يرجع إلينا الآن،
09:41
in order to figure out what we need to put in place
169
581450
3061
من أجل معرفة ما نحن بحاجة لوضعه في المكان الصحيح
09:44
to make sure the outcomes of artificial intelligence
170
584535
3807
للتأكد من أن نتائج الذكاء الإصطناعي
09:48
are the ones that will be better for all of us.
171
588366
3066
ستكون الأفضل لنا جميعا.
09:51
Thank you.
172
591456
1150
شكرا.
09:52
(Applause)
173
592630
2187
(تصفيق)
حول هذا الموقع

سيقدم لك هذا الموقع مقاطع فيديو YouTube المفيدة لتعلم اللغة الإنجليزية. سترى دروس اللغة الإنجليزية التي يتم تدريسها من قبل مدرسين من الدرجة الأولى من جميع أنحاء العالم. انقر نقرًا مزدوجًا فوق الترجمة الإنجليزية المعروضة على كل صفحة فيديو لتشغيل الفيديو من هناك. يتم تمرير الترجمات بالتزامن مع تشغيل الفيديو. إذا كان لديك أي تعليقات أو طلبات ، يرجى الاتصال بنا باستخدام نموذج الاتصال هذا.

https://forms.gle/WvT1wiN1qDtmnspy7