How we can build AI to help humans, not hurt us | Margaret Mitchell

80,996 views ・ 2018-03-12

TED


वीडियो चलाने के लिए कृपया नीचे दिए गए अंग्रेजी उपशीर्षक पर डबल-क्लिक करें।

Translator: Amol P. Pachchhapurkar Reviewer: Arvind Patil
00:13
I work on helping computers communicate about the world around us.
0
13381
4015
मैं कम्प्यूटर्स को हमारी दुनिया के बारे में बातचीत करने में मदद करती हूँ.
00:17
There are a lot of ways to do this,
1
17754
1793
ये करने के कई सारे तरीके हैं,
00:19
and I like to focus on helping computers
2
19571
2592
मैं कम्प्यूटर्स को उन चीजों के बारे में
00:22
to talk about what they see and understand.
3
22187
2874
बात करना सिखाती हूँ, जिन्हें वे देखते और समझते हैं.
00:25
Given a scene like this,
4
25514
1571
ये तस्वीर दिखाने पर, एक आधुनिक
00:27
a modern computer-vision algorithm
5
27109
1905
कम्प्यूटर का दृष्टि अल्गोरिदम आपको
00:29
can tell you that there's a woman and there's a dog.
6
29038
3095
ये बता सकता है कि तस्वीर में एक महिला और कुत्ता हैं.
00:32
It can tell you that the woman is smiling.
7
32157
2706
ये आपको बता सकता है कि वह महिला मुस्कुरा रही है.
00:34
It might even be able to tell you that the dog is incredibly cute.
8
34887
3873
ये आपको बता सकता है कि वह कुत्ता बहुत क्यूट है.
00:38
I work on this problem
9
38784
1349
मैं इस प्रश्न पर विचार करती
00:40
thinking about how humans understand and process the world.
10
40157
4212
हूँ, कि मनुष्य विश्व को कैसे देखते और समझते हैं.
00:45
The thoughts, memories and stories
11
45577
2952
ऐसे चित्र को देखकर इंसान को किस तरह
00:48
that a scene like this might evoke for humans.
12
48553
2818
के विचार, यादें और कहानियां याद आएँगी.
00:51
All the interconnections of related situations.
13
51395
4285
इससे ताल्लुक रखने वाली सब परिस्थितियाँ.
00:55
Maybe you've seen a dog like this one before,
14
55704
3126
शायद आपने ऐसा कुत्ता कहीं देखा हो,
00:58
or you've spent time running on a beach like this one,
15
58854
2969
या बीच पर ऐसे दौड़ लगायी हो,
01:01
and that further evokes thoughts and memories of a past vacation,
16
61847
4778
और पुरानी छुट्टियों की यादें ताज़ा हो गयी हों,
01:06
past times to the beach,
17
66649
1920
बीच पर बिताया हुआ समय,
01:08
times spent running around with other dogs.
18
68593
2603
दूसरे कुत्तों के साथ भागते हुए.
01:11
One of my guiding principles is that by helping computers to understand
19
71688
5207
मेरा एक निर्देशक सिद्धांत ये है कि, अगर हम कंप्यूटर को इन अनुभवों
01:16
what it's like to have these experiences,
20
76919
2896
को समझने के काबिल बना सकें, और ये सिखा सकें
01:19
to understand what we share and believe and feel,
21
79839
5176
कि हमारे विचार और भावनाएं क्या हैं, और हम क्या साझा करना चाहते हैं,
01:26
then we're in a great position to start evolving computer technology
22
86094
4310
तो हम कम्प्यूटर तकनीक को उस तरह से विकसित करने की स्तिथि में होंगे
01:30
in a way that's complementary with our own experiences.
23
90428
4587
जो हमारे अनुभवों के लिए पूरक सिद्ध होगी.
01:35
So, digging more deeply into this,
24
95539
3387
इस विषय पर गहराई में जाने के लिए,
01:38
a few years ago I began working on helping computers to generate human-like stories
25
98950
5905
कुछ साल पहले, मैंने कम्प्यूटर को, तस्वीरों की श्रृंखला से, मनुष्यों जैसे
01:44
from sequences of images.
26
104879
1666
कहानियां बनाना सिखाया.
01:47
So, one day,
27
107427
1904
एक दिन,
01:49
I was working with my computer to ask it what it thought about a trip to Australia.
28
109355
4622
मैंने अपने कम्प्यूटर से पुछा कि उसका, ऑस्ट्रेलिया जाने के बारेमें क्या विचार है.
01:54
It took a look at the pictures, and it saw a koala.
29
114768
2920
उसने तस्वीरों में कोआला को देखा.
01:58
It didn't know what the koala was,
30
118236
1643
उसे नहीं पता था कि कोआला क्या है
01:59
but it said it thought it was an interesting-looking creature.
31
119903
2999
पर उसने कहा कि यह एक दिलचस्प जीव है.
02:04
Then I shared with it a sequence of images about a house burning down.
32
124053
4004
फिर मैंने एक जलते हुए घर की तस्वीर दिखाई.
02:09
It took a look at the images and it said,
33
129704
3285
उसको देखकर उसने कहा,
02:13
"This is an amazing view! This is spectacular!"
34
133013
3500
"ये एक विस्मयकारी एवं विहंगम दृश्य है!"
02:17
It sent chills down my spine.
35
137450
2095
यह सुनकर मुझे बहुत डर लगा.
02:20
It saw a horrible, life-changing and life-destroying event
36
140983
4572
ये एक भयानक, जीवन-विध्वंसक, जीवन-परिवर्तक घटना को
02:25
and thought it was something positive.
37
145579
2382
देखकर सोच रहा है कि यह सकारात्मक है.
02:27
I realized that it recognized the contrast,
38
147985
3441
मुझे समझ आया कि उसने तस्वीर के कंट्रास्ट
02:31
the reds, the yellows,
39
151450
2699
को देखा, लाल और पीले रंग, और सोचा
02:34
and thought it was something worth remarking on positively.
40
154173
3078
कि इस पर सकारात्मक बोलना चाहिए.
02:37
And part of why it was doing this
41
157928
1615
और ये ऐसे इसलिए कर रहा था क्यूँकि
02:39
was because most of the images I had given it
42
159577
2945
मैंने जो भी तस्वीरें उसको दी थीं, ज्यादातर
02:42
were positive images.
43
162546
1840
सकारात्मक थीं.
02:44
That's because people tend to share positive images
44
164903
3658
लोग हमेशा अपने अनुभवों पर बात करते हुए,
02:48
when they talk about their experiences.
45
168585
2190
सकारात्मक तस्वीरें ही साझा करते हैं.
02:51
When was the last time you saw a selfie at a funeral?
46
171267
2541
क्या आपने कभी शवयात्रा पर ली हुई सेल्फी देखी है?
02:55
I realized that, as I worked on improving AI
47
175434
3095
मैंने जाना कि जैसे मैं AI के विकास पर
02:58
task by task, dataset by dataset,
48
178553
3714
कार्य कर रही थी, मैं उसमें पाठ-दर-पाठ,
03:02
that I was creating massive gaps,
49
182291
2897
बड़ी कमियाँ पैदा कर रही थी,
03:05
holes and blind spots in what it could understand.
50
185212
3999
उसकी समझने की क्षमता में बड़ी कमी छोड़ रही थी.
03:10
And while doing so,
51
190307
1334
ऐसा करते हुए, मैं उसमे
03:11
I was encoding all kinds of biases.
52
191665
2483
कई तरह के पूर्वाग्रह डाल रही थी.
03:15
Biases that reflect a limited viewpoint,
53
195029
3318
पूर्वाग्रह जो सीमित दृष्टिकोण दर्शाते हैं,
03:18
limited to a single dataset --
54
198371
2261
जो सिर्फ़ एक तथ्य तक सीमित हैं -
03:21
biases that can reflect human biases found in the data,
55
201283
3858
लोगों के पूर्वाग्रह दर्शाते हैं, जो डेटा से मिलते हैं, जैसे कि
03:25
such as prejudice and stereotyping.
56
205165
3104
पक्षपात और विचार बद्धता.
03:29
I thought back to the evolution of the technology
57
209554
3057
मैंने विचार किया कि तकनीकि विकास
03:32
that brought me to where I was that day --
58
212635
2502
कैसे हुआ
03:35
how the first color images
59
215966
2233
और कैसे, प्रथम रंगीन तस्वीरों में
03:38
were calibrated against a white woman's skin,
60
218223
3048
त्वचा के रंग को पश्चिमी देशोंकी गोरी महिला के रंग से नापा गया,
03:41
meaning that color photography was biased against black faces.
61
221665
4145
मतलब, रंगीन तस्वीरें काली चमड़ी के हिसाब से नहीं बनायी गयीं थी.
03:46
And that same bias, that same blind spot
62
226514
2925
और यह पूर्वाग्रह,
03:49
continued well into the '90s.
63
229463
1867
90 के दशक में भी विद्यमान था.
03:51
And the same blind spot continues even today
64
231701
3154
और यही पूर्वाग्रह आज भी मौजूद है,
03:54
in how well we can recognize different people's faces
65
234879
3698
चेहरा पहचान करनेवाली तकनीक में, कैसे
03:58
in facial recognition technology.
66
238601
2200
विभिन्न रंग के चेहरों की पहचान होती है.
04:01
I though about the state of the art in research today,
67
241323
3143
मैंने सोचा - कैसे हम आधुनिक खोजों में भी,
04:04
where we tend to limit our thinking to one dataset and one problem.
68
244490
4514
अपनी सोच को एक समस्या के हिसाब से सीमित रखते हैं.
04:09
And that in doing so, we were creating more blind spots and biases
69
249688
4881
ऐसे में, हम कई कमियों और पूर्वाग्रहों को छोड़ रहे हैं
04:14
that the AI could further amplify.
70
254593
2277
जो AI से अधिक विस्तारित हो जायेंगी.
04:17
I realized then that we had to think deeply
71
257712
2079
मुझे लगा कि हमें यह विचार करना चाहिए
04:19
about how the technology we work on today looks in five years, in 10 years.
72
259815
5519
कि जिस तकनीक को हम आज विकसित कर रहे हैं, वह 5-10 साल बाद कैसी होगी.
04:25
Humans evolve slowly, with time to correct for issues
73
265990
3142
मनुष्य का विकास धीरे होता है, और पर्यावरण के साथ सामंजस्य बिठाने
04:29
in the interaction of humans and their environment.
74
269156
3534
में होने वाली समस्याओं को सुलझाने का पर्याप्त समय होता है.
04:33
In contrast, artificial intelligence is evolving at an incredibly fast rate.
75
273276
5429
इसके विपरीत, AI तेजी से विकसित हो रहा है.
04:39
And that means that it really matters
76
279013
1773
इसका मतलब यह है कि, हमें आज
04:40
that we think about this carefully right now --
77
280810
2317
ही इस विषय पर ध्यान देने की जरुरत है -
04:44
that we reflect on our own blind spots,
78
284180
3008
कि हम अपने पूर्वाग्रहों के बारे में
04:47
our own biases,
79
287212
2317
सोच विचार करें, और देखें कि
04:49
and think about how that's informing the technology we're creating
80
289553
3857
कैसे हम आज विकसित होने वाली तकनीक में इसको सम्मिलित कर रहे हैं,
04:53
and discuss what the technology of today will mean for tomorrow.
81
293434
3902
और तर्क करें कि भविष्य में इस तकनीक का कैसे इस्तेमाल होगा.
04:58
CEOs and scientists have weighed in on what they think
82
298593
3191
वैज्ञानिकों और CEOs ने AI तकनीक पर
05:01
the artificial intelligence technology of the future will be.
83
301808
3325
गहन चिंतन किया हुआ है.
05:05
Stephen Hawking warns that
84
305157
1618
स्टीफन हौकिंग सावधान करते हैं -
05:06
"Artificial intelligence could end mankind."
85
306799
3007
"AI मानव जाति को खत्म कर सकती है"
05:10
Elon Musk warns that it's an existential risk
86
310307
2683
एलोन मस्क इसे अस्तित्व सम्बन्धी
05:13
and one of the greatest risks that we face as a civilization.
87
313014
3574
सबसे बड़ा खतरा बताते हैं.
05:17
Bill Gates has made the point,
88
317665
1452
बिल गेट्स का कहना है -
05:19
"I don't understand why people aren't more concerned."
89
319141
3185
"मुझे समझ नहीं आता की लोग इस बारे में चिंतित क्यों नहीं हैं."
05:23
But these views --
90
323412
1318
यह सब विचार -
05:25
they're part of the story.
91
325618
1734
इस प्रक्रिया का भाग हैं.
05:28
The math, the models,
92
328079
2420
वह गणित, वह तंत्र, जो AI
05:30
the basic building blocks of artificial intelligence
93
330523
3070
तकनीक के मूलभूत खंड हैं, जिनपर हमारी पहुँच है
05:33
are something that we call access and all work with.
94
333617
3135
और जिसपर हम काम कर रहे हैं.
05:36
We have open-source tools for machine learning and intelligence
95
336776
3785
मशीनों को सिखाने के लिए ओपन-सोर्स सॉफ्टवेर
05:40
that we can contribute to.
96
340585
1734
में हम सब योगदान दे सकते हैं.
05:42
And beyond that, we can share our experience.
97
342919
3340
और हम अपने अनुभव साझा कर सकते हैं.
05:46
We can share our experiences with technology and how it concerns us
98
346760
3468
तकनीक को लेकर हमारे अनुभव साझा कर सकते हैं कि हमें कैसे चिंतित करता है,
05:50
and how it excites us.
99
350252
1467
अथवा कैसे हमें जोश दिलाता है.
05:52
We can discuss what we love.
100
352251
1867
पसंद के विषय पर संवाद कर सकते हैं.
05:55
We can communicate with foresight
101
355244
2031
दूरदृष्टि रखते हुए, तकनीक के
05:57
about the aspects of technology that could be more beneficial
102
357299
4857
फायदेमंद और समस्याजनक पहलुओं
06:02
or could be more problematic over time.
103
362180
2600
पर विचार कर सकते हैं.
06:05
If we all focus on opening up the discussion on AI
104
365799
4143
भविष्य के बारे में सोचते हुए
06:09
with foresight towards the future,
105
369966
1809
अगर हम AI पर संवाद करें
06:13
this will help create a general conversation and awareness
106
373093
4270
तो सामान्यजन को इस तकनीक
06:17
about what AI is now,
107
377387
2513
के आज के स्वरुप और भविष्य
06:21
what it can become
108
381212
2001
की संभावनाओ से अवगत कराया जा सकता है,
06:23
and all the things that we need to do
109
383237
1785
और विचार किया जा सकता है
06:25
in order to enable that outcome that best suits us.
110
385046
3753
कि कैसे उपयोगी परिणाम खोजे जाएँ.
06:29
We already see and know this in the technology that we use today.
111
389490
3674
हम समझते हैं कि कैसे इस तकनीक का आज इस्तेमाल हो रहा है.
06:33
We use smart phones and digital assistants and Roombas.
112
393767
3880
हम स्मार्ट फोन, डिजिटल असिस्टेंट (सीरी) और रूम्बा का इस्तेमाल करते हैं.
06:38
Are they evil?
113
398457
1150
क्या वे बुरे हैं?
06:40
Maybe sometimes.
114
400268
1547
कभी कभी, शायद हाँ.
06:42
Are they beneficial?
115
402664
1333
क्या वे फायदेमंद हैं?
06:45
Yes, they're that, too.
116
405005
1533
हाँ, वह भी है.
06:48
And they're not all the same.
117
408236
1761
और ये पहले जैसे नहीं हैं.
06:50
And there you already see a light shining on what the future holds.
118
410489
3540
आप सोच सकते हैं कि भविष्य में ये कैसे होंगे.
06:54
The future continues on from what we build and create right now.
119
414942
3619
हम आज जो निर्माण कर रहे हैं, भविष्य उसपर निर्भर करता है.
06:59
We set into motion that domino effect
120
419165
2642
हमें आगे की चाल तय करनी है,
07:01
that carves out AI's evolutionary path.
121
421831
2600
कि AI तकनीक में आगे क्या होगा.
07:05
In our time right now, we shape the AI of tomorrow.
122
425173
2871
हम आज तय करेंगे कि, भविष्य में AI कैसा होगा.
07:08
Technology that immerses us in augmented realities
123
428566
3699
वह तकनीक जो संवर्धित सत्यता (ऑगमेंटेड रियलिटी)
07:12
bringing to life past worlds.
124
432289
2566
से पुरानी दुनिया से हमें अवगत कराती है.
07:15
Technology that helps people to share their experiences
125
435844
4312
वह तकनीक जो लोगों को अनुभव साझा करने में मदद करती है,
07:20
when they have difficulty communicating.
126
440180
2262
जब वह बात करने कि स्थिति में नहीं होते.
07:23
Technology built on understanding the streaming visual worlds
127
443323
4532
वह तकनीक, जो कैमरे से दुनिया को समझ कर,
07:27
used as technology for self-driving cars.
128
447879
3079
बिना ड्राईवर के चलने वाली कार का निर्माण करने में मदद करती है.
07:32
Technology built on understanding images and generating language,
129
452490
3413
वह तकनीक, जो तस्वीरों को समझ कर,
07:35
evolving into technology that helps people who are visually impaired
130
455927
4063
भाषा में परिवर्तित करती है,
07:40
be better able to access the visual world.
131
460014
2800
जिससे नेत्रहीन व्यक्तियों का जीवन आसान हो पायेगा.
07:42
And we also see how technology can lead to problems.
132
462838
3261
हम ये देख रहे हैं कि तकनीक समस्याएं भी पैदा कर रही है.
07:46
We have technology today
133
466885
1428
हमारे पास तकनीक है
07:48
that analyzes physical characteristics we're born with --
134
468337
3835
जो हमारी पैदाईशी प्राकृतिक गुणों, जैसे -
07:52
such as the color of our skin or the look of our face --
135
472196
3272
चमड़ी का रंग या चेहरे की बनावट - का अध्ययन
07:55
in order to determine whether or not we might be criminals or terrorists.
136
475492
3804
करके बताती है कि हम अपराधी या आतंकवादी तो नहीं.
07:59
We have technology that crunches through our data,
137
479688
2905
हमारे पास तकनीक है जो हमारे व्यक्तिगत आंकड़ों से
08:02
even data relating to our gender or our race,
138
482617
2896
जैसे- लिंग अथवा प्रजाति- से यह तय करती है,
08:05
in order to determine whether or not we might get a loan.
139
485537
2865
कि हम लोन के हकदार हैं या नहीं.
08:09
All that we see now
140
489494
1579
आज जैसे आप जनते हो ,
08:11
is a snapshot in the evolution of artificial intelligence.
141
491097
3617
वह भविष्य में इसके विकास का संकेतक है.
08:15
Because where we are right now,
142
495763
1778
क्यूँकि हम आज जहाँ हैं, वहाँ से
08:17
is within a moment of that evolution.
143
497565
2238
कृत्रिम बुद्धिमत्ता का विकास तेजी से होगा.
08:20
That means that what we do now will affect what happens down the line
144
500690
3802
इसलिए आज हम जो करेंगे वह भविष्य के लिए
08:24
and in the future.
145
504516
1200
अत्यंत महत्त्वपूर्ण होगा.
08:26
If we want AI to evolve in a way that helps humans,
146
506063
3951
अगर हम AI को मानवता की भलाई के लिए
08:30
then we need to define the goals and strategies
147
510038
2801
इस्तेमाल होता देखना चाहते हैं तो हमें इसके लक्ष्य और रणनीति
08:32
that enable that path now.
148
512863
1733
अभी तय करने होंगे.
08:35
What I'd like to see is something that fits well with humans,
149
515680
3738
मैं देखना पसंद करुँगी कि AI, मानवता,
08:39
with our culture and with the environment.
150
519442
2800
सभ्यता और पर्यावरण के साथ घुलमिल जाए.
08:43
Technology that aids and assists those of us with neurological conditions
151
523435
4484
AI वह तकनीक हो, जो गंभीर रूप से
08:47
or other disabilities
152
527943
1721
बीमार या विकलांगों
08:49
in order to make life equally challenging for everyone.
153
529688
3216
का जीवन सहज कर सके.
08:54
Technology that works
154
534097
1421
AI वह तकनीक हो, जो चमड़ी के
08:55
regardless of your demographics or the color of your skin.
155
535542
3933
रंग या प्रजाति के आधार पर भेद किये बिना काम करे.
09:00
And so today, what I focus on is the technology for tomorrow
156
540383
4742
आज मेरा ध्यान है कि यह तकनीक 10 साल
09:05
and for 10 years from now.
157
545149
1733
बाद कैसे इस्तेमाल होगी.
09:08
AI can turn out in many different ways.
158
548530
2634
AI कई दिशाओं में विकसित हो सकती है.
09:11
But in this case,
159
551688
1225
पर यह ऐसी अपने-आप
09:12
it isn't a self-driving car without any destination.
160
552937
3328
चलनेवाली कार न हो, जिसकी कोई मंजिल नहीं.
09:16
This is the car that we are driving.
161
556884
2400
इस कार को हम चला रहे हैं.
09:19
We choose when to speed up and when to slow down.
162
559953
3595
हम तय करेंगे कि कब तेज या धीरे चलानी है.
09:23
We choose if we need to make a turn.
163
563572
2400
हम तय करेंगे कि कब मुड़ना है.
09:26
We choose what the AI of the future will be.
164
566868
3000
हम तय करेंगे कि AI का भविष्य कैसा होगा.
09:31
There's a vast playing field
165
571186
1337
भविष्य में AI
09:32
of all the things that artificial intelligence can become.
166
572547
2965
कैसा होगा, इसकी कई संभावनाएं हैं.
09:36
It will become many things.
167
576064
1800
ये कई रूप ले सकता है.
09:39
And it's up to us now,
168
579694
1732
और ये हमें तय करना है,
09:41
in order to figure out what we need to put in place
169
581450
3061
कि AI का उपयोग कैसे हो,
09:44
to make sure the outcomes of artificial intelligence
170
584535
3807
और इसके परिणाम ऐसे हों,
09:48
are the ones that will be better for all of us.
171
588366
3066
जो हम सबके लिए बेहतर हो.
09:51
Thank you.
172
591456
1150
धन्यवाद.
09:52
(Applause)
173
592630
2187
(तालियाँ और प्रशंसा)
इस वेबसाइट के बारे में

यह साइट आपको YouTube वीडियो से परिचित कराएगी जो अंग्रेजी सीखने के लिए उपयोगी हैं। आप दुनिया भर के शीर्षस्थ शिक्षकों द्वारा पढ़ाए जाने वाले अंग्रेजी पाठ देखेंगे। वहां से वीडियो चलाने के लिए प्रत्येक वीडियो पृष्ठ पर प्रदर्शित अंग्रेजी उपशीर्षक पर डबल-क्लिक करें। उपशीर्षक वीडियो प्लेबैक के साथ सिंक में स्क्रॉल करते हैं। यदि आपकी कोई टिप्पणी या अनुरोध है, तो कृपया इस संपर्क फ़ॉर्म का उपयोग करके हमसे संपर्क करें।

https://forms.gle/WvT1wiN1qDtmnspy7