Is AI Progress Stuck? | Jennifer Golbeck | TED

127,456 views ・ 2024-11-19

TED


वीडियो चलाने के लिए कृपया नीचे दिए गए अंग्रेजी उपशीर्षक पर डबल-क्लिक करें।

Translator: Imran Khan Reviewer: Shivanshi Rohatgi
00:04
We've built artificial intelligence already
0
4334
2878
हमने पहले से ही कृत्रिम बुद्धिमत्ता का निर्माण किया है
00:07
that, on specific tasks, performs better than humans.
1
7212
3837
जो विशिष्ट कार्यों पर, मनुष्यों की तुलना में बेहतर प्रदर्शन करता है।
00:11
There's AI that can play chess and beat human grandmasters.
2
11049
4505
यहाँ AI है जो शतरंज खेल सकता है और ग्रैंडमास्टर्स को हरा सकता है।
00:15
But since the introduction of generative AI
3
15595
2336
लेकिन कुछ साल पहले जनरेटिव एआई को
00:17
to the general public a couple years ago,
4
17973
2544
आम जनता के लिए पेश किए जाने के बाद से,
00:20
there's been more talk about artificial general intelligence, or AGI,
5
20517
5297
आर्टिफिशियल जनरल इंटेलिजेंस या एजीआई के बारे में अधिक चर्चा हुई है,
00:25
and that describes the idea
6
25814
1418
और यह इस विचार को बताता है
00:27
that there's AI that can perform at or above human levels
7
27232
3879
कि एआई है जो विभिन्न प्रकार के कार्यों पर मानव स्तर
00:31
on a wide variety of tasks, just like we humans are able to do.
8
31152
4004
पर या उससे ऊपर के कार्यों को कर सकता है, ठीक उसी तरह जैसे हम इंसान कर सकते हैं।
00:35
And people who think about AGI are worried about what it means
9
35615
3587
और जो लोग AGI के बारे में सोचते हैं, वे इस बात को लेकर चिंतित हैं कि
00:39
if we reach that level of performance in the technology.
10
39244
3754
अगर हम तकनीक में प्रदर्शन के उस स्तर तक पहुँच जाते हैं तो इसका क्या मतलब है।
00:42
Right now, there's people from the tech industry
11
42998
2252
अभी, तकनीकी उद्योग के लोग बाहर
00:45
coming out and saying
12
45292
1126
आ रहे हैं और कह रहे हैं
00:46
"The AI that we're building is so powerful and dangerous
13
46459
2962
“हम जो AI बना रहे हैं वह इतना शक्तिशाली और खतरनाक है
00:49
that it poses a threat to civilization.”
14
49462
2711
कि यह सभ्यता के लिए खतरा बन गया है।”
00:52
And they’re going to government and saying,
15
52173
2002
और वे सरकार के पास जा कर कह रहे हैं,
00:54
"Maybe you need to regulate us."
16
54217
1794
“आपको हमें नियंत्रित चाहिए”
00:56
Now normally when an industry makes a powerful new tool,
17
56052
2878
आम तौर पर जब कोई उद्योग एक शक्तिशाली नया उपकरण बनाता है, तो
00:58
they don't say it poses an existential threat to humanity
18
58930
2920
वे यह नहीं कहते कि यह मानवता के अस्तित्व के लिए खतरा है
01:01
and that it needs to be limited, so why are we hearing that language?
19
61891
3963
और इसे सीमित करने की आवश्यकता है, तो हम उस भाषा को क्यों सुन रहे हैं?
01:05
And I think there's two main reasons.
20
65895
2128
और मुझे लगता है कि इसके दो मुख्य कारण हैं।
01:08
One is if your technology is so powerful
21
68064
4046
एक तो यह
01:12
that it can destroy civilization, between now and then,
22
72152
4171
कि अगर आपकी तकनीक इतनी शक्तिशाली है कि वह सभ्यता को नष्ट कर सकती है,
01:16
there's an awful lot of money to be made with that.
23
76364
3003
तो अभी और तब के बीच, इससे बहुत सारा पैसा कमाया जा सकता है।
01:19
And what better way to convince your investors
24
79409
2461
और अपने निवेशकों को अपने साथ पैसे रखने के इससे अच्छा
01:21
to put some money with you
25
81911
1252
तरीका क्या हो सकता है
01:23
than to warn that your tool is that dangerous?
26
83204
3045
कि यह चेतावनी दी जाए कि आपका टूल इतना खतरनाक है?
01:26
The other is that the idea of AI overtaking humanity
27
86291
3587
दूसरी बात यह है कि एआई का मानवता से आगे निकलने का विचार
01:29
is truly a cinematic concept.
28
89878
2169
वास्तव में एक सिनेमाई अवधारणा है।
01:32
We’ve all seen those movies.
29
92088
2127
हम सभी ने उन फ़िल्मों को देखा है।
01:34
And it’s kind of entertaining to think about what that would mean now
30
94215
3379
और यह सोचना मनोरंजक है कि अब ऐसे टूल के
01:37
with tools that we're actually able to put our hands on.
31
97636
3461
साथ इसका क्या मतलब होगा, जिन पर हमारे हाथ में हैं ।
01:41
In fact, it’s so entertaining that it’s a very effective distraction
32
101097
4505
वास्तव में, यह इतना मनोरंजक है कि AI की वजह से दुनिया में पहले
01:45
from the real problems already happening in the world because of AI.
33
105644
4879
से हो रही वास्तविक समस्याओं से ध्यान भटकाना बहुत प्रभावी है।
01:50
The more we think about these improbable futures,
34
110565
3879
जितना अधिक हम इन असंभव भविष्य के बारे में सोचते हैं,
01:54
the less time we spend thinking about how do we correct deepfakes
35
114486
4004
उतना ही कम समय हम यह सोचने में बिताते हैं कि हम डीपफेक को कैसे ठीक करते हैं
01:58
or the fact that there's AI right now being used to decide
36
118531
3462
या यह तथ्य कि अभी एआई का इस्तेमाल यह तय करने के लिए किया जा रहा है
02:01
whether or not people are let out of prison,
37
121993
2086
कि लोगों को जेल से बाहर निकाला जाए या नहीं,
02:04
and we know it’s racially biased.
38
124079
2127
और हम जानते हैं कि यह नस्लीय पक्षपाती है।
02:06
But are we anywhere close to actually achieving AGI?
39
126665
3503
लेकिन क्या हम वास्तव में एजीआई हासिल करने के करीब हैं?
02:10
Some people think so.
40
130210
1334
कुछ लोग ऐसा सोचते हैं।
02:11
Elon Musk said that we'll achieve it within a year.
41
131544
2419
एलोन मस्क ने कहा कि इसे एक साल में हासिल कर लेंगे।
02:13
I think he posted this a few weeks ago.
42
133963
2128
मेरे ख़्याल से ऐसी कुछ हफ़्ते पूर्व की पोस्ट थी।
02:16
But like at the same time
43
136132
1502
लेकिन ठीक उसी समय
02:17
Google put out their eye search tool that's supposed to give you the answer
44
137676
3753
Google ने अपना आई सर्च टूल जारी किया, जो आपको जवाब देने वाला है,
02:21
so you don’t have to click on a link,
45
141471
1919
ताकि आपको एक लिंक पर क्लिक न करना पड़े,
02:23
and it's not going super well.
46
143431
2169
और यह बहुत अच्छा नहीं चल रहा है।
02:25
["How many rocks should I eat?"]
47
145642
1543
[मुझे कितनी चट्टान खानी चाहिए?]
02:27
["... at least a single serving of pebbles, geodes or gravel ..."]
48
147227
3128
[... कंकड़, जियोड या बजरी की कम से कम एक सर्विंग... ]
02:30
Please don't eat rocks.
49
150355
1209
कृपया चट्टानें न खाएं।
02:31
(Laughter)
50
151564
1168
(हँसी)
02:32
Now of course these tools are going to get better.
51
152732
3003
अब बेशक ये उपकरण बेहतर होने वाले हैं।
02:35
But if we're going to achieve AGI
52
155777
2836
लेकिन अगर हम AGI हासिल करने जा रहे हैं
02:38
or if they're even going to fundamentally change the way we work,
53
158613
3420
या फिर वे हमारे काम करने के तरीके को मूलभूत रूप से बदलने जा रहे हैं, तो
02:42
we need to be in a place where they are continuing
54
162075
2628
हमें ऐसी जगह पर रहना होगा,
02:44
on a sharp upward trajectory in terms of their abilities.
55
164703
3795
जहाँ वे अपनी क्षमताओं के मामले में तेज़ी से ऊपर की ओर बढ़ रहे हों।
02:48
And that may be one path.
56
168498
1835
और यह एक रास्ता हो सकता है।
02:50
But there's also the possibility that what we're seeing
57
170375
2586
लेकिन यह भी संभावना है कि हम जो देख रहे हैं वह
02:53
is that these tools have basically achieved
58
173002
2420
यह है कि इन उपकरणों ने मूल रूप से वह हासिल किया है
02:55
what they're capable of doing,
59
175422
1501
जो वे करने में सक्षम हैं,
02:56
and the future is incremental improvements in a plateau.
60
176923
4129
और भविष्य में तेज़ी से वृद्धिशील सुधार होंगे।
03:01
So to understand the AI future,
61
181052
2211
इसलिए AI के भविष्य को समझने के लिए,
03:03
we need to look at all the hype around it and get under there
62
183304
2920
हमें इसके सभी प्रचार को देखना होगा और इसके तह तक पहुंचना होगा
03:06
and see what's technically possible.
63
186266
1751
और यह कि तकनीकी रूप से क्या संभव है।
03:08
And we also need to think about where are the areas that we need to worry
64
188017
3462
और सूचना है कि वे कौनसे क्षेत्र हैं जिनके बारे में चिंता की ज़रूरत है
03:11
and where are the areas that we don't.
65
191479
1835
और वे क्षेत्र जिनकी नहीं है।
03:13
So if we want to realize the hype around AI,
66
193857
3086
इसलिए यदि हम AI के सारे प्रचार को साकार करना चाहते हैं,
03:16
the one main challenge that we have to solve is reliability.
67
196985
3712
तो एक मुख्य चुनौती जो हमें हल करनी है, वह है विश्वसनीयता।
03:20
These algorithms are wrong all the time, like we saw with Google.
68
200697
4421
ये एल्गोरिदम हर समय गलत होते हैं, जैसा कि हमने Google के साथ देखा था।
03:25
And Google actually came out and said,
69
205118
2002
और Google ने वास्तव में सामने आकर कहा,
03:27
after these bad search results were popularized,
70
207162
3211
इन खराब खोज परिणामों के लोकप्रिय होने के बाद, उन्हें
03:30
that they don't know how to fix this problem.
71
210415
2169
नहीं पता कि इस समस्या को कैसे दूर करें।
03:32
I use ChatGPT every day.
72
212625
1335
मैं रोज़ ChatGPT काम लेता हूं
03:34
I write a newsletter that summarizes discussions on far-right message boards,
73
214002
3754
मैं एक न्यूज़लेटर लिखता हूं जो संदेश बोर्डों का सार बनाता है,
03:37
and so I download that data,
74
217797
1377
और मैं डेटा डाउनलोड करता हूं
03:39
ChatGPT helps me write a summary.
75
219174
1918
ChatGPT मुझे सार लिखने में मदद करता है.
03:41
And it makes me much more efficient than if I had to do it by hand.
76
221134
4546
और यह मुझे हाथ से करने की तुलना में बहुत अधिक कुशल बनाता है।
03:45
But I have to correct it every day
77
225722
2044
लेकिन मुझे इसे हर दिन सुधारना पड़ता है
03:47
because it misunderstands something,
78
227766
1751
क्योंकि यह किसी चीज को गलत समझता है,
03:49
it takes out the context.
79
229559
1793
यह संदर्भ को हटा देता है।
03:51
And so because of that,
80
231394
1877
और इसलिए इस वजह से,
03:53
I can't just rely on it to do the job for me.
81
233313
2752
मैं अपना काम करने के लिए सिर्फ इस पर भरोसा नहीं कर सकता।
03:56
And this reliability is really important.
82
236107
2878
और यह विश्वसनीयता वास्तव में महत्वपूर्ण है।
03:58
Now a subpart of reliability in this space is AI hallucination,
83
238985
5255
अब इस क्षेत्र में विश्वसनीयता का एक हिस्सा एआई हेलुसिनेशन है, जो इस तथ्य के लिए
04:04
a great technical term for the fact that AI just makes stuff up
84
244282
3587
एक महान तकनीकी शब्द है कि एआई बहुत समय के लिए चीजें बनाता है.
04:07
a lot of the time.
85
247911
1418
कई बार ऐसा
04:09
I did this in my newsletter.
86
249370
1377
मैंने न्यूज़लेटर में किया है
04:10
I said, ChatGPT are there any people threatening violence?
87
250747
3128
मैंने कहा, ChatGPT क्या कुछ लोग हिंसा की धमकी दे रहे हैं?
04:13
If so, give me the quotes.
88
253917
1251
यदि ऐसा है तो मुझे हवाला दें
04:15
And it produced these three really clear threats of violence
89
255210
2919
और इसने हिंसा के इन तीन स्पष्ट खतरों को जन्म दिया,
04:18
that didn't sound anything like people talk
90
258171
2002
जो ऐसा नहीं लगता था कि लोग इन संदेशबोर्डों
04:20
on these message boards.
91
260215
1167
पर बात करते हैं।
04:21
And I went back to the data, and nobody ever said it.
92
261424
2503
और मैं डेटा पर वापस गया, और किसी ने भी यह नहीं कहा।
04:23
It just made it up out of thin air.
93
263927
2252
यह बस हवा में ही बना लिया था ।
04:26
And you may have seen this if you've used an AI image generator.
94
266221
3044
यदि आपने AI इमेज जनरेटर का उपयोग किया है तो आपने इसे देखा होगा।
04:29
I asked it to give me a close up of people holding hands.
95
269265
3295
मैंने इसे लोगों का नज़दीक से हाथ पकड़ने के लिए कहा था।
04:32
That's a hallucination and a disturbing one at that.
96
272602
3295
यह एक भ्रम है और इससे परेशानी होती है।
04:35
(Laughter)
97
275939
1710
(हँसी)
04:37
We have to solve this hallucination problem
98
277649
3086
अगर यह AI प्रचार पर खरा उतरने वाला है, तो
04:40
if this AI is going to live up to the hype.
99
280777
3003
हमें इस मतिभ्रम की समस्या को हल करना होगा।
04:43
And I don't think it's a solvable problem.
100
283780
2878
और मुझे नहीं लगता कि यह हल करने योग्य समस्या है।
04:46
With the way this technology works, there are people who say,
101
286699
2878
जिस तरह से यह तकनीक काम करती है, ऐसे लोग हैं जो कहते हैं,
04:49
we're going to have it taken care of in a few months,
102
289619
2544
हम कुछ महीनों में इस पर ध्यान देने जा रहे हैं,
04:52
but there’s no technical reason to think that’s the case.
103
292163
2711
लेकिन ऐसा सोचने का कोई तकनीकी कारण नहीं है।
04:54
Because generative AI always makes stuff up.
104
294874
3420
क्योंकि जनरेटिव AI हमेशा चीजें बनाता है।
04:58
When you ask it a question,
105
298294
1418
जब आप इससे प्रश्न पूछते हैं
04:59
it's creating that answer or creating that image from scratch
106
299754
4254
तो यह उस उत्तर को बना रहा है या आपके पूछने पर शुरुआत से
05:04
when you ask.
107
304050
1168
उस चित्र को बना रहा है।
05:05
It's not like a search engine that goes and finds the right answer on a page.
108
305218
3670
यह एक सर्च इंजन की तरह नहीं है जो जाकर किसी पेज पर सही उत्तर ढूंढता है।
05:08
And so because its job is to make things up every time,
109
308888
3879
और इसलिए क्योंकि इसका काम हर बार चीजों को तैयार करना है,
05:12
I don't know that we're going to be able to get it to make up correct stuff
110
312767
3587
मुझे नहीं पता कि हम इसे सही चीजें बनाने में सक्षम होने जा रहे हैं
05:16
and then not make up other stuff.
111
316354
1627
और फिर दूसरी चीजें नहीं बनाएंगे।
05:17
That's not what it's trained to do,
112
317981
1710
इसे इसके लिए प्रशिक्षि नहीं किया गया है
05:19
and we're very far from achieving that.
113
319732
2128
और हम इसे हासिल करने से बहुत दूर हैं।
05:21
And in fact, there are spaces where they're trying really hard.
114
321901
3170
और वास्तव में, ऐसी जगहें हैं जहाँ वे वास्तव में कड़ी मेहनत कर रहे हैं।
05:25
One space that there's a lot of enthusiasm for AI
115
325113
2627
एक जगह जहां AI के लिए बहुत उत्साह है,
05:27
is in the legal area
116
327740
1335
वह कानूनी क्षेत्र में है,
05:29
where they hope it will help write legal briefs or do research.
117
329117
3420
जहां उन्हें उम्मीद है कि यह कानूनी सार लिखने या शोध में मदद करेगा।
05:32
Some people have found out the hard way
118
332579
2168
कुछ लोगों को यह मुश्किल तरीका पता चल गया है
05:34
that they should not write legal briefs right now with ChatGPT
119
334789
3837
कि उन्हें अभी ChatGPT के साथ कानूनी ब्रीफ़ नहीं लिखना चाहिए, और
05:38
and send them to federal court,
120
338668
1501
फ़ेडरल कोर्ट नहीं भेजना चाहिए,
05:40
because it just makes up cases that sound right.
121
340211
3379
क्योंकि इससे सिर्फ़ ऐसे केस बनते हैं जो सही लगते हैं।
05:43
And that's a really fast way to get a judge mad at you
122
343631
2836
और किसी जज को आप पर तेज़ी से गुस्सा दिलाने और
05:46
and to get your case thrown out.
123
346509
1752
केस को खारिज कराने का तरीका है।
05:49
Now there are legal research companies right now
124
349012
2544
अब ऐसी कानूनी शोध कंपनियां हैं
05:51
that advertise hallucination-free
125
351598
2961
जो मतिभ्रम मुक्त जनरेटिव एआई
05:54
generative AI.
126
354559
1626
का विज्ञापन करती हैं।
05:56
And I was really dubious about this.
127
356561
3003
और मुझे इस बारे में बहुत संदेह था।
05:59
And researchers at Stanford actually went in and checked it,
128
359564
3628
और स्टैनफोर्ड के शोधकर्ताओं ने वास्तव में अंदर जाकर इसकी जाँच की,
06:03
and they found the best-performing of these hallucination-free tools
129
363192
3754
और पाया कि इन मतिभ्रम मुक्त उपकरणों का सबसे अच्छा प्रदर्शन करने वाला उपकरण
06:06
still hallucinates 17 percent of the time.
130
366946
2544
अभी भी 17 प्रतिशत मतिभ्रम करता है।
06:10
So like on one hand,
131
370158
1626
तो एक तरफ,
06:11
it's a great scientific achievement that we have built a tool
132
371826
3629
यह एक महान वैज्ञानिक उपलब्धि है कि हमने एक ऐसा टूल बनाया है
06:15
that we can pose basically any query to,
133
375496
2920
जिससे हम मूल रूप से कोई भी प्रश्न पूछ सकते हैं,
06:18
and 60 or 70 or maybe even 80 percent of the time
134
378458
3211
और 60 या 70 या शायद 80 प्रतिशत बार भी
06:21
it gives us a reasonable answer.
135
381711
1919
यह हमें उचित उत्तर देता है।
06:23
But if we're going to rely on using those tools
136
383963
2252
लेकिन अगर हम उन उपकरणों का उपयोग करने पर भरोसा
06:26
and they're wrong 20 or 30 percent of the time,
137
386257
2670
करने जा रहे हैं और वे 20 या 30 प्रतिशत समय गलत हैं, तो
06:28
there's no model where that's really useful.
138
388927
2961
ऐसा कोई मॉडल नहीं है जहां यह वास्तव में उपयोगी हो।
06:32
And that kind of leads us into
139
392472
2043
और यह हमें इस बात की ओर ले जाता है कि हम
06:34
how do we make these tools that useful?
140
394557
2002
इन टूल्स को इतना उपयोगी कैसे कर सकते हैं
06:36
Because even if you don't believe me
141
396601
1752
क्योंकि यदि आपको मुझ पर विश्वास न हो
06:38
and think we're going to solve this hallucination problem,
142
398353
2711
और लगता कि हम इस मतिभ्रम की समस्या को हल करने जा रहे हैं,
06:41
we're going to solve the reliability problem,
143
401105
2127
विश्वसनीयता की समस्या को हल करने जा रहे हैं
06:43
the tools still need to get better than they are now.
144
403274
2503
तो उपकरणों को अभी की तुलना में बेहतर होना चाहिए ।
06:45
And there's two things they need to do that.
145
405777
2085
और ऐसा करने के लिए दो चीज़ों की ज़रूरत है।
06:47
One is lots more data
146
407862
1168
एक तो बहुत अधिक डेटा है
06:49
and two is the technology itself has to improve.
147
409072
2294
और दूसरा यह है कि तकनीक को खुद ही सुधारना है।
06:51
So where are we going to get that data?
148
411783
1960
तो हमें वह डेटा कहाँ से मिलने वाला है?
06:53
Because they've kind of taken all the reliable stuff online already.
149
413785
3837
क्योंकि वे पहले से ही सभी विश्वसनीय चीजें ऑनलाइन ले चुके हैं।
06:57
And if we were to find twice as much data as they've already had,
150
417622
3295
और अगर हमें पहले से दोगुना डेटा मिल जाए, तो इसका मतलब यह नहीं है
07:00
that doesn't mean they're going to be twice as smart.
151
420959
2502
कि वे दोगुने स्मार्ट होने जा रहे हैं।
07:04
I don't know if there's enough data out there,
152
424295
2169
मुझे नहीं पता कि पर्याप्त डेटा है या नहीं,
07:06
and it's compounded by the fact
153
426506
1501
और यह इस तथ्य से जटिल है
07:08
that one way the generative AI has been very successful
154
428049
2920
कि एक तरह से जनरेटिव AI बहुत सफल रहा है, वह
07:10
is at producing low-quality content online.
155
430969
3211
निम्न-गुणवत्ता वाली सामग्री का ऑनलाइन उत्पादन कर रहा है ।
07:14
That's bots on social media, misinformation,
156
434222
3253
ये सोशल मीडिया पर बॉट्स हैं, गलत सूचनाएं हैं,
07:17
and these SEO pages that don't really say anything
157
437475
2377
और ये SEO पेज हैं जो वास्तव में कुछ नहीं कहते हैं,
07:19
but have a lot of ads and come up high in the search results.
158
439894
3212
पर इनमें बहुत से विज्ञापन होते हैं और खोज परिणामों में ऊपर आते हैं
07:23
And if the AI starts training on pages that it generated,
159
443106
4254
और अगर AI अपने द्वारा बनाए गए पेजों पर प्रशिक्षण देना शुरू करता है, तो
07:27
we know from decades of AI research that they just get progressively worse.
160
447360
4463
हम दशकों के AI शोध से जानते हैं कि वे उत्तरोत्तर बदतर होते जाते हैं।
07:31
It's like the digital version of mad cow disease.
161
451823
2794
यह पागल गाय रोग के डिजिटल संस्करण की तरह है।
07:34
(Laughter)
162
454951
1626
(हँसी)
07:36
Let's say we solve the data problem.
163
456577
2336
मान लें कि हम डेटा की समस्या का समाधान करते हैं।
07:39
You still have to get the technology better.
164
459247
2169
आपको अभी भी तकनीक को बेहतर बनाना है।
07:41
And we've seen 50 billion dollars in the last couple years
165
461457
3379
और हमने पिछले कुछ वर्षों में जनरेटिव AI को बेहतर बनाने के लिए
07:44
invested in improving generative AI.
166
464836
3128
50 बिलियन डॉलर का निवेश देखा है।
07:48
And that's resulted in three billion dollars in revenue.
167
468006
3336
और इससे तीन बिलियन डॉलर का राजस्व प्राप्त हुआ।
07:51
So that's not sustainable.
168
471342
1585
इसलिए यह टिकाऊ नहीं है। लेकिन,
07:52
But of course it's early, right?
169
472927
1543
निश्चित रूप से यह जल्दी है ना?
07:54
Companies may find ways to start using this technology.
170
474512
2586
कंपनियां इस तकनीक का प्रयोग शुरू करने के तरीके खोज सकती हैं।
07:57
But is it going to be valuable enough
171
477140
2752
लेकिन क्या यह उन दसियों और शायद सैकड़ों अरबों डॉलर
07:59
to justify the tens and maybe hundreds of billions of dollars
172
479934
3170
के हार्डवेयर को सही ठहराने के लिए
08:03
of hardware that needs to be bought
173
483146
2586
पर्याप्त मूल्य होगा, जिन्हें इन मॉडलों को बेहतर
08:05
to make these models get better?
174
485773
1835
बनाने के लिए खरीदा जाना चाहिए?
08:08
I don't think so.
175
488109
1126
मुझे ऐसा नहीं लगता।
08:09
And we can kind of start looking at practical examples to figure that out.
176
489277
3545
और हम इसका पता लगाने के लिए व्यावहारिक उदाहरण देखना शुरू कर सकते हैं।
08:12
And it leads us to think about where are the spaces we need to worry and not.
177
492864
3670
और सोचने को मजबूर करता है जिनके बारे में हमें चिंता करने की ज़रूरत है या नहीं
08:16
Because one place that everybody's worried with this
178
496576
2502
क्योंकि एक जगह जहां हर कोई इससे चिंतित है, वह यह है
08:19
is that AI is going to take all of our jobs.
179
499120
2085
कि AI हमारी सारी नौकरियां लेने जा रहा है।
08:21
Lots of people are telling us that’s going to happen,
180
501247
2503
बहुत से लोग हमें बता रहे हैं कि ऐसा होने वाला है,
08:23
and people are worried about it.
181
503750
1543
और लोग इसके बारे में चिंतित हैं।
08:25
And I think there's a fundamental misunderstanding at the heart of that.
182
505293
3420
और मुझे लगता है कि इसके मूल में एक मूलभूत गलतफहमी है, तो
08:28
So imagine this scenario.
183
508713
1209
इस दृश्य की कल्पना करें।
08:29
We have a company,
184
509922
1168
हमारे पास एक कंपनी है,
08:31
and they can afford to employ two software engineers.
185
511090
2628
और वे दो सॉफ़्टवेयर इंजीनियरों को नियुक्त कर सकते हैं।
08:33
And if we were to give those engineers some generative AI to help write code,
186
513760
4004
और अगर हम उन इंजीनियरों को कोड लिखने में मदद करने के लिए कुछ जनरेटिव AI दें,
08:37
which is something it's pretty good at,
187
517805
1877
जो कि काफी अच्छा काम है,
08:39
let's say they're twice as efficient.
188
519682
1794
मान लीजिए कि वे दोगुने कुशल हैं।
08:41
That's a big overestimate, but it makes the math easy.
189
521517
3462
यह बहुत बड़ा अनुमान है, लेकिन इससे गणित आसान हो जाता है।
08:45
So in that case, the company has two choices.
190
525021
2127
तो ऐसे में, कंपनी के पास दो विकल्प हैं।
08:47
They could fire one of those software engineers
191
527148
2336
वे सॉफ़्टवेयर इंजीनियरों में से एक को निकाल सकते हैं
08:49
because the other one can do the work of two people now,
192
529525
2670
क्योंकि दूसरा अब दो लोगों का काम कर सकता है,
08:52
or they already could afford two of them,
193
532195
3712
या वे दोनों को वहन कर सकते हैं,
08:55
and now they're twice as efficient,
194
535948
1877
और अब वे दोगुने कुशल हैं,
08:57
so they're bringing in more money.
195
537867
1627
इसलिए वे और पैसा ला रहे हैं।
08:59
So why not keep both of them and take that extra profit?
196
539535
3671
तो क्यों न उन दोनों को ही रखा जाए और उस अतिरिक्त लाभ को लिया जाए?
09:03
The only way this math fails is if the AI is so expensive
197
543247
4338
इस गणित के विफल होने का एकमात्र तरीका यह है कि अगर AI इतना महंगा है
09:07
that it's not worth it.
198
547585
1585
कि यह इसके लायक नहीं है।
09:09
But that would be like the AI is 100,000 dollars a year
199
549212
3670
लेकिन यह ऐसा होगा जैसे एक व्यक्ति के काम के लायक काम
09:12
to do one person's worth of work.
200
552882
2169
करने के लिए AI के पास सालाना 100,000 डॉलर हो।
09:15
So that sounds really expensive.
201
555093
2293
तो यह बहुत महंगा लगता है।
09:17
And practically,
202
557428
1377
और व्यावहारिक रूप से,
09:18
there are already open-source versions of these tools
203
558805
2836
इन उपकरणों के पहले से ही ओपन-सोर्स संस्करण हैं
09:21
that are low-cost, that companies can install and run themselves.
204
561682
3295
जो कम लागत वाले हैं, जिन्हें कंपनियां खुद इंस्टॉल और चला सकती हैं।
09:25
Now they don’t perform as well as the flagship models,
205
565019
2878
अब वे फ्लैगशिप मॉडल की तरह अच्छा प्रदर्शन नहीं करते हैं,
09:27
but if they're half as good and really cheap,
206
567939
3044
लेकिन अगर वे आधे अच्छे और वास्तव में सस्ते हैं,
09:30
wouldn't you take those over the one that costs 100,000 dollars a year
207
570983
3337
तो क्या आप एक व्यक्ति का काम करने के लिए सालाना 100,000 डॉलर खर्च वाले
09:34
to do one person's work?
208
574320
1168
के बजाय नहीं लेंगे ?
09:35
Of course you would.
209
575530
1167
बेशक आप करेंगे।
09:36
And so even if we solve reliability, we solve the data problem,
210
576697
3003
अतः चाहे विश्वसनीयता का समाधान कर लें डेटा की समस्या को हल कर लें
09:39
we make the models better,
211
579700
1585
हम मॉडल को बेहतर बनाते हैं,
09:41
the fact that there are cheap versions of this available
212
581285
3212
यह तथ्य कि इसके सस्ते संस्करण उपलब्ध हैं, यह
09:44
suggests that companies aren't going to be spending
213
584497
2419
बताता है कि कंपनियां अपने कर्मचारियों की
09:46
hundreds of millions of dollars to replace their workforce with AI.
214
586916
3712
संख्या को AI से बदलने के लिए करोड़ों डॉलर खर्च नहीं करने वाली हैं।
09:50
There are areas that we need to worry, though.
215
590670
2169
हालांकि ऐसे क्षेत्र हैं जहां चिंता की ज़रूरत है
09:52
Because if we look at AI now,
216
592839
1835
क्योंकि अगर हम अभी AI को देखें,
09:54
there are lots of problems that we haven't been able to solve.
217
594715
3045
तो बहुत सारी समस्याएं हैं जिन्हें हम हल नहीं कर पाए हैं।
09:58
I've been building artificial intelligence for over 20 years,
218
598094
3086
मैं 20 से अधिक वर्षों से आर्टिफिशियल इंटेलिजेंस बना रही हूं,
10:01
and one thing we know
219
601222
1710
और एक बात जो हम जानते हैं वह
10:02
is that if we train AI on human data,
220
602974
2919
यह है कि यदि हम मानव डेटा पर AI को प्रशिक्षित करते हैं,
10:05
the AI adopts human biases,
221
605935
2711
तो AI मानवीय पूर्वाग्रहों को अपनाता है,
10:08
and we have not been able to fix that.
222
608688
2586
और हम इसे ठीक नहीं कर पाए हैं।
10:11
We've seen those biases start showing up in generative AI,
223
611274
3545
हमने देखा है कि वे पूर्वाग्रह जनरेटिव एआई में दिखना शुरू हो जाते हैं,
10:14
and the gut reaction is always, well,
224
614861
2085
व अंतःप्रज्ञा की प्रतिक्रिया हमेशा होती है,
10:16
let's just put in some guardrails to stop the AI from doing the biased thing.
225
616988
4337
आइए एआई को पक्षपाती काम करने से रोकने के लिए बस कुछ पहरे लगाते हैं लेकिन
10:21
But one, that never fixes the bias because the AI finds a way around it.
226
621325
3587
एक जो कभी पूर्वाग्रह को ठीक नहीं करता है क्योंकि AI इससे रास्ता खोज लेता है
10:24
And two, the guardrails themselves can cause problems.
227
624954
3253
और दूसरा पहरा खुद समस्याएं पैदा कर सकता हैं।
10:28
So Google has an AI image generator,
228
628249
2628
इसलिए Google के पास AI इमेज जनरेटर है,
10:30
and they tried to put guardrails in place to stop the bias in the results.
229
630877
4087
और इसमें परिणामों में पूर्वाग्रह को रोकने के लिए पहरा लगाने की कोशिश की।
10:35
And it turned out it made it wrong.
230
635006
2210
और यह पता चला कि इससे यह गलत हो गया है।
10:37
This is a request for a picture
231
637258
1627
यह स्वतंत्रता की घोषणा पर
10:38
of the signing of the Declaration of Independence.
232
638926
2336
हस्ताक्षर करने की तस्वीर के लिए अनुरोध है।
10:41
And it's a great picture, but it is not factually correct.
233
641304
3879
और यह एक बेहतरीन तस्वीर है, लेकिन यह तथ्यात्मक रूप से सही नहीं है।
10:45
And so in trying to stop the bias,
234
645183
2460
और इसलिए पूर्वाग्रह को रोकने की कोशिश में,
10:47
we end up creating more reliability problems.
235
647685
4254
हम और अधिक विश्वसनीयता की समस्याएं पैदा करते हैं।
10:51
We haven't been able to solve this problem of bias.
236
651981
3670
हम पूर्वाग्रह की इस समस्या को हल नहीं कर पाए हैं।
10:55
And if we're thinking about deferring decision making,
237
655693
2794
और अगर हम निर्णय लेने को टालने, मानव निर्णय लेने वालों
10:58
replacing human decision makers and relying on this technology
238
658529
3712
को बदलने और इस तकनीक पर भरोसा करने के बारे में सोच रहे हैं
11:02
and we can't solve this problem,
239
662283
1793
और इस समस्या को हल नहीं कर सकते हैं
11:04
that's a thing that we should worry about
240
664076
2044
तो यह इसके बारे में चिंता करनी चाहिए और
11:06
and demand solutions to
241
666120
1293
इसके हल की मांग करनी चाहिए,
11:07
before it's just widely adopted and employed because it's sexy.
242
667455
3503
इससे पहले कि इसे व्यापक रूप से अपनाया जाए और उपयोग किया जाए क्योंकि यह सेक्सी है।
11:11
And I think there's one final thing that's missing here,
243
671459
3003
और मुझे लगता है कि यहाँ एक अंतिम चीज़ है जो गायब है,
11:14
which is our human intelligence
244
674503
1627
वह है हमारी मानवीय बुद्धिमत्ता
11:16
is not defined by our productivity at work.
245
676172
3378
जो कार्यस्थल पर हमारी उत्पादकता से परिभाषित नहीं होती है।
11:20
At its core, it's defined by our ability to connect with other people.
246
680092
4171
इसके मूल में, यह अन्य लोगों के साथ जुड़ने की हमारी क्षमता से परिभाषित होती है।
11:24
Our ability to have emotional responses,
247
684263
2670
भावनात्मक प्रतिक्रिया देने अपने अतीत को साथ ले जाने
11:26
to take our past and integrate it with new information
248
686974
2878
और उसे नई जानकारी के साथ एकीकृत करने
11:29
and creatively come up with new things.
249
689894
2294
और रचनात्मक रूप से नई चीजें लाने की हमारी क्षमता
11:32
And that’s something that artificial intelligence is not now
250
692188
2919
और यह कुछ ऐसा है जिसे आर्टिफिशियल इंटेलिजेंस अभी नहीं है और
11:35
nor will it ever be capable of doing.
251
695107
2461
न ही यह कभी कर पाएगा।
11:37
It may be able to imitate it
252
697610
1501
यह इसका अनुकरण कर सकता है
11:39
and give us a cheap facsimile of genuine connection
253
699153
3087
और हमें वास्तविक संबंध और सहानुभूति
11:42
and empathy and creativity.
254
702281
2127
और रचनात्मकता का एक सस्ता नमूना दे सकता है।
11:44
But it can't do those core things to our humanity.
255
704408
3671
लेकिन यह हमारी मानवता के लिए उन मूल चीजों को नहीं कर सकता है।
11:48
And that's why I'm not really worried about AGI taking over civilization.
256
708120
5047
और यही वजह है कि मैं वास्तव में एजीआई के सभ्यता पर कब्ज़ा करने से चिंतित नहीं हूँ।
11:53
But if you come away from this disbelieving everything I have told you,
257
713209
4504
लेकिन अगर आप मेरे द्वारा बताई गई हर बात को अविश्वास से दूर कर देते हैं,
11:57
and right now you're worried
258
717755
1460
और अभी आप AI अधिपतियों द्वारा
11:59
about humanity being destroyed by AI overlords,
259
719257
3003
मानवता को नष्ट किए जाने के बारे में चिंतित हैं,
12:02
the one thing to remember is,
260
722301
1877
तो एक बात याद रखें कि
12:04
despite what the movies have told you,
261
724220
2085
फिल्मों ने जो बताया है उसके बावजूद अगर
12:06
if it gets really bad,
262
726347
1460
यह बुरी तरह खराब हो जाता है
12:07
we still can always just turn it off.
263
727807
2919
तो भी हम इसे हमेशा बंद कर सकते हैं।
12:10
(Laughter)
264
730768
1001
(हँसी)
12:11
Thank you.
265
731769
1168
धन्यवाद
12:12
(Applause)
266
732979
3837
(तालियाँ)
इस वेबसाइट के बारे में

यह साइट आपको YouTube वीडियो से परिचित कराएगी जो अंग्रेजी सीखने के लिए उपयोगी हैं। आप दुनिया भर के शीर्षस्थ शिक्षकों द्वारा पढ़ाए जाने वाले अंग्रेजी पाठ देखेंगे। वहां से वीडियो चलाने के लिए प्रत्येक वीडियो पृष्ठ पर प्रदर्शित अंग्रेजी उपशीर्षक पर डबल-क्लिक करें। उपशीर्षक वीडियो प्लेबैक के साथ सिंक में स्क्रॉल करते हैं। यदि आपकी कोई टिप्पणी या अनुरोध है, तो कृपया इस संपर्क फ़ॉर्म का उपयोग करके हमसे संपर्क करें।

https://forms.gle/WvT1wiN1qDtmnspy7