Beware online "filter bubbles" | Eli Pariser

1,551,917 views ・ 2011-05-02

TED


व्हिडिओ प्ले करण्यासाठी कृपया खालील इंग्रजी सबटायटल्सवर डबल-क्लिक करा.

Translator: Chaitanya Shivade Reviewer: Ajay Mulay
00:15
Mark Zuckerberg,
0
15260
2000
मार्क झुकरबर्गला
00:17
a journalist was asking him a question about the news feed.
1
17260
3000
एक पत्रकार न्यूज फीड बद्दल प्रश्न विचारत होता.
00:20
And the journalist was asking him,
2
20260
2000
पत्रकाराने विचारले,
00:22
"Why is this so important?"
3
22260
2000
"हे इतकं महत्वाचं का आहे?"
00:24
And Zuckerberg said,
4
24260
2000
आणि झुकरबर्गने उत्तर दिले,
00:26
"A squirrel dying in your front yard
5
26260
2000
"तुमच्या अंगणात मेलेल्या एका खारीबद्दल
00:28
may be more relevant to your interests right now
6
28260
3000
तुम्हाला नक्कीच जास्ती कुतूहल असणार,
00:31
than people dying in Africa."
7
31260
3000
अफ्रिकेत मृत्यू पावणाऱ्या लोकांपेक्षा"
00:34
And I want to talk about
8
34260
2000
आणि या विचारावर आधारलेलं
00:36
what a Web based on that idea of relevance might look like.
9
36260
3000
वेब कसं असेल ह्या बद्दल मला आज बोलायचं आहे.
00:40
So when I was growing up
10
40260
2000
मी जेव्हा मेन जवळच्या
00:42
in a really rural area in Maine,
11
42260
2000
एका ग्रामीण भागात मोठा होत होतो,
00:44
the Internet meant something very different to me.
12
44260
3000
माझ्यासाठी इंटरनेटचा अर्थ खूपच वेगळा होता.
00:47
It meant a connection to the world.
13
47260
2000
त्याचा अर्थ जगाशी संबंध साधणे असा होता.
00:49
It meant something that would connect us all together.
14
49260
3000
ज्यामुळे आपण सगळे जोडले जाऊ असा होता.
00:52
And I was sure that it was going to be great for democracy
15
52260
3000
आणि मला खात्री होती की हे लोकशाहीसाठी
00:55
and for our society.
16
55260
3000
आणि समाजासाठी उज्ज्वल असणार आहे.
00:58
But there's this shift
17
58260
2000
पण इंटरनेटवरील माहितीच्या
01:00
in how information is flowing online,
18
60260
2000
प्रवाहामध्ये बदल झाला आहे,
01:02
and it's invisible.
19
62260
3000
आणि तो दिसून येत नाही.
01:05
And if we don't pay attention to it,
20
65260
2000
आणि जर आपण त्याकडे लक्ष दिले नाही,
01:07
it could be a real problem.
21
67260
3000
तर ती एक गंभीर समस्या होऊन बसेल.
01:10
So I first noticed this in a place I spend a lot of time --
22
70260
3000
माझ्या हे पहिल्यांदा लक्षात आलं ते अशा ठिकाणी जिथे मी खूप वेळ असतो --
01:13
my Facebook page.
23
73260
2000
माझं फेसबुक पेज.
01:15
I'm progressive, politically -- big surprise --
24
75260
3000
राजकीयदृष्ट्या मी पुरोगामी आहे -- आश्चर्यकारक --
01:18
but I've always gone out of my way to meet conservatives.
25
78260
2000
पण मी कायमच महत्प्रयत्न करून पुराणमतवाद्यांना भेटतो.
01:20
I like hearing what they're thinking about;
26
80260
2000
ते काय विचार करत आहेत हे ऐकायला मला आवडतं;
01:22
I like seeing what they link to;
27
82260
2000
मला जाणून घ्यायचं असतं त्यांना कशात रस आहे;
01:24
I like learning a thing or two.
28
84260
2000
मला पण आवडतं दोन चार गोष्टी शिकायला.
01:26
And so I was surprised when I noticed one day
29
86260
3000
आणि म्हणूनच एके दिवशी जेव्हा माझ्या फेसबूक पेज वरून
01:29
that the conservatives had disappeared from my Facebook feed.
30
89260
3000
पुराणमतवादी अदृष्य झाल्याचे लक्षात आले तेव्हा मी चकित झालो.
01:33
And what it turned out was going on
31
93260
2000
मग असं लक्षात आलं की
01:35
was that Facebook was looking at which links I clicked on,
32
95260
4000
फेसबूक मी क्लिक करत असलेल्या लिंक्सची नोंद करत होतं,
01:39
and it was noticing that, actually,
33
99260
2000
आणि हे टिपत होतं की
01:41
I was clicking more on my liberal friends' links
34
101260
2000
मी माझ्या पुराणमतवादी मित्रांच्या लिंक्सपेक्षा,
01:43
than on my conservative friends' links.
35
103260
3000
उदारमतवादी मित्रांच्या लिंक्स जास्ती क्लिक करत होतो.
01:46
And without consulting me about it,
36
106260
2000
आणि माझी परवानगी न घेता,
01:48
it had edited them out.
37
108260
2000
फेसबूकने त्यांना काढून टाकलं होतं.
01:50
They disappeared.
38
110260
3000
ते नाहीसे झाले होते.
01:54
So Facebook isn't the only place
39
114260
2000
वेबवर हे असे अदृष्य आणि पध्दतशीर रीतीने
01:56
that's doing this kind of invisible, algorithmic
40
116260
2000
बदल करणारी फेसबूक
01:58
editing of the Web.
41
118260
3000
ही एकमेव जागा नव्हे.
02:01
Google's doing it too.
42
121260
2000
गुगल सुध्दा हेच करतं.
02:03
If I search for something, and you search for something,
43
123260
3000
समजा मी काही सर्च केलं आणि तुम्ही काही सर्च केलं,
02:06
even right now at the very same time,
44
126260
2000
आत्ता या क्षणाला,
02:08
we may get very different search results.
45
128260
3000
तर आपल्याला वेगळे निकाल दिसू शकतात.
02:11
Even if you're logged out, one engineer told me,
46
131260
3000
मला एका अभियंत्याने सांगितलं की तुम्ही लॉग आउट केलं असेल तरी,
02:14
there are 57 signals
47
134260
2000
असे ५७ संकेत असतात
02:16
that Google looks at --
48
136260
3000
जे गुगल बघतं -
02:19
everything from what kind of computer you're on
49
139260
3000
अगदी तुम्ही कुठला कॉम्पुटर वापरत आहात,
02:22
to what kind of browser you're using
50
142260
2000
तुम्ही कुठला ब्राउझर वापरत आहात
02:24
to where you're located --
51
144260
2000
ह्या पासून ते तुम्ही कुठे आहात --
02:26
that it uses to personally tailor your query results.
52
146260
3000
या सारख्या गोष्टी वापरून दिसणारे निकाल खास तुमच्यासाठी बनवले जातात.
02:29
Think about it for a second:
53
149260
2000
ह्या गोष्टीचा क्षणभर विचार करा :
02:31
there is no standard Google anymore.
54
151260
4000
एक प्रमाण गुगल उरलंच नाहीये.
02:35
And you know, the funny thing about this is that it's hard to see.
55
155260
3000
आणि मजेदार गोष्ट अशी की हे लगेच दिसून येत नाही.
02:38
You can't see how different your search results are
56
158260
2000
तुम्हाला पट्कन कळत नाही की तुम्हाला दिसणारे निकाल
02:40
from anyone else's.
57
160260
2000
इतरांपेक्षा किती वेगळे आहेत ते.
02:42
But a couple of weeks ago,
58
162260
2000
काही आठवड्यांपूर्वी,
02:44
I asked a bunch of friends to Google "Egypt"
59
164260
3000
मी काही मित्रांना "इजिप्त" गुगल करून,
02:47
and to send me screen shots of what they got.
60
167260
3000
मिळणारे निकाल मला पाठवायला सांगितले.
02:50
So here's my friend Scott's screen shot.
61
170260
3000
तर माझा मित्र स्कॉटला हे निकाल मिळाले.
02:54
And here's my friend Daniel's screen shot.
62
174260
3000
आणि डॅनिएलला हे मिळाले.
02:57
When you put them side-by-side,
63
177260
2000
आपण जर, हे शेजारी ठेवून बघितले
02:59
you don't even have to read the links
64
179260
2000
तर वाचायची पण गरज भासणार नाही
03:01
to see how different these two pages are.
65
181260
2000
हे समजायला की ते किती वेगळे आहेत.
03:03
But when you do read the links,
66
183260
2000
पण जर तुम्ही खरंच निरखून बघितलं
03:05
it's really quite remarkable.
67
185260
3000
तर तुम्हाला आश्चर्य वाटेल.
03:09
Daniel didn't get anything about the protests in Egypt at all
68
189260
3000
गुगल ने दिलेल्या पहिल्या पानावर
03:12
in his first page of Google results.
69
192260
2000
डॅनिएलला इजिप्त मध्ये चाललेल्या संघर्षाबद्दल काहीच दिसले नाही.
03:14
Scott's results were full of them.
70
194260
2000
स्कॉट ला मिळणारे निकाल ह्या विषयाने भरले होते.
03:16
And this was the big story of the day at that time.
71
196260
2000
आणि ही त्या दिवसाची मोठी बातमी होती.
03:18
That's how different these results are becoming.
72
198260
3000
मिळणाऱ्या निकालांमध्ये असलेली तफावत ही इतकी मोठी आहे.
03:21
So it's not just Google and Facebook either.
73
201260
3000
तर हे फक्त गुगल आणि फेसबूक नाही करत.
03:24
This is something that's sweeping the Web.
74
204260
2000
हे साऱ्या वेब वर चालू आहे.
03:26
There are a whole host of companies that are doing this kind of personalization.
75
206260
3000
असे वैयक्तीकरण करणाऱ्या अनेक कंपन्या आहेत.
03:29
Yahoo News, the biggest news site on the Internet,
76
209260
3000
याहू न्यूज, इंटरनेटवरील बातम्यांचे सर्वात मोठे संकेतस्थळ,
03:32
is now personalized -- different people get different things.
77
212260
3000
वैयक्तीकरण करतात -- वेगवेगळ्या लोकांना वेगवेगळ्या गोष्टी दिसतात.
03:36
Huffington Post, the Washington Post, the New York Times --
78
216260
3000
हफिंगटन पोस्ट, द वॉशिंग्टन पोस्ट, द न्यूयॉर्क टाईम्स --
03:39
all flirting with personalization in various ways.
79
219260
3000
सगळे अनेक पद्धतीने वैयक्तीकरणाच्या मागे लागले आहेत.
03:42
And this moves us very quickly
80
222260
3000
आणि हे सगळं आपल्याला
03:45
toward a world in which
81
225260
2000
एका अशा जगात घेउन जातं
03:47
the Internet is showing us what it thinks we want to see,
82
227260
4000
जिथे इंटरनेट आपल्याला त्या गोष्टी दाखवेल ज्या त्याला वाटतं आपण बघाव्यात,
03:51
but not necessarily what we need to see.
83
231260
3000
पण ज्या आपल्याला बघायच्याच आहेत असं नाही.
03:54
As Eric Schmidt said,
84
234260
3000
जसे एरिक श्मिट म्हणाले,
03:57
"It will be very hard for people to watch or consume something
85
237260
3000
"लोकांना अशा गोष्टी बघणं किंवा मिळणं
04:00
that has not in some sense
86
240260
2000
खूप अवघड होऊन बसेल ज्या
04:02
been tailored for them."
87
242260
3000
खास त्यांच्यासाठी बनल्या नाहीत."
04:05
So I do think this is a problem.
88
245260
2000
म्हणून ही एक समस्या आहे असं मला वाटतं.
04:07
And I think, if you take all of these filters together,
89
247260
3000
आणि जर हे सगळे नियम एकत्र केले,
04:10
you take all these algorithms,
90
250260
2000
या पद्धती एकत्र केल्या,
04:12
you get what I call a filter bubble.
91
252260
3000
तर आपल्याला मिळेल एक पिंजरा.
04:16
And your filter bubble is your own personal,
92
256260
3000
आणि तुमचा पिंजरा हे तुमचं स्वतःचं
04:19
unique universe of information
93
259260
2000
एकमेव ऑनलाईन विश्व असतं.
04:21
that you live in online.
94
261260
2000
ज्या मध्ये तुम्ही ऑनलाईन जगत असता.
04:23
And what's in your filter bubble
95
263260
3000
आणि तुम्ही कोण आहात आणि
04:26
depends on who you are, and it depends on what you do.
96
266260
3000
तुम्ही काय करता हे तुमच्या पिंजऱ्यात काय आहे त्यावरून ठरेल.
04:29
But the thing is that you don't decide what gets in.
97
269260
4000
पण ह्या पिंजऱ्यात काय आहे हे तुम्हाला ठरवता येत नाही.
04:33
And more importantly,
98
273260
2000
आणि सर्वात महत्त्वाची गोष्ट म्हणजे
04:35
you don't actually see what gets edited out.
99
275260
3000
ह्यात घडणारे बदल पण तुमच्या हातात नसतात.
04:38
So one of the problems with the filter bubble
100
278260
2000
म्हणून ह्या पिंजऱ्याशी निगडीत महत्व्हाचा प्रश्न
04:40
was discovered by some researchers at Netflix.
101
280260
3000
नेटफ्लिक्सने शोधला.
04:43
And they were looking at the Netflix queues, and they noticed something kind of funny
102
283260
3000
ते नेटफ्लिक्सच्या प्रतीक्षावलीकडे बघत होते, आणि त्यांना एक मजेशीर गोष्ट दिसून आली
04:46
that a lot of us probably have noticed,
103
286260
2000
जी आपल्यापैकी अनेकांना दिसली असेल
04:48
which is there are some movies
104
288260
2000
की काही चित्रपट
04:50
that just sort of zip right up and out to our houses.
105
290260
3000
ह्या रांगेतून वेगाने वर येतात, थेट आपल्या घरापर्यंत.
04:53
They enter the queue, they just zip right out.
106
293260
3000
ते रांगेत प्रवेश करतात आणि क्षणात सर्वात पुढे असतात.
04:56
So "Iron Man" zips right out,
107
296260
2000
मग "आयर्न मेन" वेगाने पुढे जातो,
04:58
and "Waiting for Superman"
108
298260
2000
आणि "वेटिंग फॉर सुपरमॅन"
05:00
can wait for a really long time.
109
300260
2000
ला खूप वेळ लागतो.
05:02
What they discovered
110
302260
2000
त्यांच्या लक्षात आले की
05:04
was that in our Netflix queues
111
304260
2000
आपल्या नेटफ्लिक्स प्रतीक्षावलीमध्ये
05:06
there's this epic struggle going on
112
306260
3000
सतत एक द्वंद्व चालू असतं,
05:09
between our future aspirational selves
113
309260
3000
भविष्यातील स्वतःच्या महत्वाकांक्षी व्यक्तीमत्वामध्ये
05:12
and our more impulsive present selves.
114
312260
3000
आणि वर्तमानातल्या अविचारी व्यक्तीमत्वामध्ये.
05:15
You know we all want to be someone
115
315260
2000
तुम्ही सगळे जाणता की आपल्यातील प्रत्येकालाच ती व्यक्ती बनायचं असतं
05:17
who has watched "Rashomon,"
116
317260
2000
ज्यांनी "राशोमान" बघितला आहे,
05:19
but right now
117
319260
2000
पण आत्ता
05:21
we want to watch "Ace Ventura" for the fourth time.
118
321260
3000
आम्हाला "एस व्हेंचुरा" चौथ्यांदा बघायचा आहे.
05:24
(Laughter)
119
324260
3000
(हशा)
05:27
So the best editing gives us a bit of both.
120
327260
2000
म्हणून उत्कृष्ट संपादन आपल्याला दोन्ही देतं.
05:29
It gives us a little bit of Justin Bieber
121
329260
2000
थोडसं जस्टीन बीबर
05:31
and a little bit of Afghanistan.
122
331260
2000
आणि थोडं अफगाणिस्तान.
05:33
It gives us some information vegetables;
123
333260
2000
थोडी माहितीची भाजी;
05:35
it gives us some information dessert.
124
335260
3000
तर थोडी माहितीची मिठाई.
05:38
And the challenge with these kinds of algorithmic filters,
125
338260
2000
ह्या इंटरनेटमधल्या पद्धतीमध्ये,
05:40
these personalized filters,
126
340260
2000
ह्या वैयक्तीकरणाच्या नियमांमध्ये हीच गोम आहे,
05:42
is that, because they're mainly looking
127
342260
2000
कारण ते तुमच्या
05:44
at what you click on first,
128
344260
4000
प्रासंगिक क्लिक्स कडे बघतात,
05:48
it can throw off that balance.
129
348260
4000
ज्यामुळे तो समतोल बिघडू शकतो.
05:52
And instead of a balanced information diet,
130
352260
3000
आणि माहितीच्या संतुलित आहाराच्या ऐवजी,
05:55
you can end up surrounded
131
355260
2000
तुम्ही माहितीच्या
05:57
by information junk food.
132
357260
2000
"जंक फूड" ने तुम्ही घेरले जाता.
05:59
What this suggests
133
359260
2000
हे आपल्याला असं सुचवतं की
06:01
is actually that we may have the story about the Internet wrong.
134
361260
3000
आपले इंटरनेटबद्दलचे समज चुकीचे आहेत.
06:04
In a broadcast society --
135
364260
2000
एका प्रसारण माध्यमात --
06:06
this is how the founding mythology goes --
136
366260
2000
काही मूलभूत दंतकथा अशा आहेत --
06:08
in a broadcast society,
137
368260
2000
प्रसारण माध्यमात,
06:10
there were these gatekeepers, the editors,
138
370260
2000
काही वृत्त अनुज्ञापक होते, संपादक होते,
06:12
and they controlled the flows of information.
139
372260
3000
आणि ते माहितीचा प्रवाह नियंत्रित करत असत.
06:15
And along came the Internet and it swept them out of the way,
140
375260
3000
आणि मग इंटरनेट आले आणि त्यांना वाहून नेले,
06:18
and it allowed all of us to connect together,
141
378260
2000
ज्यामुळे आपण सगळे एकत्र आलो,
06:20
and it was awesome.
142
380260
2000
आणि हे सगळं फारच मस्त होतं.
06:22
But that's not actually what's happening right now.
143
382260
3000
पण आत्ता जे होत आहे, ते असं नाही आहे.
06:26
What we're seeing is more of a passing of the torch
144
386260
3000
आपण आत्ता बघत आहोत की
06:29
from human gatekeepers
145
389260
2000
मानवी वृत्त अनुज्ञापकांपासून वारसा
06:31
to algorithmic ones.
146
391260
3000
संगणकीय अनुज्ञापकांकडे जात आहे.
06:34
And the thing is that the algorithms
147
394260
3000
आणि वास्तव हे आहे की ह्या संगणकीय पद्धतींमध्ये
06:37
don't yet have the kind of embedded ethics
148
397260
3000
अजून मानवीय नीतिमत्ता नक्कीच आलेली नाही
06:40
that the editors did.
149
400260
3000
जी त्या संपादकांकडे होती.
06:43
So if algorithms are going to curate the world for us,
150
403260
3000
त्यामुळे जर ह्या पद्धती आपल्या जगाचे अभिरक्षण करणार असतील,
06:46
if they're going to decide what we get to see and what we don't get to see,
151
406260
3000
जर त्या ठरवणार असतील आपलयाला काय बघायला मिळेल आणि काय बघायला मिळणार नाही,
06:49
then we need to make sure
152
409260
2000
तर ह्याची खात्री केली पाहिजे की
06:51
that they're not just keyed to relevance.
153
411260
3000
त्या फक्त सुसंबंधतेनी संकुचित नाही आहेत.
06:54
We need to make sure that they also show us things
154
414260
2000
ह्याची खात्री केली पाहिजे की त्या आपल्याला अश्या गोष्टी पण दाखवतील
06:56
that are uncomfortable or challenging or important --
155
416260
3000
ज्यामुळे आपण अस्वस्थ होऊ, ज्या आव्हानात्मक आहेत किंवा महत्वाच्या आहेत --
06:59
this is what TED does --
156
419260
2000
टेड हेच तर करत आहे --
07:01
other points of view.
157
421260
2000
वेगळे दृष्टीकोन.
07:03
And the thing is, we've actually been here before
158
423260
2000
आणि महत्त्वाचं म्हणजे आपण समाज म्हणून ह्या गोष्टींना
07:05
as a society.
159
425260
2000
पूर्वी सामोरी गेलो आहोत.
07:08
In 1915, it's not like newspapers were sweating a lot
160
428260
3000
१९१५ साली, वृत्तपत्र आपल्या नागरिक जबाबदा-यांबद्दल
07:11
about their civic responsibilities.
161
431260
3000
कुशल होते असे मुळीच नाही.
07:14
Then people noticed
162
434260
2000
मग लोकांच्या लक्षात आले की
07:16
that they were doing something really important.
163
436260
3000
ते करत असलेल्या गोष्टी खरच महत्त्वाच्या आहेत.
07:19
That, in fact, you couldn't have
164
439260
2000
आणि, खरं तर,
07:21
a functioning democracy
165
441260
2000
माहितीचा निखळ प्रवाह असल्या शिवाय
07:23
if citizens didn't get a good flow of information,
166
443260
4000
लोकशाही कार्यक्षम असू शकत नाही.
07:28
that the newspapers were critical because they were acting as the filter,
167
448260
3000
वृत्तपत्र समीक्षणात्मक होते, कारण ते माहिती नियंत्रित करत होते,
07:31
and then journalistic ethics developed.
168
451260
2000
आणि त्यातून पत्रकारितेतील नैतिकता निर्माण झाली.
07:33
It wasn't perfect,
169
453260
2000
ती निर्दोष नव्हती,
07:35
but it got us through the last century.
170
455260
3000
पण त्यातून आपण मागचे शतक तरलो.
07:38
And so now,
171
458260
2000
आणि त्यामुळे आता
07:40
we're kind of back in 1915 on the Web.
172
460260
3000
वेबवर आपण परत १९१५ मध्ये आलो आहोत.
07:44
And we need the new gatekeepers
173
464260
3000
आता गरज आहे ती नवीन अनुज्ञापकांची
07:47
to encode that kind of responsibility
174
467260
2000
जे ही जबाबदारी पेलतील
07:49
into the code that they're writing.
175
469260
2000
नवीन संगणकीय प्रणाली लिहिताना.
07:51
I know that there are a lot of people here from Facebook and from Google --
176
471260
3000
मला माहिती आहे, की फेसबूक आणि गुगल मधील अनेक लोक इथे आहेत --
07:54
Larry and Sergey --
177
474260
2000
लॅरी आणि सर्जी --
07:56
people who have helped build the Web as it is,
178
476260
2000
अशी लोकं ज्यांनी वेब आज जसे आहे ते उभारण्यात मदत केली,
07:58
and I'm grateful for that.
179
478260
2000
आणि त्यासाठी मी त्यांचा ऋणी आहे.
08:00
But we really need you to make sure
180
480260
3000
पण आज आम्हाला ह्याची खरच गरज आहे की
08:03
that these algorithms have encoded in them
181
483260
3000
तुम्ही लिहिलेल्या ह्या संगणकीय पद्धतीमध्ये
08:06
a sense of the public life, a sense of civic responsibility.
182
486260
3000
सार्वजनिक जीवनाची जाणीव आहे, एक नागरिक जबाबदारी आहे.
08:09
We need you to make sure that they're transparent enough
183
489260
3000
तुम्ही ह्याची खात्री केली पाहिजे की हे नियम पारदर्शक आहेत
08:12
that we can see what the rules are
184
492260
2000
जेणेकरून हे कळेल की कुठल्या नियमांमुळे
08:14
that determine what gets through our filters.
185
494260
3000
कुठली माहिती पोहोचते.
08:17
And we need you to give us some control
186
497260
2000
आणि तुम्ही आम्हाला ह्या नियमांवर थोडं नियंत्रण दिलं पाहिजे
08:19
so that we can decide
187
499260
2000
ज्यामुळे आम्हाला हे ठरवता येईल की,
08:21
what gets through and what doesn't.
188
501260
3000
कुठली माहिती पोहोचते आणि कुठली नाही.
08:24
Because I think
189
504260
2000
कारण मला असं खरच वाटतं की
08:26
we really need the Internet to be that thing
190
506260
2000
इंटरनेट तसच असलं पाहिजे जे
08:28
that we all dreamed of it being.
191
508260
2000
आपल्या सगळ्यांच्या स्वप्नात होतं.
08:30
We need it to connect us all together.
192
510260
3000
त्यामुळे आपण सगळे जोडले गेले आहोत.
08:33
We need it to introduce us to new ideas
193
513260
3000
त्यामुळे आपल्याला नवीन कल्पनांची,
08:36
and new people and different perspectives.
194
516260
3000
नवीन लोकांची आणि वेगवेगळ्या मतांची ओळख होते.
08:40
And it's not going to do that
195
520260
2000
आणि जर आपण एकाकी अश्या वेबमध्ये अडकलो
08:42
if it leaves us all isolated in a Web of one.
196
522260
3000
जे प्रत्येकालाच इतरांपासून दूर नेत असेल तर हे होणार नाही.
08:45
Thank you.
197
525260
2000
धन्यवाद .
08:47
(Applause)
198
527260
11000
(टाळ्या)
या वेबसाइटबद्दल

ही साइट इंग्रजी शिकण्यासाठी उपयुक्त असलेल्या YouTube व्हिडिओंची ओळख करून देईल. जगभरातील उत्कृष्ट शिक्षकांनी शिकवलेले इंग्रजी धडे तुम्हाला दिसतील. तेथून व्हिडिओ प्ले करण्यासाठी प्रत्येक व्हिडिओ पृष्ठावर प्रदर्शित केलेल्या इंग्रजी उपशीर्षकांवर डबल-क्लिक करा. उपशीर्षके व्हिडिओ प्लेबॅकसह समक्रमितपणे स्क्रोल करतात. तुमच्या काही टिप्पण्या किंवा विनंत्या असल्यास, कृपया हा संपर्क फॉर्म वापरून आमच्याशी संपर्क साधा.

https://forms.gle/WvT1wiN1qDtmnspy7