Beware online "filter bubbles" | Eli Pariser

1,593,210 views ・ 2011-05-02

TED


Խնդրում ենք կրկնակի սեղմել ստորև ներկայացված անգլերեն ենթագրերի վրա՝ տեսանյութը նվագարկելու համար:

Translator: Gohar Khachatryan Reviewer: Arpiné Grigoryan
00:15
Mark Zuckerberg,
0
15260
2000
Մարկ Ցուկերբերգին
00:17
a journalist was asking him a question about the news feed.
1
17260
3000
մի անգամ լրագրողներից մեկը հարցրել է Ֆեյսբուքի լրահոսի /newsfeed/ մասին:
00:20
And the journalist was asking him,
2
20260
2000
Լրագրողը հարցրել է.
00:22
"Why is this so important?"
3
22260
2000
«Ինչու՞ է դա այդքան կարևոր»։
00:24
And Zuckerberg said,
4
24260
2000
Եվ Ցուկերբերգը պատասխանել է.
00:26
"A squirrel dying in your front yard
5
26260
2000
«Ձեր բակում մահացող սկյուռը
00:28
may be more relevant to your interests right now
6
28260
3000
այս պահին կարող է ձեր հետաքրքրություններին ավելի համապատասխանի,
00:31
than people dying in Africa."
7
31260
3000
քան Աֆրիկայում մահացող մարդիկ»։
00:34
And I want to talk about
8
34260
2000
Ես ցանկանում եմ խոսել այսօր այն մասին,
00:36
what a Web based on that idea of relevance might look like.
9
36260
3000
թե ինչ է դառնում ինտերնետը՝ երբ այն հիմնվում է ռելևանտության վրա:
00:40
So when I was growing up
10
40260
2000
Երբ ես մեծանում էի
00:42
in a really rural area in Maine,
11
42260
2000
Մայնում տեղակայված մի գյուղաբնակ վայրում,
00:44
the Internet meant something very different to me.
12
44260
3000
Ինտերնետը ինձ համար բոլորովին այլ բան էր նշանակում:
00:47
It meant a connection to the world.
13
47260
2000
Այն ինձ համար արտաքին աշխարհի հետ կապվելու միջոց էր:
00:49
It meant something that would connect us all together.
14
49260
3000
Այն մի բան էր, ինչը կարող է մեզ բոլորիս իրար միացնել:
00:52
And I was sure that it was going to be great for democracy
15
52260
3000
Եվ ես հավատացած էի, որ այն շատ լավ ազդեցություն է ունենալու ժողովրդավարության և
00:55
and for our society.
16
55260
3000
հասարակության վրա:
00:58
But there's this shift
17
58260
2000
Սակայն տեղի է ունեցել փոփոխություն,
01:00
in how information is flowing online,
18
60260
2000
տեղեկատվության օնլայն հոսքի ձևի մեջ,
01:02
and it's invisible.
19
62260
3000
և այդ փոփոխությունն անտեսանելի է:
01:05
And if we don't pay attention to it,
20
65260
2000
Եվ եթե մենք ուշադրություն չդարձնենք դրան,
01:07
it could be a real problem.
21
67260
3000
ապա այն կարող է վերածվել մի մեծ խնդրի:
01:10
So I first noticed this in a place I spend a lot of time --
22
70260
3000
Առաջին անգամ ես դա նկատեցի այնտեղ, որտեղ անցկացնում էի իմ ժամանակի հիմնական մասը՝
01:13
my Facebook page.
23
73260
2000
Ֆեյսբուքի իմ էջում:
01:15
I'm progressive, politically -- big surprise --
24
75260
3000
Իմ քաղաքական հայացքներով ես առաջադիմական եմ, սական անակնկալ՝
01:18
but I've always gone out of my way to meet conservatives.
25
78260
2000
ես միշտ անում էի ամեն հնարավոր բան, պահպանողականների հետ առնչվելու համար:
01:20
I like hearing what they're thinking about;
26
80260
2000
Ես սիրում եմ լսել, թե ինչ են նրանք մտածում,
01:22
I like seeing what they link to;
27
82260
2000
ես սիրում եմ տեսնել, թե ինչ հղումներով են միմյանց հետ կիսվում,
01:24
I like learning a thing or two.
28
84260
2000
սիրում եմ որոշակի բաներ սովորել իրենցից:
01:26
And so I was surprised when I noticed one day
29
86260
3000
Եվ մի օր ես անակընկալի եկա, երբ նկատեցի,
01:29
that the conservatives had disappeared from my Facebook feed.
30
89260
3000
որ պահպանողականների մասին տեղեկատվությունն անհետացել է իմ Ֆեյսբուքի լրահոսից:
01:33
And what it turned out was going on
31
93260
2000
Եվ պարզվեց,
01:35
was that Facebook was looking at which links I clicked on,
32
95260
4000
որ Ֆեյսբուքը հետևում է, թե ինչ էջեր եմ ես այցելում
01:39
and it was noticing that, actually,
33
99260
2000
և նշում այն,
01:41
I was clicking more on my liberal friends' links
34
101260
2000
որ ես ավելի հաճախ էի կարդում իմ լիբերալ ընկերների էջերը,
01:43
than on my conservative friends' links.
35
103260
3000
քան իմ պահպանողական ընկերների էջերը:
01:46
And without consulting me about it,
36
106260
2000
Եվ առանց ինձ հարցնելու
01:48
it had edited them out.
37
108260
2000
այն ամբողջովին ֆիլտրել է վերջիններս:
01:50
They disappeared.
38
110260
3000
Դրանք անհետացել էին:
01:54
So Facebook isn't the only place
39
114260
2000
Ֆեյսբուքը միակ տեղը չէ,
01:56
that's doing this kind of invisible, algorithmic
40
116260
2000
որն անում է նմանատիպ անտեսանելի ալգորիթմիկ
01:58
editing of the Web.
41
118260
3000
խմբագրումներ Ինտերնետում:
02:01
Google's doing it too.
42
121260
2000
Գուգլը նույնպես անում է դա:
02:03
If I search for something, and you search for something,
43
123260
3000
Եթե ես որևէ մի բանի որոնեմ, և դուք նույն բանը որոնեք
02:06
even right now at the very same time,
44
126260
2000
հենց այս պահին, այստեղ,
02:08
we may get very different search results.
45
128260
3000
մենք երկուսս էլ կստանանք տարբեր արդյունքներ:
02:11
Even if you're logged out, one engineer told me,
46
131260
3000
Մի ինժեներ ինձ ասել է, որ նույնիսկ եթե դուք դուրս եկած լինեք համակարգից
02:14
there are 57 signals
47
134260
2000
կան 57 ազդանշաններ
02:16
that Google looks at --
48
136260
3000
որոնցով առաջնորդվում է Գուգլը՝
02:19
everything from what kind of computer you're on
49
139260
3000
հաշվի առնելով ամեն ինչ, սկսած նրանից, թե ինչպիսի համակարգչից եք դուք օգտվում,
02:22
to what kind of browser you're using
50
142260
2000
ինչպիսի բրաուզերից եք օգտվում,
02:24
to where you're located --
51
144260
2000
վերջացրած նրանից, թե որտեղ եք դուք տեղակայված՝
02:26
that it uses to personally tailor your query results.
52
146260
3000
և այն օգտագործում է այդ ամենը, որպեսզի ստանա անհատական որոնման արդյունքներ:
02:29
Think about it for a second:
53
149260
2000
Մի պահ մտածեք սրա մասին.
02:31
there is no standard Google anymore.
54
151260
4000
չկա այլևս ստանդարտ Գուգլ:
02:35
And you know, the funny thing about this is that it's hard to see.
55
155260
3000
Եվ գիտեք, ամենազավեշտալին այն է, որ դա դժվար է նկատել:
02:38
You can't see how different your search results are
56
158260
2000
Դուք չեք կարող տեսնել, թե ինչքանով են ձեր որոնման արդյունքները
02:40
from anyone else's.
57
160260
2000
տարբերվում մեկ ուրիշի արդյունքներից:
02:42
But a couple of weeks ago,
58
162260
2000
Մի քանի շաբաթ առաջ,
02:44
I asked a bunch of friends to Google "Egypt"
59
164260
3000
ես խնդրեցի իմ մի քանի ընկերներին Գուգլում որոնել «Եգիպտոս» բառը
02:47
and to send me screen shots of what they got.
60
167260
3000
և ուղարկել ինձ իրենց որոնման արդյունքները:
02:50
So here's my friend Scott's screen shot.
61
170260
3000
Ահա իմ ընկեր Սկոթի արդյունքները:
02:54
And here's my friend Daniel's screen shot.
62
174260
3000
Ահա իմ ընկեր Դանիելի արդյունքները:
02:57
When you put them side-by-side,
63
177260
2000
Երբ երկու որոնման արդյունքները դնում ես կողք կողքի,
02:59
you don't even have to read the links
64
179260
2000
նույնիսկ հարկավոր չէ կարդալ հղումները,
03:01
to see how different these two pages are.
65
181260
2000
տեսնելու համար, թե ինչքանով են այդ երկու էջերը տարբերվում միմյանցից:
03:03
But when you do read the links,
66
183260
2000
Սակայն, երբ սկսում ես կարդալ հղումները,
03:05
it's really quite remarkable.
67
185260
3000
տարբերությունն ուշագրավ է:
03:09
Daniel didn't get anything about the protests in Egypt at all
68
189260
3000
Դանիելը իր որոնման առաջին էջում ոչ մի արդյունք չի ստացել
03:12
in his first page of Google results.
69
192260
2000
Եգիպտոսում տեղի ունեցող բողոքի ցույցերի մասին:
03:14
Scott's results were full of them.
70
194260
2000
Սկոթի արդյունքների մեջ բողոքներին վերաբերող բազմաթիվ հղումներ կային:
03:16
And this was the big story of the day at that time.
71
196260
2000
Իսկ բողոքները տվյալ օրվա ամենակարևոր նորությունն էր:
03:18
That's how different these results are becoming.
72
198260
3000
Ահա թե ինչքան կարող են տարբերվել որոնման արդյունքները միմյանցից:
03:21
So it's not just Google and Facebook either.
73
201260
3000
Եվ սա միայն Գուգլը և Ֆեյսբուքը չէ, որ անում են:
03:24
This is something that's sweeping the Web.
74
204260
2000
Սա այն է, ինչ կատարվում է ամբողջ համացանցում:
03:26
There are a whole host of companies that are doing this kind of personalization.
75
206260
3000
Կան բազմաթիվ ընկերություններ, որոնք նմանատիպ անձնավորված մոտեցում են ցուցաբերում:
03:29
Yahoo News, the biggest news site on the Internet,
76
209260
3000
Yahoo-ի նորությունները՝ համացանցի ամենամեծ նորությունների կայքը
03:32
is now personalized -- different people get different things.
77
212260
3000
այժմ արդեն անձնավորված է՝ տարբեր մարդիկ ստանում են տարբեր տեսակի տեղեկատվություն:
03:36
Huffington Post, the Washington Post, the New York Times --
78
216260
3000
Huffington Post-ը, Washington Post-ը, New York Times-ը
03:39
all flirting with personalization in various ways.
79
219260
3000
բոլորը կատարում են տեղեկատվության ֆիլտրում:
03:42
And this moves us very quickly
80
222260
3000
Ես սա շատ արագ
03:45
toward a world in which
81
225260
2000
ստեղծում է մի իրականություն,
03:47
the Internet is showing us what it thinks we want to see,
82
227260
4000
որտեղ ինտերնետը ցույց է տալիս մեզ այն, ինչ, իր կարծիքով, մենք ցանկանում ենք տեսնել,
03:51
but not necessarily what we need to see.
83
231260
3000
բայց ոչ այն, ինչ իրականում մեզ հարկավոր է տեսնել:
03:54
As Eric Schmidt said,
84
234260
3000
Ինչպես ասել է Էրիկ Շմիտը,
03:57
"It will be very hard for people to watch or consume something
85
237260
3000
«Մարդկանց համար շատ բարդ է դիտել կամ օգտագործել մի բան,
04:00
that has not in some sense
86
240260
2000
ինչը, որոշակի առումով,
04:02
been tailored for them."
87
242260
3000
համապատասխանեցված չէ իրենց համար»։
04:05
So I do think this is a problem.
88
245260
2000
Այսպիսով ես լիովին հավատացած եմ, որ սա խնդիր է:
04:07
And I think, if you take all of these filters together,
89
247260
3000
Եվ ես կարծում եմ, եթե մենք ի մի բերենք այս բոլոր ֆիլտրերը
04:10
you take all these algorithms,
90
250260
2000
և բոլոր ալգորիթմները,
04:12
you get what I call a filter bubble.
91
252260
3000
ապա կստանանք այն, ինչն ես անվանում եմ «ֆիլտրող փուչիկ»:
04:16
And your filter bubble is your own personal,
92
256260
3000
Եվ ձեր «ֆիլտրող փուչիկ»-ը ձեր անձնական
04:19
unique universe of information
93
259260
2000
յուրօրինակ տիեզերքն է այն տեղեկատվության,
04:21
that you live in online.
94
261260
2000
որի մեջ դուք ապրում եք օնլայն:
04:23
And what's in your filter bubble
95
263260
3000
Ձեր «ֆիլտրող փուչիկի» պարունակությունը
04:26
depends on who you are, and it depends on what you do.
96
266260
3000
կախված է նրանից, թե ով եք դուք և ինչով եք զբաղվում:
04:29
But the thing is that you don't decide what gets in.
97
269260
4000
Սակայն բանն այն է, որ դուք չեք որոշում ինչ տեղեկատվություն է այն ներառում:
04:33
And more importantly,
98
273260
2000
Եվ ամենակարևորը՝
04:35
you don't actually see what gets edited out.
99
275260
3000
դուք նույնիսկ չեք տեսնում թե ինչը չի ներառվում այնտեղ:
04:38
So one of the problems with the filter bubble
100
278260
2000
Այսպիսով, «ֆիլտրող փուչիկների» հիմնական խնդիրը
04:40
was discovered by some researchers at Netflix.
101
280260
3000
բացահայտվել է Netflix-ի մի քանի հետազոտողների կողմից:
04:43
And they were looking at the Netflix queues, and they noticed something kind of funny
102
283260
3000
Նրանք հետևում էին Netflix-ի ֆիլմերի դիտումների հերթագրումներին և նկատեցին զավեշտալի մի բան,
04:46
that a lot of us probably have noticed,
103
286260
2000
ինչ շատերս հնարավոր է նկատել ենք՝
04:48
which is there are some movies
104
288260
2000
կան որոշակի ֆիլմեր,
04:50
that just sort of zip right up and out to our houses.
105
290260
3000
որոնք արագ հայտնվում են ցուցակում և նույնքան արագ անհետանում (դիտվում)։
04:53
They enter the queue, they just zip right out.
106
293260
3000
Դրանք հայտնվում եմ հերթի ցուցակի մեջ, այնուհետև անմիջապես դուրս գալիս (դիտում են)։
04:56
So "Iron Man" zips right out,
107
296260
2000
Օրինակ, «Երկաթե մարդը» շատ արագ դուրս է թռնում,
04:58
and "Waiting for Superman"
108
298260
2000
իսկ «Սպասելով սուպերմենին» ֆիլմը
05:00
can wait for a really long time.
109
300260
2000
կարող է շատ երկար սպասել իր հերթին։
05:02
What they discovered
110
302260
2000
Նրանք հայտնաբերեցին,
05:04
was that in our Netflix queues
111
304260
2000
որ Netfix-ի հերթերում,
05:06
there's this epic struggle going on
112
306260
3000
տեղի է ունենում հսկայական պայքար,
05:09
between our future aspirational selves
113
309260
3000
երկու «ես»-երի միջև` այն, ինչպես մենք ցանկանում ենք լինել
05:12
and our more impulsive present selves.
114
312260
3000
և ավելի իմպուլսիվ, այսօրվա «ես»-ի միջև։
05:15
You know we all want to be someone
115
315260
2000
Մենք բոլորս էլ ուզում ենք լինել մեկը,
05:17
who has watched "Rashomon,"
116
317260
2000
որ դիտում է «Ռաշոմոն»-ը
05:19
but right now
117
319260
2000
բայց տվյալ պահին,
05:21
we want to watch "Ace Ventura" for the fourth time.
118
321260
3000
մենք ցանկանում ենք 4-րդ անգամ դիտել «Էյս Վենտուրա»-ն։
05:24
(Laughter)
119
324260
3000
(Ծիծաղ)
05:27
So the best editing gives us a bit of both.
120
327260
2000
Լավագույն խմբագրումը տալիս է մեզ ամեն ինչից քիչ-քիչ՝
05:29
It gives us a little bit of Justin Bieber
121
329260
2000
այն բերում է մի քիչ տեղեկություն Ջասթին Բիեբերի մասին,
05:31
and a little bit of Afghanistan.
122
331260
2000
և մի քիչ էլ տեղեկություն Աֆղանստանի մասին:
05:33
It gives us some information vegetables;
123
333260
2000
Այն մեզ տալիս է մի քիչ տեղեկատվական բանջարեղեն,
05:35
it gives us some information dessert.
124
335260
3000
և մի քիչ տեղեկատվական աղանդեր:
05:38
And the challenge with these kinds of algorithmic filters,
125
338260
2000
Այսպիսի ալգորիթմիկ ֆիլտրերի հետ խնդիրը նրանում է,
05:40
these personalized filters,
126
340260
2000
որ անձնավորված ֆիլտրները,
05:42
is that, because they're mainly looking
127
342260
2000
հիմնականում առաջնորդվում են նրանով,
05:44
at what you click on first,
128
344260
4000
թե ինչ հղում ենք մենք առաջինը սեղմում,
05:48
it can throw off that balance.
129
348260
4000
այդ իսկ պատճառով այն խախտում է հավասարակշռությունը:
05:52
And instead of a balanced information diet,
130
352260
3000
Եվ հավասարակշռված տեղեկատվական սննդի փոխարեն,
05:55
you can end up surrounded
131
355260
2000
դուք ստանում եք
05:57
by information junk food.
132
357260
2000
տեղեկատվական արագ պատրաստվող սնունդ:
05:59
What this suggests
133
359260
2000
Դա նշանակում է,
06:01
is actually that we may have the story about the Internet wrong.
134
361260
3000
որ մենք ինտերնետի մասին սխալ պատկերացում ենք ստանում։
06:04
In a broadcast society --
135
364260
2000
Եթեր հեռարձակվող հասարակության մեջ
06:06
this is how the founding mythology goes --
136
366260
2000
հիմնական գործընթացն ընթանում է հետևյալ կերպ.
06:08
in a broadcast society,
137
368260
2000
եթեր հեռարձակվող հասարակության մեջ
06:10
there were these gatekeepers, the editors,
138
370260
2000
կային ստուգողներ, խմբագիրներ,
06:12
and they controlled the flows of information.
139
372260
3000
ովքեր վերահսկում էին տեղեկատվության հոսքը:
06:15
And along came the Internet and it swept them out of the way,
140
375260
3000
Եվ ահա հայտնվում է համացանցը և հեռացնում նրանց բոլորին ճանապարհից՝
06:18
and it allowed all of us to connect together,
141
378260
2000
ընձեռելով մեզ հնարավորություն կապվել միմյանց հետ,
06:20
and it was awesome.
142
380260
2000
և դա հրաշալի էր:
06:22
But that's not actually what's happening right now.
143
382260
3000
Բայդ դա այն չէ, ինչ տեղի է ունենում այսօր։
06:26
What we're seeing is more of a passing of the torch
144
386260
3000
Այն, ինչին մենք հիմա վկա ենք՝ ընդհամենը տեղափոխում է
06:29
from human gatekeepers
145
389260
2000
մարդկային ստուգողներից
06:31
to algorithmic ones.
146
391260
3000
ալգորիթմիկ ստուգողների։
06:34
And the thing is that the algorithms
147
394260
3000
Եվ բանը նրանում է, որ ալգորիթմերը
06:37
don't yet have the kind of embedded ethics
148
397260
3000
դեռևս չունեն ներկառուցված էթիկական նորմեր,
06:40
that the editors did.
149
400260
3000
ի տարբերություն խմբագիրների:
06:43
So if algorithms are going to curate the world for us,
150
403260
3000
Եթե ալգորիթմերն են այսուհետ ղեկավարելու աշխարհը մեր փոխարեն,
06:46
if they're going to decide what we get to see and what we don't get to see,
151
406260
3000
եթե դրանք են որոշելու, թե ինչը մենք պետք է տեսնենք և ինչը՝ ոչ,
06:49
then we need to make sure
152
409260
2000
ապա մենք պետք է համոզված լինենք,
06:51
that they're not just keyed to relevance.
153
411260
3000
որ դրանք հիմնված չլինեն զուտ ռելևանտության վրա։
06:54
We need to make sure that they also show us things
154
414260
2000
Մենք պետք է համոզված լինենք, որ մեզ ցույց են տալիս այն տեղեկատվությունը,
06:56
that are uncomfortable or challenging or important --
155
416260
3000
որը կարող է տհաճ լինի կամ մարտահրավեր նետի կամ կարևոր լինի՝
06:59
this is what TED does --
156
419260
2000
մի բան, որ անում է TED-ը, այն է՝
07:01
other points of view.
157
421260
2000
ներկայացնել տարբեր կարծիքներ:
07:03
And the thing is, we've actually been here before
158
423260
2000
Բանն այն է, որ մենք որպես հասարակություն,
07:05
as a society.
159
425260
2000
արդեն անցել ենք այս ամենի միջով։
07:08
In 1915, it's not like newspapers were sweating a lot
160
428260
3000
1915 թ-ին թերթերն առանձնապես մտահոգված չէին
07:11
about their civic responsibilities.
161
431260
3000
իրենց քաղաքացիական պարտականություններով։
07:14
Then people noticed
162
434260
2000
Հետո մարդիկ նկատեցին,
07:16
that they were doing something really important.
163
436260
3000
դրանք իրականում շատ կարևոր են։
07:19
That, in fact, you couldn't have
164
439260
2000
Հնարավոր չէ կառուցել
07:21
a functioning democracy
165
441260
2000
ժողովրդավարություն,
07:23
if citizens didn't get a good flow of information,
166
443260
4000
երբ քաղաքացիները չեն ստանում տեղեկատվության հոսք:
07:28
that the newspapers were critical because they were acting as the filter,
167
448260
3000
Նախկինում թերթերը շատ կարևոր էին, որովհետև դրանք կրում էին ֆիլտրողի դեր,
07:31
and then journalistic ethics developed.
168
451260
2000
այնուհետև դրա հետևանքով զարգացավ լրագրողական էթիկայի կիրառումը:
07:33
It wasn't perfect,
169
453260
2000
Այն կատարյալ չէր,
07:35
but it got us through the last century.
170
455260
3000
սակայն ուղղորդեց մեզ անցյալ դարաշրջանի ընթացքում:
07:38
And so now,
171
458260
2000
Եվ ահա այժմ
07:40
we're kind of back in 1915 on the Web.
172
460260
3000
մենք ինչ-որ չափով վերադարձել ենք 1915 թվական՝ համացանցի առումով:
07:44
And we need the new gatekeepers
173
464260
3000
Եվ մեզ հիմա հարկավոր են նոր ստուգողներ,
07:47
to encode that kind of responsibility
174
467260
2000
որոնք նման պատասխանատվություն կհաղորդեն
07:49
into the code that they're writing.
175
469260
2000
ծրագրերին, որոնք ստեղծվում են։
07:51
I know that there are a lot of people here from Facebook and from Google --
176
471260
3000
Ես գիտեմ, որ շատերդ այստեղ աշխատում եք Ֆեյսբուքում և Գուգլում՝
07:54
Larry and Sergey --
177
474260
2000
Լարրին և Սերգեյը
07:56
people who have helped build the Web as it is,
178
476260
2000
այն մարդիկ են, ովքեր նպաստել են համացանցի ստեղծմանը,
07:58
and I'm grateful for that.
179
478260
2000
և ես շատ շնորհակալ եմ իրենցից:
08:00
But we really need you to make sure
180
480260
3000
Բայց մենք պետք է անենք ամեն բան,
08:03
that these algorithms have encoded in them
181
483260
3000
որպեսզի այդ ալգորիթմներն իրենց մեջ ունենան
08:06
a sense of the public life, a sense of civic responsibility.
182
486260
3000
քաղաքացիական պատասխանատվության զգացում։
08:09
We need you to make sure that they're transparent enough
183
489260
3000
Մենք պետք է համոզվենք, որ դրանք բավականաչափ թափանցիկ են,
08:12
that we can see what the rules are
184
492260
2000
որ մենք կարող ենք հասկանալ այն օրենքները,
08:14
that determine what gets through our filters.
185
494260
3000
որոնք որոշում են, թե ինչպես է տեղեկատվությունը ֆիլտրվում։
08:17
And we need you to give us some control
186
497260
2000
Եվ մեզ անհրաժեշտ է որոշակի վերահսկում,
08:19
so that we can decide
187
499260
2000
որպեսզի մենք կարողանանք որոշել,
08:21
what gets through and what doesn't.
188
501260
3000
թե ինչն է ֆիլտրվում, իսկը ինչը՝ ոչ։
08:24
Because I think
189
504260
2000
Որովհետև ես հավատացած եմ,
08:26
we really need the Internet to be that thing
190
506260
2000
որ մեզ համար անհրաժեշտ է, որ ինտերնետն ունենա այն նշանակությունը,
08:28
that we all dreamed of it being.
191
508260
2000
որի մասին մենք երազում էինք։
08:30
We need it to connect us all together.
192
510260
3000
Մեզ անհրաժեշտ է, որ այն միավորի մեզ բոլորիս։
08:33
We need it to introduce us to new ideas
193
513260
3000
Մեզ անհրաժեշտ է, որ այն ծանոթացնի մեզ նոր գաղափարների,
08:36
and new people and different perspectives.
194
516260
3000
նոր մարդկանց և նոր հեռանկարների հետ։
08:40
And it's not going to do that
195
520260
2000
Եվ այդ բոլորը տեղի չի ունենա,
08:42
if it leaves us all isolated in a Web of one.
196
522260
3000
եթե այն մեկուսացրած թողնի մեզ մեկ մարդու ցանցում։
08:45
Thank you.
197
525260
2000
Շնորհակալություն։
08:47
(Applause)
198
527260
11000
(Ծափահարություններ)
Այս կայքի մասին

Այս կայքը ձեզ կներկայացնի YouTube տեսանյութեր, որոնք օգտակար են անգլերեն սովորելու համար: Դուք կտեսնեք անգլերենի դասեր, որոնք դասավանդում են բարձրակարգ ուսուցիչներ ամբողջ աշխարհից: Կրկնակի սեղմեք յուրաքանչյուր տեսանյութի էջում ցուցադրված անգլերեն ենթագրերի վրա՝ այնտեղից տեսանյութը նվագարկելու համար: Ենթագրերը պտտվում են տեսանյութի նվագարկման հետ համաժամանակյա: Եթե ունեք որևէ մեկնաբանություն կամ հարցում, խնդրում ենք կապվել մեզ հետ՝ օգտագործելով այս կոնտակտային ձևը:

https://forms.gle/WvT1wiN1qDtmnspy7