How we can protect truth in the age of misinformation | Sinan Aral

235,868 views ・ 2020-01-16

TED


A videó lejátszásához kattintson duplán az alábbi angol feliratokra.

00:00
Translator: Ivana Korom Reviewer: Krystian Aparta
0
0
7000
Fordító: Eva Danko Lektor: Andi Vida
00:13
So, on April 23 of 2013,
1
13468
5222
2013. április 23-án
00:18
the Associated Press put out the following tweet on Twitter.
2
18714
5514
az Associated Press ezt tette közzé a Twitteren:
00:24
It said, "Breaking news:
3
24252
2397
"Friss hírek!
00:26
Two explosions at the White House
4
26673
2571
Két robbanás történt a Fehér Háznál,
00:29
and Barack Obama has been injured."
5
29268
2333
Barack Obama megsérült."
00:32
This tweet was retweeted 4,000 times in less than five minutes,
6
32212
5425
Ezt a tweetet öt percen belül 4000-en osztották meg,
00:37
and it went viral thereafter.
7
37661
2217
majd mindenfelé elterjedt az interneten.
00:40
Now, this tweet wasn't real news put out by the Associated Press.
8
40760
4350
Ezt a hírt valójában nem is az Associated Press tette közzé.
00:45
In fact it was false news, or fake news,
9
45134
3333
Valótlan hír volt, álhír,
00:48
that was propagated by Syrian hackers
10
48491
2825
szíriai hackerek terjesztették,
00:51
that had infiltrated the Associated Press Twitter handle.
11
51340
4694
akik beszivárogtak az Associated Press Twitterének kezelői felületére.
00:56
Their purpose was to disrupt society, but they disrupted much more.
12
56407
3889
A céljuk a társadalom megosztása volt, de sokkal több mindent romboltak le.
01:00
Because automated trading algorithms
13
60320
2476
Merthogy az automatizált kereskedő algoritmusok
01:02
immediately seized on the sentiment on this tweet,
14
62820
3360
azonnal fogták a tweetre adott érzelmi reakciókat,
01:06
and began trading based on the potential
15
66204
2968
és azon lehetőség alapján kezdtek kereskedni,
01:09
that the president of the United States had been injured or killed
16
69196
3381
hogy az Egyesült Államok elnöke megsérült vagy életét vesztette
01:12
in this explosion.
17
72601
1200
ebben a robbanásban.
01:14
And as they started tweeting,
18
74188
1992
Ahogy tweetelni kezdtek,
01:16
they immediately sent the stock market crashing,
19
76204
3349
a tőzsde nyomban összeomlott,
01:19
wiping out 140 billion dollars in equity value in a single day.
20
79577
5167
140 milliárd dollárnyi vételi értékű veszteséget okozva.
01:25
Robert Mueller, special counsel prosecutor in the United States,
21
85062
4476
Robert Mueller, az Egyesült Államok különleges ügyésze
01:29
issued indictments against three Russian companies
22
89562
3892
három orosz cég és 13 orosz magánszemély ellen
01:33
and 13 Russian individuals
23
93478
2619
emelt vádat azzal a címszóval,
01:36
on a conspiracy to defraud the United States
24
96121
3167
hogy összeesküvést szőttek az Egyesült Államok ellen,
01:39
by meddling in the 2016 presidential election.
25
99312
3780
és beavatkoztak a 2016-os elnökválasztásba.
01:43
And what this indictment tells as a story
26
103855
3564
Ez a vádirat számol be
01:47
is the story of the Internet Research Agency,
27
107443
3142
az Internet Research Agency történetéről,
01:50
the shadowy arm of the Kremlin on social media.
28
110609
3594
a Kreml által a háttérből működtetett trollgyárról.
01:54
During the presidential election alone,
29
114815
2777
Az Internet Agency csak az elnökválasztás idején
01:57
the Internet Agency's efforts
30
117616
1889
126 millió emberhez jutott el
01:59
reached 126 million people on Facebook in the United States,
31
119529
5167
Facebookon az Egyesült Államokban,
02:04
issued three million individual tweets
32
124720
3277
3 millió egyéni tweetet
02:08
and 43 hours' worth of YouTube content.
33
128021
3842
és 43 órányi YouTube tartalmat tett közzé.
02:11
All of which was fake --
34
131887
1652
Ez mind hamis volt
02:13
misinformation designed to sow discord in the US presidential election.
35
133563
6323
– félrevezető információk, amelyek célja viszályszítás volt a választások során.
02:20
A recent study by Oxford University
36
140996
2650
Az Oxfordi Egyetem egy újabb tanulmánya szerint
02:23
showed that in the recent Swedish elections,
37
143670
3270
a nemrégiben lezajlott svéd választások során
02:26
one third of all of the information spreading on social media
38
146964
4375
a közösségi médiában terjedő,
a választásokkal kapcsolatos híreknek mintegy harmada
02:31
about the election
39
151363
1198
02:32
was fake or misinformation.
40
152585
2087
hamis vagy félrevezető volt.
02:35
In addition, these types of social-media misinformation campaigns
41
155037
5078
Továbbá ezek a közösségi médiában terjedő, félrevezetésre épülő kampányok
02:40
can spread what has been called "genocidal propaganda,"
42
160139
4151
népirtó propagandaként működnek,
02:44
for instance against the Rohingya in Burma,
43
164314
3111
például a burmai rohingyák esetében is ez történt,
02:47
triggering mob killings in India.
44
167449
2303
Indiában lincseléseket idézve elő.
02:49
We studied fake news
45
169776
1494
Tanulmányoztuk az álhíreket,
02:51
and began studying it before it was a popular term.
46
171294
3219
már akkor elkezdtük ezt, mielőtt a kifejezés ismertté vált.
02:55
And we recently published the largest-ever longitudinal study
47
175030
5040
Márciusban pedig a Science magazin vezércikkében tettük közzé
03:00
of the spread of fake news online
48
180094
2286
a valaha készült legnagyobb
03:02
on the cover of "Science" in March of this year.
49
182404
3204
követéses jellegű kutatást az álhírek online terjedéséről.
03:06
We studied all of the verified true and false news stories
50
186523
4161
Tanulmányoztuk az összes hitelesítetten valós és álhírt,
03:10
that ever spread on Twitter,
51
190708
1753
amely valaha terjedt a Twitteren,
03:12
from its inception in 2006 to 2017.
52
192485
3818
annak 2006-os indulásától kezdve 2017-ig.
03:16
And when we studied this information,
53
196612
2314
Az információkat vizsgálva
03:18
we studied verified news stories
54
198950
2876
új, hitelesített híreket tanulmányoztunk,
03:21
that were verified by six independent fact-checking organizations.
55
201850
3918
amelyeket hat független tényvizsgáló szervezet ellenőrzött és igazolt.
03:25
So we knew which stories were true
56
205792
2762
Így tudtuk, mely történetek valósak,
03:28
and which stories were false.
57
208578
2126
melyek hamisak.
03:30
We can measure their diffusion,
58
210728
1873
Mérni tudjuk a terjedésüket,
03:32
the speed of their diffusion,
59
212625
1651
a terjedésük sebességét,
03:34
the depth and breadth of their diffusion,
60
214300
2095
milyen széles körben és mélységben terjednek,
03:36
how many people become entangled in this information cascade and so on.
61
216419
4142
hány ember keveredett bele ebbe az információ-zuhatagba és így tovább.
03:40
And what we did in this paper
62
220942
1484
Ebben a tanulmányban
03:42
was we compared the spread of true news to the spread of false news.
63
222450
3865
összehasonlítottuk az igaz és hamis hírek terjedésének sebességét.
03:46
And here's what we found.
64
226339
1683
Elmondom, mire jutottunk.
03:48
We found that false news diffused further, faster, deeper
65
228046
3979
Az álhírek minden általunk tanulmányozott kategóriában gyorsabban, szélesebb körben,
03:52
and more broadly than the truth
66
232049
1806
több megosztásban, messzebbre
03:53
in every category of information that we studied,
67
233879
3003
terjedtek, mint a valósak,
03:56
sometimes by an order of magnitude.
68
236906
2499
néha egy teljes nagyságrend különbséggel.
03:59
And in fact, false political news was the most viral.
69
239842
3524
A valóságban a hamis politikai hírek terjedtek a leggyorsabban.
04:03
It diffused further, faster, deeper and more broadly
70
243390
3147
Gyorsabban, messzebbre, több megosztásban,
04:06
than any other type of false news.
71
246561
2802
szélesebb körben terjedtek, mint bármilyen más típusú álhír.
04:09
When we saw this,
72
249387
1293
Egyszerre láttuk
04:10
we were at once worried but also curious.
73
250704
2841
ijesztőnek és érdekesnek is.
04:13
Why?
74
253569
1151
Miért?
04:14
Why does false news travel so much further, faster, deeper
75
254744
3373
Az álhírek miért terjednek messzebbre, gyorsabban, több megosztásban
04:18
and more broadly than the truth?
76
258141
1864
szélesebb körben, mint a valódiak?
04:20
The first hypothesis that we came up with was,
77
260339
2961
Az első feltevésünk ez volt:
04:23
"Well, maybe people who spread false news have more followers or follow more people,
78
263324
4792
"Nos, talán az álhírek terjesztőit többen követik, vagy ők többeket követnek,
04:28
or tweet more often,
79
268140
1557
esetleg gyakrabban tweetelnek,
04:29
or maybe they're more often 'verified' users of Twitter, with more credibility,
80
269721
4126
vagy talán többen is "ellenőrzött", megbízhatóbbnak tűnő Twitter-felhasználók,
04:33
or maybe they've been on Twitter longer."
81
273871
2182
esetleg régebb óta Twitter tagok."
04:36
So we checked each one of these in turn.
82
276077
2298
Ezek mindegyikét külön-külön megvizsgáltuk
04:38
And what we found was exactly the opposite.
83
278691
2920
– és pont az ellenkezőjére bukkantunk.
04:41
False-news spreaders had fewer followers,
84
281635
2436
Az álhírek terjesztőit kevesebben követték,
04:44
followed fewer people, were less active,
85
284095
2254
kevesebbeket követtek, kevésbé voltak aktívak,
04:46
less often "verified"
86
286373
1460
kevesebbszer "ellenőrzöttek",
04:47
and had been on Twitter for a shorter period of time.
87
287857
2960
és rövidebb ideje voltak Twitter felhasználók.
04:50
And yet,
88
290841
1189
Mégis, 70%-kal nagyobb valószínűséggel
04:52
false news was 70 percent more likely to be retweeted than the truth,
89
292054
5033
osztják meg az álhíreket, mint az igazakat,
04:57
controlling for all of these and many other factors.
90
297111
3363
ellenőrizve mindezeket, és más tényezőket is.
05:00
So we had to come up with other explanations.
91
300498
2690
Elő kellett hát állnunk valami más magyarázattal.
05:03
And we devised what we called a "novelty hypothesis."
92
303212
3467
Megalkottuk az elméletet, amit mi "újszerűség-felvetésnek" neveztünk.
05:07
So if you read the literature,
93
307038
1960
Ha olvassák a kapcsolódó szakirodalmat,
05:09
it is well known that human attention is drawn to novelty,
94
309022
3754
közismert, hogy az emberi figyelmet az újszerűség kelti fel,
05:12
things that are new in the environment.
95
312800
2519
olyan dolgok, amik újak a környezetben.
05:15
And if you read the sociology literature,
96
315343
1985
Ha olvassák a szociológiai szakirodalmat,
05:17
you know that we like to share novel information.
97
317352
4300
tudják, hogy szeretünk új információkat megosztani.
05:21
It makes us seem like we have access to inside information,
98
321676
3838
Úgy tűnünk általa, mintha bizalmas információk birtokában lennénk,
05:25
and we gain in status by spreading this kind of information.
99
325538
3785
és az effajta információk terjesztése révén felértékelődünk.
05:29
So what we did was we measured the novelty of an incoming true or false tweet,
100
329792
6452
Így aztán mérni kezdtük a bejövő valós és álhírek újdonságtartalmát
05:36
compared to the corpus of what that individual had seen
101
336268
4055
ahhoz a hírhalmazhoz képest, amit az egyén
05:40
in the 60 days prior on Twitter.
102
340347
2952
az azt megelőző hatvan napban látott a Twitteren.
05:43
But that wasn't enough, because we thought to ourselves,
103
343323
2659
Ám ez nem volt elég, mert magunkban azt gondoltuk:
05:46
"Well, maybe false news is more novel in an information-theoretic sense,
104
346006
4208
"Nos, talán információelméleti szempontból az álhírek inkább számítanak újdonságnak,
05:50
but maybe people don't perceive it as more novel."
105
350238
3258
de lehet, az emberek mégsem érzékelik újszerűbbnek."
05:53
So to understand people's perceptions of false news,
106
353849
3927
Ezért, hogy megértsük, hogyan fogadják be az emberek az álhíreket,
05:57
we looked at the information and the sentiment
107
357800
3690
megnéztük, milyen érzelmi reakciókat váltanak ki az emberekből
06:01
contained in the replies to true and false tweets.
108
361514
4206
az igaz és hamis tweetek.
06:06
And what we found
109
366022
1206
Úgy találtuk,
06:07
was that across a bunch of different measures of sentiment --
110
367252
4214
hogy a sokféle érzelmi reakció között –
06:11
surprise, disgust, fear, sadness,
111
371490
3301
meglepetés, undor, félelem, szomorúság,
06:14
anticipation, joy and trust --
112
374815
2484
várakozás, öröm és bizalom –
06:17
false news exhibited significantly more surprise and disgust
113
377323
5857
az álhírt tartalmazó tweetek esetében többször fordult elő
06:23
in the replies to false tweets.
114
383204
2806
meglepetés és undor.
06:26
And true news exhibited significantly more anticipation,
115
386392
3789
A valós híreket tartalmazó tweetekre pedig
06:30
joy and trust
116
390205
1547
inkább várakozással,
06:31
in reply to true tweets.
117
391776
2547
örömmel és bizalommal reagáltak.
06:34
The surprise corroborates our novelty hypothesis.
118
394347
3786
A meglepetés alátámasztja az "újszerűség-felvetésünket".
06:38
This is new and surprising, and so we're more likely to share it.
119
398157
4609
Új és meglepő, ezért sokkal valószínűbb, hogy megosztjuk.
06:43
At the same time, there was congressional testimony
120
403092
2925
Ezzel egy időben az Egyesült Államok kongresszusának
06:46
in front of both houses of Congress in the United States,
121
406041
3036
mindkét háza előtt meghallgatásokat tartottak,
06:49
looking at the role of bots in the spread of misinformation.
122
409101
3738
hogy fény derüljön a botok szerepére a félrevezető információk terjesztésében.
06:52
So we looked at this too --
123
412863
1354
Így ezt is tanulmányoztuk –
06:54
we used multiple sophisticated bot-detection algorithms
124
414241
3598
nagyon kifinomult bot-érzékelő algoritmust használtunk,
06:57
to find the bots in our data and to pull them out.
125
417863
3074
hogy az adatainkból kiszűrjük a botokat.
07:01
So we pulled them out, we put them back in
126
421347
2659
Eltávolítottuk őket, majd visszaraktuk,
07:04
and we compared what happens to our measurement.
127
424030
3119
hogy összehasonlítsuk, mi történik a méréseinkkel.
07:07
And what we found was that, yes indeed,
128
427173
2293
Úgy találtuk, hogy a botok valóban
07:09
bots were accelerating the spread of false news online,
129
429490
3682
felgyorsították az álhírek online terjedését,
07:13
but they were accelerating the spread of true news
130
433196
2651
ám nagyjából ugyanilyen sebességgel gyorsították fel
07:15
at approximately the same rate.
131
435871
2405
az igaz hírek terjedését is.
07:18
Which means bots are not responsible
132
438300
2858
Vagyis a botok nem játszanak szerepet abban,
07:21
for the differential diffusion of truth and falsity online.
133
441182
4713
hogy miért terjednek különböző sebességgel az igaz és az álhírek.
07:25
We can't abdicate that responsibility,
134
445919
2849
Nem tolhatjuk le magunkról a felelősséget,
07:28
because we, humans, are responsible for that spread.
135
448792
4259
mert mi, emberek vagyunk felelősek a terjesztésükért.
07:34
Now, everything that I have told you so far,
136
454472
3334
Na most, mindaz, amiről eddig meséltem,
07:37
unfortunately for all of us,
137
457830
1754
mindannyiunk szerencsétlenségére,
07:39
is the good news.
138
459608
1261
ez volt a jó hír.
07:42
The reason is because it's about to get a whole lot worse.
139
462670
4450
Miért? Mert ez az egész csak sokkal rosszabb lesz.
07:47
And two specific technologies are going to make it worse.
140
467850
3682
Két technológia fogja tovább rontani.
07:52
We are going to see the rise of a tremendous wave of synthetic media.
141
472207
5172
A szintetikus média nagyarányú térhódításának leszünk tanúi.
07:57
Fake video, fake audio that is very convincing to the human eye.
142
477403
6031
Hamis videók, hamis hanganyagok, ránézésre igen meggyőző minőségben.
08:03
And this will powered by two technologies.
143
483458
2754
Ezt két technológia fogja elősegíteni.
08:06
The first of these is known as "generative adversarial networks."
144
486236
3833
Először is ott az úgynevezett "generatív ellenséges hálózat".
08:10
This is a machine-learning model with two networks:
145
490093
2563
Ez egy gépi tanulási modell két hálózattal:
08:12
a discriminator,
146
492680
1547
van egy diszkriminátor,
08:14
whose job it is to determine whether something is true or false,
147
494251
4200
ennek a feladata eldönteni, hogy valami igaz-e vagy hamis,
08:18
and a generator,
148
498475
1167
és van a generátor,
08:19
whose job it is to generate synthetic media.
149
499666
3150
ennek az a dolga, hogy szintetikus médiát állítson elő.
08:22
So the synthetic generator generates synthetic video or audio,
150
502840
5102
Tehát a szintetikus generátor szintetikus videót vagy hanganyagot hoz létre,
08:27
and the discriminator tries to tell, "Is this real or is this fake?"
151
507966
4675
majd a diszkriminátor megpróbálja eldönteni, igaz-e vagy hamis a mű.
08:32
And in fact, it is the job of the generator
152
512665
2874
Tulajdonképp a generátor dolga mindent megtenni azért,
08:35
to maximize the likelihood that it will fool the discriminator
153
515563
4435
hogy átverje a diszkriminátort úgy,
08:40
into thinking the synthetic video and audio that it is creating
154
520022
3587
hogy az valódinak vélje a szintetikus videót
08:43
is actually true.
155
523633
1730
vagy hanganyagot, amit létrehozott.
08:45
Imagine a machine in a hyperloop,
156
525387
2373
Képzeljenek el egy hiperhurokban lévő gépet,
08:47
trying to get better and better at fooling us.
157
527784
2803
amely egyre ügyesebben próbál átverni bennünket.
08:51
This, combined with the second technology,
158
531114
2500
A másik technológiával kombinálva,
08:53
which is essentially the democratization of artificial intelligence to the people,
159
533638
5722
mely alapvetően hozzáférést ad a mesterséges intelligenciához,
vagyis lehetővé teszi bárkinek, hogy ezekkel az algoritmusokkal
08:59
the ability for anyone,
160
539384
2189
09:01
without any background in artificial intelligence
161
541597
2830
anélkül állítson elő szintetikus médiát,
09:04
or machine learning,
162
544451
1182
hogy bármit is tudna
09:05
to deploy these kinds of algorithms to generate synthetic media
163
545657
4103
a mesterséges intelligenciáról vagy a gépi tanulásról,
09:09
makes it ultimately so much easier to create videos.
164
549784
4547
ez végső soron sokkal jobban megkönnyíti videók létrehozását.
09:14
The White House issued a false, doctored video
165
554355
4421
A Fehér Ház közzétett egy hamis, megkozmetikázott videót,
09:18
of a journalist interacting with an intern who was trying to take his microphone.
166
558800
4288
amelyen egy gyakornok el akarja venni egy újságíró mikrofonját.
09:23
They removed frames from this video
167
563427
1999
Kivágtak képkockákat a videóból,
09:25
in order to make his actions seem more punchy.
168
565450
3287
hogy az egész ütősebbnek tűnjék.
09:29
And when videographers and stuntmen and women
169
569157
3385
Amikor videósokat és kaszkadőröket kérdeztek
09:32
were interviewed about this type of technique,
170
572566
2427
erről a fajta technikáról,
09:35
they said, "Yes, we use this in the movies all the time
171
575017
3828
azt mondták: "Igen, a mozifilmekben állandóan használjuk ezt a technikát,
09:38
to make our punches and kicks look more choppy and more aggressive."
172
578869
4763
hogy az ütések és rúgások sokkal hevesebbnek és vadabbnak tűnjenek."
09:44
They then put out this video
173
584268
1867
Közzétették ezt a videót,
09:46
and partly used it as justification
174
586159
2500
s részben igazolásként használták arra,
09:48
to revoke Jim Acosta, the reporter's, press pass
175
588683
3999
miért vonják vissza Jim Acosta újságíró
Fehér Ház-beli sajtóbelépőjét.
09:52
from the White House.
176
592706
1339
09:54
And CNN had to sue to have that press pass reinstated.
177
594069
4809
A CNN csak perben tudta visszaállíttatni ennek a sajtóbelépőnek az érvényességét.
10:00
There are about five different paths that I can think of that we can follow
178
600538
5603
Nagyjából ötféle lehetőség jut eszembe,
10:06
to try and address some of these very difficult problems today.
179
606165
3739
hogyan beszélhetnénk a jelen eme súlyos problémái közül néhányról.
10:10
Each one of them has promise,
180
610379
1810
Mindegyik ígéretes,
10:12
but each one of them has its own challenges.
181
612213
2999
de mindegyik kihívásokkal jár.
10:15
The first one is labeling.
182
615236
2008
Az egyik a feliratozás.
10:17
Think about it this way:
183
617268
1357
Csak gondoljanak arra,
10:18
when you go to the grocery store to buy food to consume,
184
618649
3611
amikor elmennek a boltba élelmiszert venni.
10:22
it's extensively labeled.
185
622284
1904
Minden agyon van címkézve.
10:24
You know how many calories it has,
186
624212
1992
Tudják, mennyi benne a kalória,
10:26
how much fat it contains --
187
626228
1801
mennyi a zsírtartalma –
10:28
and yet when we consume information, we have no labels whatsoever.
188
628053
4278
ám ha információkat fogadunk be, azt mindenféle címkézés nélkül tesszük.
10:32
What is contained in this information?
189
632355
1928
Mit tartalmaz ez az információ?
10:34
Is the source credible?
190
634307
1453
Megbízható a forrása?
10:35
Where is this information gathered from?
191
635784
2317
Honnan származik ez az információ?
10:38
We have none of that information
192
638125
1825
Ezek egyikét sem tudjuk,
10:39
when we are consuming information.
193
639974
2103
mikor informálódunk valamiről.
10:42
That is a potential avenue, but it comes with its challenges.
194
642101
3238
Ez egy lehetséges út, de kihívásokkal teli.
10:45
For instance, who gets to decide, in society, what's true and what's false?
195
645363
6451
Például ki döntse el a társadalmon belül, mi igaz, mi hamis?
10:52
Is it the governments?
196
652387
1642
A kormányaink?
10:54
Is it Facebook?
197
654053
1150
A Facebook?
10:55
Is it an independent consortium of fact-checkers?
198
655601
3762
Egy független, tényvalódiságot vizsgáló konzorcium?
10:59
And who's checking the fact-checkers?
199
659387
2466
És ki ellenőrzi a tények valódiságát ellenőrzőket?
11:02
Another potential avenue is incentives.
200
662427
3084
Egy másik lehetséges út az ösztönzés.
11:05
We know that during the US presidential election
201
665535
2634
Tudjuk, hogy az amerikai elnökválasztás alatt
11:08
there was a wave of misinformation that came from Macedonia
202
668193
3690
érkezett Makedóniából egy információhullám,
11:11
that didn't have any political motive
203
671907
2337
amelynek nem politikai,
11:14
but instead had an economic motive.
204
674268
2460
hanem gazdasági motivációja volt.
11:16
And this economic motive existed,
205
676752
2148
Ez a gazdasági motiváció azért létezhetett,
11:18
because false news travels so much farther, faster
206
678924
3524
mert az álhírek ennyivel messzebbre, gyorsabban,
11:22
and more deeply than the truth,
207
682472
2010
több megosztásba jutnak el, mint az igazak,
11:24
and you can earn advertising dollars as you garner eyeballs and attention
208
684506
4960
és ezekkel a fajta információkkal hirdetésből származó bevételre
11:29
with this type of information.
209
689490
1960
és figyelemre tehetnek szert.
11:31
But if we can depress the spread of this information,
210
691474
3833
Ám ha vissza tudnánk szorítani az ilyesfajta információk terjedését,
11:35
perhaps it would reduce the economic incentive
211
695331
2897
a gazdasági motiváció is kisebb lenne,
11:38
to produce it at all in the first place.
212
698252
2690
amiért az ilyen híreket elsősorban létrehozzák.
11:40
Third, we can think about regulation,
213
700966
2500
Egy harmadik lehetőség a szabályozás,
11:43
and certainly, we should think about this option.
214
703490
2325
és feltétlenül át kell gondolnunk ezt is.
11:45
In the United States, currently,
215
705839
1611
Jelenleg az Egyesült Államokban azt vizsgáljuk,
11:47
we are exploring what might happen if Facebook and others are regulated.
216
707474
4848
mi történne, ha a Facebookot és hasonlókat szabályoznánk.
11:52
While we should consider things like regulating political speech,
217
712346
3801
Bár meg kellene fontoljunk olyasmit, mint a politikai beszédek szabályozása:
11:56
labeling the fact that it's political speech,
218
716171
2508
jelölni a tényt, hogy politikai beszédről van szó,
11:58
making sure foreign actors can't fund political speech,
219
718703
3819
megakadályozni, hogy külföldi színészek politikai beszédeket finanszírozzanak,
12:02
it also has its own dangers.
220
722546
2547
ennek is megvannak a maga veszélyei.
12:05
For instance, Malaysia just instituted a six-year prison sentence
221
725522
4878
Például Malajziában most törvényesítették, hogy hat év börtönnel sújtható bárki,
12:10
for anyone found spreading misinformation.
222
730424
2734
akit hamis információk terjesztésén érnek.
12:13
And in authoritarian regimes,
223
733696
2079
A tekintélyelvű rezsimekben
12:15
these kinds of policies can be used to suppress minority opinions
224
735799
4666
az effajta törvénykezést a kisebbségi vélemény elnyomására lehet használni,
12:20
and to continue to extend repression.
225
740489
3508
és fokozni az elnyomást.
12:24
The fourth possible option is transparency.
226
744680
3543
A negyedik lehetőség az átláthatóság.
12:28
We want to know how do Facebook's algorithms work.
227
748843
3714
Tudni akarjuk, hogyan működik a Facebook algoritmusa.
12:32
How does the data combine with the algorithms
228
752581
2880
Hogyan "dolgozik össze" az adat és az algoritmus,
12:35
to produce the outcomes that we see?
229
755485
2838
hogy a végén ez legyen a végkimenetel?
12:38
We want them to open the kimono
230
758347
2349
Szeretnénk, ha lelepleznék
12:40
and show us exactly the inner workings of how Facebook is working.
231
760720
4214
a Facebook pontos belső működését.
12:44
And if we want to know social media's effect on society,
232
764958
2779
Ha tudni szeretnénk, milyen hatással van a társadalomra
12:47
we need scientists, researchers
233
767761
2086
a közösségi média, tudósokra, kutatókra
12:49
and others to have access to this kind of information.
234
769871
3143
van szükségünk, hogy hozzáférjünk az ilyesfajta információkhoz.
12:53
But at the same time,
235
773038
1547
Ugyanakkor azt is elvárjuk a Facebooktól,
12:54
we are asking Facebook to lock everything down,
236
774609
3801
hogy zárjon el mindent,
12:58
to keep all of the data secure.
237
778434
2173
tartsa biztonságban az adatokat.
13:00
So, Facebook and the other social media platforms
238
780631
3159
Így a Facebook és hasonló közösségi platformok azzal szembesülnek,
13:03
are facing what I call a transparency paradox.
239
783814
3134
amit én átláthatósági paradoxonnak nevezek.
13:07
We are asking them, at the same time,
240
787266
2674
Egyszerre kérjük,
13:09
to be open and transparent and, simultaneously secure.
241
789964
4809
hogy legyenek nyitottak és átláthatóak, és ezzel párhuzamosan biztonságosak.
13:14
This is a very difficult needle to thread,
242
794797
2691
Ezeknek nagyon nehéz egyszerre megfelelni,
13:17
but they will need to thread this needle
243
797512
1913
de valahogy meg kell felelniük,
13:19
if we are to achieve the promise of social technologies
244
799449
3787
ha megvalósítjuk a közösségi technológiák ígéretét,
13:23
while avoiding their peril.
245
803260
1642
miközben elkerüljük veszélyeiket.
13:24
The final thing that we could think about is algorithms and machine learning.
246
804926
4691
Végül számba vehetjük az algoritmusok és gépi tanulás nyújtotta lehetőségeit is.
13:29
Technology devised to root out and understand fake news, how it spreads,
247
809641
5277
Olyan technológia kell, mely képes feltárni és megérteni az álhíreket,
13:34
and to try and dampen its flow.
248
814942
2331
terjedésük módját, majd elfojtani azt.
13:37
Humans have to be in the loop of this technology,
249
817824
2897
Az embernek ott kell lennie ebben a technológiai megoldásban,
13:40
because we can never escape
250
820745
2278
mert tagadhatatlan,
13:43
that underlying any technological solution or approach
251
823047
4038
hogy amikor letesszük voksunkat egy technológiai megoldás mellett,
13:47
is a fundamental ethical and philosophical question
252
827109
4047
az alapvető filozófiai és etikai kérdéseket vet fel arról,
13:51
about how do we define truth and falsity,
253
831180
3270
hogyan definiáljuk az igazságot és valótlant,
13:54
to whom do we give the power to define truth and falsity
254
834474
3180
kinek adjuk a hatalmat, hogy ezeket meghatározza,
13:57
and which opinions are legitimate,
255
837678
2460
mely vélemények legitimek,
14:00
which type of speech should be allowed and so on.
256
840162
3706
mely típusú beszélyek legyenek engedélyezettek, és hasonlók.
14:03
Technology is not a solution for that.
257
843892
2328
A technológia nem nyújt erre megoldást.
14:06
Ethics and philosophy is a solution for that.
258
846244
3698
Erre az etika és a filozófia jelent megoldást.
14:10
Nearly every theory of human decision making,
259
850950
3318
Az emberi döntéshozatal, együttműködés és irányítás
14:14
human cooperation and human coordination
260
854292
2761
szinte minden nézetének középpontjában
14:17
has some sense of the truth at its core.
261
857077
3674
ott az igazság feltételezése.
14:21
But with the rise of fake news,
262
861347
2056
Ám az álhírek felemelkedésével,
14:23
the rise of fake video,
263
863427
1443
a hamisított videók
14:24
the rise of fake audio,
264
864894
1882
és hangfelvételek terjedésével
14:26
we are teetering on the brink of the end of reality,
265
866800
3924
a valóság végének peremén tántorgunk,
14:30
where we cannot tell what is real from what is fake.
266
870748
3889
ahol képtelenek vagyunk megkülönböztetni a valóságot a valótlanságtól.
14:34
And that's potentially incredibly dangerous.
267
874661
3039
Ez pedig valószínűleg hihetetlen veszélyes.
14:38
We have to be vigilant in defending the truth
268
878931
3948
Éberen kell óvnunk az igazságot
14:42
against misinformation.
269
882903
1534
a félrevezető információk ellen:
14:44
With our technologies, with our policies
270
884919
3436
műszaki megoldásokkal, szabályokkal
14:48
and, perhaps most importantly,
271
888379
1920
és – ami talán még fontosabb –,
14:50
with our own individual responsibilities,
272
890323
3214
egyéni felelősségvállalás,
14:53
decisions, behaviors and actions.
273
893561
3555
döntések, viselkedés és tettek révén.
14:57
Thank you very much.
274
897553
1437
Köszönöm szépen.
14:59
(Applause)
275
899014
3517
(Taps)
Erről a weboldalról

Ez az oldal olyan YouTube-videókat mutat be, amelyek hasznosak az angol nyelvtanuláshoz. A világ minden tájáról származó, kiváló tanárok által tartott angol leckéket láthatsz. Az egyes videók oldalán megjelenő angol feliratokra duplán kattintva onnan játszhatja le a videót. A feliratok a videó lejátszásával szinkronban gördülnek. Ha bármilyen észrevétele vagy kérése van, kérjük, lépjen kapcsolatba velünk ezen a kapcsolatfelvételi űrlapon.

https://forms.gle/WvT1wiN1qDtmnspy7