How we can protect truth in the age of misinformation | Sinan Aral

235,868 views ・ 2020-01-16

TED


Proszę kliknąć dwukrotnie na poniższe angielskie napisy, aby odtworzyć film.

00:00
Translator: Ivana Korom Reviewer: Krystian Aparta
0
0
7000
Tłumaczenie: Ivana Korom Korekta: Agnieszka Fijałkowska
23 kwietnia 2013 roku
Associated Press zamieściła na Twitterze taką informację:
00:13
So, on April 23 of 2013,
1
13468
5222
"Z ostatniej chwili:
00:18
the Associated Press put out the following tweet on Twitter.
2
18714
5514
dwie eksplozje w Białym Domu.
Barack Obama został ranny."
Informację tę przesłano dalej 4000 razy w przeciągu pięciu minut
00:24
It said, "Breaking news:
3
24252
2397
00:26
Two explosions at the White House
4
26673
2571
00:29
and Barack Obama has been injured."
5
29268
2333
i szybko obiegła cały internet.
00:32
This tweet was retweeted 4,000 times in less than five minutes,
6
32212
5425
Informacja upubliczniona przez Associated Press nie była prawdziwa.
W rzeczywistości, była to fałszywa informacja
00:37
and it went viral thereafter.
7
37661
2217
rozpowszechniana przez syryjskich hakerów,
00:40
Now, this tweet wasn't real news put out by the Associated Press.
8
40760
4350
którzy włamali się na Twittera Associated Press.
00:45
In fact it was false news, or fake news,
9
45134
3333
Ich celem była destabilizacja społeczna, ale zdestabilizowali o wiele więcej.
00:48
that was propagated by Syrian hackers
10
48491
2825
00:51
that had infiltrated the Associated Press Twitter handle.
11
51340
4694
Ponieważ automatyczne algorytmy handlowe
natychmiast wychwyciły nastroje ludzi związane z tą wiadomością,
00:56
Their purpose was to disrupt society, but they disrupted much more.
12
56407
3889
zaczęły handel w oparciu o potencjalne konsekwencje tego,
01:00
Because automated trading algorithms
13
60320
2476
że prezydent Stanów Zjednoczonych został ranny lub zabity
01:02
immediately seized on the sentiment on this tweet,
14
62820
3360
w tej eksplozji.
Kiedy tweety się pojawiły,
01:06
and began trading based on the potential
15
66204
2968
wywołały natychmiastowy krach na giełdzie,
01:09
that the president of the United States had been injured or killed
16
69196
3381
powodując stratę 140 miliardów dolarów wartości kapitałowej w jeden dzień.
01:12
in this explosion.
17
72601
1200
01:14
And as they started tweeting,
18
74188
1992
01:16
they immediately sent the stock market crashing,
19
76204
3349
Robert Muelle, amerykański prokurator specjalny,
01:19
wiping out 140 billion dollars in equity value in a single day.
20
79577
5167
wydał akty oskarżenia przeciwko trzem rosyjskim firmom
i trzynastu rosyjskim obywatelom oskarżonym o zmowę
01:25
Robert Mueller, special counsel prosecutor in the United States,
21
85062
4476
mającą na celu oszukanie Stanów Zjednoczonych
01:29
issued indictments against three Russian companies
22
89562
3892
poprzez ingerencję w wybory prezydenckie z 2016 roku.
01:33
and 13 Russian individuals
23
93478
2619
Ten akt oskarżenia opowiada historię
01:36
on a conspiracy to defraud the United States
24
96121
3167
Internetowej Agencji Badawczej,
01:39
by meddling in the 2016 presidential election.
25
99312
3780
podejrzanego narzędzia wpływu Kremla na media społecznościowe.
01:43
And what this indictment tells as a story
26
103855
3564
W czasie samych wyborów prezydenckich
01:47
is the story of the Internet Research Agency,
27
107443
3142
Internetowa Agencja Badawcza
01:50
the shadowy arm of the Kremlin on social media.
28
110609
3594
dosięgnęła 126 milionów ludzi na Facebooku w Stanach Zjednoczonych,
01:54
During the presidential election alone,
29
114815
2777
opublikowała 3 miliony tweetów
01:57
the Internet Agency's efforts
30
117616
1889
01:59
reached 126 million people on Facebook in the United States,
31
119529
5167
i 43 godziny treści na YouTube.
Wszystkie były nieprawdziwe.
02:04
issued three million individual tweets
32
124720
3277
Były dezinformacją
mającą na celu zasiać niezgodę podczas wyborów.
02:08
and 43 hours' worth of YouTube content.
33
128021
3842
02:11
All of which was fake --
34
131887
1652
Ostatnie badania przeprowadzone przez Uniwersytet Oksfordzki pokazały,
02:13
misinformation designed to sow discord in the US presidential election.
35
133563
6323
że w trakcie ostatnich wyborów w Szwecji,
jedna trzecia informacji na ich temat w mediach społecznościowych
02:20
A recent study by Oxford University
36
140996
2650
02:23
showed that in the recent Swedish elections,
37
143670
3270
była albo nieprawdą, albo celowo wprowadzała w błąd.
02:26
one third of all of the information spreading on social media
38
146964
4375
Tego typu kampanie dezinformacyjne w mediach społecznościowych
02:31
about the election
39
151363
1198
mogą szerzyć tak zwaną “propagandę ludobójstwa”,
02:32
was fake or misinformation.
40
152585
2087
02:35
In addition, these types of social-media misinformation campaigns
41
155037
5078
na przykład przeciwko ludności Rohingya w Burmie,
która zapoczątkowała lincze w Indiach.
02:40
can spread what has been called "genocidal propaganda,"
42
160139
4151
Badaliśmy fałszywe wiadomości
zanim jeszcze był to popularny termin.
02:44
for instance against the Rohingya in Burma,
43
164314
3111
Ostatnio opublikowaliśmy wyniki jak dotąd największych badań podłużnych
02:47
triggering mob killings in India.
44
167449
2303
02:49
We studied fake news
45
169776
1494
02:51
and began studying it before it was a popular term.
46
171294
3219
na temat ich rozchodzenia się w internecie
na łamach czasopisma “Science” w marcu tego roku.
02:55
And we recently published the largest-ever longitudinal study
47
175030
5040
Badaliśmy wszystkie potwierdzone prawdziwe i nieprawdziwe historie,
03:00
of the spread of fake news online
48
180094
2286
03:02
on the cover of "Science" in March of this year.
49
182404
3204
które kiedykolwiek obiegły Twittera
od jego powstania w 2006 roku do 2017 roku.
03:06
We studied all of the verified true and false news stories
50
186523
4161
Kiedy prowadziliśmy badania,
03:10
that ever spread on Twitter,
51
190708
1753
sięgaliśmy po wiadomości,
03:12
from its inception in 2006 to 2017.
52
192485
3818
które zostały zweryfikowane przez sześć niezależnych organizacji.
03:16
And when we studied this information,
53
196612
2314
Więc wiedzieliśmy, które z nich były prawdziwe
03:18
we studied verified news stories
54
198950
2876
a które nie.
03:21
that were verified by six independent fact-checking organizations.
55
201850
3918
Możemy zmierzyć ich rozpowszechnianie,
prędkość rozpowszechniania,
03:25
So we knew which stories were true
56
205792
2762
głębokość oraz zakres rozpowszechniania,
oraz ilu ludzi wplątano w tę kaskadę informacji i tak dalej.
03:28
and which stories were false.
57
208578
2126
03:30
We can measure their diffusion,
58
210728
1873
03:32
the speed of their diffusion,
59
212625
1651
W rezultacie udało nam się
porównać rozpowszechnianie się prawdziwych i fałszywych wiadomości.
03:34
the depth and breadth of their diffusion,
60
214300
2095
03:36
how many people become entangled in this information cascade and so on.
61
216419
4142
Oto, czego się dowiedzieliśmy.
Dowiedzieliśmy się, że fałszywe wiadomości rozchodziły się dalej, szybciej, głębiej
03:40
And what we did in this paper
62
220942
1484
03:42
was we compared the spread of true news to the spread of false news.
63
222450
3865
i szerzej niż prawda
w każdej badanej przez nas kategorii informacji,
03:46
And here's what we found.
64
226339
1683
03:48
We found that false news diffused further, faster, deeper
65
228046
3979
czasami nawet o cały rząd wielkości.
Fałszywe wiadomości na temat polityki najsprawniej obiegały internet.
03:52
and more broadly than the truth
66
232049
1806
03:53
in every category of information that we studied,
67
233879
3003
Rozchodziły się dalej, szybciej, głębiej i szerzej
03:56
sometimes by an order of magnitude.
68
236906
2499
niż inne rodzaje fałszywych informacji.
03:59
And in fact, false political news was the most viral.
69
239842
3524
Kiedy to zauważyliśmy,
natychmiast wzbudziło to nasz niepokój, ale i ciekawość.
04:03
It diffused further, faster, deeper and more broadly
70
243390
3147
Dlaczego?
04:06
than any other type of false news.
71
246561
2802
Dlaczego fałszywe wiadomości rozchodzą się dalej, szybciej, głębiej
04:09
When we saw this,
72
249387
1293
i szerzej niż prawda?
04:10
we were at once worried but also curious.
73
250704
2841
Pierwsza nasza hipoteza zakładała,
04:13
Why?
74
253569
1151
04:14
Why does false news travel so much further, faster, deeper
75
254744
3373
że ludzie, którzy je rozsiewają,
mają więcej obserwujących lub obserwowanych,
04:18
and more broadly than the truth?
76
258141
1864
albo częściej tweetują,
04:20
The first hypothesis that we came up with was,
77
260339
2961
lub częściej są użytkownikami Twittera o potwierdzonej wyższej wiarygodności,
04:23
"Well, maybe people who spread false news have more followers or follow more people,
78
263324
4792
a może są dłużej na Twitterze.
Sprawdziliśmy wszystkie założenia kolejno.
04:28
or tweet more often,
79
268140
1557
04:29
or maybe they're more often 'verified' users of Twitter, with more credibility,
80
269721
4126
Okazało się, że było dokładnie odwrotnie.
04:33
or maybe they've been on Twitter longer."
81
273871
2182
Osoby te miały mniej obserwujących,
obserwowały mniejszą liczbę ludzi, były mniej aktywne,
04:36
So we checked each one of these in turn.
82
276077
2298
rzadziej "sprawdzone"
04:38
And what we found was exactly the opposite.
83
278691
2920
i były krócej na Twitterze.
04:41
False-news spreaders had fewer followers,
84
281635
2436
A mimo to
prawdopodobieństwo powielenia fałszu było o 70 procent wyższe niż prawdy,
04:44
followed fewer people, were less active,
85
284095
2254
04:46
less often "verified"
86
286373
1460
04:47
and had been on Twitter for a shorter period of time.
87
287857
2960
po uwzględnieniu tych i wielu innych czynników.
04:50
And yet,
88
290841
1189
Musieliśmy więc wpaść na inne wytłumaczenie.
04:52
false news was 70 percent more likely to be retweeted than the truth,
89
292054
5033
Opracowaliśmy "hipotezę nowości."
04:57
controlling for all of these and many other factors.
90
297111
3363
Literatura szeroko pokazuje,
05:00
So we had to come up with other explanations.
91
300498
2690
że ludzka uwaga skupia się na nowości,
05:03
And we devised what we called a "novelty hypothesis."
92
303212
3467
na rzeczach, które są nowe w środowisku.
Czytając literaturę socjologiczną
05:07
So if you read the literature,
93
307038
1960
dowiadujemy się, że lubimy przekazywać nowe informacje.
05:09
it is well known that human attention is drawn to novelty,
94
309022
3754
05:12
things that are new in the environment.
95
312800
2519
Dzięki temu wydajemy się posiadać dostęp do informacji wewnętrznych,
05:15
And if you read the sociology literature,
96
315343
1985
05:17
you know that we like to share novel information.
97
317352
4300
a dzieląc się nimi zyskujemy na statusie.
05:21
It makes us seem like we have access to inside information,
98
321676
3838
Zmierzyliśmy więc nowość przychodzącego tweeta,
05:25
and we gain in status by spreading this kind of information.
99
325538
3785
porównując go do korpusu składającego się ze wszystkiego, co dana osoba widziała
05:29
So what we did was we measured the novelty of an incoming true or false tweet,
100
329792
6452
na Twitterze w ciągu poprzednich 60 dni.
Ale to nie wystarczało, bo zaczęliśmy się zastanawiać:
05:36
compared to the corpus of what that individual had seen
101
336268
4055
“Choć fałszywe informacje są nowsze w sensie informacyjno-teoretycznym,
05:40
in the 60 days prior on Twitter.
102
340347
2952
to może ludzie nie postrzegają ich jako nowsze.”
05:43
But that wasn't enough, because we thought to ourselves,
103
343323
2659
Więc, aby zrozumieć ludzkie postrzeganie fałszywych wiadomości,
05:46
"Well, maybe false news is more novel in an information-theoretic sense,
104
346006
4208
przyjrzeliśmy się informacji i nastrojom
05:50
but maybe people don't perceive it as more novel."
105
350238
3258
05:53
So to understand people's perceptions of false news,
106
353849
3927
zawartym w odpowiedziach na prawdziwe i fałszywe tweety.
05:57
we looked at the information and the sentiment
107
357800
3690
Odkryliśmy,
że na skali nastrojów,
06:01
contained in the replies to true and false tweets.
108
361514
4206
zaskoczenia, odrazy, strachu, smutku,
06:06
And what we found
109
366022
1206
oczekiwania, radości i zaufania,
06:07
was that across a bunch of different measures of sentiment --
110
367252
4214
fałszywe wiadomości wykazywały znacznie więcej zaskoczenia i odrazy
06:11
surprise, disgust, fear, sadness,
111
371490
3301
06:14
anticipation, joy and trust --
112
374815
2484
w odpowiedziach na fałszywe tweety.
06:17
false news exhibited significantly more surprise and disgust
113
377323
5857
Natomiast prawdziwe wiadomości wykazywały znacznie więcej oczekiwania,
radości i zaufania
06:23
in the replies to false tweets.
114
383204
2806
w odpowiedziach na prawdziwe tweety.
Zaskoczenie potwierdza hipotezę nowości.
06:26
And true news exhibited significantly more anticipation,
115
386392
3789
Istnieje większe prawdopodobieństwo podzielenia się tym co nowe i zaskakujące.
06:30
joy and trust
116
390205
1547
06:31
in reply to true tweets.
117
391776
2547
06:34
The surprise corroborates our novelty hypothesis.
118
394347
3786
W tym samym czasie wydano oświadczenie
przed obiema izbami Kongresu Stanów Zjednoczonych,
06:38
This is new and surprising, and so we're more likely to share it.
119
398157
4609
na temat roli botów w rozsiewaniu dezinformacji.
06:43
At the same time, there was congressional testimony
120
403092
2925
Temu też się przyjrzeliśmy;
użyliśmy wielu wyrafinowanych algorytmów wykrywania botów,
06:46
in front of both houses of Congress in the United States,
121
406041
3036
06:49
looking at the role of bots in the spread of misinformation.
122
409101
3738
do znalezienia botów w naszych danych i ich usunięcia.
06:52
So we looked at this too --
123
412863
1354
Po usunięciu, umieściliśmy je z powrotem na miejscu
06:54
we used multiple sophisticated bot-detection algorithms
124
414241
3598
i porównaliśmy pomiary.
06:57
to find the bots in our data and to pull them out.
125
417863
3074
Odkryliśmy,
że boty rzeczywiście przyspieszały obieg fałszywych wiadomości w internecie,
07:01
So we pulled them out, we put them back in
126
421347
2659
07:04
and we compared what happens to our measurement.
127
424030
3119
ale przyspieszały też obieg prawdziwych wiadomości
07:07
And what we found was that, yes indeed,
128
427173
2293
w przybliżonym stopniu.
07:09
bots were accelerating the spread of false news online,
129
429490
3682
To oznacza, że boty nie są odpowiedzialne
za zróżnicowane rozchodzenie się prawdy i fałszu w internecie.
07:13
but they were accelerating the spread of true news
130
433196
2651
07:15
at approximately the same rate.
131
435871
2405
Nie możemy uciec od tej odpowiedzialności,
07:18
Which means bots are not responsible
132
438300
2858
ponieważ to my, ludzie, odpowiadamy za to zjawisko.
07:21
for the differential diffusion of truth and falsity online.
133
441182
4713
07:25
We can't abdicate that responsibility,
134
445919
2849
Wszystko, co do tej pory powiedziałem
07:28
because we, humans, are responsible for that spread.
135
448792
4259
jest niestety dla nas
dobrą wiadomością.
07:34
Now, everything that I have told you so far,
136
454472
3334
Ponieważ będzie jeszcze gorzej.
07:37
unfortunately for all of us,
137
457830
1754
07:39
is the good news.
138
459608
1261
Dwie konkretne technologie przyczynią się do tego.
07:42
The reason is because it's about to get a whole lot worse.
139
462670
4450
Będziemy świadkami powstania ogromnej fali mediów syntetycznych.
07:47
And two specific technologies are going to make it worse.
140
467850
3682
Fałszywy obraz, fałszywy dźwięk, który będzie bardzo przekonujący.
07:52
We are going to see the rise of a tremendous wave of synthetic media.
141
472207
5172
Będą one napędzane przez dwie technologie.
07:57
Fake video, fake audio that is very convincing to the human eye.
142
477403
6031
Pierwsza znana jest jako “generatywne sieci współzawodniczące”.
To model systemu uczącego się maszynowo z dwoma sieciami:
08:03
And this will powered by two technologies.
143
483458
2754
dyskryminatorem,
który odpowiada za ustalenie, czy coś jest prawdziwe, czy fałszywe,
08:06
The first of these is known as "generative adversarial networks."
144
486236
3833
i generatorem,
08:10
This is a machine-learning model with two networks:
145
490093
2563
który odpowiada za generowanie mediów syntetycznych.
08:12
a discriminator,
146
492680
1547
08:14
whose job it is to determine whether something is true or false,
147
494251
4200
Generator syntetyczny generuje syntetyczny obraz i dźwięk,
08:18
and a generator,
148
498475
1167
08:19
whose job it is to generate synthetic media.
149
499666
3150
z kolei dyskryminator próbuje rozróżnić, czy jest on prawdziwy, czy fałszywy.
08:22
So the synthetic generator generates synthetic video or audio,
150
502840
5102
Zadaniem generatora jest
08:27
and the discriminator tries to tell, "Is this real or is this fake?"
151
507966
4675
zmaksymalizowanie prawdopodobieństwa przekonania dyskryminatora,
że syntetyczny obraz i dźwięk, które stworzył są prawdziwe.
08:32
And in fact, it is the job of the generator
152
512665
2874
08:35
to maximize the likelihood that it will fool the discriminator
153
515563
4435
Wyobraźcie sobie zapętloną maszynę,
która próbuje stać się coraz lepsza w oszukiwaniu nas.
08:40
into thinking the synthetic video and audio that it is creating
154
520022
3587
W połączeniu z drugą technologią,
08:43
is actually true.
155
523633
1730
08:45
Imagine a machine in a hyperloop,
156
525387
2373
która stanowi właściwie upowszechnienie dostępu do sztucznej inteligencji
08:47
trying to get better and better at fooling us.
157
527784
2803
i umożliwia każdemu,
08:51
This, combined with the second technology,
158
531114
2500
08:53
which is essentially the democratization of artificial intelligence to the people,
159
533638
5722
bez żadnego doświadczenia ze sztuczną inteligencją
lub z systemami uczącymi się,
zastosować tego rodzaju algorytmy do wygenerowania mediów syntetycznych,
08:59
the ability for anyone,
160
539384
2189
09:01
without any background in artificial intelligence
161
541597
2830
znacznie ułatwia tworzenie filmów.
09:04
or machine learning,
162
544451
1182
09:05
to deploy these kinds of algorithms to generate synthetic media
163
545657
4103
Biały Dom wypuścił fałszywy, przerobiony film
09:09
makes it ultimately so much easier to create videos.
164
549784
4547
przedstawiający dziennikarza w interakcji ze stażystą próbującym zabrać mu mikrofon.
09:14
The White House issued a false, doctored video
165
554355
4421
Usunięto z filmu klatki po to,
żeby jego zachowanie wydawało się być bardziej agresywne.
09:18
of a journalist interacting with an intern who was trying to take his microphone.
166
558800
4288
Kiedy przeprowadzono wywiad z filmowcami i kaskaderami
09:23
They removed frames from this video
167
563427
1999
na temat tej techniki,
09:25
in order to make his actions seem more punchy.
168
565450
3287
powiedzieli, że ciągle używa się jej w filmach,
09:29
And when videographers and stuntmen and women
169
569157
3385
żeby uderzenia i kopnięcia wyglądały na bardziej szarpane i agresywne.
09:32
were interviewed about this type of technique,
170
572566
2427
09:35
they said, "Yes, we use this in the movies all the time
171
575017
3828
Film ten został upubiczniony
i użyty częściowo jako uzasadnienie
09:38
to make our punches and kicks look more choppy and more aggressive."
172
578869
4763
cofnięcia przepustki prasowej Jimowi Acosta
09:44
They then put out this video
173
584268
1867
do Białego Domu.
CNN zmuszona była wejść na drogę prawną, żeby mu ją przywrócić.
09:46
and partly used it as justification
174
586159
2500
09:48
to revoke Jim Acosta, the reporter's, press pass
175
588683
3999
09:52
from the White House.
176
592706
1339
Istnieje około pięć różnych ścieżek, którymi, jak sądzę, możemy podążać
09:54
And CNN had to sue to have that press pass reinstated.
177
594069
4809
abyśmy mogli dziś spróbować zająć się niektórymi z tych trudnych problemów.
10:00
There are about five different paths that I can think of that we can follow
178
600538
5603
Każda z nich jest obiecująca,
ale każda z nich niesie własne wyzwania.
10:06
to try and address some of these very difficult problems today.
179
606165
3739
Pierwsza to etykietowanie.
Spójrzcie na to z tej strony:
10:10
Each one of them has promise,
180
610379
1810
kiedy idziecie do warzywniaka, żeby kupić jedzenie,
10:12
but each one of them has its own challenges.
181
612213
2999
posiada ono obszerne etykiety.
10:15
The first one is labeling.
182
615236
2008
Wiecie ile ma kalorii,
10:17
Think about it this way:
183
617268
1357
ile zawiera tłuszczu,
10:18
when you go to the grocery store to buy food to consume,
184
618649
3611
a mimo to, kiedy konsumujemy informacje, nie mamy absolutnie żadnych etykiet.
10:22
it's extensively labeled.
185
622284
1904
Co zawiera ta informacja?
10:24
You know how many calories it has,
186
624212
1992
Czy jej źródło jest wiarygodne?
10:26
how much fat it contains --
187
626228
1801
Skąd pochodzi?
10:28
and yet when we consume information, we have no labels whatsoever.
188
628053
4278
Nie wiemy nic na ten temat,
kiedy konsumujemy informacje.
10:32
What is contained in this information?
189
632355
1928
To jest potencjalna droga, ale towarzyszą jej też wyzwania.
10:34
Is the source credible?
190
634307
1453
10:35
Where is this information gathered from?
191
635784
2317
Na przykład, kto decyduje o tym, co jest prawdziwe, a co fałszywe?
10:38
We have none of that information
192
638125
1825
10:39
when we are consuming information.
193
639974
2103
10:42
That is a potential avenue, but it comes with its challenges.
194
642101
3238
Rządy?
10:45
For instance, who gets to decide, in society, what's true and what's false?
195
645363
6451
Facebook?
Niezależne konsorcjum weryfikujące prawdziwość informacji?
Kto sprawdza sprawdzających informacje?
10:52
Is it the governments?
196
652387
1642
Kolejną potencjalną drogą są pobudki.
10:54
Is it Facebook?
197
654053
1150
10:55
Is it an independent consortium of fact-checkers?
198
655601
3762
Wiadomo, że w trakcie wyborów prezydenckich w USA
10:59
And who's checking the fact-checkers?
199
659387
2466
z Macedonii napłynęła fala dezinformacji,
11:02
Another potential avenue is incentives.
200
662427
3084
która nie miała motywów politycznych,
11:05
We know that during the US presidential election
201
665535
2634
natomiast miała ekonomiczny.
11:08
there was a wave of misinformation that came from Macedonia
202
668193
3690
Ten motyw ekonomiczny zaistniał,
bo fałszywe wiadomości przenoszą się znacznie dalej, szybciej
11:11
that didn't have any political motive
203
671907
2337
i głębiej, niż prawda
11:14
but instead had an economic motive.
204
674268
2460
11:16
And this economic motive existed,
205
676752
2148
i można zarobić pieniądze na reklamie, jeśli się przyciągnie uwagę
11:18
because false news travels so much farther, faster
206
678924
3524
tego typu informacją.
11:22
and more deeply than the truth,
207
682472
2010
Ale jeśli uda nam się zmniejszyć szerzenie się tych informacji,
11:24
and you can earn advertising dollars as you garner eyeballs and attention
208
684506
4960
może zredukowało by to bodziec ekonomiczny,
11:29
with this type of information.
209
689490
1960
do tego, aby je w ogóle tworzyć.
11:31
But if we can depress the spread of this information,
210
691474
3833
Po trzecie, możemy rozważyć regulację,
i zdecydowanie powinniśmy wziąć pod uwagę tę opcję.
11:35
perhaps it would reduce the economic incentive
211
695331
2897
Obecnie w Stanach Zjednoczonych badamy,
11:38
to produce it at all in the first place.
212
698252
2690
11:40
Third, we can think about regulation,
213
700966
2500
co mogłoby się zdarzyć, gdyby uregulowano media społecznościowe.
11:43
and certainly, we should think about this option.
214
703490
2325
Chociaż powinniśmy rozważyć regulowanie wypowiedzi politycznych,
11:45
In the United States, currently,
215
705839
1611
11:47
we are exploring what might happen if Facebook and others are regulated.
216
707474
4848
etykietowanie wypowiedzi politycznych,
upewnianie się, że zagraniczni lobbiści nie mogą ich finansować,
11:52
While we should consider things like regulating political speech,
217
712346
3801
niesie to swoje niebezpieczeństwa.
11:56
labeling the fact that it's political speech,
218
716171
2508
Na przykład, Malezja właśnie ustanowiła karę sześciu lat więzienia
11:58
making sure foreign actors can't fund political speech,
219
718703
3819
dla każdego, kto rozsiewa dezinformacje.
12:02
it also has its own dangers.
220
722546
2547
12:05
For instance, Malaysia just instituted a six-year prison sentence
221
725522
4878
Natomiast w reżimach autorytarnych
tego typu polityka może być wykorzystana by stłumić opinie mniejszości
12:10
for anyone found spreading misinformation.
222
730424
2734
i przedłużać represję.
12:13
And in authoritarian regimes,
223
733696
2079
12:15
these kinds of policies can be used to suppress minority opinions
224
735799
4666
Czwartą możliwą opcją jest jawność.
12:20
and to continue to extend repression.
225
740489
3508
Chcemy wiedzieć, jak działają algorytmy Facebooka,
12:24
The fourth possible option is transparency.
226
744680
3543
jak dane łączą się z algorytmami
tworząc to, co widzimy.
12:28
We want to know how do Facebook's algorithms work.
227
748843
3714
Chcemy, żeby wyjawili prawdę
12:32
How does the data combine with the algorithms
228
752581
2880
i dokładnie pokazali nam wewnętrzne mechanizmy działania Facebooka.
12:35
to produce the outcomes that we see?
229
755485
2838
A jeśli chcemy poznać wpływ mediów społecznościowych na społeczeństwo
12:38
We want them to open the kimono
230
758347
2349
potrzebujemy, żeby naukowcy, badacze
12:40
and show us exactly the inner workings of how Facebook is working.
231
760720
4214
i inne grupy miały dostęp do tego rodzaju informacji.
12:44
And if we want to know social media's effect on society,
232
764958
2779
Ale jednocześnie
prosimy Facebooka o zamknięcie wszystkiego na klucz,
12:47
we need scientists, researchers
233
767761
2086
12:49
and others to have access to this kind of information.
234
769871
3143
o zabezpieczenie naszych danych.
W związku z tym Facebook i inne platformy społecznościowe
12:53
But at the same time,
235
773038
1547
12:54
we are asking Facebook to lock everything down,
236
774609
3801
stoją przed tym, co nazywam paradoksem jawności.
12:58
to keep all of the data secure.
237
778434
2173
Prosimy ich,
13:00
So, Facebook and the other social media platforms
238
780631
3159
żeby były otwarte i jawne, a jednocześnie bezpieczne.
13:03
are facing what I call a transparency paradox.
239
783814
3134
To bardzo trudny problem do rozwiązania,
13:07
We are asking them, at the same time,
240
787266
2674
13:09
to be open and transparent and, simultaneously secure.
241
789964
4809
ale będą musieli go rozwiązać,
jeśli mamy tworzyć technologie społecznościowe
13:14
This is a very difficult needle to thread,
242
794797
2691
unikając ich niebezpieczeństw.
Ostatnią rzeczą do rozważenia są algorytmy i uczenie maszynowe.
13:17
but they will need to thread this needle
243
797512
1913
13:19
if we are to achieve the promise of social technologies
244
799449
3787
Technologia zaprojektowana, by wyplenić i zrozumieć fake newsy
13:23
while avoiding their peril.
245
803260
1642
13:24
The final thing that we could think about is algorithms and machine learning.
246
804926
4691
oraz aby spróbować ograniczyć ich przepływ.
13:29
Technology devised to root out and understand fake news, how it spreads,
247
809641
5277
Ludzie muszą być w pętli tej technologii,
bo nie jesteśmy w stanie uniknąć tego,
13:34
and to try and dampen its flow.
248
814942
2331
że podstawą każdego rozwiązania technologicznego
13:37
Humans have to be in the loop of this technology,
249
817824
2897
jest zasadnicza etyczna i filozoficzna kwestia
13:40
because we can never escape
250
820745
2278
dotycząca tego, jak definiujemy prawdę i fałsz,
13:43
that underlying any technological solution or approach
251
823047
4038
komu dajemy moc definiowania prawdy i fałszu,
13:47
is a fundamental ethical and philosophical question
252
827109
4047
i które opcje są słuszne,
13:51
about how do we define truth and falsity,
253
831180
3270
jakiego rodzaju mowa jest dopuszczalna i tak dalej.
13:54
to whom do we give the power to define truth and falsity
254
834474
3180
Technologia nie stanowi tu rozwiązania.
13:57
and which opinions are legitimate,
255
837678
2460
Etyka i filozofia są rozwiązaniami dla tych problemów.
14:00
which type of speech should be allowed and so on.
256
840162
3706
Prawie każda teoria podejmowania wyborów przez ludzi,
14:03
Technology is not a solution for that.
257
843892
2328
współpracy międzyludzkiej i koordynacji,
14:06
Ethics and philosophy is a solution for that.
258
846244
3698
ma zakorzenione rdzenne poczucie prawdy.
14:10
Nearly every theory of human decision making,
259
850950
3318
Ale wraz z powstaniem fałszywych wiadomości,
14:14
human cooperation and human coordination
260
854292
2761
fałszywego obrazu,
fałszywego dźwięku,
14:17
has some sense of the truth at its core.
261
857077
3674
balansujemy na granicy końca rzeczywistości,
14:21
But with the rise of fake news,
262
861347
2056
gdzie nie można odróżnić tego, co prawdziwe od fałszu.
14:23
the rise of fake video,
263
863427
1443
14:24
the rise of fake audio,
264
864894
1882
14:26
we are teetering on the brink of the end of reality,
265
866800
3924
Potencjalnie jest to bardzo niebezpieczne.
14:30
where we cannot tell what is real from what is fake.
266
870748
3889
Musimy być czujni broniąc prawdy
14:34
And that's potentially incredibly dangerous.
267
874661
3039
przed dezinformacją.
W przypadku naszych technologii, polityki
14:38
We have to be vigilant in defending the truth
268
878931
3948
i, co może najważniejsze,
w przypadku naszej osobistej odpowiedzialności,
14:42
against misinformation.
269
882903
1534
14:44
With our technologies, with our policies
270
884919
3436
decyzji, zachowań i działań.
14:48
and, perhaps most importantly,
271
888379
1920
Dziękuję bardzo.
14:50
with our own individual responsibilities,
272
890323
3214
(Brawa)
14:53
decisions, behaviors and actions.
273
893561
3555
14:57
Thank you very much.
274
897553
1437
14:59
(Applause)
275
899014
3517
O tej stronie

Na tej stronie poznasz filmy z YouTube, które są przydatne do nauki języka angielskiego. Zobaczysz lekcje angielskiego prowadzone przez najlepszych nauczycieli z całego świata. Kliknij dwukrotnie na angielskie napisy wyświetlane na stronie każdego filmu, aby odtworzyć film od tego miejsca. Napisy przewijają się synchronicznie z odtwarzaniem filmu. Jeśli masz jakieś uwagi lub prośby, skontaktuj się z nami za pomocą formularza kontaktowego.

https://forms.gle/WvT1wiN1qDtmnspy7