How we can protect truth in the age of misinformation | Sinan Aral

235,868 views ・ 2020-01-16

TED


Bitte doppelklicken Sie auf die englischen Untertitel unten, um das Video abzuspielen.

00:00
Translator: Ivana Korom Reviewer: Krystian Aparta
0
0
7000
Übersetzung: Siri Hölperl Lektorat: Sonja Maria Neef
00:13
So, on April 23 of 2013,
1
13468
5222
[Sinan Aral] Am 23. April 2013,
00:18
the Associated Press put out the following tweet on Twitter.
2
18714
5514
veröffentlichte die "Associated Press" den folgenden Tweet auf Twitter:
00:24
It said, "Breaking news:
3
24252
2397
"Eilmeldung: 2 Explosionen im Weißen Haus, Barack Obama wurde verletzt."
00:26
Two explosions at the White House
4
26673
2571
00:29
and Barack Obama has been injured."
5
29268
2333
00:32
This tweet was retweeted 4,000 times in less than five minutes,
6
32212
5425
Dieser Tweet wurde in weniger als 5 Minuten 4.000 Mal retweetet
00:37
and it went viral thereafter.
7
37661
2217
und verbreitete sich anschließend viral.
00:40
Now, this tweet wasn't real news put out by the Associated Press.
8
40760
4350
Dieser Tweet war keine echte Neuigkeit, von der Associated Press herausgegeben,
00:45
In fact it was false news, or fake news,
9
45134
3333
sondern eine Falschnachricht, Fake News, von syrischen Hackern verbreitet,
00:48
that was propagated by Syrian hackers
10
48491
2825
00:51
that had infiltrated the Associated Press Twitter handle.
11
51340
4694
die den Twitter-Account der Associated Press übernommen hatten.
00:56
Their purpose was to disrupt society, but they disrupted much more.
12
56407
3889
Ihr Ziel war, die Gesellschaft zu stören, aber sie störten viel mehr.
01:00
Because automated trading algorithms
13
60320
2476
Weil automatisierte Handelsalgorithmen
01:02
immediately seized on the sentiment on this tweet,
14
62820
3360
sofort die Stimmungslage dieses Tweets erfassten,
01:06
and began trading based on the potential
15
66204
2968
und Börsengeschäfte ausführten, die auf der Annahme beruhten,
01:09
that the president of the United States had been injured or killed
16
69196
3381
dass der Präsident der USA in der Explosion verletzt oder getötet wurde.
01:12
in this explosion.
17
72601
1200
01:14
And as they started tweeting,
18
74188
1992
Als sie anfingen zu tweeten, stürzte sofort die Börse ein,
01:16
they immediately sent the stock market crashing,
19
76204
3349
und 140 Milliarden Dollar Aktienkapital wurden an einem einzigen Tag ausgelöscht.
01:19
wiping out 140 billion dollars in equity value in a single day.
20
79577
5167
01:25
Robert Mueller, special counsel prosecutor in the United States,
21
85062
4476
Robert Mueller, US Sonderstaatsanwalt,
01:29
issued indictments against three Russian companies
22
89562
3892
erhob Anklage gegen drei russische Firmen und 13 russische Personen,
01:33
and 13 Russian individuals
23
93478
2619
wegen einem Zusammenschluss zum Betrug der Vereinigten Staaten,
01:36
on a conspiracy to defraud the United States
24
96121
3167
durch Einmischung in die Präsidentschaftswahl 2016.
01:39
by meddling in the 2016 presidential election.
25
99312
3780
01:43
And what this indictment tells as a story
26
103855
3564
Was uns diese Anklage erzählt,
01:47
is the story of the Internet Research Agency,
27
107443
3142
ist die Geschichte der Internet Research Agency,
01:50
the shadowy arm of the Kremlin on social media.
28
110609
3594
eine undurchsichtige Abteilung des Kremls, die auf sozialen Netzwerken tätig ist.
01:54
During the presidential election alone,
29
114815
2777
Allein bei der Präsidentschaftswahl, erreichte die Internet Research Agency
01:57
the Internet Agency's efforts
30
117616
1889
01:59
reached 126 million people on Facebook in the United States,
31
119529
5167
in den Vereinigten Staaten auf Facebook 126 Milionen Menschen,
02:04
issued three million individual tweets
32
124720
3277
veröffentlichte 3 Millionen Einzel-Tweets und 43 Stunden YouTube-Inhalte.
02:08
and 43 hours' worth of YouTube content.
33
128021
3842
02:11
All of which was fake --
34
131887
1652
Alles war gefälscht --
02:13
misinformation designed to sow discord in the US presidential election.
35
133563
6323
Falschinformationen, deren Ziel es war, Uneinigkeit in die Wahl zu bringen.
02:20
A recent study by Oxford University
36
140996
2650
Laut einer aktuellen Studie der Universität Oxford,
02:23
showed that in the recent Swedish elections,
37
143670
3270
war bei den letzten Wahlen in Schweden, ein Drittel aller Informationen zur Wahl,
02:26
one third of all of the information spreading on social media
38
146964
4375
die auf Social Media verteilt wurden, falsch oder Fehlinformationen.
02:31
about the election
39
151363
1198
02:32
was fake or misinformation.
40
152585
2087
02:35
In addition, these types of social-media misinformation campaigns
41
155037
5078
Solche Fehlinformationskampagnen auf sozialen Kanälen,
02:40
can spread what has been called "genocidal propaganda,"
42
160139
4151
können zur Verbreitung sogenannter "Völkermord-Propaganda" beitragen,
02:44
for instance against the Rohingya in Burma,
43
164314
3111
wie die gegen die Rohingya in Birma, welche Mob-Morde in Indien auslöste.
02:47
triggering mob killings in India.
44
167449
2303
02:49
We studied fake news
45
169776
1494
Wir erforschten Fake-News, lange bevor es ein bekannter Begriff war.
02:51
and began studying it before it was a popular term.
46
171294
3219
02:55
And we recently published the largest-ever longitudinal study
47
175030
5040
In der diesjährigen März-Ausgabe des "Science" Magazins,
veröffentlichten wir die größte Lanzeitstudie
03:00
of the spread of fake news online
48
180094
2286
zur Verbreitung von Fehlinformationen online.
03:02
on the cover of "Science" in March of this year.
49
182404
3204
Wir untersuchten alle überprüften, wahren und falschen Nachrichten,
03:06
We studied all of the verified true and false news stories
50
186523
4161
03:10
that ever spread on Twitter,
51
190708
1753
die seit der Gründung 2006 bis 2017 auf Twitter verbreitet wurden.
03:12
from its inception in 2006 to 2017.
52
192485
3818
03:16
And when we studied this information,
53
196612
2314
Als wir diese Daten erforschten, untersuchten wir überprüfte Nachrichten,
03:18
we studied verified news stories
54
198950
2876
03:21
that were verified by six independent fact-checking organizations.
55
201850
3918
die von 6 unhabhängigen Organisationen im Faktencheck verifiziert wurden.
03:25
So we knew which stories were true
56
205792
2762
Wir wussten also, welche Geschichten wahr waren und welche falsch.
03:28
and which stories were false.
57
208578
2126
03:30
We can measure their diffusion,
58
210728
1873
Wir können ihre Ausbreitung messen, ihre Geschwindigkeit, Tiefe und Breite.
03:32
the speed of their diffusion,
59
212625
1651
03:34
the depth and breadth of their diffusion,
60
214300
2095
03:36
how many people become entangled in this information cascade and so on.
61
216419
4142
Wieviele Leute sich in dieser Kaskade von Informationen verwickeln usw.
03:40
And what we did in this paper
62
220942
1484
Wir vergleichten in dieser Studie
03:42
was we compared the spread of true news to the spread of false news.
63
222450
3865
die Ausbreitung der wahren Nachrichten mit der Ausbreitung der falschen.
03:46
And here's what we found.
64
226339
1683
Hier ist unser Ergebnis:
03:48
We found that false news diffused further, faster, deeper
65
228046
3979
Wir fanden heraus, dass falsche News sich weiter, schneller, tiefer und breiter
03:52
and more broadly than the truth
66
232049
1806
verbreiten als die Wahrheit,
03:53
in every category of information that we studied,
67
233879
3003
in allen Kategorien, die wir untersuchten,
03:56
sometimes by an order of magnitude.
68
236906
2499
manchmal mit großen Unterschieden.
03:59
And in fact, false political news was the most viral.
69
239842
3524
Falsche politische Nachrichten waren besonders viral.
04:03
It diffused further, faster, deeper and more broadly
70
243390
3147
Sie verbreiteten sich weiter, schneller, tiefer und breiter
04:06
than any other type of false news.
71
246561
2802
als alle Arten von Falschnachrichten.
04:09
When we saw this,
72
249387
1293
Als wir das sahen, waren wir sofort beunruhigt, aber auch neugierig.
04:10
we were at once worried but also curious.
73
250704
2841
04:13
Why?
74
253569
1151
Warum?
04:14
Why does false news travel so much further, faster, deeper
75
254744
3373
Warum verbreiten sich falsche Nachrichten weiter, schneller,
04:18
and more broadly than the truth?
76
258141
1864
tiefer und breiter als die Wahrheit?
04:20
The first hypothesis that we came up with was,
77
260339
2961
Unsere erste Hypothese war:
Vielleicht haben Leute, die falsche Nachrichten verbreiten, mehr Anhänger,
04:23
"Well, maybe people who spread false news have more followers or follow more people,
78
263324
4792
folgen mehr Leuten, tweeten öfter,
04:28
or tweet more often,
79
268140
1557
04:29
or maybe they're more often 'verified' users of Twitter, with more credibility,
80
269721
4126
vielleicht sind sie öfter "verifizierte" Twitter-Nutzer, mit mehr Glaubwürdigkeit,
04:33
or maybe they've been on Twitter longer."
81
273871
2182
oder vielleicht waren sie bereits länger auf Twitter?
04:36
So we checked each one of these in turn.
82
276077
2298
Also überprüften wir jede dieser Theorien.
04:38
And what we found was exactly the opposite.
83
278691
2920
Was wir herausfanden, war das Gegenteil:
04:41
False-news spreaders had fewer followers,
84
281635
2436
Fake-News-Verbreiter hatten weniger Abonnenten,
04:44
followed fewer people, were less active,
85
284095
2254
folgten weniger Leuten, waren weniger aktiv,
04:46
less often "verified"
86
286373
1460
seltener "verifiziert" und alle waren seit kürzerer Zeit auf Twitter.
04:47
and had been on Twitter for a shorter period of time.
87
287857
2960
04:50
And yet,
88
290841
1189
Und dennoch war es 70% wahrscheinlicher, dass Falschmeldungen retweetet werden,
04:52
false news was 70 percent more likely to be retweeted than the truth,
89
292054
5033
als die Wahrheit, trotz dieser und vieler weiterer Faktoren.
04:57
controlling for all of these and many other factors.
90
297111
3363
05:00
So we had to come up with other explanations.
91
300498
2690
Also mussten wir andere Erklärungen finden.
05:03
And we devised what we called a "novelty hypothesis."
92
303212
3467
Wir haben uns etwas überlegt, das wir "Neuheit-Hypothese" nennen.
05:07
So if you read the literature,
93
307038
1960
In der Forschung ist bekannt,
05:09
it is well known that human attention is drawn to novelty,
94
309022
3754
dass die menschliche Aufmerksamkeit von Neuem angezogen wird,
05:12
things that are new in the environment.
95
312800
2519
von Dingen, die in der Umwelt neu sind.
05:15
And if you read the sociology literature,
96
315343
1985
Wenn Sie Soziologieforschung lesen,
05:17
you know that we like to share novel information.
97
317352
4300
wissen Sie, dass wir diese neuen Informationen gerne teilen.
05:21
It makes us seem like we have access to inside information,
98
321676
3838
Wir sehen so aus, als hätten wir Zugang zu Insider-Informationen
05:25
and we gain in status by spreading this kind of information.
99
325538
3785
und unser Status wächst, weil wir solche Informationen teilen.
05:29
So what we did was we measured the novelty of an incoming true or false tweet,
100
329792
6452
Wir haben dann gemessen,
welchen Neuheitswert ein neuer, wahrer oder falscher Tweet hatte,
05:36
compared to the corpus of what that individual had seen
101
336268
4055
auf der Basis von anderen Inhalten,
die der User, 60 Tage vorher auf Twitter gesehen hatte.
05:40
in the 60 days prior on Twitter.
102
340347
2952
05:43
But that wasn't enough, because we thought to ourselves,
103
343323
2659
Aber das war nicht genug, weil wir uns dachten:
05:46
"Well, maybe false news is more novel in an information-theoretic sense,
104
346006
4208
Vielleicht sind falsche Nachrichten neuer im informationstheoretischen Sinne,
05:50
but maybe people don't perceive it as more novel."
105
350238
3258
aber vielleicht empfinden es die Leute nicht als neuer.
05:53
So to understand people's perceptions of false news,
106
353849
3927
Um die Wahrnehmung der Leute von Falschnachrichten zu verstehen,
05:57
we looked at the information and the sentiment
107
357800
3690
sahen wir uns die Informationen und die Stimmungen an,
06:01
contained in the replies to true and false tweets.
108
361514
4206
die in den Antworten auf wahre und falsche Tweets vorherrschten.
06:06
And what we found
109
366022
1206
Unter verschiedenen Stimmungskategorien --
06:07
was that across a bunch of different measures of sentiment --
110
367252
4214
06:11
surprise, disgust, fear, sadness,
111
371490
3301
Überraschung, Abscheu, Angst, Trauer,
06:14
anticipation, joy and trust --
112
374815
2484
Vorfreude, Freude und Vertrauen --
06:17
false news exhibited significantly more surprise and disgust
113
377323
5857
fanden wir bei Falschnachrichten deutlich häufiger Überraschung und Abscheu
06:23
in the replies to false tweets.
114
383204
2806
in den Kommentaren zu falschen Tweets .
06:26
And true news exhibited significantly more anticipation,
115
386392
3789
Wahre Nachrichten zeigen deutlich mehr
Vorfreude, Freude und Vertrauen
06:30
joy and trust
116
390205
1547
06:31
in reply to true tweets.
117
391776
2547
in den Antworten zu wahren Tweets.
06:34
The surprise corroborates our novelty hypothesis.
118
394347
3786
Die 'Überraschung' bestätigt unsere Neuheit-Hypothese.
06:38
This is new and surprising, and so we're more likely to share it.
119
398157
4609
Das ist neu und überraschend, also teilen wir es eher.
06:43
At the same time, there was congressional testimony
120
403092
2925
Zur gleichen Zeit gab es Anhörungen im US Kongress,
06:46
in front of both houses of Congress in the United States,
121
406041
3036
vor beiden Häusern des Kongress, welche sich mit der Rolle von Bots
06:49
looking at the role of bots in the spread of misinformation.
122
409101
3738
bei der Verbreitung von Falschinformationen beschäftigt haben.
06:52
So we looked at this too --
123
412863
1354
Also haben wir uns auch das angeschaut:
06:54
we used multiple sophisticated bot-detection algorithms
124
414241
3598
Wir haben mehrere ausgefeilte Bot-Erkennungsalgorithmen verwendet,
06:57
to find the bots in our data and to pull them out.
125
417863
3074
um die Bots in unseren Daten zu finden und herauszufiltern.
07:01
So we pulled them out, we put them back in
126
421347
2659
Wir haben sie enfernt und wieder eingefügt und haben dann verglichen,
07:04
and we compared what happens to our measurement.
127
424030
3119
was mit unseren Ergebnissen passiert.
07:07
And what we found was that, yes indeed,
128
427173
2293
Wir fanden heraus, dass Bots tatsächlich die Verbreitung von Falschnachrichten
07:09
bots were accelerating the spread of false news online,
129
429490
3682
im Internet beschleunigt haben,
07:13
but they were accelerating the spread of true news
130
433196
2651
die Verbreitung wahrer Nachrichten aber ungefähr genauso viel.
07:15
at approximately the same rate.
131
435871
2405
07:18
Which means bots are not responsible
132
438300
2858
Was bedeutet, dass Bots nicht dafür verantwortlich sind,
07:21
for the differential diffusion of truth and falsity online.
133
441182
4713
dass sich Wahres und Falsches online verschieden verbreiten.
07:25
We can't abdicate that responsibility,
134
445919
2849
Wir können die Verantwortung dafür nicht abgeben,
07:28
because we, humans, are responsible for that spread.
135
448792
4259
weil wir Menschen für diese Verbreitung verantwortlich sind.
07:34
Now, everything that I have told you so far,
136
454472
3334
Alles was ich Ihnen bisher erzählt habe -- ist für uns alle, leider,
07:37
unfortunately for all of us,
137
457830
1754
07:39
is the good news.
138
459608
1261
die gute Nachricht.
07:42
The reason is because it's about to get a whole lot worse.
139
462670
4450
Der Grund dafür ist, dass es noch viel schlimmer wird.
07:47
And two specific technologies are going to make it worse.
140
467850
3682
Zwei bestimmte Technologien werden es noch schlimmer machen.
07:52
We are going to see the rise of a tremendous wave of synthetic media.
141
472207
5172
Wir werden den Anstieg einer enormen Welle an synthetischen Medien sehen.
07:57
Fake video, fake audio that is very convincing to the human eye.
142
477403
6031
Manipulierte Video- und Audiodateien, die auf Menschen sehr überzeugend wirken.
08:03
And this will powered by two technologies.
143
483458
2754
Und dies wird von zwei Technologien vorangetrieben.
08:06
The first of these is known as "generative adversarial networks."
144
486236
3833
Die erste davon ist bekannt als 'Generative Adversarial Networks'.
08:10
This is a machine-learning model with two networks:
145
490093
2563
Das ist ein Modell für machinelles Lernen mit zwei Netzwerken:
08:12
a discriminator,
146
492680
1547
einem Diskriminator,
08:14
whose job it is to determine whether something is true or false,
147
494251
4200
dessen Aufgabe es ist, zu bestimmen, ob etwas wahr oder falsch ist,
08:18
and a generator,
148
498475
1167
und einem Generator,
08:19
whose job it is to generate synthetic media.
149
499666
3150
dessen Aufgabe es ist, synthetische Medien zu produzieren.
08:22
So the synthetic generator generates synthetic video or audio,
150
502840
5102
Der synthetische Generator produziert also synthetische Videos oder Audio,
08:27
and the discriminator tries to tell, "Is this real or is this fake?"
151
507966
4675
und der Diskriminator versucht zu erkennen, ob es echt oder fake ist.
08:32
And in fact, it is the job of the generator
152
512665
2874
Es ist sogar die Aufgabe des Generators, die Wahrscheinlichkeit zu erhöhen,
08:35
to maximize the likelihood that it will fool the discriminator
153
515563
4435
dass es den Diskriminator täuscht,
08:40
into thinking the synthetic video and audio that it is creating
154
520022
3587
sodass er glaubt, dass das produzierte synthetische Video oder Audio wahr ist.
08:43
is actually true.
155
523633
1730
08:45
Imagine a machine in a hyperloop,
156
525387
2373
Stellen Sie sich eine Maschine vor, die in einer Endlosschleife versucht,
08:47
trying to get better and better at fooling us.
157
527784
2803
besser und besser darin zu werden, uns zu täuschen.
08:51
This, combined with the second technology,
158
531114
2500
Dies, in Verbindung mit der zweiten Technologie,
08:53
which is essentially the democratization of artificial intelligence to the people,
159
533638
5722
die im Wesentlichen die Demokratisierung von künstlicher Intelligenz für alle ist.
08:59
the ability for anyone,
160
539384
2189
Die Möglichkeit für jeden,
09:01
without any background in artificial intelligence
161
541597
2830
ohne Kenntnisse in künstlicher Intelligenz oder maschinellem Lernen
09:04
or machine learning,
162
544451
1182
09:05
to deploy these kinds of algorithms to generate synthetic media
163
545657
4103
diese Algorithmen zu verwenden, um synthetische Medien zu generieren,
09:09
makes it ultimately so much easier to create videos.
164
549784
4547
macht es so viel einfacher Videos zu produzieren.
09:14
The White House issued a false, doctored video
165
554355
4421
Das Weisse Haus veröffentlichte ein falsches, bearbeitetes Video
09:18
of a journalist interacting with an intern who was trying to take his microphone.
166
558800
4288
eines Journalisten und einer Praktikantin, die ihm das Mikrofon wegnehmen wollte.
09:23
They removed frames from this video
167
563427
1999
Sie haben Einzelbilder aus dem Video herausgeschnitten,
09:25
in order to make his actions seem more punchy.
168
565450
3287
damit sein Verhalten dramatischer wirkt.
09:29
And when videographers and stuntmen and women
169
569157
3385
Als Videofilmer, Stunt-Männer und -Frauen zu diese Technik befragt wurden,
09:32
were interviewed about this type of technique,
170
572566
2427
sagten sie: "Ja, wir benutzen das in unseren Filmen ständig,
09:35
they said, "Yes, we use this in the movies all the time
171
575017
3828
09:38
to make our punches and kicks look more choppy and more aggressive."
172
578869
4763
um unsere Schläge und Tritte schneller und agressiver aussehen zu lassen."
09:44
They then put out this video
173
584268
1867
Sie haben dieses Video veröffentlicht
09:46
and partly used it as justification
174
586159
2500
und es als Rechtfertigung benutzt, um dem Jornalisten Jim Acosta
09:48
to revoke Jim Acosta, the reporter's, press pass
175
588683
3999
den Presseausweis des Weissen Hauses zu entziehen.
09:52
from the White House.
176
592706
1339
09:54
And CNN had to sue to have that press pass reinstated.
177
594069
4809
CNN musste klagen, um den Presseausweis zurückzuerhalten.
10:00
There are about five different paths that I can think of that we can follow
178
600538
5603
Meiner Meinung nach, gibt es fünf verschiedene Wege, die wir gehen können,
10:06
to try and address some of these very difficult problems today.
179
606165
3739
um zu versuchen, einige dieser schwierigen Probleme anzugehen.
10:10
Each one of them has promise,
180
610379
1810
Sie haben alle Potenzial, aber jeder davon hat auch eigene Herausforderungen.
10:12
but each one of them has its own challenges.
181
612213
2999
10:15
The first one is labeling.
182
615236
2008
Der erste Weg ist Kennzeichnung. Stellen Sie sich das so vor:
10:17
Think about it this way:
183
617268
1357
10:18
when you go to the grocery store to buy food to consume,
184
618649
3611
Wenn Sie im Supermarkt Lebensmittel kaufen,
10:22
it's extensively labeled.
185
622284
1904
ist es umfangreich beschriftet.
10:24
You know how many calories it has,
186
624212
1992
Sie wissen wieviele Kalorien es hat, wieviel Fett es enthält,
10:26
how much fat it contains --
187
626228
1801
10:28
and yet when we consume information, we have no labels whatsoever.
188
628053
4278
aber wenn wir Informationen aufnehmen, haben wir keinerlei Kennzeichnung.
10:32
What is contained in this information?
189
632355
1928
Was enthält diese Information?
10:34
Is the source credible?
190
634307
1453
Ist die Quelle glaubwürdig?
10:35
Where is this information gathered from?
191
635784
2317
Woher kommt diese Information?
10:38
We have none of that information
192
638125
1825
Wir haben keine dieser Antworten, wenn wir Informationen konsumieren.
10:39
when we are consuming information.
193
639974
2103
10:42
That is a potential avenue, but it comes with its challenges.
194
642101
3238
Das ist ein möglicher Weg, aber er hat auch Herausforderungen.
10:45
For instance, who gets to decide, in society, what's true and what's false?
195
645363
6451
Zum Beispiel, wer in der Gesellschaft entscheidet, was wahr oder falsch ist?
10:52
Is it the governments?
196
652387
1642
Sind es die Regierungen? Ist es Facebook?
10:54
Is it Facebook?
197
654053
1150
10:55
Is it an independent consortium of fact-checkers?
198
655601
3762
Ist es ein unabhängiger Verbund von Faktenprüfern?
10:59
And who's checking the fact-checkers?
199
659387
2466
Und wer überprüft die Faktenprüfer?
11:02
Another potential avenue is incentives.
200
662427
3084
Ein weiterer möglicher Weg sind Anreize.
11:05
We know that during the US presidential election
201
665535
2634
Wir wissen, dass es während der US-Präsidentschaftswahl
11:08
there was a wave of misinformation that came from Macedonia
202
668193
3690
eine Welle von Falsch-Informationen aus Mazedonien gab,
11:11
that didn't have any political motive
203
671907
2337
welche kein politisches Motiv verfolgten, sondern ein wirtschafliches.
11:14
but instead had an economic motive.
204
674268
2460
11:16
And this economic motive existed,
205
676752
2148
Dieses wirtschaftliche Motiv existierte, weil sich falsche Nachrichten
11:18
because false news travels so much farther, faster
206
678924
3524
viel weiter, schneller, und tiefer verbreiten als die Wahrheit.
11:22
and more deeply than the truth,
207
682472
2010
11:24
and you can earn advertising dollars as you garner eyeballs and attention
208
684506
4960
Und man kann Werbeeinnahmen erzielen,
durch die Aufmerksamkeit, die diese Art von Information generieren kann.
11:29
with this type of information.
209
689490
1960
11:31
But if we can depress the spread of this information,
210
691474
3833
Aber wenn wir die Verteilung dieser Informationen unterdrücken könnten,
11:35
perhaps it would reduce the economic incentive
211
695331
2897
würde es vielleicht den wirtschaflichen Anreiz reduzieren,
11:38
to produce it at all in the first place.
212
698252
2690
diese überhaupt erst zu produzieren.
11:40
Third, we can think about regulation,
213
700966
2500
Drittens können wir über Regulierungen nachdenken.
11:43
and certainly, we should think about this option.
214
703490
2325
Und wir sollten definitiv über diese Option nachdenken.
11:45
In the United States, currently,
215
705839
1611
In den USA wird aktuell erforscht, was passieren könnte,
11:47
we are exploring what might happen if Facebook and others are regulated.
216
707474
4848
wenn Facebook und andere kontrolliert würden.
11:52
While we should consider things like regulating political speech,
217
712346
3801
Während wir uns überlegen sollten, politische Rede zu regulieren,
11:56
labeling the fact that it's political speech,
218
716171
2508
sie als politische Rede zu kennzeichnen, und sicherzustellen,
11:58
making sure foreign actors can't fund political speech,
219
718703
3819
dass ausländische Akteure politische Rede nicht finanzieren können,
12:02
it also has its own dangers.
220
722546
2547
so birgt diese Regulierung auch Gefahren.
12:05
For instance, Malaysia just instituted a six-year prison sentence
221
725522
4878
Zum Beispiel hat Malaysia kürzlich eine Gefängnisstrafe von 6 Jahren eingeführt,
für jeden, der überführt wird, falsche Informationen verbreitet zu haben.
12:10
for anyone found spreading misinformation.
222
730424
2734
12:13
And in authoritarian regimes,
223
733696
2079
In autoritären Regimes können solche Vorschriften genutzt werden,
12:15
these kinds of policies can be used to suppress minority opinions
224
735799
4666
um Meinungen von Minderheiten zu unterdrücken
12:20
and to continue to extend repression.
225
740489
3508
und Unterdrückung weiter auszuweiten.
12:24
The fourth possible option is transparency.
226
744680
3543
Die vierte Option ist Transparenz.
12:28
We want to know how do Facebook's algorithms work.
227
748843
3714
Wir möchten wissen, wie die Algorithmen von Facebook funktionieren.
12:32
How does the data combine with the algorithms
228
752581
2880
Wie arbeiten Daten mit den Algorithmen zusammen,
12:35
to produce the outcomes that we see?
229
755485
2838
um die Ergebnisse zu produzieren, die wir sehen?
12:38
We want them to open the kimono
230
758347
2349
Wir möchten, dass sie ihren Mantel öffnen, und uns das Innenleben von Facebook zeigen
12:40
and show us exactly the inner workings of how Facebook is working.
231
760720
4214
und wie es genau funktioniert.
12:44
And if we want to know social media's effect on society,
232
764958
2779
Wenn wir wissen wollen, wie sich soziale Medien auf die Gesellschaft auswirken,
12:47
we need scientists, researchers
233
767761
2086
müssen Wissenschaftler, Forscher und andere
12:49
and others to have access to this kind of information.
234
769871
3143
Zugriff auf solche Informationen erhalten.
12:53
But at the same time,
235
773038
1547
Aber gleichzeitig möchten wir,
12:54
we are asking Facebook to lock everything down,
236
774609
3801
dass Facebook alles abriegelt, um diese Daten zu sichern.
12:58
to keep all of the data secure.
237
778434
2173
13:00
So, Facebook and the other social media platforms
238
780631
3159
Das heißt, Facebook und die anderen Social Media Plattformen
13:03
are facing what I call a transparency paradox.
239
783814
3134
unterliegen einem, wie ich es nenne, "Transparenz-Paradox",
13:07
We are asking them, at the same time,
240
787266
2674
Wir bitten sie, offen und transparent und gleichzeitig sicher zu sein.
13:09
to be open and transparent and, simultaneously secure.
241
789964
4809
13:14
This is a very difficult needle to thread,
242
794797
2691
Das ist eine sehr knifflige Aufgabe, welche aber gelöst werden muss,
13:17
but they will need to thread this needle
243
797512
1913
wenn wir das Potenzial von sozialen Technologien ausschöpfen wollen,
13:19
if we are to achieve the promise of social technologies
244
799449
3787
aber gleichzeitig die Risiken abwenden wollen.
13:23
while avoiding their peril.
245
803260
1642
13:24
The final thing that we could think about is algorithms and machine learning.
246
804926
4691
Das letzte worüber wir nachdenken könnten, sind Algorithmen und maschinelles Lernen.
13:29
Technology devised to root out and understand fake news, how it spreads,
247
809641
5277
Technologien, die Fake News entlarven,
die verstehen, wie sie sich verbreiten, und dann versuchen, sie einzudämmen.
13:34
and to try and dampen its flow.
248
814942
2331
13:37
Humans have to be in the loop of this technology,
249
817824
2897
Menschen müssen über diese Technologien auf dem Laufenden sein,
13:40
because we can never escape
250
820745
2278
weil wir der Tatsache nicht entkommen,
13:43
that underlying any technological solution or approach
251
823047
4038
dass hinter jeder technischen Lösung oder Herangehensweise
13:47
is a fundamental ethical and philosophical question
252
827109
4047
eine fundamentale ethische und philosophische Frage steht:
Wie definieren wir Wahrheit und Unwahrheit?
13:51
about how do we define truth and falsity,
253
831180
3270
13:54
to whom do we give the power to define truth and falsity
254
834474
3180
Wem geben wir die Macht, Wahrheit und Unwahrheit zu definieren?
13:57
and which opinions are legitimate,
255
837678
2460
Welche Meinungen sind gerechtfertigt?
14:00
which type of speech should be allowed and so on.
256
840162
3706
Welche Arten von Aussagen sind erlaubt?
14:03
Technology is not a solution for that.
257
843892
2328
Technologie ist hierfür keine Lösung.
14:06
Ethics and philosophy is a solution for that.
258
846244
3698
Ethik und Philosophie haben Lösungen dafür.
14:10
Nearly every theory of human decision making,
259
850950
3318
Fast alle Theorien menschlicher Entscheidungsfindung,
14:14
human cooperation and human coordination
260
854292
2761
menschlicher Zusammenarbeit und menschlicher Koordinierung,
14:17
has some sense of the truth at its core.
261
857077
3674
haben in ihrem Kern eine Vorstellung von Wahrheit.
14:21
But with the rise of fake news,
262
861347
2056
Aber mit dem Anstieg von Fake News,
14:23
the rise of fake video,
263
863427
1443
dem Anstieg gefälschter Videos
14:24
the rise of fake audio,
264
864894
1882
und dem Anstieg gefälschter Audiodateien,
14:26
we are teetering on the brink of the end of reality,
265
866800
3924
stehen wir am Abgrund vom Ende der Realität,
14:30
where we cannot tell what is real from what is fake.
266
870748
3889
wo wir nicht mehr unterscheiden können, was wahr und was falsch ist.
14:34
And that's potentially incredibly dangerous.
267
874661
3039
Und das kann sehr gefährlich sein.
14:38
We have to be vigilant in defending the truth
268
878931
3948
Wir müssen sicherstellen, die Wahrheit gegenüber Fehlinformation zu verteidigen.
14:42
against misinformation.
269
882903
1534
14:44
With our technologies, with our policies
270
884919
3436
Mit unseren Technologien, mit unseren Richtlinien
14:48
and, perhaps most importantly,
271
888379
1920
und vielleicht am wichtigsten,
14:50
with our own individual responsibilities,
272
890323
3214
mit unserer eigenen, persönlichen, Verantwortung, unserem Verhalten,
14:53
decisions, behaviors and actions.
273
893561
3555
unseren Entscheidungen und Handlungen.
14:57
Thank you very much.
274
897553
1437
Vielen Dank.
14:59
(Applause)
275
899014
3517
(Applaus)
Über diese Website

Auf dieser Seite finden Sie YouTube-Videos, die zum Englischlernen nützlich sind. Sie sehen Englischlektionen, die von hochkarätigen Lehrern aus der ganzen Welt unterrichtet werden. Doppelklicken Sie auf die englischen Untertitel, die auf jeder Videoseite angezeigt werden, um das Video von dort aus abzuspielen. Die Untertitel laufen synchron mit der Videowiedergabe. Wenn Sie irgendwelche Kommentare oder Wünsche haben, kontaktieren Sie uns bitte über dieses Kontaktformular.

https://forms.gle/WvT1wiN1qDtmnspy7