Kenneth Cukier: Big data is better data

Kenneth Cukier: Viele Daten heißt bessere Daten

517,498 views ・ 2014-09-23

TED


Bitte doppelklicken Sie auf die englischen Untertitel unten, um das Video abzuspielen.

Übersetzung: Sven Weckmann Lektorat: Marco Caresia
00:12
America's favorite pie is?
0
12787
3845
Amerikas Lieblingskuchen ist?
00:16
Audience: Apple. Kenneth Cukier: Apple. Of course it is.
1
16632
3506
Publikum: Apfelkuchen. K. Cukier: Es ist natürlich Apfelkuchen.
00:20
How do we know it?
2
20138
1231
Woher wissen wir das?
00:21
Because of data.
3
21369
2753
Aufgrund von Daten.
00:24
You look at supermarket sales.
4
24122
2066
Man schaut sich Umsätze von Supermärkten an,
00:26
You look at supermarket sales of 30-centimeter pies
5
26188
2866
nimmt die Verkaufszahlen von tiefgekühlten Kuchen
00:29
that are frozen, and apple wins, no contest.
6
29054
4075
mit 30 cm Durchmesser, und Apfelkuchen sind einsame Spitze.
00:33
The majority of the sales are apple.
7
33129
5180
Die Mehrzahl der Verkäufe sind Apfelkuchen.
00:38
But then supermarkets started selling
8
38309
2964
Doch dann begannen Supermärkte
00:41
smaller, 11-centimeter pies,
9
41273
2583
kleinere, 11-cm-Kuchen zu verkaufen,
00:43
and suddenly, apple fell to fourth or fifth place.
10
43856
4174
und plötzlich fiel Apfelkuchen auf den 4. oder 5. Platz.
00:48
Why? What happened?
11
48030
2875
Warum? Was ist passiert?
00:50
Okay, think about it.
12
50905
2818
Okay, denken Sie darüber nach.
00:53
When you buy a 30-centimeter pie,
13
53723
3848
Wenn man einen 30-Zentimer-Kuchen kauft,
00:57
the whole family has to agree,
14
57571
2261
muss die ganze Familie einverstanden sein
00:59
and apple is everyone's second favorite.
15
59832
3791
und Apfelkuchen hat jeder am zweitliebsten.
01:03
(Laughter)
16
63623
1935
(Gelächter)
01:05
But when you buy an individual 11-centimeter pie,
17
65558
3615
Aber wenn man einen individuellen 11-Zentimter-Kuchen kauft,
01:09
you can buy the one that you want.
18
69173
3745
kann man den nehmen, den man will.
01:12
You can get your first choice.
19
72918
4015
Man kann seine erste Wahl bekommen.
01:16
You have more data.
20
76933
1641
Man hat mehr Daten.
01:18
You can see something
21
78574
1554
Man sieht etwas,
01:20
that you couldn't see
22
80128
1132
das man nicht sehen konnte,
01:21
when you only had smaller amounts of it.
23
81260
3953
als man nur kleinere Mengen davon hatte.
01:25
Now, the point here is that more data
24
85213
2475
Der Punkt ist, dass mehr Daten
01:27
doesn't just let us see more,
25
87688
2283
uns nicht nur helfen
01:29
more of the same thing we were looking at.
26
89971
1854
mehr von den gleichen Dingen zu sehen.
01:31
More data allows us to see new.
27
91825
3613
Mehr Daten erlauben uns Neues zu sehen.
01:35
It allows us to see better.
28
95438
3094
Es hilft uns besser zu sehen.
01:38
It allows us to see different.
29
98532
3656
Es hilft uns anders zu sehen.
01:42
In this case, it allows us to see
30
102188
3173
In diesem Fall erlaubt es uns zu sehen,
01:45
what America's favorite pie is:
31
105361
2913
was Amerikas Lieblingskuchen ist:
01:48
not apple.
32
108274
2542
nicht Apfelkuchen.
01:50
Now, you probably all have heard the term big data.
33
110816
3614
Sie haben wahrscheinlich alle schon den Begriff "Big Data" gehört.
01:54
In fact, you're probably sick of hearing the term
34
114430
2057
Wahrscheinlich sind Sie es leid
01:56
big data.
35
116487
1630
den Begriff "Big Data" zu hören.
01:58
It is true that there is a lot of hype around the term,
36
118117
3330
Es ist wahr, dass es viel Wirbel um den Begriff gibt,
02:01
and that is very unfortunate,
37
121447
2332
was sehr schade ist,
02:03
because big data is an extremely important tool
38
123779
3046
weil Big Data ein extrem wichtiges Werkzeug ist,
02:06
by which society is going to advance.
39
126825
3734
durch das die Gesellschaft vorankommen wird.
02:10
In the past, we used to look at small data
40
130559
3561
In der Vergangenheit schauten wir auf "Small Data" [wenige Daten],
dachten über ihre Bedeutung nach
02:14
and think about what it would mean
41
134120
1704
02:15
to try to understand the world,
42
135824
1496
und versuchten die Welt zu verstehen.
02:17
and now we have a lot more of it,
43
137320
1991
Jetzt haben wir viel mehr davon,
02:19
more than we ever could before.
44
139311
2722
mehr als jemals zuvor.
02:22
What we find is that when we have
45
142033
1877
Wir stellen fest, dass wir mit einer großen Datenmenge
02:23
a large body of data, we can fundamentally do things
46
143910
2724
grundsätzlich Dinge tun können,
02:26
that we couldn't do when we only had smaller amounts.
47
146634
3276
die wir zuvor nicht tun konnten, als wir nur kleinere Mengen hatten.
02:29
Big data is important, and big data is new,
48
149910
2641
Big Data ist wichtig und Big Data ist neu
02:32
and when you think about it,
49
152551
1777
und wenn man darüber nachdenkt,
02:34
the only way this planet is going to deal
50
154328
2216
ist der einzige Weg für diesen Planeten,
02:36
with its global challenges —
51
156544
1789
globale Herausforderungen zu bewältigen --
02:38
to feed people, supply them with medical care,
52
158333
3537
Menschen zu ernähren, medizinische Versorgung,
02:41
supply them with energy, electricity,
53
161870
2810
Energie und Elektrizität zu liefern
02:44
and to make sure they're not burnt to a crisp
54
164680
1789
und sicher zu stellen,
02:46
because of global warming —
55
166469
1238
dass sie nicht durch die globale Erwärmung verbrennen --
02:47
is because of the effective use of data.
56
167707
4195
die effektive Nutzung von Daten.
02:51
So what is new about big data? What is the big deal?
57
171902
3870
Was gibt es Neues über Big Data? Was ist das Besondere daran?
02:55
Well, to answer that question, let's think about
58
175772
2517
Um diese Frage zu beantworten, denken Sie darüber nach,
02:58
what information looked like,
59
178289
1896
wie Informationen aussahen,
03:00
physically looked like in the past.
60
180185
3034
wie sie in der Vergangenheit physisch aussahen.
03:03
In 1908, on the island of Crete,
61
183219
3611
1908 entdeckten Archäologen
03:06
archaeologists discovered a clay disc.
62
186830
4735
auf der Insel Kreta eine Tonscheibe.
03:11
They dated it from 2000 B.C., so it's 4,000 years old.
63
191565
4059
Sie datierten sie auf 2 000 v. Chr., sie ist also 4 000 Jahre alt.
03:15
Now, there's inscriptions on this disc,
64
195624
2004
Es gibt Schriftzeichen darauf,
03:17
but we actually don't know what it means.
65
197628
1327
aber wir verstehen sie nicht.
03:18
It's a complete mystery, but the point is that
66
198955
2098
Es ist ein absolutes Rätsel, aber der Punkt ist,
03:21
this is what information used to look like
67
201053
1928
dass Informationen
03:22
4,000 years ago.
68
202981
2089
vor 4 000 Jahren so aussahen.
03:25
This is how society stored
69
205070
2548
So bewahrte die Gesellschaft
03:27
and transmitted information.
70
207618
3524
Informationen und überlieferte sie.
03:31
Now, society hasn't advanced all that much.
71
211142
4160
Die Gesellschaft hat sich seitdem nicht viel verändert.
03:35
We still store information on discs,
72
215302
3474
Wir speichern immer noch Informationen auf Scheiben,
03:38
but now we can store a lot more information,
73
218776
3184
aber jetzt können wir viel mehr Informationen speichern,
03:41
more than ever before.
74
221960
1260
mehr als jemals zuvor.
03:43
Searching it is easier. Copying it easier.
75
223220
3093
Suchen ist einfacher. Kopieren ist einfacher.
03:46
Sharing it is easier. Processing it is easier.
76
226313
3500
Teilen ist einfacher. Weiterverarbeitung ist einfacher.
03:49
And what we can do is we can reuse this information
77
229813
2766
Wir können die Informationen für Zwecke wiederverwenden,
03:52
for uses that we never even imagined
78
232579
1834
die für uns unvorstellbar waren,
03:54
when we first collected the data.
79
234413
3195
als wir die Daten das erste Mal sammelten.
03:57
In this respect, the data has gone
80
237608
2252
So gesehen haben sich die Daten verändert,
03:59
from a stock to a flow,
81
239860
3532
von einem Lager zu einem Fluss,
04:03
from something that is stationary and static
82
243392
3938
von etwas Stationärem und Statischen
04:07
to something that is fluid and dynamic.
83
247330
3609
zu etwas Fließendem und Dynamischem.
04:10
There is, if you will, a liquidity to information.
84
250939
4023
Gewissermaßen haben Informationen etwas Fließendes an sich.
04:14
The disc that was discovered off of Crete
85
254962
3474
Die Scheibe, die vor Kreta entdeckt wurde
04:18
that's 4,000 years old, is heavy,
86
258436
3764
und 4 000 Jahre alt ist, ist schwer,
04:22
it doesn't store a lot of information,
87
262200
1962
sie kann nicht viele Informationen speichern
04:24
and that information is unchangeable.
88
264162
3116
und die Informationen sind unveränderbar.
04:27
By contrast, all of the files
89
267278
4011
Im Gegensatz dazu passen alle Dateien,
04:31
that Edward Snowden took
90
271289
1861
die Edward Snowden von der National Security Agency
04:33
from the National Security Agency in the United States
91
273150
2621
in den Vereinigten Staaten entnahm,
04:35
fits on a memory stick
92
275771
2419
auf einen USB-Stick
04:38
the size of a fingernail,
93
278190
3010
in der Größe eines Fingernagels
04:41
and it can be shared at the speed of light.
94
281200
4745
und sie können in Lichtgeschwindigkeit verbreitet werden.
04:45
More data. More.
95
285945
5255
Mehr Daten. Mehr.
Ein Grund für die riesige Datenmenge in der Welt heute ist,
04:51
Now, one reason why we have so much data in the world today
96
291200
1974
04:53
is we are collecting things
97
293174
1432
dass wir Dinge sammeln,
04:54
that we've always collected information on,
98
294606
3280
über die wir schon immer Informationen gesammelt haben,
04:57
but another reason why is we're taking things
99
297886
2656
aber ein weiterer Grund ist: Wir nehmen Dinge,
05:00
that have always been informational
100
300542
2812
die schon immer Informationen enthielten,
05:03
but have never been rendered into a data format
101
303354
2486
aber die noch nie in ein Datenformat übersetzt wurden
05:05
and we are putting it into data.
102
305840
2419
und erfassen sie als Daten.
05:08
Think, for example, the question of location.
103
308259
3308
Denken wir zum Beispiel an die Frage des Aufenthaltsortes.
05:11
Take, for example, Martin Luther.
104
311567
2249
Nehmen wir zum Beispiel Martin Luther.
05:13
If we wanted to know in the 1500s
105
313816
1597
Wenn wir im 16. Jh. wissen wollten,
05:15
where Martin Luther was,
106
315413
2667
wo Martin Luther war,
05:18
we would have to follow him at all times,
107
318080
2092
hätten wir ihm die ganze Zeit folgen müssen,
05:20
maybe with a feathery quill and an inkwell,
108
320172
2137
vielleicht mit Feder und Tintenfass,
05:22
and record it,
109
322309
1676
um es aufzuschreiben,
05:23
but now think about what it looks like today.
110
323985
2183
und jetzt stellen Sie sich vor, wie es heute ist.
05:26
You know that somewhere,
111
326168
2122
Sie wissen, dass irgendwo,
wahrscheinlich in der Datenbank
05:28
probably in a telecommunications carrier's database,
112
328290
2446
eines Telekommunikationsbetreibers,
05:30
there is a spreadsheet or at least a database entry
113
330736
3036
eine Tabelle oder zumindest ein Dateneintrag
05:33
that records your information
114
333772
2088
Informationen darüber enthält,
05:35
of where you've been at all times.
115
335860
2063
wo Sie sich die ganze Zeit über aufhalten.
05:37
If you have a cell phone,
116
337923
1360
Wenn Sie ein Handy haben,
05:39
and that cell phone has GPS, but even if it doesn't have GPS,
117
339283
2847
und das Handy GPS hat, aber auch ohne GPS,
05:42
it can record your information.
118
342130
2385
kann es Ihre Informationen abspeichern.
05:44
In this respect, location has been datafied.
119
344515
4084
In dieser Hinsicht wurde der Aufenthaltsort in die Daten aufgenommen.
05:48
Now think, for example, of the issue of posture,
120
348599
4601
Denken wir zum Beispiel an das Problem der Körperhaltung,
05:53
the way that you are all sitting right now,
121
353200
1285
die Art wie Sie gerade sitzen,
05:54
the way that you sit,
122
354485
2030
die Art wie Sie sitzen,
05:56
the way that you sit, the way that you sit.
123
356515
2771
die Art wie Sie sitzen, die Art wie Sie sitzen.
Es ist immer verschieden und abhängig von Ihrer Beinlänge
05:59
It's all different, and it's a function of your leg length
124
359286
2077
06:01
and your back and the contours of your back,
125
361363
2093
und Ihrem Rücken, und Ihren Rückenkonturen,
06:03
and if I were to put sensors, maybe 100 sensors
126
363456
2531
und würde ich Sensoren -- vielleicht 100 davon --
06:05
into all of your chairs right now,
127
365987
1766
an Ihren Sitzen anbringen,
06:07
I could create an index that's fairly unique to you,
128
367753
3600
dann könnte ich eine Tabelle erstellen, die Sie unverwechselbar erkennt,
06:11
sort of like a fingerprint, but it's not your finger.
129
371353
4409
wie eine Art Fingerabdruck, aber ohne Ihren Finger.
06:15
So what could we do with this?
130
375762
2969
Was könnten wir damit tun?
06:18
Researchers in Tokyo are using it
131
378731
2397
Forscher in Tokio benutzen ihn
06:21
as a potential anti-theft device in cars.
132
381128
4388
als eine potenzielle Vorrichtung gegen Autodiebstahl.
06:25
The idea is that the carjacker sits behind the wheel,
133
385516
2924
Laut diesem Konzept sitzt der Autodieb hinter dem Lenkrad,
06:28
tries to stream off, but the car recognizes
134
388440
2104
versucht wegzufahren, aber das Auto erkennt
06:30
that a non-approved driver is behind the wheel,
135
390544
2362
ihn als nicht berechtigten Fahrer,
06:32
and maybe the engine just stops, unless you
136
392906
2164
und vielleicht schaltet sich der Motor ab,
06:35
type in a password into the dashboard
137
395070
3177
außer Sie geben ein Passwort ins Armaturenbrett ein,
06:38
to say, "Hey, I have authorization to drive." Great.
138
398247
4658
das sagt: "Hey, ich habe die Genehmigung zu fahren." Großartig.
06:42
What if every single car in Europe
139
402905
2553
Was wäre, wenn jedes einzelne Auto in Europa
06:45
had this technology in it?
140
405458
1457
diese Technologie besäße?
06:46
What could we do then?
141
406915
3165
Was könnten wir dann tun?
06:50
Maybe, if we aggregated the data,
142
410080
2240
Wenn wir die Daten zusammentragen,
06:52
maybe we could identify telltale signs
143
412320
3814
könnten wir vielleicht verdächtige Zeichen erkennen,
06:56
that best predict that a car accident
144
416134
2709
welche am besten vorhersagen, dass in den nächsten 5 Sekunden
06:58
is going to take place in the next five seconds.
145
418843
5893
ein Autounfall stattfinden wird.
07:04
And then what we will have datafied
146
424736
2557
Dann werden wir Fahrerermüdung als Daten aufgenommen haben.
07:07
is driver fatigue,
147
427293
1783
07:09
and the service would be when the car senses
148
429076
2334
Die Dienstleistung wäre dann, wenn das Auto spürt,
07:11
that the person slumps into that position,
149
431410
3437
dass die Person in diese Position fällt,
07:14
automatically knows, hey, set an internal alarm
150
434847
3994
dann weiß es automatisch, dass es einen internen Alarm auslösen muss,
07:18
that would vibrate the steering wheel, honk inside
151
438841
2025
welcher das Lenkrad vibrieren lässt, im Auto hupt,
07:20
to say, "Hey, wake up,
152
440866
1721
um zu sagen: "Hey, wach auf,
07:22
pay more attention to the road."
153
442587
1904
pass besser auf die Straße auf."
07:24
These are the sorts of things we can do
154
444491
1853
Solche Dinge können wir umsetzen,
07:26
when we datafy more aspects of our lives.
155
446344
2821
wenn wir mehr Aspekte unseres Lebens in Daten umwandeln.
07:29
So what is the value of big data?
156
449165
3675
Was ist also der Wert von Big Data?
07:32
Well, think about it.
157
452840
2190
Nun ja, denken Sie darüber nach.
07:35
You have more information.
158
455030
2412
Man hat mehr Informationen.
07:37
You can do things that you couldn't do before.
159
457442
3341
Man kann Dinge tun, die man vorher nicht tun konnte.
07:40
One of the most impressive areas
160
460783
1676
Eines der beeindruckendsten Gebiete
07:42
where this concept is taking place
161
462459
1729
für die Anwendung dieses Konzepts
07:44
is in the area of machine learning.
162
464188
3307
ist der Bereich des Maschinellen Lernens.
07:47
Machine learning is a branch of artificial intelligence,
163
467495
3077
Maschinelles Lernen ist ein Zweig der künstlichen Intelligenz,
07:50
which itself is a branch of computer science.
164
470572
3378
die wiederum ein Zweig der Informatik ist.
07:53
The general idea is that instead of
165
473950
1543
Der Grundgedanke ist,
07:55
instructing a computer what do do,
166
475493
2117
anstatt einem Computer beizubringen, was zu tun ist,
07:57
we are going to simply throw data at the problem
167
477610
2620
füttern wir ihn einfach mit Daten
08:00
and tell the computer to figure it out for itself.
168
480230
3206
und lassen den Computer das Problem selbst lösen.
08:03
And it will help you understand it
169
483436
1777
Das können Sie besser verstehen,
08:05
by seeing its origins.
170
485213
3552
wenn Sie die Ursprünge kennenlernen.
08:08
In the 1950s, a computer scientist
171
488765
2388
In den 1950ern spielte ein Informatiker
08:11
at IBM named Arthur Samuel liked to play checkers,
172
491153
3592
bei IBM mit dem Namen Arthur Samuel gerne Dame,
08:14
so he wrote a computer program
173
494745
1402
also schrieb er ein Programm,
08:16
so he could play against the computer.
174
496147
2813
um gegen den Computer spielen zu können.
08:18
He played. He won.
175
498960
2711
Er spielte. Er gewann.
08:21
He played. He won.
176
501671
2103
Er spielte. Er gewann.
08:23
He played. He won,
177
503774
3015
Er spielte. Er gewann,
08:26
because the computer only knew
178
506789
1778
weil der Computer nur wusste,
08:28
what a legal move was.
179
508567
2227
was ein erlaubter Zug ist.
08:30
Arthur Samuel knew something else.
180
510794
2087
Arthur Samuel wusste noch etwas anderes.
08:32
Arthur Samuel knew strategy.
181
512881
4629
Arthur Samuel kannte Strategien.
08:37
So he wrote a small sub-program alongside it
182
517510
2396
Deshalb schrieb er dazu ein kleines Unterprogramm,
08:39
operating in the background, and all it did
183
519906
1974
das im Hintergrund arbeitete
08:41
was score the probability
184
521880
1817
und die Wahrscheinlichkeit bewertete,
08:43
that a given board configuration would likely lead
185
523697
2563
ob eine bestimmte Brettaufstellung eher
08:46
to a winning board versus a losing board
186
526260
2910
zu einem gewinnenden oder verlierenden Brett führt.
08:49
after every move.
187
529170
2508
Die Berechnung erfolgte Zug für Zug.
08:51
He plays the computer. He wins.
188
531678
3150
Er spielt gegen den Computer. Er gewinnt.
08:54
He plays the computer. He wins.
189
534828
2508
Er spielt gegen den Computer. Er gewinnt.
08:57
He plays the computer. He wins.
190
537336
3731
Er spielt gegen den Computer. Er gewinnt.
09:01
And then Arthur Samuel leaves the computer
191
541067
2277
Und dann lässt Arthur Samuel den Computer
09:03
to play itself.
192
543344
2227
gegen sich selbst spielen.
09:05
It plays itself. It collects more data.
193
545571
3509
Er spielt für sich selbst. Er sammelt mehr Daten.
09:09
It collects more data. It increases the accuracy of its prediction.
194
549080
4309
Er sammelt mehr Daten. Er erhöht die Genauigkeit seiner Voraussagen.
09:13
And then Arthur Samuel goes back to the computer
195
553389
2104
Dann geht Arthur Samuel zurück zum Computer,
09:15
and he plays it, and he loses,
196
555493
2318
spielt gegen ihn und er verliert,
09:17
and he plays it, and he loses,
197
557811
2069
und er spielt gegen ihn und er verliert,
09:19
and he plays it, and he loses,
198
559880
2047
und er spielt gegen ihn und er verliert.
09:21
and Arthur Samuel has created a machine
199
561927
2599
Damit erfindet Arthur Samuel eine Maschine,
09:24
that surpasses his ability in a task that he taught it.
200
564526
6288
die seine Fähigkeit in einer Aufgabe übertrifft, die er ihr selbst beibrachte.
09:30
And this idea of machine learning
201
570814
2498
Dieses Konzept des Maschinellen Lernens
09:33
is going everywhere.
202
573312
3927
verbreitet sich überallhin.
09:37
How do you think we have self-driving cars?
203
577239
3149
Wie, denken Sie, sind wir zu selbstfahrenden Autos gekommen?
09:40
Are we any better off as a society
204
580388
2137
Geht es uns als Gesellschaft besser,
09:42
enshrining all the rules of the road into software?
205
582525
3285
wenn wir alle Verkehrsregeln in Computerprogramme speisen?
09:45
No. Memory is cheaper. No.
206
585810
2598
Nein. Datenspeicher ist billiger. Nein.
09:48
Algorithms are faster. No. Processors are better. No.
207
588408
3994
Algorithmen sind schneller. Nein. Prozessoren sind besser. Nein.
09:52
All of those things matter, but that's not why.
208
592402
2772
All diese Dinge sind wichtig, aber nicht entscheidend.
09:55
It's because we changed the nature of the problem.
209
595174
3141
Das liegt daran, dass wir das Wesen des Problems verändert haben.
09:58
We changed the nature of the problem from one
210
598315
1530
Wir haben das Wesen des Problems
09:59
in which we tried to overtly and explicitly
211
599845
2245
von einem, in dem wir versuchten,
dem Computer deutlich zu erklären, wie man fährt,
10:02
explain to the computer how to drive
212
602090
2581
10:04
to one in which we say,
213
604671
1316
zu einem verändert, in dem wir sagen:
10:05
"Here's a lot of data around the vehicle.
214
605987
1876
"Hier gibt es viele Daten um das Auto herum.
10:07
You figure it out.
215
607863
1533
Du findest es heraus.
10:09
You figure it out that that is a traffic light,
216
609396
1867
Du findest heraus, dass das eine Ampel ist,
10:11
that that traffic light is red and not green,
217
611263
2081
dass die Ampel rot und nicht grün leuchtet,
10:13
that that means that you need to stop
218
613344
2014
dass das bedeutet, dass man anhalten muss
10:15
and not go forward."
219
615358
3083
und nicht weiterfahren darf."
10:18
Machine learning is at the basis
220
618441
1518
Maschinelles Lernen ist die Grundlage
10:19
of many of the things that we do online:
221
619959
1991
für viele Dinge, die wir online tun:
10:21
search engines,
222
621950
1857
Suchmaschinen,
10:23
Amazon's personalization algorithm,
223
623807
3801
die Personalisierungsalgorithmen von Amazon,
10:27
computer translation,
224
627608
2212
computergestützte Übersetzungen,
10:29
voice recognition systems.
225
629820
4290
Spracherkennungssysteme.
10:34
Researchers recently have looked at
226
634110
2835
Forscher haben sich neulich
10:36
the question of biopsies,
227
636945
3195
mit der Frage von Gewebeentnahmen beschäftigt,
10:40
cancerous biopsies,
228
640140
2767
Entnahmen von krebskrankem Gewebe.
10:42
and they've asked the computer to identify
229
642907
2315
Sie haben den Computer
mit Daten und Überlebensraten gefüttert,
10:45
by looking at the data and survival rates
230
645222
2471
10:47
to determine whether cells are actually
231
647693
4667
und ihn angewiesen zu bestimmen,
ob die Zellen tatsächlich krebserregend sind oder nicht.
10:52
cancerous or not,
232
652360
2544
10:54
and sure enough, when you throw the data at it,
233
654904
1778
Nach dem Füttern mit Daten konnte der Rechner
10:56
through a machine-learning algorithm,
234
656682
2047
durch einen maschinellen Lernalgorithmus
10:58
the machine was able to identify
235
658729
1877
die 12 verdächtigsten Zeichen erkennen, die am besten vorhersagen,
11:00
the 12 telltale signs that best predict
236
660606
2262
11:02
that this biopsy of the breast cancer cells
237
662868
3299
dass die Gewebeentnahme von Brustkrebszellen
11:06
are indeed cancerous.
238
666167
3218
wirklich Krebszellen enthalten.
11:09
The problem: The medical literature
239
669385
2498
Das Problem dabei: Die medizinische Literatur
11:11
only knew nine of them.
240
671883
2789
kannte nur neun davon.
11:14
Three of the traits were ones
241
674672
1800
Drei Merkmale waren welche,
11:16
that people didn't need to look for,
242
676472
2975
die man bisher nicht suchen musste,
11:19
but that the machine spotted.
243
679447
5531
die aber vom Rechner entdeckt wurden.
11:24
Now, there are dark sides to big data as well.
244
684978
5925
Es gibt aber auch eine dunkle Seite von Big Data.
11:30
It will improve our lives, but there are problems
245
690903
2074
Die Daten werden unser Leben verbessern,
11:32
that we need to be conscious of,
246
692977
2640
aber es gibt auch Probleme, die uns bewusst sein müssen
11:35
and the first one is the idea
247
695617
2623
und dazu gehört zuallererst,
11:38
that we may be punished for predictions,
248
698240
2686
dass wir für Vorhersagen bestraft werden könnten,
11:40
that the police may use big data for their purposes,
249
700926
3870
dass die Polizei die Daten für ihre Zwecke benutzen könnte,
11:44
a little bit like "Minority Report."
250
704796
2351
fast wie im Film "Minority Report".
Man nennt das "predictive policing" [Verbrechen voraussagen]
11:47
Now, it's a term called predictive policing,
251
707147
2441
11:49
or algorithmic criminology,
252
709588
2363
oder "algorithmic criminology",
11:51
and the idea is that if we take a lot of data,
253
711951
2036
was bedeutet, dass man eine Menge Daten sammelt,
11:53
for example where past crimes have been,
254
713987
2159
z. B. wo vergangene Verbrechen begangen wurden,
11:56
we know where to send the patrols.
255
716146
2543
und weiß, wohin man die Polizeistreifen schicken muss.
11:58
That makes sense, but the problem, of course,
256
718689
2115
Das leuchtet ein, aber das Problem ist natürlich,
12:00
is that it's not simply going to stop on location data,
257
720804
4544
dass es nicht einfach bei Standortdaten aufhören wird,
12:05
it's going to go down to the level of the individual.
258
725348
2959
es wird auch auf der Ebene der individuellen Daten passieren.
12:08
Why don't we use data about the person's
259
728307
2250
Warum verwenden wir nicht die Daten
12:10
high school transcript?
260
730557
2228
über das Abschlusszeugnis einer Person?
12:12
Maybe we should use the fact that
261
732785
1561
Vielleicht sollten wir prüfen,
12:14
they're unemployed or not, their credit score,
262
734346
2028
ob sie arbeiten oder nicht, ihre Kreditwürdigkeit,
12:16
their web-surfing behavior,
263
736374
1552
ihr Surfverhalten,
12:17
whether they're up late at night.
264
737926
1878
oder ob sie bis spät nachts wach sind.
12:19
Their Fitbit, when it's able to identify biochemistries,
265
739804
3161
Sobald ihr "Fitbit" biochemische Prozesse erkennen kann,
12:22
will show that they have aggressive thoughts.
266
742965
4236
wird es zeigen können, wann jemand aggressive Gedanken hat.
Wir werden vielleicht Algorithmen haben,
12:27
We may have algorithms that are likely to predict
267
747201
2221
die vorhersagen könnten, was wir tun werden,
12:29
what we are about to do,
268
749422
1633
12:31
and we may be held accountable
269
751055
1244
und wir könnten bestraft werden,
12:32
before we've actually acted.
270
752299
2590
bevor wir tatsächlich gehandelt haben.
12:34
Privacy was the central challenge
271
754889
1732
Privatsphäre war die größte Herausforderung
12:36
in a small data era.
272
756621
2880
im Zeitalter der Small Data.
12:39
In the big data age,
273
759501
2149
Im Zeitalter der Big Data
12:41
the challenge will be safeguarding free will,
274
761650
4523
wird die Herausforderung sein, den freien Willen,
12:46
moral choice, human volition,
275
766173
3779
moralische Entscheidungen, menschliche Willensäußerungen
12:49
human agency.
276
769952
3068
und menschliches Handeln zu beschützen.
12:54
There is another problem:
277
774540
2225
Es gibt ein weiters Problem:
12:56
Big data is going to steal our jobs.
278
776765
3556
Big Data wird unsere Jobs klauen.
13:00
Big data and algorithms are going to challenge
279
780321
3512
Big Data und Algorithmen werden eine Herausforderung
13:03
white collar, professional knowledge work
280
783833
3061
für Angestellte und professionelle Wissensarbeit
13:06
in the 21st century
281
786894
1653
im 21. Jahrhundert
13:08
in the same way that factory automation
282
788547
2434
auf die gleiche Art werden, wie die Fabrikautomation
13:10
and the assembly line
283
790981
2189
und das Fließband
13:13
challenged blue collar labor in the 20th century.
284
793170
3026
eine Herausforderung für Arbeiter im 20. Jahrhundert war.
13:16
Think about a lab technician
285
796196
2092
Denken Sie an einen Laboranten,
13:18
who is looking through a microscope
286
798288
1409
der durch ein Mikroskop
13:19
at a cancer biopsy
287
799697
1624
Gewebeentnahmen anschaut
13:21
and determining whether it's cancerous or not.
288
801321
2637
und bestimmt, ob es Krebszellen sind oder nicht.
13:23
The person went to university.
289
803958
1972
Die Person ging zur Universität.
13:25
The person buys property.
290
805930
1430
Die Person kauft ein Grundstück.
13:27
He or she votes.
291
807360
1741
Er oder sie wählt.
13:29
He or she is a stakeholder in society.
292
809101
3666
Er oder sie ist ein wichtiger Akteur in der Gesellschaft.
13:32
And that person's job,
293
812767
1394
Der Beruf der Person,
13:34
as well as an entire fleet
294
814161
1609
genauso wie ein ganzes Geschwader
13:35
of professionals like that person,
295
815770
1969
an Berufstätigen wie diese Person,
13:37
is going to find that their jobs are radically changed
296
817739
3150
wird feststellen, dass ihre Berufe sich radikal verändern
13:40
or actually completely eliminated.
297
820889
2357
oder sogar komplett verdrängt werden.
Wir mögen den Gedanken,
13:43
Now, we like to think
298
823246
1284
13:44
that technology creates jobs over a period of time
299
824530
3187
dass Technologie in einem bestimmten Zeitraum neue Berufe
13:47
after a short, temporary period of dislocation,
300
827717
3465
nach einer kurzen vorübergehenden Zeit der Verlagerung schafft,
13:51
and that is true for the frame of reference
301
831182
1941
und das stimmt für unseren Bezugsrahmen,
13:53
with which we all live, the Industrial Revolution,
302
833123
2142
die industrielle Revolution,
13:55
because that's precisely what happened.
303
835265
2328
weil genau das passiert ist.
13:57
But we forget something in that analysis:
304
837593
2333
Aber wir vergessen etwas in der Analyse:
13:59
There are some categories of jobs
305
839926
1830
Es gibt einige Arten von Berufen,
14:01
that simply get eliminated and never come back.
306
841756
3420
die einfach verdrängt werden und nie zurückkommen.
Die industrielle Revolution war nicht sehr gut,
14:05
The Industrial Revolution wasn't very good
307
845176
2004
14:07
if you were a horse.
308
847180
4002
wenn man ein Pferd war.
14:11
So we're going to need to be careful
309
851182
2055
Deshalb müssen wir vorsichtig sein
14:13
and take big data and adjust it for our needs,
310
853237
3514
und Big Data unseren Bedürfnissen anpassen,
14:16
our very human needs.
311
856751
3185
unseren zutiefst menschlichen Bedürfnissen.
14:19
We have to be the master of this technology,
312
859936
1954
Wir müssen die Herrscher über diese Technologie sein
14:21
not its servant.
313
861890
1656
und nicht ihre Diener.
14:23
We are just at the outset of the big data era,
314
863546
2958
Wir stehen erst am Anfang des Zeitalters der Big Data,
14:26
and honestly, we are not very good
315
866504
3150
und ehrlich gesagt sind wir nicht sehr gut
14:29
at handling all the data that we can now collect.
316
869654
4207
im Umgang mit all den Daten, die wir erheben können.
14:33
It's not just a problem for the National Security Agency.
317
873861
3330
Es ist nicht nur ein Problem für die National Security Agency [NSA].
14:37
Businesses collect lots of data, and they misuse it too,
318
877191
3038
Unternehmen erheben auch viele Daten und sie missbrauchen sie auch,
14:40
and we need to get better at this, and this will take time.
319
880229
3667
und wir müssen darin besser werden und das wird Zeit brauchen.
14:43
It's a little bit like the challenge that was faced
320
883896
1822
Es ist ein bisschen wie die Herausforderung,
14:45
by primitive man and fire.
321
885718
2407
die Feuer für den primitiven Menschen darstellte.
14:48
This is a tool, but this is a tool that,
322
888125
1885
Es ist ein Werkzeug, aber eines,
14:50
unless we're careful, will burn us.
323
890010
3559
an dem wir uns verbrennen werden, wenn wir nicht aufpassen.
Big Data wird unser Art, wie wir leben, grundlegend verändern,
14:56
Big data is going to transform how we live,
324
896008
3120
ebenso wie wir arbeiten und wie wir denken.
14:59
how we work and how we think.
325
899128
2801
15:01
It is going to help us manage our careers
326
901929
1889
Es wird uns helfen unsere Berufe zu bewältigen
15:03
and lead lives of satisfaction and hope
327
903818
3634
und ein Leben voller Zufriedenheit und Hoffnung
15:07
and happiness and health,
328
907452
2992
und Glück und Gesundheit zu führen,
aber in der Vergangenheit haben wir bei Informationstechnologie
15:10
but in the past, we've often looked at information technology
329
910444
3306
15:13
and our eyes have only seen the T,
330
913750
2208
nur das "T" gesehen,
15:15
the technology, the hardware,
331
915958
1686
die Technologie, die Hardware,
15:17
because that's what was physical.
332
917644
2262
weil das greifbar war.
15:19
We now need to recast our gaze at the I,
333
919906
2924
Jetzt müssen wir unseren Blick auf das "I" richten,
15:22
the information,
334
922830
1380
die Information,
15:24
which is less apparent,
335
924210
1373
die weniger sichtbar ist,
15:25
but in some ways a lot more important.
336
925583
4109
aber in mancher Weise viel wichtiger ist.
15:29
Humanity can finally learn from the information
337
929692
3465
Die Menschheit kann endlich von den Informationen lernen,
15:33
that it can collect,
338
933157
2418
die sie einsammelt,
15:35
as part of our timeless quest
339
935575
2115
als Teil unserer zeitlosen Aufgabe,
15:37
to understand the world and our place in it,
340
937690
3159
die Welt und unseren Platz darin zu verstehen,
15:40
and that's why big data is a big deal.
341
940849
5631
und deshalb ist Big Data eine große Sache.
15:46
(Applause)
342
946480
3568
(Applaus)
Über diese Website

Auf dieser Seite finden Sie YouTube-Videos, die zum Englischlernen nützlich sind. Sie sehen Englischlektionen, die von hochkarätigen Lehrern aus der ganzen Welt unterrichtet werden. Doppelklicken Sie auf die englischen Untertitel, die auf jeder Videoseite angezeigt werden, um das Video von dort aus abzuspielen. Die Untertitel laufen synchron mit der Videowiedergabe. Wenn Sie irgendwelche Kommentare oder Wünsche haben, kontaktieren Sie uns bitte über dieses Kontaktformular.

https://forms.gle/WvT1wiN1qDtmnspy7