Don't fear superintelligent AI | Grady Booch

270,465 views ・ 2017-03-13

TED


Bitte doppelklicken Sie auf die englischen Untertitel unten, um das Video abzuspielen.

Übersetzung: Christian Kuhna Lektorat: P Hakenberg
00:12
When I was a kid, I was the quintessential nerd.
0
12580
3840
Als Kind war ich der typische Nerd.
00:17
I think some of you were, too.
1
17140
2176
Ich glaube, das waren manche von Ihnen auch.
00:19
(Laughter)
2
19340
1216
(Gelächter)
00:20
And you, sir, who laughed the loudest, you probably still are.
3
20580
3216
Sie, der am lautesten gelacht hat, Sie sind es wohl immer noch.
00:23
(Laughter)
4
23820
2256
(Gelächter)
Ich wuchs in einer Kleinstadt in den staubigen Ebenen Nordtexas' auf,
00:26
I grew up in a small town in the dusty plains of north Texas,
5
26100
3496
00:29
the son of a sheriff who was the son of a pastor.
6
29620
3336
der Sohn eines Sheriffs, der der Sohn eines Pastors war.
00:32
Getting into trouble was not an option.
7
32980
1920
Ich durfte keinen Ärger machen.
00:35
And so I started reading calculus books for fun.
8
35860
3256
Ich fing aus Vergnügen an, Mathebücher zu lesen.
00:39
(Laughter)
9
39140
1536
(Gelächter)
00:40
You did, too.
10
40700
1696
Das haben Sie auch gemacht.
00:42
That led me to building a laser and a computer and model rockets,
11
42420
3736
Das führte mich dazu, einen Laser und einen Computer und Modellraketen zu bauen
00:46
and that led me to making rocket fuel in my bedroom.
12
46180
3000
und Raketenbrennstoff in meinem Schlafzimmer herzustellen.
00:49
Now, in scientific terms,
13
49780
3656
In wissenschaftlicher Terminologie
00:53
we call this a very bad idea.
14
53460
3256
nennen wir das eine sehr schlechte Idee.
00:56
(Laughter)
15
56740
1216
(Gelächter)
00:57
Around that same time,
16
57980
2176
Um die Zeit herum
01:00
Stanley Kubrick's "2001: A Space Odyssey" came to the theaters,
17
60180
3216
kam Stanley Kubricks "2001: Odyssee im Weltraum" in die Kinos
01:03
and my life was forever changed.
18
63420
2200
und mein Leben hatte sich für immer verändert.
01:06
I loved everything about that movie,
19
66100
2056
Ich liebte alles in diesem Film,
01:08
especially the HAL 9000.
20
68180
2536
besonders den HAL 9000.
01:10
Now, HAL was a sentient computer
21
70740
2056
HAL war ein empfindungsfähiger Computer,
01:12
designed to guide the Discovery spacecraft
22
72820
2456
dazu entworfen, das Raumschiff Discovery
01:15
from the Earth to Jupiter.
23
75300
2536
von der Erde zum Jupiter zu leiten.
01:17
HAL was also a flawed character,
24
77860
2056
HAL war auch ein fehlerhafter Charakter,
01:19
for in the end he chose to value the mission over human life.
25
79940
4280
da er am Ende beschloss, die Mission über menschliches Leben zu setzen.
01:24
Now, HAL was a fictional character,
26
84660
2096
HAL war ein fiktiver Charakter,
01:26
but nonetheless he speaks to our fears,
27
86780
2656
aber nichtsdestotrotz spricht er unsere Ängste an,
01:29
our fears of being subjugated
28
89460
2096
unsere Ängste vor der Unterwerfung
01:31
by some unfeeling, artificial intelligence
29
91580
3016
durch irgendeine nicht fühlende künstliche Intelligenz,
01:34
who is indifferent to our humanity.
30
94620
1960
der unsere Menschlichkeit gleichgültig ist.
01:37
I believe that such fears are unfounded.
31
97700
2576
Ich glaube, dass solche Ängste unbegründet sind.
01:40
Indeed, we stand at a remarkable time
32
100300
2696
Wir befinden uns wirklich in einer bemerkenswerten Zeit
01:43
in human history,
33
103020
1536
in der Geschichte der Menschheit, in der wir,
01:44
where, driven by refusal to accept the limits of our bodies and our minds,
34
104580
4976
getrieben durch die Weigerung die Grenzen von Körper und Geist zu akzeptieren,
01:49
we are building machines
35
109580
1696
Maschinen bauen,
01:51
of exquisite, beautiful complexity and grace
36
111300
3616
von exquisiter, wunderschöner Komplexität und Grazie,
01:54
that will extend the human experience
37
114940
2056
die die menschliche Erfahrung erweitern werden,
01:57
in ways beyond our imagining.
38
117020
1680
weit über unsere Vorstellung hinaus.
01:59
After a career that led me from the Air Force Academy
39
119540
2576
Nach einer Karriere bei der Luftwaffen-Akademie
02:02
to Space Command to now,
40
122140
1936
bin ich jetzt beim Weltraumkommando,
02:04
I became a systems engineer,
41
124100
1696
als Systemingenieur.
02:05
and recently I was drawn into an engineering problem
42
125820
2736
Und kürzlich wurde ich in ein technisches Problem einbezogen,
02:08
associated with NASA's mission to Mars.
43
128580
2576
das mit der NASA-Mission zum Mars zu tun hat.
02:11
Now, in space flights to the Moon,
44
131180
2496
In Raumflügen zum Mond
02:13
we can rely upon mission control in Houston
45
133700
3136
können wir uns auf die Einsatzleitstelle in Houston verlassen,
02:16
to watch over all aspects of a flight.
46
136860
1976
die über alle Aspekte des Fluges wacht.
02:18
However, Mars is 200 times further away,
47
138860
3536
Allerdings ist der Mars 200-mal weiter weg
02:22
and as a result it takes on average 13 minutes
48
142420
3216
und daher dauert es im Durchschnitt 13 Minuten,
02:25
for a signal to travel from the Earth to Mars.
49
145660
3136
bis ein Signal von der Erde zum Mars gelangt.
02:28
If there's trouble, there's not enough time.
50
148820
3400
Wenn es ein Problem gibt, bleibt nicht genügend Zeit.
02:32
And so a reasonable engineering solution
51
152660
2496
Und so mussten wir, für eine sinnvolle technische Lösung,
02:35
calls for us to put mission control
52
155180
2576
die Einsatzleitstelle im Orion-Raumschiffes platzieren.
02:37
inside the walls of the Orion spacecraft.
53
157780
3016
02:40
Another fascinating idea in the mission profile
54
160820
2896
Eine andere faszinierende Idee, im Profil der Mission,
02:43
places humanoid robots on the surface of Mars
55
163740
2896
setzt humanoide Roboter auf die Marsoberfläche,
02:46
before the humans themselves arrive,
56
166660
1856
bevor die Menschen selbst ankommen,
02:48
first to build facilities
57
168540
1656
um zunächst Gebäude zu bauen,
02:50
and later to serve as collaborative members of the science team.
58
170220
3360
und später als kollaborative Mitglieder im Wissenschaftsteam zu dienen.
02:55
Now, as I looked at this from an engineering perspective,
59
175220
2736
Als ich dies aus der technischen Perspektive betrachtete,
02:57
it became very clear to me that what I needed to architect
60
177980
3176
wurde mir sehr klar, dass das, was ich bauen musste,
03:01
was a smart, collaborative,
61
181180
2176
eine schlaue, kollaborative,
03:03
socially intelligent artificial intelligence.
62
183380
2376
sozial intelligente künstliche Intelligenz war.
03:05
In other words, I needed to build something very much like a HAL
63
185780
4296
Anders gesagt, ich musste etwas ganz Ähnliches wie HAL bauen,
03:10
but without the homicidal tendencies.
64
190100
2416
ohne die mörderischen Neigungen.
03:12
(Laughter)
65
192540
1360
(Gelächter)
03:14
Let's pause for a moment.
66
194740
1816
Lassen Sie uns kurz anhalten.
03:16
Is it really possible to build an artificial intelligence like that?
67
196580
3896
Ist es wirklich möglich, eine solche künstliche Intelligenz zu bauen?
03:20
Actually, it is.
68
200500
1456
Nun, das ist es.
03:21
In many ways,
69
201980
1256
In vieler Hinsicht
03:23
this is a hard engineering problem
70
203260
1976
ist dies ein rein technisches Problem
03:25
with elements of AI,
71
205260
1456
mit KI-Anteilen,
03:26
not some wet hair ball of an AI problem that needs to be engineered.
72
206740
4696
kein vages KI-Problem, das technisch gelöst werden muss.
03:31
To paraphrase Alan Turing,
73
211460
2656
Um es mit Alan Turing zu sagen:
03:34
I'm not interested in building a sentient machine.
74
214140
2376
Ich will keine empfindungsfähige Maschine bauen.
03:36
I'm not building a HAL.
75
216540
1576
Ich baue keinen HAL.
03:38
All I'm after is a simple brain,
76
218140
2416
Alles was ich will, ist ein simples Gehirn,
03:40
something that offers the illusion of intelligence.
77
220580
3120
etwas, das die Illusion von Intelligenz bietet.
03:44
The art and the science of computing have come a long way
78
224820
3136
Kunst und Lehre der Informatik sind weit gekommen,
03:47
since HAL was onscreen,
79
227980
1496
seit HAL auf der Leinwand erschien,
03:49
and I'd imagine if his inventor Dr. Chandra were here today,
80
229500
3216
und ich glaube, wenn sein Erfinder, Dr. Chandra, heute hier wäre,
03:52
he'd have a whole lot of questions for us.
81
232740
2336
hätte er viele Fragen an uns.
03:55
Is it really possible for us
82
235100
2096
Ist es uns wirklich möglich
03:57
to take a system of millions upon millions of devices,
83
237220
4016
ein System von abermillionen Geräten zu nehmen,
04:01
to read in their data streams,
84
241260
1456
ihre Datenströme zu lesen,
04:02
to predict their failures and act in advance?
85
242740
2256
ihre Fehler vorher zu sagen und vorher zu handeln?
04:05
Yes.
86
245020
1216
Ja.
04:06
Can we build systems that converse with humans in natural language?
87
246260
3176
Können wir Systeme bauen, die mit Menschen natürlich sprechen?
04:09
Yes.
88
249460
1216
Ja.
04:10
Can we build systems that recognize objects, identify emotions,
89
250700
2976
Können wir Systeme bauen, die Gegenstände und Emotionen erkennen,
04:13
emote themselves, play games and even read lips?
90
253700
3376
sich ausdrücken, Spiele spielen und sogar Lippen lesen?
04:17
Yes.
91
257100
1216
Ja.
04:18
Can we build a system that sets goals,
92
258340
2136
Können wir ein System bauen, das Ziele setzt,
04:20
that carries out plans against those goals and learns along the way?
93
260500
3616
das Pläne für diese Ziele ausführt und auf dem Weg dahin lernt?
04:24
Yes.
94
264140
1216
Ja.
04:25
Can we build systems that have a theory of mind?
95
265380
3336
Können wir Systeme bauen, die eine Naive Theorie [Theory of mind] haben?
04:28
This we are learning to do.
96
268740
1496
Das lernen wir gerade.
04:30
Can we build systems that have an ethical and moral foundation?
97
270260
3480
Können wir Systeme mit ethischen und moralischen Grundlagen bauen?
04:34
This we must learn how to do.
98
274300
2040
Das müssen wir noch lernen.
So lassen Sie uns für einen Moment akzeptieren,
04:37
So let's accept for a moment
99
277180
1376
04:38
that it's possible to build such an artificial intelligence
100
278580
2896
dass eine solche KI möglich ist,
04:41
for this kind of mission and others.
101
281500
2136
für solche und andere Aufgaben.
04:43
The next question you must ask yourself is,
102
283660
2536
Die nächste Frage, die Sie sich stellen müssen, ist:
04:46
should we fear it?
103
286220
1456
Sollten wir sie fürchten?
04:47
Now, every new technology
104
287700
1976
Jede neue Technologie
04:49
brings with it some measure of trepidation.
105
289700
2896
bringt eine gewisse Angst mit sich.
04:52
When we first saw cars,
106
292620
1696
Als wir die ersten Autos sahen,
04:54
people lamented that we would see the destruction of the family.
107
294340
4016
beklagten manche, dass wir die Zerstörung der Familie sehen würden.
04:58
When we first saw telephones come in,
108
298380
2696
Als die ersten Telefone aufkamen,
waren Leute besorgt, dies würde alle höflichen Gespräche zerstören.
05:01
people were worried it would destroy all civil conversation.
109
301100
2896
05:04
At a point in time we saw the written word become pervasive,
110
304020
3936
Irgendwann setzte sich das geschriebene Wort durch,
05:07
people thought we would lose our ability to memorize.
111
307980
2496
und man fürchtete um das Auswendiglernen.
05:10
These things are all true to a degree,
112
310500
2056
Das ist alles in gewisser Hinsicht wahr,
05:12
but it's also the case that these technologies
113
312580
2416
aber es ist auch wahr, dass diese Technologien
05:15
brought to us things that extended the human experience
114
315020
3376
uns Dinge gebracht haben, die unsere menschliche Erfahrung ganz wesentlich
05:18
in some profound ways.
115
318420
1880
erweitert haben.
05:21
So let's take this a little further.
116
321660
2280
Lassen Sie uns noch einen Schritt weiter gehen.
05:24
I do not fear the creation of an AI like this,
117
324940
4736
Ich fürchte die Erschaffung einer solchen KI nicht,
05:29
because it will eventually embody some of our values.
118
329700
3816
da sie schließlich manche unserer Werte verkörpern wird.
05:33
Consider this: building a cognitive system is fundamentally different
119
333540
3496
Bedenken Sie: Ein kognitives System zu bauen ist grundsätzlich anders
05:37
than building a traditional software-intensive system of the past.
120
337060
3296
als ein traditionelles software- intensives System der Vergangenheit.
05:40
We don't program them. We teach them.
121
340380
2456
Wir programmieren sie nicht. Wir lehren sie.
05:42
In order to teach a system how to recognize flowers,
122
342860
2656
Um einem System beizubringen, eine Blume zu erkennen,
05:45
I show it thousands of flowers of the kinds I like.
123
345540
3016
zeige ich ihm tausende meiner Lieblingsblumen.
05:48
In order to teach a system how to play a game --
124
348580
2256
Um einem System ein Spiel beizubringen --
05:50
Well, I would. You would, too.
125
350860
1960
Ich würde. Sie würden auch.
05:54
I like flowers. Come on.
126
354420
2040
Ich mag Blumen. Wirklich.
05:57
To teach a system how to play a game like Go,
127
357260
2856
Um einem System ein Spiel wie Go beizubringen,
06:00
I'd have it play thousands of games of Go,
128
360140
2056
würde ich es tausende Go-Spiele spielen lassen,
06:02
but in the process I also teach it
129
362220
1656
aber dann bringe ich ihm auch bei,
06:03
how to discern a good game from a bad game.
130
363900
2416
zu erkennen, ob ein Spiel gut oder schlecht ist.
06:06
If I want to create an artificially intelligent legal assistant,
131
366340
3696
Wenn ich einen KI-Rechtsassistenten baue,
werde ich ihm Gesetze beibringen,
06:10
I will teach it some corpus of law
132
370060
1776
06:11
but at the same time I am fusing with it
133
371860
2856
gleichzeitig füge ich ein Verständnis
06:14
the sense of mercy and justice that is part of that law.
134
374740
2880
für Gnade und Gerechtigkeit hinzu, was Teil des Rechts ist.
06:18
In scientific terms, this is what we call ground truth,
135
378380
2976
In der Wissenschaft nennen wir das Grundwahrheit.
06:21
and here's the important point:
136
381380
2016
Das ist wichtig:
06:23
in producing these machines,
137
383420
1456
Wenn wir diese Maschinen bauen,
06:24
we are therefore teaching them a sense of our values.
138
384900
3416
werden wir ihnen unsere Werte beibringen.
06:28
To that end, I trust an artificial intelligence
139
388340
3136
Und insofern vertraue ich künstlicher Intelligenz genauso,
06:31
the same, if not more, as a human who is well-trained.
140
391500
3640
oder gar mehr, als einem gut ausgebildeten Menschen.
06:35
But, you may ask,
141
395900
1216
Aber, werden Sie fragen,
06:37
what about rogue agents,
142
397140
2616
was ist mit Schurken,
06:39
some well-funded nongovernment organization?
143
399780
3336
einer gut finanzierten, nichtstaatlichen Organisation?
06:43
I do not fear an artificial intelligence in the hand of a lone wolf.
144
403140
3816
Ich habe keine Angst vor einer KI in der Hand eines Einzelgängers.
06:46
Clearly, we cannot protect ourselves against all random acts of violence,
145
406980
4536
Wir können uns nicht vor jeder willkürlichen Gewalttat schützen,
06:51
but the reality is such a system
146
411540
2136
aber die Realität ist, dass solch ein System
06:53
requires substantial training and subtle training
147
413700
3096
ausgiebiges und raffiniertes Training braucht,
06:56
far beyond the resources of an individual.
148
416820
2296
was weit über die Möglichkeiten eines Einzelnen hinaus geht.
06:59
And furthermore,
149
419140
1216
Außerdem ist es schwieriger
07:00
it's far more than just injecting an internet virus to the world,
150
420380
3256
als einen Internet-Virus in die Welt zu injizieren,
07:03
where you push a button, all of a sudden it's in a million places
151
423660
3096
wo man einen Knopf drückt, und plötzlich ist es überall
07:06
and laptops start blowing up all over the place.
152
426780
2456
und Laptops fangen überall an, zu explodieren.
07:09
Now, these kinds of substances are much larger,
153
429260
2816
Diese Materie ist viel schwieriger,
07:12
and we'll certainly see them coming.
154
432100
1715
und wir werden es sicher kommen sehen.
07:14
Do I fear that such an artificial intelligence
155
434340
3056
Ob ich fürchte, dass eine solche KI
07:17
might threaten all of humanity?
156
437420
1960
die ganze Menschheit bedrohen könnte?
07:20
If you look at movies such as "The Matrix," "Metropolis,"
157
440100
4376
Wenn man sich Filme ansieht, wie "Matrix", "Metropolis",
07:24
"The Terminator," shows such as "Westworld,"
158
444500
3176
"Terminator", oder Serien wie "Westworld",
07:27
they all speak of this kind of fear.
159
447700
2136
sprechen die alle von dieser Angst.
07:29
Indeed, in the book "Superintelligence" by the philosopher Nick Bostrom,
160
449860
4296
In dem Buch "Superintelligenz" des Philosophen Nick Bostrom,
07:34
he picks up on this theme
161
454180
1536
nimmt er dieses Thema auf,
07:35
and observes that a superintelligence might not only be dangerous,
162
455740
4016
und merkt an, dass eine Superintelligenz nicht nur gefährlich wäre,
07:39
it could represent an existential threat to all of humanity.
163
459780
3856
sie könnte eine existenzielle Bedrohung für die ganze Menschheit sein.
07:43
Dr. Bostrom's basic argument
164
463660
2216
Dr. Bostroms Hauptargument ist,
07:45
is that such systems will eventually
165
465900
2736
dass solche Systeme schlussendlich
07:48
have such an insatiable thirst for information
166
468660
3256
einen unstillbaren Informationshunger haben,
07:51
that they will perhaps learn how to learn
167
471940
2896
dass sie vielleicht lernen werden, zu lernen,
07:54
and eventually discover that they may have goals
168
474860
2616
und schließlich entdecken, dass sie Ziele haben,
07:57
that are contrary to human needs.
169
477500
2296
die den menschlichen Bedürfnissen widersprechen.
07:59
Dr. Bostrom has a number of followers.
170
479820
1856
Dr. Bostrom hat viele Anhänger.
08:01
He is supported by people such as Elon Musk and Stephen Hawking.
171
481700
4320
Er wird von Leuten wie Elon Musk und Stephen Hawking unterstützt.
08:06
With all due respect
172
486700
2400
Bei allem Respekt
08:09
to these brilliant minds,
173
489980
2016
vor diesen brillanten Köpfen,
08:12
I believe that they are fundamentally wrong.
174
492020
2256
ich glaube, dass sie sich gewaltig irren.
08:14
Now, there are a lot of pieces of Dr. Bostrom's argument to unpack,
175
494300
3176
Viele Argumente von Dr. Bostrom kann man widerlegen.
08:17
and I don't have time to unpack them all,
176
497500
2136
Ich habe keine Zeit, sie alle zu widerlegen.
08:19
but very briefly, consider this:
177
499660
2696
Bedenken sie nur kurz dies:
08:22
super knowing is very different than super doing.
178
502380
3736
Super-Wissen ist etwas ganz anderes als Super-Tun.
HAL war erst dann eine Bedrohung für die Mannschaft,
08:26
HAL was a threat to the Discovery crew
179
506140
1896
08:28
only insofar as HAL commanded all aspects of the Discovery.
180
508060
4416
als HAL alle Aspekte der Discovery befehligte.
08:32
So it would have to be with a superintelligence.
181
512500
2496
Das müsste bei einer Superintelligenz der Fall sein.
Sie müsste die Gewalt über unsere ganze Welt haben.
08:35
It would have to have dominion over all of our world.
182
515020
2496
08:37
This is the stuff of Skynet from the movie "The Terminator"
183
517540
2816
Das ist wie das Skynet aus dem Film "Terminator",
08:40
in which we had a superintelligence
184
520380
1856
in dem eine Superintelligenz
08:42
that commanded human will,
185
522260
1376
den menschlichen Willen beherrschte
08:43
that directed every device that was in every corner of the world.
186
523660
3856
und jedes Gerät in jedem Winkel der Welt steuerte.
08:47
Practically speaking,
187
527540
1456
Praktisch gesehen
08:49
it ain't gonna happen.
188
529020
2096
wird das nicht passieren.
08:51
We are not building AIs that control the weather,
189
531140
3056
Wir bauen keine KIs, die das Wetter kontrollieren,
08:54
that direct the tides,
190
534220
1336
die die Gezeiten steuern,
08:55
that command us capricious, chaotic humans.
191
535580
3376
die uns kapriziöse, chaotische Menschen befehligt.
08:58
And furthermore, if such an artificial intelligence existed,
192
538980
3896
Und außerdem: Wenn eine solche KI existieren würde,
09:02
it would have to compete with human economies,
193
542900
2936
müsste sie mit menschlichen Wirtschaftssystemen konkurrieren,
09:05
and thereby compete for resources with us.
194
545860
2520
und somit mit uns um Ressourcen konkurrieren.
09:09
And in the end --
195
549020
1216
Schlussendlich --
verraten Sie das Siri nicht --
09:10
don't tell Siri this --
196
550260
1240
09:12
we can always unplug them.
197
552260
1376
können wir sie immer ausstecken.
09:13
(Laughter)
198
553660
2120
(Gelächter)
09:17
We are on an incredible journey
199
557180
2456
Wir sind auf einer unglaublichen Reise
09:19
of coevolution with our machines.
200
559660
2496
der Co-Evolution mit unseren Maschinen.
09:22
The humans we are today
201
562180
2496
Die Menschen, die wir heute sind,
09:24
are not the humans we will be then.
202
564700
2536
sind nicht die Menschen, die wir dann sein werden.
09:27
To worry now about the rise of a superintelligence
203
567260
3136
Die aktuelle Sorge vor der Machtergreifung einer Superintelligenz
09:30
is in many ways a dangerous distraction
204
570420
3056
ist in vieler Hinsicht eine gefährliche Ablenkung,
09:33
because the rise of computing itself
205
573500
2336
weil die Zunahme der Rechenleistung an sich,
09:35
brings to us a number of human and societal issues
206
575860
3016
eine Reihe von menschlichen und sozialen Fragen aufwirft,
09:38
to which we must now attend.
207
578900
1640
denen wir uns jetzt zuwenden müssen.
09:41
How shall I best organize society
208
581180
2816
Wie organisieren wir die Gesellschaft am besten,
09:44
when the need for human labor diminishes?
209
584020
2336
wenn der Bedarf an menschlicher Arbeit abnimmt?
09:46
How can I bring understanding and education throughout the globe
210
586380
3816
Wie können wir weltweit Verständigung und Bildung bereitstellen,
und dabei unsere Unterschiedlichkeit achten?
09:50
and still respect our differences?
211
590220
1776
09:52
How might I extend and enhance human life through cognitive healthcare?
212
592020
4256
Wie das menschliches Leben durch ein kognitives Gesundheitswesen erweitern?
09:56
How might I use computing
213
596300
2856
Wie können wir Rechenleistung nutzen,
09:59
to help take us to the stars?
214
599180
1760
um uns zu den Sternen zu bringen?
10:01
And that's the exciting thing.
215
601580
2040
Und das ist der aufregende Teil.
10:04
The opportunities to use computing
216
604220
2336
Die Chancen, diese Rechenleistung zu nutzen,
10:06
to advance the human experience
217
606580
1536
um menschliche Erfahrung zu erweitern,
10:08
are within our reach,
218
608140
1416
sind heute gegeben,
10:09
here and now,
219
609580
1856
hier und jetzt,
10:11
and we are just beginning.
220
611460
1680
und wir fangen gerade erst an.
10:14
Thank you very much.
221
614100
1216
Herzlichen Dank!
10:15
(Applause)
222
615340
4286
(Beifall)
Über diese Website

Auf dieser Seite finden Sie YouTube-Videos, die zum Englischlernen nützlich sind. Sie sehen Englischlektionen, die von hochkarätigen Lehrern aus der ganzen Welt unterrichtet werden. Doppelklicken Sie auf die englischen Untertitel, die auf jeder Videoseite angezeigt werden, um das Video von dort aus abzuspielen. Die Untertitel laufen synchron mit der Videowiedergabe. Wenn Sie irgendwelche Kommentare oder Wünsche haben, kontaktieren Sie uns bitte über dieses Kontaktformular.

https://forms.gle/WvT1wiN1qDtmnspy7