Don't fear superintelligent AI | Grady Booch

269,003 views ・ 2017-03-13

TED


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video.

Translator: Thuy Nguyen Thanh Reviewer: Vy Chu
00:12
When I was a kid, I was the quintessential nerd.
0
12580
3840
Khi còn là đứa trẻ, tôi là con mọt sách chính hiệu.
00:17
I think some of you were, too.
1
17140
2176
Tôi nghĩ ở đây cũng có các bạn như vậy.
00:19
(Laughter)
2
19340
1216
(Cười)
00:20
And you, sir, who laughed the loudest, you probably still are.
3
20580
3216
Và bạn, bạn cười to nhất đó, chắc đúng bạn rồi.
00:23
(Laughter)
4
23820
2256
(Cười)
00:26
I grew up in a small town in the dusty plains of north Texas,
5
26100
3496
Tôi lớn lên ở một thị trấn nhỏ trong vùng đồng bằng bụi bặm bắc Texas,
00:29
the son of a sheriff who was the son of a pastor.
6
29620
3336
ba tôi là cảnh sát trưởng và ông nội tôi là một mục sư.
00:32
Getting into trouble was not an option.
7
32980
1920
Gây ra rắc rối là không được phép.
00:35
And so I started reading calculus books for fun.
8
35860
3256
Và tôi bắt đầu đọc các sách số học để cho vui.
00:39
(Laughter)
9
39140
1536
(Cười)
00:40
You did, too.
10
40700
1696
Bạn cũng vậy chứ.
00:42
That led me to building a laser and a computer and model rockets,
11
42420
3736
Nó đã đưa tôi đến việc tạo ra thiết bị laser, máy tính và các tên lửa mô hình,
00:46
and that led me to making rocket fuel in my bedroom.
12
46180
3000
và đã dẫn dắt tôi tạo ra nhiên liệu tên lửa trong phòng ngủ.
00:49
Now, in scientific terms,
13
49780
3656
Theo thuật ngữ khoa học mà nói,
00:53
we call this a very bad idea.
14
53460
3256
chúng ta gọi nó là một ý tưởng sai lầm.
00:56
(Laughter)
15
56740
1216
(Cười)
00:57
Around that same time,
16
57980
2176
Vào cùng khoảng thời gian đó,
01:00
Stanley Kubrick's "2001: A Space Odyssey" came to the theaters,
17
60180
3216
Ra mắt bộ phim của Stanley Kubrick "2001: A Space Odyssey",
01:03
and my life was forever changed.
18
63420
2200
và cuộc đời tôi đã thay đổi từ đó.
01:06
I loved everything about that movie,
19
66100
2056
Tôi yêu mọi thứ của bộ phim đó,
01:08
especially the HAL 9000.
20
68180
2536
đặc biệt là nhân vật HAL 9000.
01:10
Now, HAL was a sentient computer
21
70740
2056
HAL là một máy tính có tri giác
01:12
designed to guide the Discovery spacecraft
22
72820
2456
được thiết kế để hướng dẫn phi thuyền Discovery
01:15
from the Earth to Jupiter.
23
75300
2536
từ Trái Đất tới sao Mộc.
01:17
HAL was also a flawed character,
24
77860
2056
HAL cũng là một nhân vật có khiếm khuyết,
01:19
for in the end he chose to value the mission over human life.
25
79940
4280
vì cuối cùng anh ấy đã lựa chọn đề cao nhiệm vụ hơn sự sống con người.
01:24
Now, HAL was a fictional character,
26
84660
2096
HAL là một nhân vật viễn tưởng
01:26
but nonetheless he speaks to our fears,
27
86780
2656
nhưng anh ta vẫn nói lên nỗi sợ hãi của chúng ta
01:29
our fears of being subjugated
28
89460
2096
nỗi sợ hãi của việc bị thống trị
01:31
by some unfeeling, artificial intelligence
29
91580
3016
bởi trí tuệ nhân tạo vô cảm
01:34
who is indifferent to our humanity.
30
94620
1960
không quan tâm đến loài người chúng ta.
01:37
I believe that such fears are unfounded.
31
97700
2576
Tôi tin rằng những nỗi sợ hãi như vậy là vô căn cứ.
01:40
Indeed, we stand at a remarkable time
32
100300
2696
Thật vậy, chúng ta đang ở một thời điểm đáng chú ý
01:43
in human history,
33
103020
1536
trong lịch sử loài người,
01:44
where, driven by refusal to accept the limits of our bodies and our minds,
34
104580
4976
nó được thúc đẩy nhờ sự bất mãn với các giới hạn của cơ thể và trí tuệ chúng ta,
01:49
we are building machines
35
109580
1696
chúng ta đang tạo ra các cỗ máy
01:51
of exquisite, beautiful complexity and grace
36
111300
3616
tinh vi, phức tạp, xinh đẹp và duyên dáng
01:54
that will extend the human experience
37
114940
2056
thứ sẽ mở rộng trải nghiệm của con người
theo những cách vượt xa tưởng tượng.
01:57
in ways beyond our imagining.
38
117020
1680
01:59
After a career that led me from the Air Force Academy
39
119540
2576
Sau quá trinh công tác từ Học viện không quân
02:02
to Space Command to now,
40
122140
1936
đến công tác tại Không quân đến nay,
02:04
I became a systems engineer,
41
124100
1696
tôi đã trở thành một kỹ sư hệ thống
02:05
and recently I was drawn into an engineering problem
42
125820
2736
và gần đây tôi được tham gia vào một vấn đề kỹ thuật
02:08
associated with NASA's mission to Mars.
43
128580
2576
hỗ trợ cho nhiệm vụ đến sao Hỏa của NASA.
02:11
Now, in space flights to the Moon,
44
131180
2496
Trong các chuyến bay đến Mặt trăng,
02:13
we can rely upon mission control in Houston
45
133700
3136
chúng ta có thể dựa trên hệ thống điều khiển nhiệm vụ ở Houston
02:16
to watch over all aspects of a flight.
46
136860
1976
để quan sát mọi khía cạnh của chuyến bay.
02:18
However, Mars is 200 times further away,
47
138860
3536
Tuy nhiên, sao Hỏa thì xa hơn đến 200 lần
02:22
and as a result it takes on average 13 minutes
48
142420
3216
và như vậy trung bình phải cần 13 phút
02:25
for a signal to travel from the Earth to Mars.
49
145660
3136
để một tín hiệu đi từ Trái đất đến sao Hỏa.
02:28
If there's trouble, there's not enough time.
50
148820
3400
Nếu có trục trặc, sẽ không đủ thời gian.
02:32
And so a reasonable engineering solution
51
152660
2496
Và do vậy một giải pháp kỹ thuật hợp lý
02:35
calls for us to put mission control
52
155180
2576
đặt ra là cần phải đặt thiết bị điều khiển nhiệm vụ
02:37
inside the walls of the Orion spacecraft.
53
157780
3016
ngay bên trong phi thuyền Orion
02:40
Another fascinating idea in the mission profile
54
160820
2896
Một ý tưởng hấp dẫn khác trong hồ sơ nhiệm vụ
02:43
places humanoid robots on the surface of Mars
55
163740
2896
là đưa các robot giống người lên bề mặt sao Hỏa
02:46
before the humans themselves arrive,
56
166660
1856
trước khi con người đặt chân đến,
02:48
first to build facilities
57
168540
1656
đầu tiên để xây dựng cơ sở hạ tầng
02:50
and later to serve as collaborative members of the science team.
58
170220
3360
và sau đó để phục vụ các thành viên cộng tác của đội ngũ khoa học.
02:55
Now, as I looked at this from an engineering perspective,
59
175220
2736
Khi tôi xem xét nó dưới góc độ kỹ thuật,
02:57
it became very clear to me that what I needed to architect
60
177980
3176
thì thấy rõ ràng cái mà chúng ta cần tạo ra
03:01
was a smart, collaborative,
61
181180
2176
là một trí tuệ nhân tạo hiểu biết xã hội
03:03
socially intelligent artificial intelligence.
62
183380
2376
thông minh, dễ cộng tác.
03:05
In other words, I needed to build something very much like a HAL
63
185780
4296
Nói cách khác, tôi cần tạo ra một thứ rất giống với một HAL
03:10
but without the homicidal tendencies.
64
190100
2416
nhưng không có khuynh hướng giết người.
03:12
(Laughter)
65
192540
1360
(Cười)
03:14
Let's pause for a moment.
66
194740
1816
Chúng ta hãy dừng lại trong giây lát.
03:16
Is it really possible to build an artificial intelligence like that?
67
196580
3896
Thực sự chúng ta có thể tạo ra một trí tuệ nhân tạo như vậy không?
03:20
Actually, it is.
68
200500
1456
Thực ra là có thể.
03:21
In many ways,
69
201980
1256
Theo nhiều cách,
03:23
this is a hard engineering problem
70
203260
1976
đây là một vấn đề khó khăn về kỹ thuật
03:25
with elements of AI,
71
205260
1456
có liên quan đến AI,
03:26
not some wet hair ball of an AI problem that needs to be engineered.
72
206740
4696
chứ không phải một vấn đề lộn xộn về AI cần được giải quyết.
03:31
To paraphrase Alan Turing,
73
211460
2656
Để diễn đạt lại theo ý của Alan Turing,
tôi không hứng thú tạo ra một cỗ máy có tri giác.
03:34
I'm not interested in building a sentient machine.
74
214140
2376
03:36
I'm not building a HAL.
75
216540
1576
Tôi không tạo ra một HAL.
03:38
All I'm after is a simple brain,
76
218140
2416
Cái tôi làm là tạo ra một bộ não đơn giản
03:40
something that offers the illusion of intelligence.
77
220580
3120
mà có thể đem đến ảo giác của trí tuệ.
03:44
The art and the science of computing have come a long way
78
224820
3136
Nghệ thuật và khoa học điện toán đã đi được một đoạn đường dài
03:47
since HAL was onscreen,
79
227980
1496
kể từ khi HAL trên sóng,
03:49
and I'd imagine if his inventor Dr. Chandra were here today,
80
229500
3216
và tôi tưởng tượng nếu cha đẻ của anh ta, Dr. Chandra, ở đây hôm nay,
03:52
he'd have a whole lot of questions for us.
81
232740
2336
ông ấy sẽ có một loạt câu hỏi cho chúng ta.
03:55
Is it really possible for us
82
235100
2096
Chúng ta có thể
03:57
to take a system of millions upon millions of devices,
83
237220
4016
sử dụng một hệ thống gồm hàng triệu triệu thiết bị,
04:01
to read in their data streams,
84
241260
1456
để nhập các luồng dữ liệu,
04:02
to predict their failures and act in advance?
85
242740
2256
để dự đoán các thất bại và có hành động trước không?
04:05
Yes.
86
245020
1216
Vâng, có thể.
04:06
Can we build systems that converse with humans in natural language?
87
246260
3176
Ta tạo ra được các hệ thống giao tiếp bằng ngôn ngữ tự nhiên không?
04:09
Yes.
88
249460
1216
Được.
04:10
Can we build systems that recognize objects, identify emotions,
89
250700
2976
Ta tạo ra được các hệ thống nhận diện vật thể, xác định cảm xúc,
04:13
emote themselves, play games and even read lips?
90
253700
3376
tự biểu hiện cảm xúc, chơi trò chơi và thậm chí đọc khẩu hình không?
04:17
Yes.
91
257100
1216
Được.
04:18
Can we build a system that sets goals,
92
258340
2136
Ta tạo ra được hệ thống tự lập mục tiêu,
04:20
that carries out plans against those goals and learns along the way?
93
260500
3616
xây dựng kế hoạch lệch với mục tiêu đó và học hỏi từ quá trình trên không?
04:24
Yes.
94
264140
1216
Được
04:25
Can we build systems that have a theory of mind?
95
265380
3336
Chúng ta có thể tạo ra các hệ thống có khả năng nhận thức tư duy không?
04:28
This we are learning to do.
96
268740
1496
Cái này chúng ta đang học.
04:30
Can we build systems that have an ethical and moral foundation?
97
270260
3480
Chúng ta có thể tạo ra các hệ thống có nền tảng đạo đức và luân lý không?
04:34
This we must learn how to do.
98
274300
2040
Cái này chúng ta phải học cách làm.
04:37
So let's accept for a moment
99
277180
1376
Vậy chúng ta hãy tạm chấp nhận
04:38
that it's possible to build such an artificial intelligence
100
278580
2896
rằng có thể tạo ra một hệ thống trí tuệ nhân tạo như vậy
04:41
for this kind of mission and others.
101
281500
2136
cho kiểu nhiệm vụ này và cả các loại khác.
04:43
The next question you must ask yourself is,
102
283660
2536
Câu hỏi tiếp theo mà bạn phải tự hỏi là,
04:46
should we fear it?
103
286220
1456
chúng ta có nên sợ nó?
04:47
Now, every new technology
104
287700
1976
Thực chất, mọi công nghệ mới
04:49
brings with it some measure of trepidation.
105
289700
2896
đều đem đến sự lo lắng ở mức độ nào đó.
04:52
When we first saw cars,
106
292620
1696
Khi chúng ta thấy xe hơi lần đầu,
04:54
people lamented that we would see the destruction of the family.
107
294340
4016
người ta đã than phiền rằng nó sẽ hủy hoại gia đình.
04:58
When we first saw telephones come in,
108
298380
2696
Khi điện thoại lần đầu xuất hiện,
05:01
people were worried it would destroy all civil conversation.
109
301100
2896
người ta đã lo lắng nó sẽ hủy hoại việc giao lưu trò chuyện.
Đã có lúc khi chữ viết trở nên phổ biến,
05:04
At a point in time we saw the written word become pervasive,
110
304020
3936
05:07
people thought we would lose our ability to memorize.
111
307980
2496
người ta đã nghĩ chúng ta sẽ mất khả năng ghi nhớ.
05:10
These things are all true to a degree,
112
310500
2056
Tất cả lo sợ đó đều đúng ở mức độ nào đó,
05:12
but it's also the case that these technologies
113
312580
2416
nhưng những công nghệ này cũng
05:15
brought to us things that extended the human experience
114
315020
3376
mang đến chúng ta những thứ đã mở rộng trải nghiệm của con người
05:18
in some profound ways.
115
318420
1880
một cách sâu sắc.
05:21
So let's take this a little further.
116
321660
2280
Chúng ta hãy nói thêm về nó một chút.
05:24
I do not fear the creation of an AI like this,
117
324940
4736
Tôi không sợ việc một AI như vậy được tạo ra,
05:29
because it will eventually embody some of our values.
118
329700
3816
bởi vì cuối cùng nó vẫn sẽ là hiện thân một số giá trị của chúng ta.
05:33
Consider this: building a cognitive system is fundamentally different
119
333540
3496
Hãy nghĩ thế này: xây dựng một hệ thống có nhận thức về cơ bản là khác với
05:37
than building a traditional software-intensive system of the past.
120
337060
3296
xây dựng một hệ thống phần mềm chuyên sâu truyền thống như trước đây.
05:40
We don't program them. We teach them.
121
340380
2456
Ta không lập trình nó. Ta dạy nó.
05:42
In order to teach a system how to recognize flowers,
122
342860
2656
Để dạy một hệ thống nhận biết các bông hoa,
05:45
I show it thousands of flowers of the kinds I like.
123
345540
3016
Tôi cho nó xem hàng nghìn bông hoa thuộc những loại tôi thích.
05:48
In order to teach a system how to play a game --
124
348580
2256
Để dạy một hệ thống cách chơi trò chơi--
05:50
Well, I would. You would, too.
125
350860
1960
Vâng, tôi sẽ làm thế. Bạn cũng sẽ thôi.
05:54
I like flowers. Come on.
126
354420
2040
Tôi thích hoa mà. Nào mọi người.
05:57
To teach a system how to play a game like Go,
127
357260
2856
Để dạy một hệ thống chơi game như Go chẳng hạn,
06:00
I'd have it play thousands of games of Go,
128
360140
2056
Tôi sẽ cho nó chơi hàng nghìn ván Go,
06:02
but in the process I also teach it
129
362220
1656
trong quá trình đó tôi cũng dạy nó
06:03
how to discern a good game from a bad game.
130
363900
2416
cách phân biệt ván chơi hay và ván chơi dở.
06:06
If I want to create an artificially intelligent legal assistant,
131
366340
3696
Nếu tôi muốn tạo ra một trợ lý pháp lý thông minh nhân tạo,
06:10
I will teach it some corpus of law
132
370060
1776
Tôi sẽ dạy nó một số tập sách luật
06:11
but at the same time I am fusing with it
133
371860
2856
nhưng đồng thời tôi sẽ lồng ghép vào đó
06:14
the sense of mercy and justice that is part of that law.
134
374740
2880
ý thức về lòng thương người và công lý là một phần của luật.
06:18
In scientific terms, this is what we call ground truth,
135
378380
2976
Theo thuật ngữ khoa học, ta gọi nó là sự thật nền móng,
06:21
and here's the important point:
136
381380
2016
và đây là điểm quan trọng:
06:23
in producing these machines,
137
383420
1456
khi sản xuất các cỗ máy này,
06:24
we are therefore teaching them a sense of our values.
138
384900
3416
chúng ta đang dạy chúng ý thức về các giá trị của chúng ta.
06:28
To that end, I trust an artificial intelligence
139
388340
3136
Do vậy, tôi tin tưởng vào một trí tuệ nhân tạo
06:31
the same, if not more, as a human who is well-trained.
140
391500
3640
bằng với, nếu không muốn nói hơn cả, một con người được giáo dục tốt.
06:35
But, you may ask,
141
395900
1216
Nhưng bạn có thể sẽ hỏi,
06:37
what about rogue agents,
142
397140
2616
thế còn các tổ chức biến tướng thì sao,
06:39
some well-funded nongovernment organization?
143
399780
3336
một tổ chức phi chính phủ lắm tiền nào đấy chẳng hạn?
06:43
I do not fear an artificial intelligence in the hand of a lone wolf.
144
403140
3816
Tôi không sợ một trí tuệ nhân tạo trong tay một kẻ đơn độc.
06:46
Clearly, we cannot protect ourselves against all random acts of violence,
145
406980
4536
Rõ ràng, chúng ta không thể bảo vệ mình trước những hành động bạo lực bất ngờ,
06:51
but the reality is such a system
146
411540
2136
nhưng trong thực tế một hệ thống như vậy
06:53
requires substantial training and subtle training
147
413700
3096
yêu cầu sự đào tạo cơ bản và đào tạo tinh vi
06:56
far beyond the resources of an individual.
148
416820
2296
vượt xa các nguồn lực của một cá nhân.
06:59
And furthermore,
149
419140
1216
Và hơn nữa,
07:00
it's far more than just injecting an internet virus to the world,
150
420380
3256
nó không giống như việc phát tán virus qua mạng ra khắp thế giới,
07:03
where you push a button, all of a sudden it's in a million places
151
423660
3096
kiểu bạn chỉ ấn một phím, nó đã lan ra một triệu vị trí
07:06
and laptops start blowing up all over the place.
152
426780
2456
và laptop bắt đầu nổ tanh bành khắp mọi nơi.
07:09
Now, these kinds of substances are much larger,
153
429260
2816
Những chuyện thế này lớn hơn rất nhiều,
07:12
and we'll certainly see them coming.
154
432100
1715
và chắc chắn ta sẽ dự đoán trước được.
07:14
Do I fear that such an artificial intelligence
155
434340
3056
Tôi có sợ rằng một trí tuệ nhân tạo như vậy
07:17
might threaten all of humanity?
156
437420
1960
có thể đe dọa toàn nhân loại hay không?
07:20
If you look at movies such as "The Matrix," "Metropolis,"
157
440100
4376
Nếu bạn nhìn vào các bộ phim như "The Matrix," "Metropolis,"
07:24
"The Terminator," shows such as "Westworld,"
158
444500
3176
"The Terminator," các chương trình như "Westworld,"
07:27
they all speak of this kind of fear.
159
447700
2136
chúng đều nói về nỗi sợ hãi này.
07:29
Indeed, in the book "Superintelligence" by the philosopher Nick Bostrom,
160
449860
4296
Thực vậy, trong cuốn "Siêu trí tuệ" của triết gia Nick Bostrom,
07:34
he picks up on this theme
161
454180
1536
ông đề cập đến chủ đề này
07:35
and observes that a superintelligence might not only be dangerous,
162
455740
4016
và nhận ra rằng một siêu trí tuệ có thể không chỉ nguy hiểm,
07:39
it could represent an existential threat to all of humanity.
163
459780
3856
mà còn có thể đại diện cho một mối đe dọa sống còn với toàn nhân loại.
07:43
Dr. Bostrom's basic argument
164
463660
2216
Lý lẽ chủ yếu của Dr. Bostrom
07:45
is that such systems will eventually
165
465900
2736
là các hệ thống như vậy cuối cùng sẽ
07:48
have such an insatiable thirst for information
166
468660
3256
có một cơn khát thông tin vô độ;
07:51
that they will perhaps learn how to learn
167
471940
2896
là chúng có lẽ sẽ học cách để học
07:54
and eventually discover that they may have goals
168
474860
2616
và cuối cùng khám phá ra rằng chúng có các mục tiêu
07:57
that are contrary to human needs.
169
477500
2296
trái ngược với nhu cầu con người.
07:59
Dr. Bostrom has a number of followers.
170
479820
1856
Có một số người ủng hộ Dr. Bostrom.
08:01
He is supported by people such as Elon Musk and Stephen Hawking.
171
481700
4320
Ông ấy được ủng hộ bởi những người như Elon Musk và Stephen Hawking.
08:06
With all due respect
172
486700
2400
Dù rất kính trọng
08:09
to these brilliant minds,
173
489980
2016
những bộ óc lỗi lạc này,
08:12
I believe that they are fundamentally wrong.
174
492020
2256
tôi tin rằng họ về căn bản đều sai.
08:14
Now, there are a lot of pieces of Dr. Bostrom's argument to unpack,
175
494300
3176
Có rất nhiều lý lẽ của Dr. Bostrom cần được mổ xẻ
08:17
and I don't have time to unpack them all,
176
497500
2136
và tôi không có thời gian để mổ xẻ tất cả,
08:19
but very briefly, consider this:
177
499660
2696
nhưng rất ngắn gọn, hãy nghĩ thế này:
08:22
super knowing is very different than super doing.
178
502380
3736
biết nhiều khác với làm nhiều.
08:26
HAL was a threat to the Discovery crew
179
506140
1896
HAL là một mối đe dọa với tàu Discovery
08:28
only insofar as HAL commanded all aspects of the Discovery.
180
508060
4416
chỉ trong điều kiện HAL được chỉ huy toàn bộ tàu Discovery.
08:32
So it would have to be with a superintelligence.
181
512500
2496
Nghĩa là chúng ta xét về một siêu trí tuệ.
08:35
It would have to have dominion over all of our world.
182
515020
2496
Nó sẽ phải có quyền chi phối toàn thế giới chúng ta.
08:37
This is the stuff of Skynet from the movie "The Terminator"
183
517540
2816
Đây là trường hợp của Skynet trong phim "The Terminator"
08:40
in which we had a superintelligence
184
520380
1856
trong đó chúng ta có một siêu trí tuệ
08:42
that commanded human will,
185
522260
1376
có thể chỉ huy ý chí con người,
08:43
that directed every device that was in every corner of the world.
186
523660
3856
điều khiển mọi thiết bị ở mọi ngõ ngách của thể giới.
08:47
Practically speaking,
187
527540
1456
Thực tế mà nói,
08:49
it ain't gonna happen.
188
529020
2096
điều đó sẽ không xảy ra.
08:51
We are not building AIs that control the weather,
189
531140
3056
Chúng ta sẽ không tạo ra các AI kiểm soát được thời tiết,
08:54
that direct the tides,
190
534220
1336
điều khiển được thủy triều,
08:55
that command us capricious, chaotic humans.
191
535580
3376
hay chỉ huy được loài người lộn xộn thất thường chúng ta.
08:58
And furthermore, if such an artificial intelligence existed,
192
538980
3896
Và hơn nữa, nếu một trí tuệ nhân tạo như vậy tồn tại,
09:02
it would have to compete with human economies,
193
542900
2936
nó sẽ phải cạnh tranh với nền kinh tế nhân loại,
09:05
and thereby compete for resources with us.
194
545860
2520
và từ đó cạnh tranh với chúng ta giành các nguồn lực.
09:09
And in the end --
195
549020
1216
Và cuối cùng thì --
09:10
don't tell Siri this --
196
550260
1240
đừng nói với Siri nhé --
09:12
we can always unplug them.
197
552260
1376
ta luôn có thể rút dây điện.
09:13
(Laughter)
198
553660
2120
(Cười)
09:17
We are on an incredible journey
199
557180
2456
Chúng ta đang ở trên một hành trình khó tin
09:19
of coevolution with our machines.
200
559660
2496
cùng tiến hóa với các cỗ máy của mình.
09:22
The humans we are today
201
562180
2496
Loài người chúng ta hôm nay
09:24
are not the humans we will be then.
202
564700
2536
sẽ không phải là loài người chúng ta sau này.
09:27
To worry now about the rise of a superintelligence
203
567260
3136
Lo lắng lúc này về sự phát triển của một siêu trí tuệ
09:30
is in many ways a dangerous distraction
204
570420
3056
theo nhiều cách là một sự phân tâm nguy hiểm
09:33
because the rise of computing itself
205
573500
2336
bởi vì sự phát triển của điện toán tự nó
09:35
brings to us a number of human and societal issues
206
575860
3016
cũng đã đem đến nhiều vấn đề về con người và xã hội
09:38
to which we must now attend.
207
578900
1640
mà chúng ta giờ đây phải chú ý tới.
09:41
How shall I best organize society
208
581180
2816
Chúng ta sẽ tổ chức xã hội một cách tốt nhất như thế nào
09:44
when the need for human labor diminishes?
209
584020
2336
khi nhu cầu về sức lao động con người giảm đi?
09:46
How can I bring understanding and education throughout the globe
210
586380
3816
Làm thế nào tôi có thể đem sự hiểu biết và giáo dục đi khắp thế giới
09:50
and still respect our differences?
211
590220
1776
và vẫn tôn trọng sự khác biệt?
09:52
How might I extend and enhance human life through cognitive healthcare?
212
592020
4256
Làm sao tôi có thể mở rộng và nâng cao đời sống qua chăm sóc sức khỏe có nhận thức?
09:56
How might I use computing
213
596300
2856
Tôi có thể sử dụng điện toán như thế nào
09:59
to help take us to the stars?
214
599180
1760
để giúp đưa người lên các vì sao?
10:01
And that's the exciting thing.
215
601580
2040
Và đó là điều thú vị.
10:04
The opportunities to use computing
216
604220
2336
Các cơ hội sử dụng điện toán
10:06
to advance the human experience
217
606580
1536
để nâng cao trải nghiệm
10:08
are within our reach,
218
608140
1416
đang trong tầm tay chúng ta,
10:09
here and now,
219
609580
1856
ở đây và bây giờ,
10:11
and we are just beginning.
220
611460
1680
và chúng ta chỉ vừa bắt đầu.
10:14
Thank you very much.
221
614100
1216
Xin cám ơn rất nhiều.
10:15
(Applause)
222
615340
4286
(Vỗ tay)
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7