How to get empowered, not overpowered, by AI | Max Tegmark

130,078 views ・ 2018-07-05

TED


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video.

Translator: Patrizia Le Reviewer: Quynh Anh Ha
00:12
After 13.8 billion years of cosmic history,
0
12760
4416
Sau 13.8 tỉ năm lịch sử vũ trụ,
00:17
our universe has woken up
1
17200
2096
vũ trụ của chúng ta đã tỉnh dậy,
00:19
and become aware of itself.
2
19320
1520
và bắt đầu tự nhận thức.
00:21
From a small blue planet,
3
21480
1936
Từ một hành tinh xanh nhỏ bé,
00:23
tiny, conscious parts of our universe have begun gazing out into the cosmos
4
23440
4136
nơi có nhận thức của thế giới bao la đã bắt đầu nhìn ra bên ngoài hành tinh của họ
00:27
with telescopes,
5
27600
1376
bằng kính viễn vọng,
00:29
discovering something humbling.
6
29000
1480
để khám phá những điều nhỏ bé.
00:31
We've discovered that our universe is vastly grander
7
31320
2896
Ta phát hiện ra rằng vũ trụ này rộng lớn hơn rất nhiều
00:34
than our ancestors imagined
8
34240
1336
so với tổ tiên tưởng tượng
00:35
and that life seems to be an almost imperceptibly small perturbation
9
35600
4256
và cuộc sống dường như là một sự xáo trộn mà chúng ta đều không thể nhận thấy được
00:39
on an otherwise dead universe.
10
39880
1720
trên một hành tinh chết khác.
00:42
But we've also discovered something inspiring,
11
42320
3016
Nhưng ta cũng khám phá ra một điều vô cùng hấp dẫn,
00:45
which is that the technology we're developing has the potential
12
45360
2976
đó là nền công nghệ đang được phát triển mang lại tiềm năng
00:48
to help life flourish like never before,
13
48360
2856
nâng cao cuộc sống hơn bao giờ hết,
00:51
not just for centuries but for billions of years,
14
51240
3096
không chỉ trong một vài thế kỉ mà trong hàng triệu năm lịch sử,
00:54
and not just on earth but throughout much of this amazing cosmos.
15
54360
4120
không chỉ trên trái đất này mà còn rộng mở cho cả vũ trụ vĩ đại này.
00:59
I think of the earliest life as "Life 1.0"
16
59680
3336
Tôi nghĩ cuộc sống sơ khai nhất là "Cuộc sống phiên bản 1.0"
01:03
because it was really dumb,
17
63040
1376
bởi vì nó không có trí tuệ,
01:04
like bacteria, unable to learn anything during its lifetime.
18
64440
4296
như vi khuẩn, không có khả năng tiếp thu được cái gì trong suốt quãng đời của nó.
01:08
I think of us humans as "Life 2.0" because we can learn,
19
68760
3376
Còn loài người là "Cuộc sống bản 2.0" vì chúng ta có thể học,
01:12
which we in nerdy, geek speak,
20
72160
1496
giao tiếp,
01:13
might think of as installing new software into our brains,
21
73680
3216
lại còn nghĩ tới việc cài một phần mềm vào trong não,
01:16
like languages and job skills.
22
76920
2120
để biết thêm ngôn ngữ hoặc kỹ năng khác.
01:19
"Life 3.0," which can design not only its software but also its hardware
23
79680
4296
"Cuộc sống bản 3.0", không những thiết kế được 'phần mềm' mà còn 'phần cứng' của nó
01:24
of course doesn't exist yet.
24
84000
1656
chắc chắn là chưa xuất hiện.
01:25
But perhaps our technology has already made us "Life 2.1,"
25
85680
3776
Nhưng có lẽ, với nền công nghệ hiện tại, ta đã nâng cấp lên phiên bản 2.1,
01:29
with our artificial knees, pacemakers and cochlear implants.
26
89480
4336
đầu gối nhân tạo, máy điều hòa nhịp tim và cả những con ốc điện tử.
01:33
So let's take a closer look at our relationship with technology, OK?
27
93840
3880
Vì vậy, hãy nhìn kỹ hơn sự liên kết của chúng ta với nền công nghệ,
01:38
As an example,
28
98800
1216
Ví dụ,
01:40
the Apollo 11 moon mission was both successful and inspiring,
29
100040
5296
tàu vũ trụ Apollo 11 đã khám phá mặt trăng rất thành công và truyền cảm hứng,
01:45
showing that when we humans use technology wisely,
30
105360
3016
chứng tỏ rằng khi ta biết cách sử dụng công nghệ khéo léo,
01:48
we can accomplish things that our ancestors could only dream of.
31
108400
3936
chúng ta có thể đạt tới những điều mà tổ tiên chỉ biết mơ tới.
01:52
But there's an even more inspiring journey
32
112360
2976
Nhưng còn một chuyến hành trình vĩ đại hơn
01:55
propelled by something more powerful than rocket engines,
33
115360
2680
được phóng lên bởi cái gì đó mạnh hơn cả hệ thống tên lửa,
nơi mà hành khách không chỉ có duy nhất 3 phi hành gia
01:59
where the passengers aren't just three astronauts
34
119200
2336
02:01
but all of humanity.
35
121560
1776
mà là cả một nhân loại.
02:03
Let's talk about our collective journey into the future
36
123360
2936
Hãy nói về chuyến hành trình của chúng ta trong tương lai
02:06
with artificial intelligence.
37
126320
2000
với trí tuệ nhân tạo.
02:08
My friend Jaan Tallinn likes to point out that just as with rocketry,
38
128960
4536
Bạn của tôi, Jaan Tallinn chỉ ra rằng nếu chỉ với mỗi nền công nghệ tên lửa,
02:13
it's not enough to make our technology powerful.
39
133520
3160
thì có lẽ khó để biến công nghệ trở nên mạnh mẽ hơn.
02:17
We also have to figure out, if we're going to be really ambitious,
40
137560
3175
Chúng ta cũng sẽ phải tìm ra, nếu chúng ta thực sự khát vọng,
02:20
how to steer it
41
140759
1416
cách để điều khiển nó
02:22
and where we want to go with it.
42
142199
1681
và ta muốn đi tới đâu cùng nó.
02:24
So let's talk about all three for artificial intelligence:
43
144880
2840
Hãy nói về 3 điều của trí tuệ nhân tạo:
02:28
the power, the steering and the destination.
44
148440
3056
sức mạnh, sự chỉ đạo và đích đến.
02:31
Let's start with the power.
45
151520
1286
Cùng bắt đầu với sức mạnh.
02:33
I define intelligence very inclusively --
46
153600
3096
Tôi định nghĩ trí tuệ rất là bao hàm--
02:36
simply as our ability to accomplish complex goals,
47
156720
4336
đơn giản như khả năng hoàn thành các mục tiêu phức tạp của chúng ta,
02:41
because I want to include both biological and artificial intelligence.
48
161080
3816
vì tôi muốn bao gồm cả trí tuệ sinh học và trí tuệ nhân tạo.
02:44
And I want to avoid the silly carbon-chauvinism idea
49
164920
4016
Tôi muốn tránh cái ý tưởng ngớ ngẩn về sự tôn vinh carbon
02:48
that you can only be smart if you're made of meat.
50
168960
2360
do đó bạn chỉ có thể thông minh khi bạn được tạo nên từ thịt.
02:52
It's really amazing how the power of AI has grown recently.
51
172880
4176
Thật tuyệt vời khi nói về AI đã phát triển như thế nào trong thời gian gần đây.
02:57
Just think about it.
52
177080
1256
Cùng suy nghĩ về nó.
02:58
Not long ago, robots couldn't walk.
53
178360
3200
Cách đây không lâu, robots không thể đi được.
03:03
Now, they can do backflips.
54
183040
1720
Còn bây giờ, nó có thể nhào lộn.
03:06
Not long ago,
55
186080
1816
Cách đây không lâu,
03:07
we didn't have self-driving cars.
56
187920
1760
chúng ta chưa hề có xe ô tô tự động.
03:10
Now, we have self-flying rockets.
57
190920
2480
và bây giờ, ta đã có tên lửa tự động.
03:15
Not long ago,
58
195960
1416
Cách đây không lâu,
03:17
AI couldn't do face recognition.
59
197400
2616
AI không thể nhận diện được mặt con người.
03:20
Now, AI can generate fake faces
60
200040
2976
Bây giờ, AI có thể tạo ra khuôn mặt giả
03:23
and simulate your face saying stuff that you never said.
61
203040
4160
và mô phỏng khuôn mặt của bạn nói những điều mà bạn chưa bao giờ nói.
03:28
Not long ago,
62
208400
1576
Cách đây không lâu,
03:30
AI couldn't beat us at the game of Go.
63
210000
1880
AI không thể thắng ta trong trò cờ vây.
03:32
Then, Google DeepMind's AlphaZero AI took 3,000 years of human Go games
64
212400
5096
Và rồi, AI của Google DeepMind's AlphaZero lấy trọn 3000 năm luyện tập của con người
03:37
and Go wisdom,
65
217520
1256
và cả những chiến thuật,
03:38
ignored it all and became the world's best player by just playing against itself.
66
218800
4976
bỏ qua những điều đó, nó trở thành đối thủ nặng ký nhất kể cả khi chơi với chính nó.
03:43
And the most impressive feat here wasn't that it crushed human gamers,
67
223800
3696
Điều ấn tượng nhất không phải là nó đã đánh bại người chơi như thế nào,
03:47
but that it crushed human AI researchers
68
227520
2576
mà là nó đã hạ gục cả những người nghiên cứu ra nó
03:50
who had spent decades handcrafting game-playing software.
69
230120
3680
người đã dành hàng chục năm để tạo ra những phần mềm chơi trò chơi.
Và AlphaZero hạ gục các nhà nghiên cứu không chỉ mỗi cờ vây mà còn cả cờ vua,
03:54
And AlphaZero crushed human AI researchers not just in Go but even at chess,
70
234200
4656
03:58
which we have been working on since 1950.
71
238880
2480
bộ môn mà ta đã thành thạo từ năm 1950.
04:02
So all this amazing recent progress in AI really begs the question:
72
242000
4240
Chính những thành tựu tuyệt vời gần đây của AI, đã dấy lên một câu hỏi:
04:07
How far will it go?
73
247280
1560
Nó sẽ có thể tiến bộ tới đâu?
04:09
I like to think about this question
74
249800
1696
Tôi thích nghĩ tới câu hỏi này
04:11
in terms of this abstract landscape of tasks,
75
251520
2976
bằng các khái niệm trừu tượng của nhiệm vụ,
04:14
where the elevation represents how hard it is for AI to do each task
76
254520
3456
nơi mà các cấp bậc thể hiện sự khó khăn để AI hoàn thành một nhiệm vụ
04:18
at human level,
77
258000
1216
ở cấp độ con người,
04:19
and the sea level represents what AI can do today.
78
259240
2760
và mực nước biển thể hiện những gì mà AI có thể làm ngày nay.
Mực nước biển tăng lên chỉ sự cải thiện của AI,
04:23
The sea level is rising as AI improves,
79
263120
2056
04:25
so there's a kind of global warming going on here in the task landscape.
80
265200
3440
vì vậy hiện tượng nóng lên toàn cầu xảy ra trong cảnh quan nhiệm vụ.
04:30
And the obvious takeaway is to avoid careers at the waterfront --
81
270040
3335
Và điều hiển nhiên là tránh những công việc tại bờ sông --
04:33
(Laughter)
82
273399
1257
(Cười)
04:34
which will soon be automated and disrupted.
83
274680
2856
nơi mà nó sẽ bị phá huỷ sớm.
04:37
But there's a much bigger question as well.
84
277560
2976
Nhưng còn có một câu hỏi lớn hơn thế nữa
04:40
How high will the water end up rising?
85
280560
1810
Mực nước sẽ dâng cao tới đâu?
04:43
Will it eventually rise to flood everything,
86
283440
3200
Liệu nó sẽ nhấn chìm mọi thứ,
04:47
matching human intelligence at all tasks.
87
287840
2496
đấu trí với con người ở mọi lĩnh vực.
04:50
This is the definition of artificial general intelligence --
88
290360
3736
Đây là định nghĩa của trí tuệ nhân tạo --
04:54
AGI,
89
294120
1296
AGI,
04:55
which has been the holy grail of AI research since its inception.
90
295440
3080
giao thức mạng thần thánh của AI từ điểm khởi đầu.
04:59
By this definition, people who say,
91
299000
1776
Với định nghĩa này, những người nói
05:00
"Ah, there will always be jobs that humans can do better than machines,"
92
300800
3416
"À, chắc chắn sẽ có việc mà con người làm tốt hơn máy móc",
05:04
are simply saying that we'll never get AGI.
93
304240
2920
đơn giản nói rằng chúng ta sẽ không bao giờ có được AGI.
05:07
Sure, we might still choose to have some human jobs
94
307680
3576
Chắc chắn, chúng ta vẫn có thể chọn những công việc của con người
05:11
or to give humans income and purpose with our jobs,
95
311280
3096
hoặc là đưa thu nhập và mục tiêu với công việc của chúng ta,
05:14
but AGI will in any case transform life as we know it
96
314400
3736
nhưng AGI trong mọi trường hợp sẽ chuyển đổi cuộc sống như ta đã biết
05:18
with humans no longer being the most intelligent.
97
318160
2736
cái lúc mà con người đã không còn thông minh nhất nữa.
05:20
Now, if the water level does reach AGI,
98
320920
3696
Bây giờ, nếu mực nước chạm tới AGI,
05:24
then further AI progress will be driven mainly not by humans but by AI,
99
324640
5296
thì sau này, AI sẽ được vận hành bởi chính nó thay vì con người,
05:29
which means that there's a possibility
100
329960
1856
nghĩa là có khả năng rằng
05:31
that further AI progress could be way faster
101
331840
2336
các AI trong tương lai sẽ còn phát triển nhanh hơn
05:34
than the typical human research and development timescale of years,
102
334200
3376
cả những nghiên cứu điển hình mà loài người đã phát triển bao lâu nay,
05:37
raising the controversial possibility of an intelligence explosion
103
337600
4016
dấy lên tranh cãi về sự bùng nổ của trí thông minh
05:41
where recursively self-improving AI
104
341640
2296
nơi mà quá trình tự hoàn thiện của AI
05:43
rapidly leaves human intelligence far behind,
105
343960
3416
đã nhanh chóng bỏ xa trí thông minh của con người ở phía sau,
05:47
creating what's known as superintelligence.
106
347400
2440
được biết đến như siêu thông minh.
05:51
Alright, reality check:
107
351800
2280
Được rồi, cùng kiểm chứng trong thực tế:
05:55
Are we going to get AGI any time soon?
108
355120
2440
Liệu chúng ta sẽ đạt được AGI sớm?
05:58
Some famous AI researchers, like Rodney Brooks,
109
358360
2696
Một số nhà nghiên cứu về AI nổi tiếng, như Rodney Brooks,
06:01
think it won't happen for hundreds of years.
110
361080
2496
nghĩ điều đó sẽ không xảy ra trong hàng trăm năm nữa.
06:03
But others, like Google DeepMind founder Demis Hassabis,
111
363600
3896
Thế nhưng, nhà sáng lập Google DeedMind Demis Hassabis,
06:07
are more optimistic
112
367520
1256
lại lạc quan hơn
06:08
and are working to try to make it happen much sooner.
113
368800
2576
và đang làm việc để rút ngắn khoảng thời gian này.
06:11
And recent surveys have shown that most AI researchers
114
371400
3296
Các khảo sát gần đây cho thấy rằng đa số các nhà nghiên cứu AI
06:14
actually share Demis's optimism,
115
374720
2856
thực sự đồng ý với ý tưởng lạc quan của Demis,
06:17
expecting that we will get AGI within decades,
116
377600
3080
hy vọng rằng chúng ta có thể đạt đến AGI chỉ trong vòng vài chục năm tới,
06:21
so within the lifetime of many of us,
117
381640
2256
vì vậy trong cuộc đời của chúng ta,
06:23
which begs the question -- and then what?
118
383920
1960
sẽ hỏi rằng-- sau đó sẽ như thế nào?
06:27
What do we want the role of humans to be
119
387040
2216
Ta muốn vai trò của loài người sẽ là gì
06:29
if machines can do everything better and cheaper than us?
120
389280
2680
nếu máy móc lại có thể làm mọi thứ tốt và rẻ hơn chúng ta?
Với cách nhìn nhận này, chúng ta đối mặt với một lựa chọn.
06:35
The way I see it, we face a choice.
121
395000
2000
06:38
One option is to be complacent.
122
398000
1576
Một lựa chọn là tự mãn.
06:39
We can say, "Oh, let's just build machines that can do everything we can do
123
399600
3776
Ta có thể nói rằng, "Ok, hãy xây những máy móc có thể làm mọi thứ chúng ta làm
06:43
and not worry about the consequences.
124
403400
1816
và không cần lo về hậu quả của nó.
06:45
Come on, if we build technology that makes all humans obsolete,
125
405240
3256
Nào, nếu ta xây dựng nền công nghệ khiến loài người trở nên lỗi thời,
06:48
what could possibly go wrong?"
126
408520
2096
thì hình như có điều gì đó hơi sai ở đây?"
06:50
(Laughter)
127
410640
1656
(Cười)
06:52
But I think that would be embarrassingly lame.
128
412320
2760
Tôi nghĩ điều đó sẽ rất xấu hổ.
06:56
I think we should be more ambitious -- in the spirit of TED.
129
416080
3496
Tôi nghĩ chúng ta nên tham vọng hơn nữa -- theo tinh thần của TED.
06:59
Let's envision a truly inspiring high-tech future
130
419600
3496
Hãy thử hình dung một cảm hứng thực sự trong ngành công nghệ cao tương lai
07:03
and try to steer towards it.
131
423120
1400
và cố gắng định hướng nó.
07:05
This brings us to the second part of our rocket metaphor: the steering.
132
425720
3536
Điều này đưa chúng ta tới phép ẩn dụ về tên lửa thứ hai: sự định hướng.
07:09
We're making AI more powerful,
133
429280
1896
Ta làm cho AI ngày càng hùng mạnh hơn,
07:11
but how can we steer towards a future
134
431200
3816
nhưng làm sao chúng ta có thể định hướng được tương lai
07:15
where AI helps humanity flourish rather than flounder?
135
435040
3080
khi mà AI giúp loài người hưng thịnh thay vì chật vật khổ sở?
07:18
To help with this,
136
438760
1256
Để giải quyết vấn đề này,
tôi đã đồng sáng lập Viện Cuộc sống Tương lai.
07:20
I cofounded the Future of Life Institute.
137
440040
1976
Đó là một tổ chức phi lợi nhuận nhỏ áp dụng công nghệ có ích,
07:22
It's a small nonprofit promoting beneficial technology use,
138
442040
2776
07:24
and our goal is simply for the future of life to exist
139
444840
2736
mục tiêu của chúng tôi chỉ đơn giản là để hiện thực hóa cuộc sống tương lai
07:27
and to be as inspiring as possible.
140
447600
2056
và trở thành nguồn cảm hứng.
07:29
You know, I love technology.
141
449680
3176
Các bạn biết đấy, tôi yêu thích công nghệ.
07:32
Technology is why today is better than the Stone Age.
142
452880
2920
Công nghệ là lý do cuộc sống ngày nay vượt xa Thời Đồ đá.
07:36
And I'm optimistic that we can create a really inspiring high-tech future ...
143
456600
4080
Và tôi lạc quan rằng chúng ta có thể tạo ra cảm hứng cho công nghệ cao tương lai...
07:41
if -- and this is a big if --
144
461680
1456
nếu -- và đây là một cái nếu quan trọng --
07:43
if we win the wisdom race --
145
463160
2456
nếu ta chiến thắng trong cuộc đua về sự hiểu biết --
07:45
the race between the growing power of our technology
146
465640
2856
cuộc đua giữa sự phát triển công nghệ của chúng ta
07:48
and the growing wisdom with which we manage it.
147
468520
2200
và sự hiểu biết nằm trong sự kiểm soát của chúng ta.
07:51
But this is going to require a change of strategy
148
471240
2296
Nhưng điều này đòi hỏi sự thay đổi trong phương pháp
07:53
because our old strategy has been learning from mistakes.
149
473560
3040
bởi các phương pháp cũ được học hỏi từ những sai lầm.
07:57
We invented fire,
150
477280
1536
Chúng ta đã phát minh ra lửa,
07:58
screwed up a bunch of times --
151
478840
1536
lửa đã tàn phá nhiều lần --
08:00
invented the fire extinguisher.
152
480400
1816
từ đó phát minh ra bình cứu hỏa.
08:02
(Laughter)
153
482240
1336
(Cười)
08:03
We invented the car, screwed up a bunch of times --
154
483600
2416
Chúng ta đã phát minh ra xe hơi, gây ra sự tàn phá nhiều lần --
08:06
invented the traffic light, the seat belt and the airbag,
155
486040
2667
từ đó phát minh ra đèn giao thông, dây an toàn và túi khí
08:08
but with more powerful technology like nuclear weapons and AGI,
156
488731
3845
nhưng với công nghệ càng mạnh mẽ hơn như vũ khí hạt nhân và AGI,
08:12
learning from mistakes is a lousy strategy,
157
492600
3376
học hỏi từ những sai lầm đó là một phương pháp tồi,
08:16
don't you think?
158
496000
1216
bạn có nghĩ thế không?
08:17
(Laughter)
159
497240
1016
(Cười)
08:18
It's much better to be proactive rather than reactive;
160
498280
2576
Sự chủ động luôn tốt hơn nhiều so với sự bị động;
08:20
plan ahead and get things right the first time
161
500880
2296
lên kế hoạch trước và làm đúng ngay từ đầu
08:23
because that might be the only time we'll get.
162
503200
2496
bởi vì đó có thể là cơ hội duy nhất chúng ta có.
08:25
But it is funny because sometimes people tell me,
163
505720
2336
Điều đó cũng khá vui vì đôi khi mọi người bảo tôi rằng,
08:28
"Max, shhh, don't talk like that.
164
508080
2736
"Max, suỵt, đừng nói như vậy.
08:30
That's Luddite scaremongering."
165
510840
1720
Như kiểu Luddite đang phao tin vậy."
Nhưng đó không phải là tin đồn nhảm nhí.
08:34
But it's not scaremongering.
166
514040
1536
08:35
It's what we at MIT call safety engineering.
167
515600
2880
Đây là thứ chúng tôi gọi là an toàn kỹ thuật tại MIT.
08:39
Think about it:
168
519200
1216
Hãy nghĩ về điều này:
08:40
before NASA launched the Apollo 11 mission,
169
520440
2216
trước khi NASA phóng tàu Apollo 11,
08:42
they systematically thought through everything that could go wrong
170
522680
3136
họ đã suy nghĩ một cách có hệ thống rằng mọi thứ có thể sai
08:45
when you put people on top of explosive fuel tanks
171
525840
2376
khi bạn đặt con người trên thùng chứa nhiên liệu nổ
08:48
and launch them somewhere where no one could help them.
172
528240
2616
và đưa họ tới đâu đó, nơi không ai có thể giúp họ.
08:50
And there was a lot that could go wrong.
173
530880
1936
Và có hàng tá điều có thể sai lầm.
08:52
Was that scaremongering?
174
532840
1480
Đó có phải là tin đồn nhảm không?
08:55
No.
175
535159
1217
Không.
08:56
That's was precisely the safety engineering
176
536400
2016
Đó chính xác là kỹ thuật an toàn
08:58
that ensured the success of the mission,
177
538440
1936
nhằm đảm bảo nhiệm vụ thành công,
09:00
and that is precisely the strategy I think we should take with AGI.
178
540400
4176
và đó chính xác là mục đích mà tôi nghĩ ta nên sử dụng AGI.
Nghĩ thấu "điều gì có thể sai lệch" để chắc chắn nó đi đúng hướng.
09:04
Think through what can go wrong to make sure it goes right.
179
544600
4056
09:08
So in this spirit, we've organized conferences,
180
548680
2536
Nên với tinh thần này, chúng tôi tổ chức các hội thảo,
09:11
bringing together leading AI researchers and other thinkers
181
551240
2816
kết nối các nhà nghiên cứu AI và học giả hàng đầu
09:14
to discuss how to grow this wisdom we need to keep AI beneficial.
182
554080
3736
để thảo luận cách phát triển sự thông minh này ta cần giữ cho AI có ích.
09:17
Our last conference was in Asilomar, California last year
183
557840
3296
Hội thảo gần đây nhất của chúng tôi ở Asilomar, California năm ngoái
09:21
and produced this list of 23 principles
184
561160
3056
đã đưa ra danh sách này với 23 quy ước
09:24
which have since been signed by over 1,000 AI researchers
185
564240
2896
được kí tên bởi hơn 1000 nhà nghiên cứu AI
và các nhà lãnh đạo kinh tế chủ chốt,
09:27
and key industry leaders,
186
567160
1296
09:28
and I want to tell you about three of these principles.
187
568480
3176
Tôi muốn nói với bạn về 3 trong số các nguyên tắc này.
09:31
One is that we should avoid an arms race and lethal autonomous weapons.
188
571680
4960
Một là chúng ta nên tránh chạy đua vũ trang và vũ khí tự hủy diệt.
Ý tưởng là sản phẩm khoa học nào cũng được sử dụng như cách mới để giúp đỡ con người
09:37
The idea here is that any science can be used for new ways of helping people
189
577480
3616
09:41
or new ways of harming people.
190
581120
1536
hoặc là làm hại con người.
09:42
For example, biology and chemistry are much more likely to be used
191
582680
3936
Ví dụ, sinh học và hóa học đang được sử dụng nhiều
09:46
for new medicines or new cures than for new ways of killing people,
192
586640
4856
cho nghiên cứu thuốc mới, cách chữa bệnh mới hơn là giết người.
09:51
because biologists and chemists pushed hard --
193
591520
2176
vì các nhà sinh hóa học đã làm việc tích cực
09:53
and successfully --
194
593720
1256
và thành công
09:55
for bans on biological and chemical weapons.
195
595000
2176
khi cấm các loại vũ khí sinh học và hóa học.
09:57
And in the same spirit,
196
597200
1256
Và trên tinh thần này,
09:58
most AI researchers want to stigmatize and ban lethal autonomous weapons.
197
598480
4440
đa số các nhà nghiên cứu AI muốn lên án và cấm các vũ khí tự hủy diệt.
10:03
Another Asilomar AI principle
198
603600
1816
Một nguyên tắc khác tại Asilomar AI
10:05
is that we should mitigate AI-fueled income inequality.
199
605440
3696
là chúng ta nên giảm tối thiểu chi phí nhiên liệu phát sinh cho AI.
10:09
I think that if we can grow the economic pie dramatically with AI
200
609160
4456
Tôi nghĩ nếu ta có thể tăng trưởng chiếc bánh kinh tế mạnh mẽ bằng AI
10:13
and we still can't figure out how to divide this pie
201
613640
2456
và ta vẫn không hình dung ra cách chia cái bánh này
10:16
so that everyone is better off,
202
616120
1576
thì mọi người tốt hơn là dừng lại,
10:17
then shame on us.
203
617720
1256
đáng tiếc cho chúng ta.
10:19
(Applause)
204
619000
4096
(Vỗ tay)
10:23
Alright, now raise your hand if your computer has ever crashed.
205
623120
3600
Bây giờ, bạn hãy giơ tay lên nếu máy tính bạn đã từng bị phá tan tành.
10:27
(Laughter)
206
627480
1256
(Cười)
10:28
Wow, that's a lot of hands.
207
628760
1656
Chà, có nhiều cánh tay quá.
10:30
Well, then you'll appreciate this principle
208
630440
2176
Và, sau đó, bạn sẽ đánh giá cao nguyên tắc này
10:32
that we should invest much more in AI safety research,
209
632640
3136
rằng ta nên đầu tư nhiều hơn nữa vào việc nghiên cứu an toàn AI,
10:35
because as we put AI in charge of even more decisions and infrastructure,
210
635800
3656
Vì khi ta giao cho AI phụ trách làm ra nhiều quyết định và cơ sở hạ tầng hơn,
10:39
we need to figure out how to transform today's buggy and hackable computers
211
639480
3616
ta cần phải tìm ra cách chuyển các máy tính bị lỗi và có khả năng bị hack
10:43
into robust AI systems that we can really trust,
212
643120
2416
thành các hệ thống Robot AI mà ta có thể thực sự tin tưởng,
10:45
because otherwise,
213
645560
1216
Nếu không thì,
10:46
all this awesome new technology can malfunction and harm us,
214
646800
2816
mọi công nghệ mới tuyệt vời có thể trục trặc và gây hại cho ta,
10:49
or get hacked and be turned against us.
215
649640
1976
hoặc bị hack và chống lại chúng ta.
10:51
And this AI safety work has to include work on AI value alignment,
216
651640
5696
Và việc an toàn hoá AI này phải bao gồm việc liên kết giá trị AI,
10:57
because the real threat from AGI isn't malice,
217
657360
2816
vì đe dọa thực sự từ AI không hề ác ý,
như trong những bộ phim ngớ ngẩn của Hollywood,
11:00
like in silly Hollywood movies,
218
660200
1656
11:01
but competence --
219
661880
1736
Tuy nhiên, năng lực --
11:03
AGI accomplishing goals that just aren't aligned with ours.
220
663640
3416
Hoàn thành mục tiêu AGI không phải là con đường thẳng với mục tiêu của chúng ta.
11:07
For example, when we humans drove the West African black rhino extinct,
221
667080
4736
Ví dụ, khi con người tới, tê giác đen Tây Phi bị tuyệt chủng,
11:11
we didn't do it because we were a bunch of evil rhinoceros haters, did we?
222
671840
3896
chúng ta không làm điều đó vì không phải tất cả đều căm thù tê giác, phải không ạ?
11:15
We did it because we were smarter than them
223
675760
2056
Chúng ta làm vì chúng ta thông minh hơn chúng
11:17
and our goals weren't aligned with theirs.
224
677840
2576
và mục tiêu của chúng ta không như của chúng.
11:20
But AGI is by definition smarter than us,
225
680440
2656
Song AGI, theo định nghĩa là nó thông minh hơn chúng ta,
11:23
so to make sure that we don't put ourselves in the position of those rhinos
226
683120
3576
nên để đảm bảo chúng ta không đẩy mình vào vị trí của những con tê giác.
11:26
if we create AGI,
227
686720
1976
Nếu ta tạo ra AGI,
11:28
we need to figure out how to make machines understand our goals,
228
688720
4176
ta cần phải biết cách làm cho máy móc hiểu được mục tiêu của chúng ta,
11:32
adopt our goals and retain our goals.
229
692920
3160
thích nghi và duy trì mục tiêu của chúng ta.
Và toàn bộ mục tiêu nên như thế này, bằng mọi giá phải không ạ?
11:37
And whose goals should these be, anyway?
230
697320
2856
11:40
Which goals should they be?
231
700200
1896
Chúng nên có những mục tiêu nào?
11:42
This brings us to the third part of our rocket metaphor: the destination.
232
702120
3560
Điều này đưa ta tới phần thứ 3 của phép ẩn ý tên lửa: đích đến.
11:47
We're making AI more powerful,
233
707160
1856
Chúng ta đang làm cho AI mạnh mẽ hơn,
11:49
trying to figure out how to steer it,
234
709040
1816
nỗ lực tìm ra cách điều khiển nó,
11:50
but where do we want to go with it?
235
710880
1680
nhưng chúng ta muốn đi cùng nó tới đâu?
11:53
This is the elephant in the room that almost nobody talks about --
236
713760
3656
Điều này giống như con voi trong căn phòng chẳng có người để ý tới nó,
11:57
not even here at TED --
237
717440
1856
thậm chí là ngay đây, tại TED
11:59
because we're so fixated on short-term AI challenges.
238
719320
4080
vì chúng ta quá để tâm vào các thử thách AI ngắn hạn.
12:04
Look, our species is trying to build AGI,
239
724080
4656
Nhìn xem, loài người đang nỗ lực xây dựng AGI,
12:08
motivated by curiosity and economics,
240
728760
3496
bởi sự tò mò và nền kinh tế thúc đẩy.
12:12
but what sort of future society are we hoping for if we succeed?
241
732280
3680
Nhưng xã hội mà ta mong đợi trong tương lai sẽ ra sao nếu ta thành công?
Chúng tôi đã làm một cuộc thăm dò ý kiến về điều này gần đây,
12:16
We did an opinion poll on this recently,
242
736680
1936
12:18
and I was struck to see
243
738640
1216
tôi rất ngạc nhiên khi
12:19
that most people actually want us to build superintelligence:
244
739880
2896
phần lớn mọi người thực sự muốn chúng tôi tạo ra siêu AI:
12:22
AI that's vastly smarter than us in all ways.
245
742800
3160
Cực kỳ thông minh hơn con người về mọi thứ.
12:27
What there was the greatest agreement on was that we should be ambitious
246
747120
3416
Thỏa thuận lớn nhất đó là chúng ta nên tham vọng hơn
12:30
and help life spread into the cosmos,
247
750560
2016
và giúp cho sự sống rộng mở hơn trong vũ trụ,
12:32
but there was much less agreement about who or what should be in charge.
248
752600
4496
nhưng vẫn có sự không nhất quán về việc ai hoặc cái gì sẽ thực hiện trách nhiệm này.
12:37
And I was actually quite amused
249
757120
1736
Tôi đã thực sự rất vui thích
12:38
to see that there's some some people who want it to be just machines.
250
758880
3456
khi thấy một số người muốn được như những cỗ máy.
12:42
(Laughter)
251
762360
1696
(Cười)
12:44
And there was total disagreement about what the role of humans should be,
252
764080
3856
Và toàn bộ không nhất trí về vấn đề đâu là vai trò con người nên có
12:47
even at the most basic level,
253
767960
1976
thậm chí ở mức cơ bản nhất.
12:49
so let's take a closer look at possible futures
254
769960
2816
Hãy nhìn gần hơn về một tương lai
12:52
that we might choose to steer toward, alright?
255
772800
2736
mà chúng ta có thể chọn để hướng tới, được không?
12:55
So don't get me wrong here.
256
775560
1336
Bạn đừng hiểu sai ý tôi.
12:56
I'm not talking about space travel,
257
776920
2056
Tôi không nói về du hành xuyên không gian,
12:59
merely about humanity's metaphorical journey into the future.
258
779000
3200
chỉ đơn thuần là về hành trình ẩn ý của loài người tới tương lai.
13:02
So one option that some of my AI colleagues like
259
782920
3496
Một lựa chọn mà một số đồng nghiệp AI của tôi ưa thích
13:06
is to build superintelligence and keep it under human control,
260
786440
3616
là xây dựng siêu AI, và giữ nó trong sự kiểm soát của con người,
13:10
like an enslaved god,
261
790080
1736
như là nô lệ của Chúa,
13:11
disconnected from the internet
262
791840
1576
ngắt kết nối với internet
13:13
and used to create unimaginable technology and wealth
263
793440
3256
và được sử dụng để tạo ra công nghệ phi thường và của cải
13:16
for whoever controls it.
264
796720
1240
cho bất cứ người nào kiểm soát nó.
13:18
But Lord Acton warned us
265
798800
1456
Song Lord Acton đã cảnh báo chúng ta
13:20
that power corrupts, and absolute power corrupts absolutely,
266
800280
3616
rằng quyền lực, và quyền lực tuyệt đối dẫn đến hỗn loạn tuyệt đối,
13:23
so you might worry that maybe we humans just aren't smart enough,
267
803920
4056
nên bạn có thể lo lắng rằng liệu con người không đủ thông minh
13:28
or wise enough rather,
268
808000
1536
hoặc không đủ khôn ngoan hơn,
13:29
to handle this much power.
269
809560
1240
để nắm giữ quyền lực này.
13:31
Also, aside from any moral qualms you might have
270
811640
2536
Ngoài những nỗi e sợ về đạo đức bạn có thể có,
13:34
about enslaving superior minds,
271
814200
2296
về sự nô dịch cho siêu trí tuệ,
13:36
you might worry that maybe the superintelligence could outsmart us,
272
816520
3976
Bạn có thể bất an về việc AI có thể thông minh hơn chúng ta,
13:40
break out and take over.
273
820520
2240
thoát khỏi và chiếm quyền kiểm soát.
13:43
But I also have colleagues who are fine with AI taking over
274
823560
3416
Nhưng tôi cũng có những đồng nghiệp lạc quan về việc AI sẽ chiếm giữ
13:47
and even causing human extinction,
275
827000
2296
và thậm chí là nguyên nhân tuyệt chủng con người,
13:49
as long as we feel the the AIs are our worthy descendants,
276
829320
3576
khi chúng ta cảm thấy AI là những hậu duệ xứng đáng,
13:52
like our children.
277
832920
1736
như con cháu chúng ta.
13:54
But how would we know that the AIs have adopted our best values
278
834680
5616
Nhưng làm sao ta biết được AI tiếp nhận những giá trị tốt nhất của con người,
14:00
and aren't just unconscious zombies tricking us into anthropomorphizing them?
279
840320
4376
và không phải là hình nộm lừa chúng ta qua nhân cách hóa?
14:04
Also, shouldn't those people who don't want human extinction
280
844720
2856
Liệu những ai không muốn con người tuyệt chủng,
14:07
have a say in the matter, too?
281
847600
1440
lên tiếng rằng đó cũng là nguyên nhân?
14:10
Now, if you didn't like either of those two high-tech options,
282
850200
3376
Giờ đây, nếu bạn đều không thích cả hai lựa chọn công nghệ này,
14:13
it's important to remember that low-tech is suicide
283
853600
3176
thì điều quan trọng cần nhớ là công nghệ thấp là tự sát
14:16
from a cosmic perspective,
284
856800
1256
từ góc nhìn tương lai,
14:18
because if we don't go far beyond today's technology,
285
858080
2496
vì nếu chúng ta không vượt xa công nghệ hiện có,
14:20
the question isn't whether humanity is going to go extinct,
286
860600
2816
câu hỏi sẽ không phải là liệu nhân loại sắp bị tuyệt chủng,
14:23
merely whether we're going to get taken out
287
863440
2016
mà sẽ là chúng ta sẽ bị kiểm soát
14:25
by the next killer asteroid, supervolcano
288
865480
2136
bởi hành tinh hủy diệt tiếp theo, siêu núi lửa
14:27
or some other problem that better technology could have solved.
289
867640
3096
hoặc vài vấn đề khác mà đáng ra công nghệ tốt hơn có thể giải quyết.
14:30
So, how about having our cake and eating it ...
290
870760
3576
Cho nên, việc có cái bánh và ăn nó...
14:34
with AGI that's not enslaved
291
874360
1840
cùng với AGI không phải là sự nô dịch
nhưng lại đối xử tốt với chúng ta vì giá trị của chúng song hành cùng chúng ta?
14:37
but treats us well because its values are aligned with ours?
292
877120
3176
14:40
This is the gist of what Eliezer Yudkowsky has called "friendly AI,"
293
880320
4176
Đây là nguyên nhân chính mà Cliezer Yudkowsky đã gọi là "AI thân thiện"
14:44
and if we can do this, it could be awesome.
294
884520
2680
Nếu ta có thể làm được điều này, đó sẽ rất tuyệt.
14:47
It could not only eliminate negative experiences like disease, poverty,
295
887840
4816
AI không thể loại bỏ những trải nghiệm tiêu cực như bệnh tật, đói nghèo,
14:52
crime and other suffering,
296
892680
1456
tội phạm và những khổ đau khác.
14:54
but it could also give us the freedom to choose
297
894160
2816
Nhưng nó có thể cho chúng ta sự tự do lựa chọn
14:57
from a fantastic new diversity of positive experiences --
298
897000
4056
từ sự đa dạng, mới mẻ tuyệt vời của những trải nghiệm tích cực --
15:01
basically making us the masters of our own destiny.
299
901080
3160
dựa trên việc để chúng ta làm chủ số phận của chính mình.
15:06
So in summary,
300
906280
1376
Tóm lại,
15:07
our situation with technology is complicated,
301
907680
3096
vị thế của chúng ta với công nghệ là phức tạp,
15:10
but the big picture is rather simple.
302
910800
2416
nhưng nhìn chung thì khá đơn giản.
15:13
Most AI researchers expect AGI within decades,
303
913240
3456
Đa số các nhà nghiên cứu AI chờ đợi AGI qua hàng thập kỷ,
15:16
and if we just bumble into this unprepared,
304
916720
3136
và nếu chúng ta chỉ tự mãn mà không chuẩn bị,
15:19
it will probably be the biggest mistake in human history --
305
919880
3336
đó sẽ có thể là sai lầm lớn nhất trong lịch sử loài người.
15:23
let's face it.
306
923240
1416
Hãy đối mặt với nó.
15:24
It could enable brutal, global dictatorship
307
924680
2576
Nó có thể sẽ tàn bạo, độc quyền toàn cầu,
15:27
with unprecedented inequality, surveillance and suffering,
308
927280
3536
bằng sự bất bình đẳng không thể dự đoán, bị quản đốc và tổn thương,
15:30
and maybe even human extinction.
309
930840
1976
và thậm chí có thể là sự tuyệt chủng loài người.
15:32
But if we steer carefully,
310
932840
2320
Nhưng nếu chúng ta điều hướng cẩn thận,
15:36
we could end up in a fantastic future where everybody's better off:
311
936040
3896
ta có thể đúc kết trong một tương lai sáng lạng khi mọi người đều tốt lên:
15:39
the poor are richer, the rich are richer,
312
939960
2376
người nghèo sẽ giàu có lên, người giàu thì giàu hơn,
15:42
everybody is healthy and free to live out their dreams.
313
942360
3960
mọi người đều khỏe mạnh và tự do sống với ước mơ của mình.
15:47
Now, hang on.
314
947000
1536
Bây giờ, còn nữa.
15:48
Do you folks want the future that's politically right or left?
315
948560
4576
Các bạn muốn tương lai là đúng hay sai?
15:53
Do you want the pious society with strict moral rules,
316
953160
2856
Bạn có muốn một xã hội yên bình với lề lối đạo đức nghiêm trị,
hay là một chủ nghĩa khoái lạc - tự do cho tất cả,
15:56
or do you an hedonistic free-for-all,
317
956040
1816
15:57
more like Burning Man 24/7?
318
957880
2216
như Burning Man 24/7?
Bạn mong có những bờ biển cát trắng, rừng xanh và hồ trong veo,
16:00
Do you want beautiful beaches, forests and lakes,
319
960120
2416
16:02
or would you prefer to rearrange some of those atoms with the computers,
320
962560
3416
hay bạn sẽ thích sắp xếp lại các nguyên tử bằng máy tính,
16:06
enabling virtual experiences?
321
966000
1715
có khả năng trải nghiệm thực tế ảo?
16:07
With friendly AI, we could simply build all of these societies
322
967739
3157
Với AI thân thiện, chúng ta đơn giản có thể xây dựng một xã hội như thế
16:10
and give people the freedom to choose which one they want to live in
323
970920
3216
và cho mọi người sự tự do lựa chọn cuộc sống
16:14
because we would no longer be limited by our intelligence,
324
974160
3096
vì chúng ta sẽ không còn bị giới hạn bởi trí thông minh,
16:17
merely by the laws of physics.
325
977280
1456
chỉ vì luật pháp hay vật lý học.
16:18
So the resources and space for this would be astronomical --
326
978760
4616
Và nguồn nguyên liệu và không gian có thể
vô cùng to lớn.
16:23
literally.
327
983400
1320
16:25
So here's our choice.
328
985320
1200
Và đó là lựa chọn của chúng ta.
16:27
We can either be complacent about our future,
329
987880
2320
Chúng ta có thể bằng lòng về tương lai,
16:31
taking as an article of blind faith
330
991440
2656
và kiểm soát như một bài báo với đức tin mù quáng
16:34
that any new technology is guaranteed to be beneficial,
331
994120
4016
nói rằng công nghệ mới nào cũng bảo đảm mang lại lợi ích,
16:38
and just repeat that to ourselves as a mantra over and over and over again
332
998160
4136
và chỉ là sự lặp lại của chính chúng ta.
16:42
as we drift like a rudderless ship towards our own obsolescence.
333
1002320
3680
khi ta buông trôi như con tàu mất lái về sự lỗi thời của chính mình.
16:46
Or we can be ambitious --
334
1006920
1880
Hoặc ta có thể tham vọng về
16:49
thinking hard about how to steer our technology
335
1009840
2456
suy nghĩ làm cách nào để kiểm soát và điều hướng công nghệ
16:52
and where we want to go with it
336
1012320
1936
và cùng công nghệ tiến xa tới đâu
16:54
to create the age of amazement.
337
1014280
1760
để tạo ra thời kỳ đáng kinh ngạc.
16:57
We're all here to celebrate the age of amazement,
338
1017000
2856
Tất cả chúng ta ở đây để ăn mừng nó,
16:59
and I feel that its essence should lie in becoming not overpowered
339
1019880
4440
và tôi cảm thấy bản chất của nó nên nằm ở việc không bị áp đảo
17:05
but empowered by our technology.
340
1025240
2616
mà là sự trao quyền bằng công nghệ.
17:07
Thank you.
341
1027880
1376
Cảm ơn các bạn!
17:09
(Applause)
342
1029280
3080
(Vỗ tay)
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7