Is AI the most important technology of the century?

365,293 views ・ 2023-04-04

TED-Ed


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video.

Translator: Ngọc Quỳnh Đặng Reviewer: Mai Tran
00:07
What's the most important century in human history?
0
7003
3587
Thế kỷ nào là quan trọng nhất trong lịch sử loài người?
00:11
Some might argue it’s a period of extensive military campaigning,
1
11049
3920
Một vài người cho rằng đó là thời kỳ chiến dịch quân sự mở rộng,
00:14
like Alexander the Great’s in the 300s BCE,
2
14969
3545
như thời của Alexander Đại đế vào khoảng năm 300 trước công nguyên,
00:18
which reshaped political and cultural borders.
3
18848
3253
là thời kì đã định hình lại các ranh giới văn hóa và chính trị.
00:23
Others might cite the emergence of a major religion,
4
23936
3087
Những người khác cho rằng sự ra đời của một tôn giáo lớn,
00:27
such as Islam in the 7th century,
5
27023
2127
ví dụ như Hồi giáo vào thế kỷ thứ 7,
00:29
which codified and spread values across such borders.
6
29525
3504
thì đã chuẩn hóa và lan tỏa các giá trị xuyên ranh giới các quốc gia.
00:35
Or perhaps it’s the Industrial Revolution of the 1700s
7
35531
3462
Hoặc có lẽ đó là cuộc Cách mạng Công nghiệp vào những năm 1700
00:38
that transformed global commerce
8
38993
1752
đã biến đổi thương mại toàn cầu
00:40
and redefined humanity's relationship with labor.
9
40745
3128
và tái định nghĩa mối quan hệ của nhân loại với lao động.
00:44
Whatever the answer, it seems like any century vying for that top spot
10
44165
4129
Dù câu trả lời là gì, có vẻ như bất kỳ thế kỷ nào giành vị trí hàng đầu
00:48
is at a moment of great change—
11
48294
2377
thì đều là thời điểm của sự thay đổi lớn--
00:51
when the actions of our ancestors shifted humanity’s trajectory
12
51631
4171
khi hành động của tổ tiên chúng ta làm thay đổi quỹ đạo của nhân loại
00:55
for centuries to come.
13
55802
1584
trong nhiều thế kỷ tới.
00:57
So if this is our metric, is it possible that right now—
14
57720
3921
Vì vậy nếu như đây là quy chuẩn, thì liệu có thể rằng ngay lúc này,
01:01
this century— is the most important one yet?
15
61641
3086
chính thế kỷ này mới là thế kỷ quan trọng nhất?
01:05
The 21st century has already proven to be a period of rapid technological growth.
16
65770
5213
Thế kỷ 21 đã cho chứng tỏ là một thời kỳ phát triển công nghệ nhanh chóng.
01:11
Phones and computers have accelerated the pace of life.
17
71234
3128
Điện thoại và máy tính đã đẩy nhanh nhịp sống của con người.
01:14
And we’re likely on the cusp of developing new transformative technologies,
18
74403
4171
Và chúng ta đang trên đà phát triển những công nghệ biến đổi mới,
01:18
like advanced artificial intelligence,
19
78574
2294
như trí tuệ nhân tạo cao cấp,
01:20
that could entirely change the way people live.
20
80868
2878
là thứ có thể làm thay đổi hoàn toàn lối sống của con người.
01:25
Meanwhile, many technologies we already have
21
85414
3045
Trong khi đó, nhiều công nghệ mà chúng ta vốn có
01:28
contribute to humanity’s unprecedented levels of existential risk—
22
88459
4838
lại góp phần vào mức độ rủi ro hiện sinh chưa từng thấy của nhân loại--
01:33
that’s the risk of our species going extinct
23
93381
2377
đó là nguy cơ khiến giống loài của chúng ta bị tuyệt chủng
01:35
or experiencing some kind of disaster that permanently limits
24
95758
3420
hoặc đối diện với một vài thảm họa mà vĩnh viễn kìm hãm
01:39
humanity’s ability to grow and thrive.
25
99178
2670
khả năng sinh trưởng và phát triển của nhân loại.
01:43
The invention of the atomic bomb marked a major rise in existential risk,
26
103266
4629
Việc phát minh bom nguyên tử đánh dấu bước nhảy vọt của rủi ro hiện sinh,
01:48
and since then we’ve only increased the odds against us.
27
108396
3879
và kể từ đó chúng ta chỉ làm tăng thêm khả năng chống lại chúng ta.
01:52
It’s profoundly difficult to estimate the odds
28
112900
2628
Nó cực kì khó để ước tính khả năng
01:55
of an existential collapse occurring this century.
29
115528
2628
của một sự sụp đổ hiện sinh xuất hiện trong thế kỷ này.
01:58
Very rough guesses put the risk of existential catastrophe
30
118239
3462
Những suy đoán thô sơ có nguy cơ gây ra thảm họa hiện sinh
02:01
due to nuclear winter and climate change at around 0.1%,
31
121701
4880
do mùa đông hạt nhân và biến đổi khí hậu ở khoảng 0.1%,
02:08
with the odds of a pandemic causing the same kind of collapse
32
128291
3211
với khả năng của một dịch bệnh gây ra một loại sụp đổ tương tự
02:11
at a frightening 3%.
33
131502
1960
ở mức đáng sợ là 3%.
Được cho rằng bất kì thảm họa nào trong số này có thể chính là
02:14
Given that any of these disasters could mean the end of life as we know it,
34
134005
4880
dấu chấm hết của sự sống,
02:19
these aren’t exactly small figures,
35
139177
2127
đây chính xác là các số liệu không hề nhỏ,
02:21
And it’s possible this century could see the rise of new technologies
36
141304
4004
Và thế kỷ này cũng có thể thấy được sự gia tăng của công nghệ mới
02:25
that introduce more existential risks.
37
145308
2794
là thứ gây ra nhiều rủi ro hiện sinh hơn.
02:29
AI experts have a wide range of estimates regarding
38
149103
2628
Các chuyên gia AI có một loạt dự đoán về việc
02:31
when artificial general intelligence will emerge,
39
151731
2961
khi nào trí tuệ nhân tạo tổng hợp sẽ xuất hiện,
02:34
but according to some surveys, many believe it could happen this century.
40
154734
4087
nhưng theo một vài khảo sát, nhiều người tin rằng nó có thể xảy ra ở thế kỷ này.
02:39
Currently, we have relatively narrow forms of artificial intelligence,
41
159655
3837
Hiện nay, chúng ta có những dạng thức trí tuệ nhân tạo tương đối hẹp,
02:43
which are designed to do specific tasks like play chess or recognize faces.
42
163492
4588
chúng được thiết kế để làm các việc cụ thể như chơi cờ hoặc nhận diện khuôn mặt.
02:49
Even narrow AIs that do creative work are limited to their singular specialty.
43
169040
5213
Ngay cả các AI hẹp làm việc sáng tạo cũng bị hạn chế bởi chuyên môn duy nhất của nó.
02:54
But artificial general intelligences, or AGIs,
44
174503
3629
Nhưng trí tuệ nhân tạo tổng hợp, hay AGI,
02:58
would be able to adapt to and perform any number of tasks,
45
178132
3837
sẽ có thể thích nghi và thực hiện bất cứ công việc nào,
03:02
quickly outpacing their human counterparts.
46
182678
2878
nhanh chóng vượt xa đối tác con người của chúng.
03:06
There are a huge variety of guesses about what AGI could look like,
47
186849
4088
Có nhiều suy đoán khác nhau về việc AGI sẽ trông như thế nào,
03:11
and what it would mean for humanity to share the Earth
48
191646
2836
và nó có ý nghĩa gì đối với nhân loại khi phải chia sẻ Trái Đất
03:14
with another sentient entity.
49
194482
2127
với một thực thể có tri giác khác.
03:18
AGIs might help us achieve our goals,
50
198653
2544
AGI có thể giúp chúng ta đạt được các mục tiêu của mình,
03:21
they might regard us as inconsequential,
51
201197
2294
chúng có thể xem loài người là vô hại,
03:23
or, they might see us as an obstacle to swiftly remove.
52
203491
3170
hoặc, chúng cũng có thể xem chúng ta như trở ngại để nhanh chóng loại bỏ.
03:26
So in terms of existential risk,
53
206869
2169
Do đó khi xét về rủi ro hiện sinh,
03:29
it's imperative the values of this new technology align with our own.
54
209038
4087
điều bắt buộc là giá trị của công nghệ mới này phải tương đồng
với giá trị của chúng ta.
03:33
This is an incredibly difficult philosophical and engineering challenge
55
213501
3879
Đây là một thách thức cực khó về mặt triết lý và kĩ thuật
03:37
that will require a lot of delicate, thoughtful work.
56
217380
3086
nó đòi hỏi rất nhiều công việc tỉ mỉ, cẩn trọng.
03:40
Yet, even if we succeed, AGI could still lead to another complicated outcome.
57
220967
5213
Nhưng, kể cả khi chúng ta thành công, AGI vẫn có thể đưa tới kết quả phức tạp khác.
03:46
Let’s imagine an AGI emerges with deep respect for human life
58
226847
3796
Hãy tưởng tượng một AGI xuất hiện với sự tôn trọng sâu sắc cuộc sống của con người
03:50
and a desire to solve all humanity’s troubles.
59
230643
2961
và một khao khát muốn giải quyết tất cả các vấn đề của nhân loại.
03:55
But to avoid becoming misaligned,
60
235231
2169
Nhưng để tránh trở nên lệch lạc,
03:57
it's been developed to be incredibly rigid about its beliefs.
61
237400
3628
nó đã được phát triển để trở nên cực kì cứng rắn với niềm tin của mình.
04:01
If these machines became the dominant power on Earth,
62
241237
3086
Nếu những máy móc này trở thành quyền lực thống trị trên thế giới,
04:04
their strict values might become hegemonic,
63
244323
2711
các giá trị nghiêm ngặt của chúng có thể trở nên độc đoán,
04:07
locking humanity into one ideology that would be incredibly resistant to change.
64
247034
5214
nhốt con người vào một hệ tư tưởng cực kì khó khăn để thay đổi.
04:14
History has taught us that no matter how enlightened
65
254792
2503
Lịch sử đã dạy ta rằng bất kể nền văn minh cho rằng họ giác ngộ như thế nào,
04:17
a civilization thinks they are,
66
257295
1793
04:19
they are rarely up to the moral standards of later generations.
67
259088
3795
họ hiếm khi đạt tới các tiêu chuẩn đạo đức của các thế hệ sau.
04:23
And this kind of value lock in could permanently distort or constrain
68
263009
4629
Và loại giá trị ép buộc này có thể vĩnh viễn làm biến dạng hoặc kìm hãm
04:27
humanity’s moral growth.
69
267638
1919
sự phát triển đạo đức của con người.
04:30
There's a ton of uncertainty around AGI,
70
270016
2585
Có vô vàn những biến số về AGI,
04:32
and it’s profoundly difficult to predict how any existential risks
71
272601
3713
và thực sự rất khó đế dự đoán cách mà bất kì các rủi ro hiện sinh nào
04:36
will play out over the next century.
72
276314
2002
sẽ diễn ra trong thế kỷ tới.
04:38
It’s also possible that new, more pressing concerns
73
278649
2920
Cũng có thể là những mối quan tâm mới, cấp bách hơn
04:41
might render these risks moot.
74
281569
2002
có thể đưa tới các rủi ro ít thực tế.
04:43
But even if we can't definitively say that ours is the most important century,
75
283904
4713
Nhưng kể cả khi chúng ta không thể khẳng định rằng thế kỷ của chúng ta
là thế kỉ quan trọng nhất,
04:48
it still seems like the decisions we make might have a major impact
76
288617
3754
thì dường như những quyết định chúng ta đưa ra có lẽ vẫn sẽ có tác động to lớn
04:52
on humanity’s future.
77
292371
1502
đối với tương lai của nhân loại.
04:54
So maybe we should all live like the future depends on us—
78
294415
3211
Vì vậy có lẽ chúng ta nên sống như thể tương lai phụ thuộc vào chính chúng ta,
04:57
because actually, it just might.
79
297626
2211
bởi trên thực tế, nó chỉ có thể như vậy.
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7