How AI and Democracy Can Fix Each Other | Divya Siddarth | TED

30,223 views

2024-03-05 ・ TED


New videos

How AI and Democracy Can Fix Each Other | Divya Siddarth | TED

30,223 views ・ 2024-03-05

TED


Vui lòng nhấp đúp vào phụ đề tiếng Anh bên dưới để phát video.

Translator: Nhàn Katherine Reviewer: Nguyen Hue
00:04
Recently I told someone my work is on democracy and technology.
0
4334
4630
Gần đây tôi nói với vài người
công việc của tôi là về dân chủ và công nghệ.
00:09
He turned to me and said,
1
9464
1210
Anh quay sang tôi và nói:
00:10
“Wow...
2
10674
1001
“Wow...
00:11
I’m sorry.”
3
11925
1335
Tôi xin lỗi.”
00:13
(Laughter)
4
13260
1251
(Tiếng cười)
00:15
But I love my work.
5
15637
1710
Nhưng tôi yêu công việc của mình.
00:17
I know that we can build a world
6
17681
1918
Tôi biết rằng chúng ta có thể xây dựng một thế giới
00:19
where technological marvels are directed towards people's benefit,
7
19641
4212
nơi những điều kỳ diệu của công nghệ hướng tới lợi ích của con người,
00:23
using their input.
8
23895
1460
bằng cách sử dụng dữ liệu vào họ.
00:26
We have gotten so used to seeing democracy as a problem to be solved.
9
26147
4463
Chúng ta đã quá quen với việc coi dân chủ là một vấn đề cần giải quyết.
00:32
But I see democracy as a solution,
10
32028
2878
Nhưng tôi thì thấy dân chủ là một giải pháp
00:34
not as a problem.
11
34906
1835
không phải là một vấn đề.
00:37
Democracy was once a radical political project,
12
37909
3003
Dân chủ đã từng là một dự án chính trị cấp tiến,
00:40
itself a cutting-edge social technology,
13
40912
3087
chính nó là 1 công nghệ xã hội tiên tiến,
00:44
a new way to answer the very question we are faced with now,
14
44040
4797
một cách mới để trả lời chính câu hỏi mà chúng ta đang phải đối mặt bây giờ,
00:48
in the era of artificial intelligence:
15
48837
2794
trong kỷ nguyên trí tuệ nhân tạo:
00:51
how do we use our capabilities to live well together?
16
51631
4755
Làm thế nào ta sử dụng khả năng của mình để sống tốt với nhau?
00:57
We are told that transformative technologies like AI are too complicated,
17
57679
5756
Ta được cho biết các công nghệ biến đổi như AI quá phức tạp,
01:03
or too risky
18
63435
2419
hoặc quá rủi ro
01:05
or too important to be governed democratically.
19
65895
3546
hoặc quá quan trọng để được quản lý một cách dân chủ.
01:10
But this is precisely why they must be.
20
70650
3462
Lý do chính xác nó cần phải vậy như sau.
01:14
If existing democracy is unequal to the task,
21
74112
2544
Nếu nền dân chủ hiện tại không làm tròn được nhiệm vụ,
01:16
our job is not to give up on it.
22
76698
2169
thì việc của ta không phải là từ bỏ nó.
01:19
Our job is to evolve it.
23
79367
2544
Việc của chúng ta là tiến hóa nó.
01:22
And to use technology as an asset to help us do so.
24
82746
3253
Và sử dụng công nghệ như một tài sản để giúp chúng ta làm điều đó.
01:26
Still, I understand his doubts.
25
86958
2044
Nhưng, tôi hiểu những nghi ngại của anh ấy
01:29
I never meant to build my life around new forms of democracy.
26
89336
3670
Tôi chưa bao giờ có ý sống đời mình với các hình thức dân chủ mới.
01:33
I started out just really believing in the power of science.
27
93632
3378
Tôi bắt đầu chỉ thực sự tin tưởng vào sức mạnh của khoa học.
01:38
I was modifying DNA in my kitchen at 12,
28
98053
4504
Tôi biến đổi DNA trong bếp năm 12 tuổi,
01:42
and when I got to Stanford as a computational biology major,
29
102557
3754
và khi tôi đến Stanford với chuyên ngành sinh học tính toán,
01:46
I was converted to a new belief -- technology.
30
106311
3295
tôi đã chuyển đổi sang một niềm tin mới - công nghệ.
01:49
I truly believed in the power of tech to change the world.
31
109939
3003
Tôi thực sự tin vào sức mạnh của công nghệ để thay đổi thế giới.
01:52
Maybe, like many of you.
32
112942
1752
Có lẽ, giống nhiều các bạn,
01:55
But I saw that the technologies that really made a difference
33
115695
2878
Tôi thấy rằng những công nghệ thực sự tạo ra sự khác biệt
01:58
were the ones that were built with and for the collective.
34
118573
3879
là thứ được xây bởi cộng đồng và phục vụ cho cộng đồng.
02:03
Not the billions of dollars
35
123370
1418
Không phải là thứ hàng tỉ đô
02:04
pumped into the 19th addiction-fueling social app.
36
124829
3128
bơm vào ứng dụng xã hội gây nghiện thứ 19.
02:09
But the projects that combine creating something truly new
37
129167
3629
Mà là các dự án kết hợp giữa tạo ra một cái gì đó thực sự mới
02:12
with building in ways for people to access,
38
132796
3128
với việc xây dựng theo những cách để mọi người tiếp cận,
02:15
benefit from and direct it.
39
135924
2252
hưởng lợi từ đó và chỉ đạo nó.
02:18
Instead of social media, think of the internet.
40
138885
2544
Thay vì mạng xã hội, hãy nghĩ đến Internet.
02:21
Built with public resources on open standards.
41
141429
3212
Được xây dựng với các nguồn lực công cộng trên các tiêu chuẩn mở.
02:25
This is what brought me to democracy.
42
145892
2669
Đó là điều đã đưa tôi đến với nền dân chủ.
02:29
Technology expands what we are capable of.
43
149729
3087
Công nghệ mở rộng khả năng của chúng ta.
02:33
Democracy is how we decide what to do with that capability.
44
153858
5089
Dân chủ là cách chúng ta quyết định phải làm gì với khả năng đó.
02:40
Since then, I've worked on using democracy as a solution
45
160115
3712
Kể từ đó, tôi đã làm việc dựa vào việc dùng dân chủ như một giải pháp
02:43
in India, the US, the UK, Taiwan.
46
163868
3295
ở Ấn Độ, Mỹ, Anh, Đài Loan.
02:47
I've worked alongside incredible collaborators
47
167455
2670
Tôi làm cùng những người cộng tác tuyệt vời
02:50
to use democracy to help solve COVID,
48
170125
2711
sử dụng dân chủ để giúp giải quyết COVID,
02:52
to help solve data rights.
49
172836
1751
giúp giải quyết quyền dữ liệu.
02:54
And as I'll tell you today,
50
174629
2127
Như tôi sẽ nói với bạn hôm nay,
02:56
to help solve AI governance with policymakers around the world
51
176798
4171
để giải quyết việc quản lý AI với các nhà lập pháp khắp thế giới
03:01
and cutting-edge technology companies like OpenAI and Anthropic.
52
181010
4505
và các công ty công nghệ tiên tiến như OpenAI và Anthropic.
03:05
How?
53
185849
1167
Làm thế nào?
03:07
By recognizing that democracy is still in its infancy.
54
187434
4546
Bằng cách nhận ra rằng dân chủ vẫn còn ở giai đoạn sơ khai.
03:12
It is an early form of collective intelligence,
55
192522
3795
Đó là một hình thức ban đầu của trí tuệ tập thể,
03:16
a way to put together decentralized input from diverse sources
56
196359
4755
một cách để kết hợp đầu vào phi tập trung từ các nguồn đa dạng
03:21
and produce decisions that are better than the sum of their parts.
57
201156
4170
và đưa ra các quyết định tốt hơn tổng các bộ phận của chúng.
03:26
That’s why, when my fantastic cofounder Saffron Huang and I
58
206161
3920
Đó là lý do, khi người đồng sáng lập tuyệt vời
03:30
left our jobs at Google DeepMind and Microsoft
59
210123
3086
Saffron Huang và tôi bỏ việc ở Google DeepMind và Microsoft
03:33
to build new democratic governance models for transformative tech,
60
213209
4129
để xây dựng các mô hình quản trị dân chủ mới cho công nghệ biến đổi,
03:37
I named our nonprofit the Collective Intelligence Project,
61
217380
4088
tôi đặt tên cho tổ chức phi lợi nhuận của chúng tôi là Dự án Trí tuệ Tập thể,
03:42
as a nod to the ever-evolving project of building collective intelligence
62
222427
6256
như sự nhất trí cho dự án luôn phát triển việc xây dựng trí tuệ tập thể
03:48
for collective flourishing.
63
228725
2294
vì sự hưng thịnh chung.
03:52
Since then we've done just that,
64
232228
2253
Từ đó, chúng tôi làm như vậy,
03:54
building new collective intelligence models to direct artificial intelligence,
65
234481
4587
xây dựng các mô hình trí tuệ tập thể mới để chỉ đạo trí tuệ nhân tạo,
03:59
to run democratic processes.
66
239068
2169
để điều hành các quá trình dân chủ.
04:01
And we've incorporated the voices of thousands of people into AI governance.
67
241237
3879
Và chúng tôi đã kết hợp tiếng nói của hàng ngàn người vào quản trị AI.
04:06
Here are a few of the things we've learned.
68
246242
2044
Đây là vài điều tôi đã học được.
04:08
First, people are willing and able to have difficult,
69
248995
4838
Đầu tiên, mọi người sẵn sàng và có khả năng
có những cuộc trò chuyện khó khăn, phức tạp về các chủ đề sắc thái.
04:13
complex conversations on nuanced topics.
70
253833
2878
04:17
When we asked people about the risks of AI they were most concerned about,
71
257378
4380
Khi chúng tôi hỏi mọi người về những rủi ro của AI mà họ lo ngại nhất,
04:21
they didn't reach for easy answers.
72
261758
1918
họ đã không tìm ra câu trả lời dễ dàng.
04:24
Out of more than 100 risks put forward,
73
264469
2169
Trong hơn 100 rủi ro được đưa ra,
04:26
the top-cited one: overreliance on systems we don't understand.
74
266679
5214
điều chung nhất là: phụ thuộc quá mức vào các hệ thống mà chúng ta không hiểu.
04:32
We talked to people across the country,
75
272435
1877
Chúng tôi nói chuyện khắp cả nước
04:34
from a veteran in the Midwest to a young teacher in the South.
76
274312
3337
từ một cựu chiến binh ở Trung Tây đến một giáo viên trẻ ở miền Nam.
04:37
People were excited about the possibilities of this technology,
77
277649
3670
Mọi người rất hào hứng về khả năng của công nghệ này,
04:41
but there were specific things they wanted to understand
78
281319
2711
nhưng có những điều cụ thể mà họ muốn hiểu
04:44
about what models were capable of before seeing them deployed in the world.
79
284030
3837
mô hình nào có khả năng trước khi thấy chúng được triển khai trên thế giới.
04:48
A lot more reasonable than many of the policy conversations that we're in.
80
288701
4046
Có lý hơn nhiều so với nhiều cuộc trò chuyện về chính sách
mà chúng tôi tham gia
04:53
And importantly, we saw very little of the polarization
81
293331
3378
Và quan trọng, chúng tôi thấy rất ít sự phân cực
04:56
we're always hearing about.
82
296751
1585
mà chúng tôi thường nghe nói đến.
04:59
On average, just a few divisive statements
83
299045
3003
Trung bình, chỉ có một vài tuyên bố gây chia rẽ
05:02
for hundreds of consensus statements.
84
302090
2544
so với hàng trăm tuyên bố đồng thuận.
05:05
Even on the contentious issues of the day,
85
305385
2002
Ngay cả về các vấn đề gây tranh cãi,
05:07
like free speech or race and gender,
86
307428
2169
như tự do ngôn luận, chủng tộc và giới tính,
05:09
we saw far more agreement than disagreement.
87
309639
2794
chúng tôi thấy đồng thuận hơn nhiều so với bất đồng.
05:13
Almost three quarters of people agree that AI should protect free speech.
88
313393
3753
Gần ba phần tư số người đồng ý rằng AI nên bảo vệ quyền tự do ngôn luận.
05:17
Ninety percent agree that AI should not be racist or sexist.
89
317146
3546
90% đồng ý rằng AI không nên phân biệt chủng tộc hoặc giới tính.
05:21
Only around 50 percent think that AI should be funny though,
90
321651
2878
Tuy nhiên, chỉ có khoảng 50% nghĩ rằng AI nên hài hước,
05:24
so they are still contentious issues out there.
91
324529
2294
nên chúng vẫn là điều gây tranh cãi ngoài kia.
05:28
These last statistics
92
328783
1585
Những thống kê cuối cùng này
05:30
are from our collective constitution project with Anthropic,
93
330410
3712
là từ dự án hiến pháp tập thể của chúng tôi với Anthropic,
05:34
where we retrained one of the world's most powerful language models
94
334122
3378
nơi tái đào tạo 1 trong những mô hình ngôn ngữ mạnh nhất thế giới
05:37
on principles written by 1,000 representative Americans.
95
337500
3670
trên các nguyên tắc được viết bởi 1.000 người Mỹ đại diện.
05:41
Not AI developers or regulators or researchers at elite universities.
96
341754
5339
Không phải người phát triển AI, nhà quản lý, nghiên cứu
ở các đại học ưu tú
05:47
We built on a way of training AI
97
347427
2043
Chúng tôi xây 1 cách đào tạo AI
05:49
that relies on a written set of principles or a constitution,
98
349470
3421
dựa trên một bộ nguyên tắc bằng văn bản hoặc hiến pháp,
05:52
we asked ordinary people to cowrite this constitution,
99
352932
2628
chúng tôi mời dân thường cùng viết nên hiến pháp này,
05:55
we compared it to a model that researchers had come up with.
100
355602
3003
rồi so sánh nó với 1 mô hình của các nhà nghiên cứu làm.
05:59
When we started this project, I wasn't sure what to expect.
101
359230
4046
Khi chúng tôi bắt đầu dự án này, tôi không chắc điều gì sẽ xảy ra.
06:03
Maybe the naysayers were right.
102
363776
1794
Có lẽ những người phản đối đã đúng.
06:05
AI is complicated.
103
365987
1418
AI rất phức tạp.
06:08
Maybe people wouldn't understand what we were asking them.
104
368448
2836
Có lẽ mọi người không hiểu những gì chúng tôi hỏi họ.
06:11
Maybe we'd end up with something awful.
105
371826
2252
Có thể kết cục sẽ là thứ khủng khiếp.
06:15
But the people’s model, trained on the cowritten constitution,
106
375371
3921
Nhưng mô hình của người dân, được đào tạo dựa trên hiến pháp dân viết,
06:19
was just as capable and more fair
107
379292
4046
vẫn có khả năng tương đương và công bằng hơn
06:23
than the model the researchers had come up with.
108
383338
2460
so với mô hình mà các nhà nghiên cứu đã đưa ra.
06:26
People with little to no experience in AI
109
386382
2878
Những người ít hoặc không có kinh nghiệm về AI
06:29
did better than researchers, who work on this full-time,
110
389302
3587
đã làm tốt hơn các nhà nghiên cứu, những người làm việc toàn thời gian này,
06:32
in building a fairer chatbot.
111
392931
2544
trong việc tạo một chatbot công bằng hơn.
06:36
Maybe I shouldn't have been surprised.
112
396142
2127
Có lẽ tôi không nên ngạc nhiên.
06:38
As one of our participants from another process said,
113
398311
3587
Như 1 trong những thành viên của quy trình khác đã nói,
06:41
"They may be experts in AI, but I have eight grandchildren.
114
401940
3712
“Họ có thể là chuyên gia về AI, nhưng tôi có tám đứa cháu.
06:45
I know how to pick good values."
115
405693
2044
Tôi biết cách chọn những giá trị tốt”.
06:51
If technology expands what we are capable of
116
411282
2503
Nếu công nghệ mở rộng những gì chúng ta có khả năng
06:53
and democracy is how we decide what to do with that capability,
117
413785
3420
và dân chủ là cách chúng ta quyết định phải làm gì với khả năng đó,
06:57
here is early evidence that democracy can do a good job deciding.
118
417246
4588
thì đây là bằng chứng ban đầu cho thấy nền dân chủ có thể ra quyết định tốt.
07:03
Of course, these processes aren't enough.
119
423127
1961
Tất nhiên, những quy trình này chưa đủ.
07:05
Collective intelligence requires a broader reimagining of technology
120
425129
3212
Trí tuệ tập thể cần sự tái định hình rộng hơn về công nghệ
07:08
and democracy.
121
428383
1459
và dân chủ.
07:09
That’s why we’re also working on co-ownership models
122
429842
3045
Đó là lý do chúng tôi còn làm việc về các mô hình đồng sở hữu
07:12
for the data that AI is built on -- which, after all, belongs to all of us --
123
432929
4588
về dữ liệu mà xây dựng nên AI -- thứ mà, rõ ràng, thuộc về tất cả chúng ta
07:18
and using AI itself to create new and better decision-making processes.
124
438184
4296
và sử dụng chính AI để tạo ra
các quy trình ra quyết định mới và tốt hơn.
07:22
Taking advantage of the things
125
442981
1459
Tận dụng những điều mà
07:24
that language models can do that humans can’t,
126
444440
2169
các mô hình ngôn ngữ có thể, con người không thể
07:26
like processing huge amounts of text input.
127
446609
2211
như xử lý một lượng lớn đầu vào văn bản.
07:30
Our work in Taiwan has been an incredible test bed for all of this.
128
450154
4880
Việc của chúng tôi ở Đài Loan là 1 bài test tuyệt vời cho tất cả
07:36
Along with Minister Audrey Tang and the Ministry of Digital Affairs,
129
456494
4755
Cùng với Bộ trưởng Audrey Tang và Bộ Các vấn đề Kỹ thuật số,
07:41
we are working on processes to ask Taiwan's millions of citizens
130
461249
3754
chúng tôi đang nghiên cứu các quy trình để hỏi hàng triệu công dân
07:45
what they actually want to see as a future with AI.
131
465044
3879
Đài Loan họ thực sự muốn xem tương lai với AI như thế nào.
07:49
And using that input not just to legislate,
132
469966
3045
Và sử dụng đầu vào đó không chỉ để lập pháp,
07:53
but to build.
133
473052
1126
mà còn để xây dựng.
07:54
Because one thing that has already come out of these processes
134
474762
3295
Bởi vì một điều đã xuất hiện từ các quy trình này
07:58
is that people are truly excited about a public option for AI,
135
478099
3545
là mọi người thực sự hào hứng với một lựa chọn công khai cho AI,
08:01
one that is built on shared public data that is reliably safe,
136
481644
4213
thứ được xây trên dự liệu cộng đồng chung thứ chắc chắn an toàn,
08:05
that allows communities to access, benefit from
137
485898
3212
cho phép cộng đồng truy cập, hưởng lợi
08:09
and adjust it to their needs.
138
489152
1751
và điều chỉnh nó theo nhu cầu.
08:12
This is what the world of technology could look like.
139
492280
3211
Đây là cách thế giới công nghệ có thể là.
08:15
Steered by the many for the many.
140
495867
2586
Được chèo lái bởi nhiều nhiều người.
08:20
I often find that we accept unnecessary trade-offs
141
500288
3795
Tôi thường thấy rằng chúng ta chấp nhận những đánh đổi không cần thiết
08:24
when it comes to transformative tech.
142
504083
2044
khi nói đến công nghệ biến đổi.
08:26
We are told that we might need to sacrifice democracy
143
506961
3253
Chúng ta được cho biết rằng chúng ta có thể cần phải hy sinh dân chủ
08:30
for the sake of technological progress.
144
510214
2586
vì lợi ích của tiến bộ công nghệ.
08:32
We have no choice but to concentrate power to keep ourselves safe
145
512842
3587
Ta không còn lựa chọn nào ngoài việc tập trung sức mạnh để giữ mình an toàn
08:36
from possible risks.
146
516429
1501
khỏi những rủi ro có thể.
08:38
This is wrong.
147
518765
1626
Điều này là sai.
08:40
It is impossible to have any one of these things --
148
520933
3462
Thật bất khả thi để có bất cứ điều gì trong đó như
08:44
progress, safety or democratic participation --
149
524437
3670
tiến bộ, an toàn hay sự tham gia dân chủ -
08:48
without the others.
150
528149
1501
mà không có những thứ khác.
08:50
If we resign ourselves to only two of the three,
151
530276
3420
Nếu chúng ta từ bỏ chỉ 2 hay 3 điều thôi,
08:53
we will end up with either centralized control or chaos.
152
533738
3587
chúng ta kết cục sẽ chịu hoặc quyền kiểm soát tập trung, hoặc hỗn độn
08:57
Either a few people get to decide or no one does.
153
537825
3796
Hoặc là một vài người quyết định hoặc không ai quyết định.
09:02
These are both terrible outcomes,
154
542497
1585
Đây đều là những kết quả tồi tệ,
09:04
and our work shows that there is another way.
155
544123
2836
và công việc của chúng tôi cho thấy rằng có một cách khác.
09:07
Each of our projects advanced progress,
156
547710
2753
Mỗi dự án đều nâng cao tiến độ
09:10
safety and democratic participation
157
550505
3253
an toàn và sự tham gia dân chủ
09:13
by building cutting-edge democratic AI models,
158
553800
3295
bằng cách xây dựng các mô hình AI dân chủ tiên tiến,
09:17
by using public expertise as a way to understand diffuse risks
159
557136
4713
bằng cách sử dụng chuyên môn công cộng như một cách để hiểu các rủi ro lan tỏa
09:21
and by imagining co-ownership models for the digital commons.
160
561849
3671
và bằng cách tưởng tượng các mô hình đồng sở hữu cho chung kỹ thuật số.
09:27
We are so far from the best collective intelligence systems we could have.
161
567396
5423
Chúng ta còn khá xa với những hệ thống trí tuệ tập thể tốt nhất từng có
09:33
If we started over on building a decision-making process for the world,
162
573486
4379
Nếu ta bắt đầu xây dựng một quá trình ra quyết định cho thế giới,
09:37
what would we choose?
163
577865
1377
ta sẽ chọn gì?
09:40
Maybe we'd be better at separating financial power from political power.
164
580284
5005
Có lẽ sẽ tốt hơn nên tách
quyền lực tài chính khỏi quyền lực chính trị.
09:46
Maybe we'd create thousands of new models of corporations
165
586290
3087
Có lẽ chúng ta sẽ tạo ra hàng ngàn mô hình mới cho các tập đoàn
09:49
or bureaucracies.
166
589418
1419
hoặc tổ chức quan liêu.
09:51
Maybe we'd build in the voices of natural elements
167
591379
3670
Có lẽ chúng ta sẽ xây dựng tiếng nói của các yếu tố tự nhiên
09:55
or future generations.
168
595049
1585
hoặc các thế hệ tương lai.
09:57
Here's a secret.
169
597844
1293
Đây là một bí mật.
09:59
In some ways, we are always starting from scratch.
170
599804
4046
Theo một số cách, chúng tôi luôn bắt đầu từ đầu.
10:04
New technologies usher in new paradigms
171
604225
3128
Các công nghệ mới mở ra các mô hình mới
10:07
that can come with new collective intelligence systems.
172
607353
3253
có thể đi cùng với các hệ thống trí tuệ tập thể mới.
10:11
We can create new ways of living well together
173
611274
4004
Chúng ta có thể tạo ra những cách sống tốt đẹp mới với nhau
10:15
if we use these brief openings for change.
174
615319
3337
nếu ta sử dụng những cách mở đầu ngắn gọn để thay đổi
10:19
The story of technology and democracy is far from over.
175
619532
3337
Câu chuyện về công nghệ và dân chủ còn lâu mới xong.
10:22
It doesn't have to be this way.
176
622910
1669
Nó không cần phải như thế này.
10:25
Things could be unimaginably better.
177
625037
2378
Việc có thể tốt hơn 1 cách không tưởng
10:28
As the Indian author Arundhati Roy once said,
178
628040
3754
Như tác giả Ấn Độ Arundhati Roy đã từng nói:
10:31
"Another world is not only possible,
179
631836
2878
“Một thế giới khác không chỉ có thể,
10:34
she is on her way.
180
634755
1627
mà còn theo cách của nó.
10:37
On a quiet day, I can hear her breathing."
181
637258
3337
Vào 1 ngày tĩnh lặng, ta có thể nghe hơi thở của nàng”
10:41
I can hear our new world breathing.
182
641804
2628
Tôi có thể nghe thấy thế giới mới của chúng ta thở.
10:44
One in which we shift the systems we have
183
644473
3087
Thế giới nơi ta chuyển dịch các hệ thống mình có
10:47
towards using the solution of democracy to build the worlds we want to see.
184
647560
4504
theo hướng sử dụng giải pháp dân chủ để xây dựng thế giới mà chúng ta muốn thấy.
10:53
The future is up to us.
185
653107
1543
Tương lai là tùy thuộc vào ta.
10:55
We have a world to win.
186
655067
1669
Ta có một thế giới để chiến thắng.
10:57
Thank you.
187
657361
1168
Xin cảm ơn.
10:58
(Applause)
188
658529
2670
(Tiếng vỗ tay)
Về trang web này

Trang web này sẽ giới thiệu cho bạn những video YouTube hữu ích cho việc học tiếng Anh. Bạn sẽ thấy các bài học tiếng Anh được giảng dạy bởi các giáo viên hàng đầu từ khắp nơi trên thế giới. Nhấp đúp vào phụ đề tiếng Anh hiển thị trên mỗi trang video để phát video từ đó. Phụ đề cuộn đồng bộ với phát lại video. Nếu bạn có bất kỳ nhận xét hoặc yêu cầu nào, vui lòng liên hệ với chúng tôi bằng biểu mẫu liên hệ này.

https://forms.gle/WvT1wiN1qDtmnspy7