How AI and Democracy Can Fix Each Other | Divya Siddarth | TED

29,927 views ・ 2024-03-05

TED


لطفا برای پخش فیلم روی زیرنویس انگلیسی زیر دوبار کلیک کنید.

Translator: Mohammad Badsar Reviewer: Sadegh Vahdati Nia
00:04
Recently I told someone my work is on democracy and technology.
0
4334
4630
اخیراً به یکی گفتم کار من در مورد دموکراسی و فناوری است.
00:09
He turned to me and said,
1
9464
1210
او به من گفت،
00:10
“Wow...
2
10674
1001
«واو ...
00:11
I’m sorry.”
3
11925
1335
متأسفم.»
00:13
(Laughter)
4
13260
1251
(خنده)
00:15
But I love my work.
5
15637
1710
ولی من عاشق کارم هستم.
00:17
I know that we can build a world
6
17681
1918
می‌دانم که می‌توانیم جهانی بسازیم
00:19
where technological marvels are directed towards people's benefit,
7
19641
4212
که در آن شگفتی‌های فناوری با استفاده از ورودی اطلاعات مردم
00:23
using their input.
8
23895
1460
در خدمت منفعت مردم باشند.
00:26
We have gotten so used to seeing democracy as a problem to be solved.
9
26147
4463
عادت کرده‌ایم به اینکه دموکراسی مسئله‌ای است که باید حل شود.
00:32
But I see democracy as a solution,
10
32028
2878
اما من دموکراسی را راه حل می‌بینم،
00:34
not as a problem.
11
34906
1835
نه مسئله.
00:37
Democracy was once a radical political project,
12
37909
3003
زمانی دموکراسی یک پروژه سیاسی سخت بود،
00:40
itself a cutting-edge social technology,
13
40912
3087
خود دموکراسی یک فناوری به روز اجتماعی است،
00:44
a new way to answer the very question we are faced with now,
14
44040
4797
روش جدیدی برای پاسخ به سوالی که الآن با آن مواجه هستیم،
00:48
in the era of artificial intelligence:
15
48837
2794
در عصر هوش مصنوعی:
00:51
how do we use our capabilities to live well together?
16
51631
4755
چگونه از قابلیت‌هایمان برای زندگی خوب کنار یکدیگر بهره ببریم؟
00:57
We are told that transformative technologies like AI are too complicated,
17
57679
5756
به ما گفته شده که فناوری‌های تحول‌ساز مثل هوش مصنوعی خیلی پیچیده هستند،
01:03
or too risky
18
63435
2419
یا خیلی خطرآفرین
01:05
or too important to be governed democratically.
19
65895
3546
یا خیلی مهمتر از اینکه بتوان به صورت دموکراتیک مدیریتشان نمود.
01:10
But this is precisely why they must be.
20
70650
3462
اما این دقیقاً دلیل چنین موضوعی است.
01:14
If existing democracy is unequal to the task,
21
74112
2544
اگر دموکراسی موجود برای انجام این کار ناتراز است،
01:16
our job is not to give up on it.
22
76698
2169
کار ما این نیست که از آن دست بکشیم.
01:19
Our job is to evolve it.
23
79367
2544
کار ما کامل کردن آن است.
01:22
And to use technology as an asset to help us do so.
24
82746
3253
و استفاده از فناوری به عنوان سرمایه‌ای که به ما کمک کند.
01:26
Still, I understand his doubts.
25
86958
2044
همچنان شکاکیت وی را درک می‌کنم.
01:29
I never meant to build my life around new forms of democracy.
26
89336
3670
من هرگز منظورم این نبود که زندگی خود را حول اشکال جدیدی از دموکراسی بسازم.
01:33
I started out just really believing in the power of science.
27
93632
3378
من داشتم واقعاً به قدرت علم باورمند می‌شدم.
01:38
I was modifying DNA in my kitchen at 12,
28
98053
4504
من در ۱۲ سالگی درون آشپزخانه دی‌ان‌ای را اصلاح می‌کردم،
01:42
and when I got to Stanford as a computational biology major,
29
102557
3754
و هنگامی که در رشته زیست‌شناسی محاسباتی وارد استنفورد شدم،
01:46
I was converted to a new belief -- technology.
30
106311
3295
من عقیده‌ام را به فناوری تغییر دادم.
01:49
I truly believed in the power of tech to change the world.
31
109939
3003
من واقعاً به قدرت فناوری برای تغییر جهان باور داشتم.
01:52
Maybe, like many of you.
32
112942
1752
شاید مثل خیلی از شما.
01:55
But I saw that the technologies that really made a difference
33
115695
2878
اما می‌بینم که فناوری‌هایی که واقعاً تحول ایجاد کرده‌اند
01:58
were the ones that were built with and for the collective.
34
118573
3879
آنهایی بودند که توسط و برای جمع ساخته شده بودند.
02:03
Not the billions of dollars
35
123370
1418
نه میلیارد دلار پولی
02:04
pumped into the 19th addiction-fueling social app.
36
124829
3128
که به نوزدهمین رسانه اجتماعی اعتیادآور تزریق شد.
02:09
But the projects that combine creating something truly new
37
129167
3629
بلکه پروژه‌هایی که خلق چیزهای واقعاً جدید را ترکیب می‌کنند
02:12
with building in ways for people to access,
38
132796
3128
با استفاده از روش‌هایی برای دسترسی مردم،
02:15
benefit from and direct it.
39
135924
2252
که هم از آن نفع ببرند و هم آن را هدایت کنند.
02:18
Instead of social media, think of the internet.
40
138885
2544
به جای رسانه‌های اجتماعی به اینترنت فکر کنید
02:21
Built with public resources on open standards.
41
141429
3212
که توسط منابع عمومی و بر اساس استانداردهای باز ساخته شد.
02:25
This is what brought me to democracy.
42
145892
2669
این چیزی است که من را به دموکراسی رساند.
02:29
Technology expands what we are capable of.
43
149729
3087
فناوری قابلیت‌های ما را توسعه می‌دهد.
02:33
Democracy is how we decide what to do with that capability.
44
153858
5089
دموکراسی به ما می‌گوید که با این قابلیت‌ها چه کار کنیم.
02:40
Since then, I've worked on using democracy as a solution
45
160115
3712
از آن زمان روی استفاده از دموکراسی به عنوان راه حل
02:43
in India, the US, the UK, Taiwan.
46
163868
3295
در هند، آمریکا و تایوان کار کرده‌ام.
02:47
I've worked alongside incredible collaborators
47
167455
2670
من در کنار همکارانی شگفت‌انگیز کار کرده‌ام
02:50
to use democracy to help solve COVID,
48
170125
2711
تا از دموکراسی برای کمک به حل مسئله کووید استفاده کنم
02:52
to help solve data rights.
49
172836
1751
تا مسئله حقوق داده را حل کنیم.
02:54
And as I'll tell you today,
50
174629
2127
و چنان که امروز خواهم گفت،
02:56
to help solve AI governance with policymakers around the world
51
176798
4171
برای کمک به حل مسئله مدیریت هوش مصنوعی توسط سیاست‌گذاران و شرکت‌های پیشرو فناور
03:01
and cutting-edge technology companies like OpenAI and Anthropic.
52
181010
4505
در سراسر جهان مثل اوپن‌ای‌آی و آنتروپیک.
03:05
How?
53
185849
1167
چگونه؟
03:07
By recognizing that democracy is still in its infancy.
54
187434
4546
با فهم اینکه دموکراسی همچنان در شرایط تخیل است.
03:12
It is an early form of collective intelligence,
55
192522
3795
شکلی ابتدایی است از هوش جمعی،
03:16
a way to put together decentralized input from diverse sources
56
196359
4755
روشی است برای تجمیع ورودی‌های پراکنده از منابع مختلف
03:21
and produce decisions that are better than the sum of their parts.
57
201156
4170
و تولید تصمیماتی که از جمع اجزای آن بهتر است.
03:26
That’s why, when my fantastic cofounder Saffron Huang and I
58
206161
3920
به همین خاطر است که وقتی همکار عالی من سافرون هوانگ و خودم
03:30
left our jobs at Google DeepMind and Microsoft
59
210123
3086
کارمان را در گوگل دیپ‌مایند و مایکروسافت رها کردیم
03:33
to build new democratic governance models for transformative tech,
60
213209
4129
تا مدل‌های مدیریتی جدید و دموکراتیک برای فناوری تحول‌ساز را بسازیم
03:37
I named our nonprofit the Collective Intelligence Project,
61
217380
4088
من نام موسسه غیر انتفاعی‌مان را پروژه هوش جمعی گذاشتم،
03:42
as a nod to the ever-evolving project of building collective intelligence
62
222427
6256
اشاره‌ای به پروژه‌ای همیشه در حال تکامل برای ساخت هوش جمعی
03:48
for collective flourishing.
63
228725
2294
برای شکوفایی جمعی.
03:52
Since then we've done just that,
64
232228
2253
از آن زمان فقط این کار را کرده‌ایم،
03:54
building new collective intelligence models to direct artificial intelligence,
65
234481
4587
ساخت مدل‌های هوش جمعی برای فرمان به هوش مصنوعی
03:59
to run democratic processes.
66
239068
2169
برای اجرای فرآیندهای دموکراتیک.
04:01
And we've incorporated the voices of thousands of people into AI governance.
67
241237
3879
و ما صداهای هزاران نفر را در حکمرانی هوش مصنوعی ادغام کرده‌ایم.
04:06
Here are a few of the things we've learned.
68
246242
2044
چیزهایی که یاد گرفته‌ایم از این قرار است.
04:08
First, people are willing and able to have difficult,
69
248995
4838
اولاً افراد هم تمایل دارند و هم می‌توانند گفتگوهای پیچیده‌ای
04:13
complex conversations on nuanced topics.
70
253833
2878
حول موضوعات ظریف انجام دهند.
04:17
When we asked people about the risks of AI they were most concerned about,
71
257378
4380
وقتی به افراد در مورد خطرات هوش مصنوعی می‌گوییم بسیار به آن توجه می‌کنند،
04:21
they didn't reach for easy answers.
72
261758
1918
آنها به دنبال پاسخ‌های ساده نبودند.
04:24
Out of more than 100 risks put forward,
73
264469
2169
از بیش از ۱۰۰ مخاطره پیشنهاد شده،
04:26
the top-cited one: overreliance on systems we don't understand.
74
266679
5214
مورد اول این بود: اتکای بیش از حد بر سیستم‌هایی که آنها را درک نمی‌کنیم.
04:32
We talked to people across the country,
75
272435
1877
با افراد از نقاط مختلف کشور صحبت کردیم،
04:34
from a veteran in the Midwest to a young teacher in the South.
76
274312
3337
از یک کهنه سرباز در غرب میانه تا یک معلم جوان در جنوب.
04:37
People were excited about the possibilities of this technology,
77
277649
3670
مردم از امکانات این فناوری هیجان زده بودند،
04:41
but there were specific things they wanted to understand
78
281319
2711
اما موارد خاصی بود که می‌خواستند درک کنند
04:44
about what models were capable of before seeing them deployed in the world.
79
284030
3837
در مورد اینکه مدل‌ها قبل از اینکه جهانی شدن آن‌ها را ببینیم چه قابلیت‌هایی دارند.
04:48
A lot more reasonable than many of the policy conversations that we're in.
80
288701
4046
بسیار منطقی‌تر از بسیاری از گفتگوهای سیاسی که درگیرشان هستیم.
04:53
And importantly, we saw very little of the polarization
81
293331
3378
و مهمتر اینکه سوگیری که زیاد در مورش می‌شنویم
04:56
we're always hearing about.
82
296751
1585
بسیار کمتر دیدیم.
04:59
On average, just a few divisive statements
83
299045
3003
به طور متوسط، فقط چند جمله تفرقه‌آمیز
05:02
for hundreds of consensus statements.
84
302090
2544
از میان صدها جملات اتحادآمیز.
05:05
Even on the contentious issues of the day,
85
305385
2002
حتی در مورد موضوعات مورد اختلاف روز،
05:07
like free speech or race and gender,
86
307428
2169
مثل آزادی بیان یا نژاد و جنسیت،
05:09
we saw far more agreement than disagreement.
87
309639
2794
توافق بسیار بیشتر از عدم توافق بود.
05:13
Almost three quarters of people agree that AI should protect free speech.
88
313393
3753
تقریباً سه چهارم افراد موافق هستند که هوش مصنوعی باید از آزادی بیان حمایت کند.
05:17
Ninety percent agree that AI should not be racist or sexist.
89
317146
3546
نود درصد موافقند که هوش مصنوعی نباید نژادپرست یا جنسیت‌زده باشد.
05:21
Only around 50 percent think that AI should be funny though,
90
321651
2878
فقط ۵۰ درصد فکر می‌کنند که هوش مصنوعی باید سرگرم‌کننده باشد،
05:24
so they are still contentious issues out there.
91
324529
2294
خوب همچنان موضوعات اختلافی وجود دارند.
05:28
These last statistics
92
328783
1585
این آخرین آمارها
05:30
are from our collective constitution project with Anthropic,
93
330410
3712
از قانون اساسی جمعی ما در همکاری با آنتروپیک است،
05:34
where we retrained one of the world's most powerful language models
94
334122
3378
که در آنجا ما یکی از قویترین مدل‌های زبانی را داریم
05:37
on principles written by 1,000 representative Americans.
95
337500
3670
که بر اساسی استوار است که توسط هزار آمریکایی نماینده تدوین شده است.
05:41
Not AI developers or regulators or researchers at elite universities.
96
341754
5339
نه توسعه‌دهندگان هوش مصنوعی یا تنظیم‌کنندگان یا محققین دانشگاه‌های برتر.
05:47
We built on a way of training AI
97
347427
2043
ما روشی ایجاد کردیم برای آموزش هوش مصنوعی
05:49
that relies on a written set of principles or a constitution,
98
349470
3421
که بر اساس یک دسته نوشته از اصول یا قانون اساسی تکیه دارد،
05:52
we asked ordinary people to cowrite this constitution,
99
352932
2628
از افراد عادی خواستیم در تدوین این اصول شرکت کنند،
05:55
we compared it to a model that researchers had come up with.
100
355602
3003
ما این را با مدلی که توسط محققین تدوین شده بود مقایسه کردیم.
05:59
When we started this project, I wasn't sure what to expect.
101
359230
4046
وقتی این پروژه را شروع کردیم مطمئن نبودم چه خواهد شد.
06:03
Maybe the naysayers were right.
102
363776
1794
ممکن است منتقدان راست گفته باشند.
06:05
AI is complicated.
103
365987
1418
هوش مصنوعی پیچیده است.
06:08
Maybe people wouldn't understand what we were asking them.
104
368448
2836
شاید افراد نمی‌توانستند سوالات ما را درک کنند.
06:11
Maybe we'd end up with something awful.
105
371826
2252
شاید به نتیجه وحشتناکی ختم می‌شد.
06:15
But the people’s model, trained on the cowritten constitution,
106
375371
3921
اما مدل مردمی، آموزش دیده توسط اصول نوشته شده توسط مردم،
06:19
was just as capable and more fair
107
379292
4046
به همان اندازه قابلیت داشت و منصفانه‌تر بود
06:23
than the model the researchers had come up with.
108
383338
2460
از مدلی که محققین تهیه کرده بودند.
06:26
People with little to no experience in AI
109
386382
2878
افرادی با تجربه اندک یا هیچ تجربه در مورد هوش مصنوعی
06:29
did better than researchers, who work on this full-time,
110
389302
3587
از محققینی که تمام‌وقت روی آن کار می‌کردند
06:32
in building a fairer chatbot.
111
392931
2544
در ساخت ربات گفتگوی منصف‌تر بهتر عمل کردند.
06:36
Maybe I shouldn't have been surprised.
112
396142
2127
شاید نباید شگفت‌زده می‌شدم.
06:38
As one of our participants from another process said,
113
398311
3587
چون یکی از شرکت‌کنندگان در یک فرآیند دیگر گفت،
06:41
"They may be experts in AI, but I have eight grandchildren.
114
401940
3712
«آن‌ها شاید در هوش مصنوعی استاد باشند ولی من هشت نوه دارم.
06:45
I know how to pick good values."
115
405693
2044
می‌دانم ارزش‌های درست را چگونه انتخاب کنم.»
06:51
If technology expands what we are capable of
116
411282
2503
اگر فناوری تا جایی که می‌توانیم توسعه یابد
06:53
and democracy is how we decide what to do with that capability,
117
413785
3420
و دموکراسی فرآیندی است که چگونه باید از قابلیت فناوری بهره ببریم،
06:57
here is early evidence that democracy can do a good job deciding.
118
417246
4588
این یک شاهد اولیه است که نشان می‌دهد دموکراسی در تصمیم‌گیری خوب عمل می‌کند.
07:03
Of course, these processes aren't enough.
119
423127
1961
البته که این فرآیندها کافی نیستند.
07:05
Collective intelligence requires a broader reimagining of technology
120
425129
3212
هوش جمعی نیازمند بازنمایی گسترده‌تر از فناوری
07:08
and democracy.
121
428383
1459
و دموکراسی است.
07:09
That’s why we’re also working on co-ownership models
122
429842
3045
به همین دلیل ما هم داریم روی مدل‌های چند مالکیتی کار می‌کنیم
07:12
for the data that AI is built on -- which, after all, belongs to all of us --
123
432929
4588
برای داده‌هایی که هوش مصنوعی با آن ساخته می‌شود -- که در نهایت مال همه ماست --
07:18
and using AI itself to create new and better decision-making processes.
124
438184
4296
و استفاده از خود هوش مصنوعی برای خلق فرآیندهای تصمیم‌سازی جدید و بهتر.
07:22
Taking advantage of the things
125
442981
1459
با بهره‌گیری از اینها
07:24
that language models can do that humans can’t,
126
444440
2169
که مدل‌های زبانی می‌توانند و انسان نمی‌تواند،
07:26
like processing huge amounts of text input.
127
446609
2211
مثل فرآوری حجم عظیمی از متن ورودی.
07:30
Our work in Taiwan has been an incredible test bed for all of this.
128
450154
4880
کار ما در تایوان بستر آزمایشی عالی برای همه اینها بوده است.
07:36
Along with Minister Audrey Tang and the Ministry of Digital Affairs,
129
456494
4755
به همراه وزیر آدری تانگ و وزارت امور دیجیتال،
07:41
we are working on processes to ask Taiwan's millions of citizens
130
461249
3754
داریم روی فرآیندهایی کار می‌کنیم تا از میلیون‌ها شهروند تایوان بپرسیم
07:45
what they actually want to see as a future with AI.
131
465044
3879
که واقعاً آینده با هوش مصنوعی را چگونه تصور می‌کنند.
07:49
And using that input not just to legislate,
132
469966
3045
و استفاده از این ورودی نه فقط برای قانون‌گذاری
07:53
but to build.
133
473052
1126
بلکه برای ساخت.
07:54
Because one thing that has already come out of these processes
134
474762
3295
چون یکی از چیزهایی که پیشاپیش از این فرآیندها حاصل می‌شود
07:58
is that people are truly excited about a public option for AI,
135
478099
3545
این است که مردم واقعا در مورد انتخاب عمومی برای هوش مصنوعی هیجان‌زده هستند،
08:01
one that is built on shared public data that is reliably safe,
136
481644
4213
یکی اینکه چون بر داده‌های اشتراکی عمومی بنا شده پس ایمن و قابل اعتماد است،
08:05
that allows communities to access, benefit from
137
485898
3212
که به جوامع فرصت دسترسی و انتفاع و تنظیم آن
08:09
and adjust it to their needs.
138
489152
1751
بر اساس نیازهای‎شان را می‌دهد.
08:12
This is what the world of technology could look like.
139
492280
3211
این است شکلی که جهان فناوری می‌تواند داشته باشد.
08:15
Steered by the many for the many.
140
495867
2586
جهت‌گیری توسط بسیار و برای بسیار.
08:20
I often find that we accept unnecessary trade-offs
141
500288
3795
اغلب ما در مورد فناوری‌های تحول‌ساز
08:24
when it comes to transformative tech.
142
504083
2044
مبادلات غیرضروری را می‌پذیریم.
08:26
We are told that we might need to sacrifice democracy
143
506961
3253
به ما می‌گویند شاید باید دموکراسی را برای پیشرفت فناوری
08:30
for the sake of technological progress.
144
510214
2586
فدا کنیم.
08:32
We have no choice but to concentrate power to keep ourselves safe
145
512842
3587
هیچ انتخابی نداریم مگر اینکه توان خود را برای حفظ خودمان
08:36
from possible risks.
146
516429
1501
از خطرات احتمالی متمرکز کنیم.
08:38
This is wrong.
147
518765
1626
این غلط است.
08:40
It is impossible to have any one of these things --
148
520933
3462
غیر ممکن است هیچ یک از این چیزها را داشته باشیم --
08:44
progress, safety or democratic participation --
149
524437
3670
پیشرفت، امنیت یا مشارکت دموکراتیک --
08:48
without the others.
150
528149
1501
بدون دیگران.
08:50
If we resign ourselves to only two of the three,
151
530276
3420
اگر خود را فقط به دو مورد از سه مورد تسلیم کنیم،
08:53
we will end up with either centralized control or chaos.
152
533738
3587
به کنترل متمرکز یا هرج و مرج خواهیم رسید.
08:57
Either a few people get to decide or no one does.
153
537825
3796
چه اینکه افراد کمی تصمیم بگیرند یا هیچ کس تصمیم نگیرد.
09:02
These are both terrible outcomes,
154
542497
1585
هر دو نتایج وحشتناکی هستند،
09:04
and our work shows that there is another way.
155
544123
2836
و کار ما نشان داد که راه دیگری هست.
09:07
Each of our projects advanced progress,
156
547710
2753
هر یک از پروژه‌های ما پیشرفت،
09:10
safety and democratic participation
157
550505
3253
امنیت و مشارکت دموکراتیک را توسعه داد
09:13
by building cutting-edge democratic AI models,
158
553800
3295
با ساخت مدل‌های هوش مصنوعی نوین،
09:17
by using public expertise as a way to understand diffuse risks
159
557136
4713
با استفاده از تخصص عموم به عنوان راهی برای درک و کاهش خطرات
09:21
and by imagining co-ownership models for the digital commons.
160
561849
3671
و با تصور مدل‌های چندمالکیتی برای میراث دیجیتالی مشترک.
09:27
We are so far from the best collective intelligence systems we could have.
161
567396
5423
از بهترین سیستم‌های هوش جمعی که می‌توان داشت خیلی فاصله داریم.
09:33
If we started over on building a decision-making process for the world,
162
573486
4379
اگر شروع کنیم به ساخت یک فرآیند تصمیم‌سازی برای جهان،
09:37
what would we choose?
163
577865
1377
چه را انتخاب می‌کنیم؟
09:40
Maybe we'd be better at separating financial power from political power.
164
580284
5005
شاید بهتر باشد قدرت مالی را از قدرت سیاسی تفکیک کنیم.
09:46
Maybe we'd create thousands of new models of corporations
165
586290
3087
شاید هزاران مدل جدید از شرکت‌ها
09:49
or bureaucracies.
166
589418
1419
یا امور اداری خلق کنیم.
09:51
Maybe we'd build in the voices of natural elements
167
591379
3670
شاید ما صداهای اجزای طبیعی
09:55
or future generations.
168
595049
1585
یا نسل‌های آینده را در آن ببینیم.
09:57
Here's a secret.
169
597844
1293
یک راز هست.
09:59
In some ways, we are always starting from scratch.
170
599804
4046
به نوعی ما همیشه اول از بیس شروع می‌کنیم.
10:04
New technologies usher in new paradigms
171
604225
3128
فناوری‌های جدید، پارادایم‌(الگو)های جدیدی را به ارمغان می‌آورند
10:07
that can come with new collective intelligence systems.
172
607353
3253
که می‌تواند سیستم‌های هوش جمعی جدید را نتیجه دهد.
10:11
We can create new ways of living well together
173
611274
4004
می‌توانیم روش‌های جدیدی برای زندگی کنار یکدیگر خلق کنیم
10:15
if we use these brief openings for change.
174
615319
3337
اگر از این ایده‌های مختصر برای تغییر بهره ببریم.
10:19
The story of technology and democracy is far from over.
175
619532
3337
داستان فناوری و دموکراسی هنوز ادامه دارد.
10:22
It doesn't have to be this way.
176
622910
1669
نباید اینگونه باشد.
10:25
Things could be unimaginably better.
177
625037
2378
اوضاع می‌تواند بسیار بهتر باشد.
10:28
As the Indian author Arundhati Roy once said,
178
628040
3754
همانگونه که نویسنده هندی، آرونداتی روی، می‌گوید:
10:31
"Another world is not only possible,
179
631836
2878
«جهانی دیگر نه تنها ممکن است،
10:34
she is on her way.
180
634755
1627
بلکه در راه است.
10:37
On a quiet day, I can hear her breathing."
181
637258
3337
در یک روزِ ساکت(بی‌سروصدا) می‌توانم صدای نفس آن را بشنوم.»
10:41
I can hear our new world breathing.
182
641804
2628
می‌توانم تنفس جهان جدیدمان را بشنوم.
10:44
One in which we shift the systems we have
183
644473
3087
جهانی که در آن سیستم‌هایی که داریم را به سوی استفاده از
10:47
towards using the solution of democracy to build the worlds we want to see.
184
647560
4504
راه‌حل‌های دموکراتیک برای ساخت جهانی که می‌خواهیم ببینیم سوق می‌دهیم.
10:53
The future is up to us.
185
653107
1543
آینده به ما بستگی دارد.
10:55
We have a world to win.
186
655067
1669
جهانی داریم برای پیروزی.
10:57
Thank you.
187
657361
1168
متشکرم.
10:58
(Applause)
188
658529
2670
(تشویق)
درباره این وب سایت

این سایت ویدیوهای یوتیوب را به شما معرفی می کند که برای یادگیری زبان انگلیسی مفید هستند. دروس انگلیسی را خواهید دید که توسط معلمان درجه یک از سراسر جهان تدریس می شود. روی زیرنویس انگلیسی نمایش داده شده در هر صفحه ویدیو دوبار کلیک کنید تا ویدیو از آنجا پخش شود. زیرنویس‌ها با پخش ویدیو همگام می‌شوند. اگر نظر یا درخواستی دارید، لطفا با استفاده از این فرم تماس با ما تماس بگیرید.

https://forms.gle/WvT1wiN1qDtmnspy7