How deepfakes undermine truth and threaten democracy | Danielle Citron

87,053 views ・ 2019-10-07

TED


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

Переводчик: Helen Girshman Редактор: Yulia Kallistratova
00:12
[This talk contains mature content]
0
12535
2767
[Это выступление предназначено для взрослых]
00:17
Rana Ayyub is a journalist in India
1
17762
2992
Рана Айюб — индийская журналистка,
00:20
whose work has exposed government corruption
2
20778
2602
разоблачающая коррупцию в правительстве
00:24
and human rights violations.
3
24411
2157
и нарушения прав человека.
00:26
And over the years,
4
26990
1167
За многие годы
00:28
she's gotten used to vitriol and controversy around her work.
5
28181
3303
она привыкла к ядовитой критике и конфликтам вокруг своей работы.
00:32
But none of it could have prepared her for what she faced in April 2018.
6
32149
5109
Но ничто не могло подготовить её к тому, с чем она столкнулась в апреле 2018 года.
00:38
She was sitting in a café with a friend when she first saw it:
7
38125
3651
Она сидела в кафе с другом, когда впервые увидела это:
00:41
a two-minute, 20-second video of her engaged in a sex act.
8
41800
4943
видео в 2 минуты и 20 секунд, в котором она занимается сексом.
00:47
And she couldn't believe her eyes.
9
47188
2349
Она не могла поверить своим глазам.
00:49
She had never made a sex video.
10
49561
2273
Она никогда не снимала секс-видео.
00:52
But unfortunately, thousands upon thousands of people
11
52506
3465
Но, к сожалению, многие тысячи людей
00:55
would believe it was her.
12
55995
1666
поверят, что это она.
00:58
I interviewed Ms. Ayyub about three months ago,
13
58673
2944
Я брала интервью у мисс Айюб около трёх месяцев назад
01:01
in connection with my book on sexual privacy.
14
61641
2504
в связи с моей книгой о неприкосновенности сексуальной жизни.
01:04
I'm a law professor, lawyer and civil rights advocate.
15
64681
3198
Я профессор права, адвокат и защитник гражданских прав.
Поэтому мне прискорбно сознавать, что в данный момент
01:08
So it's incredibly frustrating knowing that right now,
16
68204
4611
01:12
law could do very little to help her.
17
72839
2238
закон мало чем может ей помочь.
01:15
And as we talked,
18
75458
1547
В разговоре она пояснила,
01:17
she explained that she should have seen the fake sex video coming.
19
77029
4512
что, наверное, должна была ожидать фальшивого секс-видео.
Она сказала: «Секс так часто используется, чтобы унизить или опозорить женщин,
01:22
She said, "After all, sex is so often used to demean and to shame women,
20
82038
5596
особенно женщин из меньшинств
01:27
especially minority women,
21
87658
2428
и особенно женщин из меньшинств, которые бросают вызов сильным мужчинам»,
01:30
and especially minority women who dare to challenge powerful men,"
22
90110
4312
01:34
as she had in her work.
23
94446
1533
как она в своей работе.
01:37
The fake sex video went viral in 48 hours.
24
97191
3976
Фальшивое видео распространилось за 48 часов.
01:42
All of her online accounts were flooded with screenshots of the video,
25
102064
5307
Все её онлайн-аккаунты были завалены скриншотами этого видео
01:47
with graphic rape and death threats
26
107395
2627
с явными угрозами изнасилования и смерти
01:50
and with slurs about her Muslim faith.
27
110046
2533
и оскорблениями её мусульманской веры.
01:53
Online posts suggested that she was "available" for sex.
28
113426
4564
Посты в интернете говорили о её «доступности».
01:58
And she was doxed,
29
118014
1610
Личные данные её взломали,
01:59
which means that her home address and her cell phone number
30
119648
2778
а это значит, что её адрес и номер мобильного телефона
02:02
were spread across the internet.
31
122450
1746
были опубликованы в интернете.
02:04
The video was shared more than 40,000 times.
32
124879
4084
Видео расшарили более 40 000 раз.
02:09
Now, when someone is targeted with this kind of cybermob attack,
33
129760
3936
Когда кто-то становится мишенью такой кибератаки,
02:13
the harm is profound.
34
133720
2063
вред от этого огромен.
02:16
Rana Ayyub's life was turned upside down.
35
136482
3039
Жизнь Раны Айюб навсегда изменилась.
Неделями она не могла ни есть,
02:20
For weeks, she could hardly eat or speak.
36
140211
3334
ни говорить.
02:23
She stopped writing and closed all of her social media accounts,
37
143919
3689
Она перестала писать и закрыла все свои аккаунты в соцсетях,
02:27
which is, you know, a tough thing to do when you're a journalist.
38
147632
3158
что, как вы понимаете, нелегко, когда ты журналист.
02:31
And she was afraid to go outside her family's home.
39
151188
3484
Она боялась выходить из дома, где жила с семьёй.
02:34
What if the posters made good on their threats?
40
154696
3022
Что, если преследователи выполнят свои угрозы?
02:38
The UN Council on Human Rights confirmed that she wasn't being crazy.
41
158395
4365
Совет ООН по правам человека подтвердил, что она не сошла с ума.
02:42
It issued a public statement saying that they were worried about her safety.
42
162784
4637
В публичном заявлении он выразил беспокойство о её безопасности.
02:48
What Rana Ayyub faced was a deepfake:
43
168776
4229
Рана Айюб столкнулась с тем, что называется дипфейком:
02:53
machine-learning technology
44
173029
2540
это технология искусственного интеллекта,
02:55
that manipulates or fabricates audio and video recordings
45
175593
4111
которая манипулирует аудио- и видеозаписями или фабрикует их так,
02:59
to show people doing and saying things
46
179728
2723
что люди в них делают и говорят то,
03:02
that they never did or said.
47
182475
1866
чего никогда не говорили и не делали.
03:04
Deepfakes appear authentic and realistic, but they're not;
48
184807
3361
Дипфейки кажутся подлинными и реалистичными, но это не так:
03:08
they're total falsehoods.
49
188192
1772
это абсолютная фальшивка.
03:11
Although the technology is still developing in its sophistication,
50
191228
3794
Хотя эта технология ещё развивается, становясь всё изощрённей,
03:15
it is widely available.
51
195046
1614
она широко доступна.
03:17
Now, the most recent attention to deepfakes arose,
52
197371
3072
В последнее время дипфейки стали привлекать внимание,
03:20
as so many things do online,
53
200467
2161
как и многое другое онлайн,
03:22
with pornography.
54
202652
1255
в связи с порнографией.
03:24
In early 2018,
55
204498
2111
В начале 2018 года
03:26
someone posted a tool on Reddit
56
206633
2468
кто-то разместил на Reddit инструмент,
03:29
to allow users to insert faces into porn videos.
57
209125
4412
позволяющий вставлять лица в порно-видео.
03:33
And what followed was a cascade of fake porn videos
58
213561
3440
За этим последовал поток фальшивых порно-роликов
03:37
featuring people's favorite female celebrities.
59
217025
2797
с участием любимых женщин-знаменитостей.
03:40
And today, you can go on YouTube and pull up countless tutorials
60
220712
3477
И сегодня на YouTube можно найти бесчисленные обучающие программы
03:44
with step-by-step instructions
61
224213
2286
с пошаговыми инструкциями о том,
03:46
on how to make a deepfake on your desktop application.
62
226523
3163
как сфабриковать дипфейк в вашем настольном приложении.
03:50
And soon we may be even able to make them on our cell phones.
63
230260
3706
Вскоре, возможно, мы сможем создавать их даже на мобильных телефонах.
03:55
Now, it's the interaction of some of our most basic human frailties
64
235072
5382
Взаимодействие низших человеческих порывов
04:00
and network tools
65
240478
1682
и сетевых средств
04:02
that can turn deepfakes into weapons.
66
242184
2666
превращают дипфейки в оружие.
04:04
So let me explain.
67
244874
1200
Разрешите, я объясню.
04:06
As human beings, we have a visceral reaction to audio and video.
68
246875
4566
Существует инстинктивная реакция на аудио и видео.
04:11
We believe they're true,
69
251860
1488
Мы верим им:
04:13
on the notion that of course you can believe
70
253372
2078
а как же не верить
04:15
what your eyes and ears are telling you.
71
255474
2478
своим глазам и ушам?
04:18
And it's that mechanism
72
258476
1699
И именно такой механизм
04:20
that might undermine our shared sense of reality.
73
260199
3698
может подорвать наше общее чувство реальности.
04:23
Although we believe deepfakes to be true, they're not.
74
263921
3147
Хотя дипфейки кажутся нам правдой, это не так.
04:27
And we're attracted to the salacious, the provocative.
75
267604
4157
Нас привлекает непристойность, провокация.
04:32
We tend to believe and to share information
76
272365
3047
Мы склонны верить и распространять
04:35
that's negative and novel.
77
275436
2023
новую или негативную информацию.
04:37
And researchers have found that online hoaxes spread 10 times faster
78
277809
5019
Учёные обнаружили, что в интернете подделки распространяются
04:42
than accurate stories.
79
282852
1627
в 10 раз быстрее, чем правдивые истории.
04:46
Now, we're also drawn to information
80
286015
4380
Нас также привлекает информация,
04:50
that aligns with our viewpoints.
81
290419
1892
которая соответствует нашим взглядам.
04:52
Psychologists call that tendency "confirmation bias."
82
292950
3561
Психологи называют эту тенденцию «предвзятость подтверждения».
04:57
And social media platforms supercharge that tendency,
83
297300
4387
А социальные медиа-платформы усиливают эту тенденцию,
05:01
by allowing us to instantly and widely share information
84
301711
3881
позволяя нам мгновенно и широко обмениваться информацией,
05:05
that accords with our viewpoints.
85
305616
1792
согласующейся с нашей точкой зрения.
05:08
Now, deepfakes have the potential to cause grave individual and societal harm.
86
308735
5568
Дипфейки могут нанести серьёзный личный и общественный вред.
05:15
So, imagine a deepfake
87
315204
2024
Представьте себе фальшивку,
05:17
that shows American soldiers in Afganistan burning a Koran.
88
317252
4182
на которой американские солдаты в Афганистане сжигают Коран.
05:22
You can imagine that that deepfake would provoke violence
89
322807
3024
Вы понимаете, что такая подделка может спровоцировать насилие
05:25
against those soldiers.
90
325855
1533
в отношении американских солдат.
05:27
And what if the very next day
91
327847
2873
А что, если на следующий день
05:30
there's another deepfake that drops,
92
330744
2254
появится новая фальшивка,
05:33
that shows a well-known imam based in London
93
333022
3317
на которой известный лондонский имам
05:36
praising the attack on those soldiers?
94
336363
2467
восхваляет нападение на этих солдат?
05:39
We might see violence and civil unrest,
95
339617
3163
Насилие и общественные беспорядки
05:42
not only in Afganistan and the United Kingdom,
96
342804
3249
могут произойти не только в Афганистане и Великобритании,
05:46
but across the globe.
97
346077
1515
но и во всём мире.
05:48
And you might say to me,
98
348251
1158
Вы можете сказать мне:
05:49
"Come on, Danielle, that's far-fetched."
99
349433
2247
«Ладно, Даниэль, ты преувеличиваешь».
05:51
But it's not.
100
351704
1150
Но это не так.
05:53
We've seen falsehoods spread
101
353293
2191
Мы видели, как ложь, распространяемая
05:55
on WhatsApp and other online message services
102
355508
2722
на WhatsApp и других мессенджерах,
05:58
lead to violence against ethnic minorities.
103
358254
2761
приводила к насилию в отношении этнических меньшинств.
06:01
And that was just text --
104
361039
1887
И это был просто текст —
06:02
imagine if it were video.
105
362950
2024
представьте, если бы это было видео.
06:06
Now, deepfakes have the potential to corrode the trust that we have
106
366593
5357
Дипфейки могут подорвать наше доверие
06:11
in democratic institutions.
107
371974
1992
к демократическим институтам.
06:15
So, imagine the night before an election.
108
375006
2667
Представьте себе, что накануне выборов
06:17
There's a deepfake showing one of the major party candidates
109
377996
3238
появляется подделка, показывающая, что один из основных кандидатов
06:21
gravely sick.
110
381258
1150
тяжело болен.
06:23
The deepfake could tip the election
111
383202
2333
Дипфейк может перевесить чашу весов
06:25
and shake our sense that elections are legitimate.
112
385559
3375
и поколебать веру в легитимность выборов.
06:30
Imagine if the night before an initial public offering
113
390515
3326
Представьте, что накануне первого публичного размещения акций
06:33
of a major global bank,
114
393865
2333
одного из крупнейших банков
06:36
there was a deepfake showing the bank's CEO
115
396222
3149
появляется подделка, на которой гендиректор
06:39
drunkenly spouting conspiracy theories.
116
399395
2697
в пьяном виде болтает о заговорах.
06:42
The deepfake could tank the IPO,
117
402887
3047
Дипфейк может сорвать мероприятие
06:45
and worse, shake our sense that financial markets are stable.
118
405958
4115
и, хуже того, поколебать нашу веру в стабильность финансовых рынков.
Так, дипфейки используют и усиливают уже имеющееся у нас глубокое недоверие
06:51
So deepfakes can exploit and magnify the deep distrust that we already have
119
411385
6989
06:58
in politicians, business leaders and other influential leaders.
120
418398
4214
к политикам, крупным бизнесменам и другим влиятельным лидерам.
07:02
They find an audience primed to believe them.
121
422945
3284
Они находят аудиторию, готовую им поверить.
07:07
And the pursuit of truth is on the line as well.
122
427287
2765
И стремление к истине тоже поставлено на карту.
07:11
Technologists expect that with advances in AI,
123
431077
3564
Технологи ожидают, что с развитием искусственного интеллекта
07:14
soon it may be difficult if not impossible
124
434665
3682
вскоре будет трудно или даже невозможно
07:18
to tell the difference between a real video and a fake one.
125
438371
3769
отличить настоящее видео от поддельного.
07:23
So how can the truth emerge in a deepfake-ridden marketplace of ideas?
126
443022
5341
Как же распознать истину на рынке идей, полном подделок?
07:28
Will we just proceed along the path of least resistance
127
448752
3420
Пойдём ли мы по пути наименьшего сопротивления,
07:32
and believe what we want to believe,
128
452196
2437
начнём ли верить во что хотим
07:34
truth be damned?
129
454657
1150
и к чёрту правду?
07:36
And not only might we believe the fakery,
130
456831
3175
Мы не только, возможно, поверим подделкам,
07:40
we might start disbelieving the truth.
131
460030
3326
мы перестанем верить правде.
07:43
We've already seen people invoke the phenomenon of deepfakes
132
463887
4079
Мы уже видели, как люди используют феномен дипфейка,
07:47
to cast doubt on real evidence of their wrongdoing.
133
467990
3920
чтобы поставить под сомнение реальные доказательства своих преступлений.
07:51
We've heard politicians say of audio of their disturbing comments,
134
471934
5969
Или как, слыша запись своих возмутительных высказываний,
07:57
"Come on, that's fake news.
135
477927
1746
политики говорили: «Это подделка.
07:59
You can't believe what your eyes and ears are telling you."
136
479697
3920
Нельзя верить своим глазам и ушам».
08:04
And it's that risk
137
484402
1731
И это тот риск,
08:06
that professor Robert Chesney and I call the "liar's dividend":
138
486157
5436
который мы с профессором Робертом Чесни называем «дивиденд лжеца»:
08:11
the risk that liars will invoke deepfakes
139
491617
3357
риск, что лжецы назовут реальность подделкой,
08:14
to escape accountability for their wrongdoing.
140
494998
2905
чтобы избежать ответственности за свои проступки.
08:18
So we've got our work cut out for us, there's no doubt about it.
141
498963
3071
Перед нами огромная работа, в этом нет сомнений.
08:22
And we're going to need a proactive solution
142
502606
3325
Нам понадобится превентивное решение
08:25
from tech companies, from lawmakers,
143
505955
3511
от техкомпаний, от законодателей,
08:29
law enforcers and the media.
144
509490
1984
от правоохранительных органов и СМИ.
08:32
And we're going to need a healthy dose of societal resilience.
145
512093
4016
А также необходима здоровая доза устойчивости общества.
08:37
So now, we're right now engaged in a very public conversation
146
517506
3896
В данный момент мы очень открыто ведём разговор
08:41
about the responsibility of tech companies.
147
521426
2913
об ответственности техкомпаний.
08:44
And my advice to social media platforms
148
524926
3032
Я рекомендую социальным медиа-платформам
08:47
has been to change their terms of service and community guidelines
149
527982
3873
изменить условия предоставления услуг и правила сообщества,
08:51
to ban deepfakes that cause harm.
150
531879
2336
чтобы запретить вредоносные подделки.
08:54
That determination, that's going to require human judgment,
151
534712
3960
Такой настрой потребует участия человеческого разума,
08:58
and it's expensive.
152
538696
1571
а это дорого.
09:00
But we need human beings
153
540673
2285
Но нам нужны люди,
09:02
to look at the content and context of a deepfake
154
542982
3873
которые бы рассмотрели содержание и контекст дипфейка,
09:06
to figure out if it is a harmful impersonation
155
546879
3682
чтобы понять, имеем ли мы дело с вредной подделкой под кого-то
09:10
or instead, if it's valuable satire, art or education.
156
550585
4382
или же это ценная сатира, искусство или урок.
09:16
So now, what about the law?
157
556118
1495
А как же закон?
09:18
Law is our educator.
158
558666
2349
Закон — наш наставник.
09:21
It teaches us about what's harmful and what's wrong.
159
561515
4038
Он показывает, чтó есть вред и чтó есть зло.
09:25
And it shapes behavior it deters by punishing perpetrators
160
565577
4555
Он объясняет, какое поведение неприемлемо, наказывая нарушителей
09:30
and securing remedies for victims.
161
570156
2267
и обеспечивая защиту жертвам.
09:33
Right now, law is not up to the challenge of deepfakes.
162
573148
4280
На данный момент закон не способен противостоять дипфейкам.
09:38
Across the globe,
163
578116
1390
Во всём мире нам не хватает
09:39
we lack well-tailored laws
164
579530
2444
хорошо продуманных законов,
09:41
that would be designed to tackle digital impersonations
165
581998
3570
направленных на борьбу с цифровыми подражаниями,
09:45
that invade sexual privacy,
166
585592
2231
вторгающимися в интимную жизнь,
09:47
that damage reputations
167
587847
1387
вредящими репутации
09:49
and that cause emotional distress.
168
589258
1951
и наносящими моральный ущерб.
09:51
What happened to Rana Ayyub is increasingly commonplace.
169
591725
3873
То, что случилось с Раной Айюб, происходит всё чаще.
09:56
Yet, when she went to law enforcement in Delhi,
170
596074
2214
Однако, когда она обратилась в полицию Дели,
09:58
she was told nothing could be done.
171
598312
2135
ей сказали, что ничего сделать нельзя.
10:01
And the sad truth is that the same would be true
172
601101
3183
И, как это ни грустно, то же бы произошло
10:04
in the United States and in Europe.
173
604308
2266
и в США, и в Европе.
10:07
So we have a legal vacuum that needs to be filled.
174
607300
4356
У нас есть правовой вакуум, который нужно заполнить.
10:12
My colleague Dr. Mary Anne Franks and I are working with US lawmakers
175
612292
4092
Моя коллега д-р Мэри Энн Фрэнкс и я работаем с американскими законодателями
10:16
to devise legislation that would ban harmful digital impersonations
176
616408
4804
над разработкой закона, запрещающего вредоносные цифровые имитации,
10:21
that are tantamount to identity theft.
177
621236
2533
которые равносильны краже личных данных.
10:24
And we've seen similar moves
178
624252
2126
Подобные инициативы мы видим
10:26
in Iceland, the UK and Australia.
179
626402
3301
и в Исландии, Великобритании и Австралии.
10:30
But of course, that's just a small piece of the regulatory puzzle.
180
630157
3259
Конечно, это лишь небольшой кусочек законодательной головоломки.
10:34
Now, I know law is not a cure-all. Right?
181
634911
3169
Я знаю, что закон — не панацея. Правда?
10:38
It's a blunt instrument.
182
638104
1600
Это грубый инструмент,
10:40
And we've got to use it wisely.
183
640346
1539
и его нужно мудро использовать.
10:42
It also has some practical impediments.
184
642411
2812
Есть также практические препятствия.
10:45
You can't leverage law against people you can't identify and find.
185
645657
5044
Невозможно направить закон против людей, которых невозможно опознать и найти.
10:51
And if a perpetrator lives outside the country
186
651463
3286
И если преступник живёт в одной стране,
10:54
where a victim lives,
187
654773
1754
а жертва — в другой,
10:56
then you may not be able to insist
188
656551
1629
то вы не сможете настоять на том,
10:58
that the perpetrator come into local courts
189
658204
2349
чтобы преступник предстал перед местными судами
11:00
to face justice.
190
660577
1150
и получил вердикт.
11:02
And so we're going to need a coordinated international response.
191
662236
4063
Поэтому нам понадобится скоординированная международная реакция.
11:07
Education has to be part of our response as well.
192
667819
3333
Образование должно быть частью этой реакции.
11:11
Law enforcers are not going to enforce laws
193
671803
3731
Правоохранители не будут применять законы,
11:15
they don't know about
194
675558
1458
о которых они не знают,
11:17
and proffer problems they don't understand.
195
677040
2596
и решать проблемы, которых не понимают.
11:20
In my research on cyberstalking,
196
680376
2191
Исследуя киберпреследования,
11:22
I found that law enforcement lacked the training
197
682591
3499
я обнаружила, что правоохранители не имеют достаточной подготовки,
11:26
to understand the laws available to them
198
686114
2582
чтобы понять имеющиеся законы
11:28
and the problem of online abuse.
199
688720
2349
и проблему оскорблений в сети.
11:31
And so often they told victims,
200
691093
2682
Поэтому они часто говорят жертвам:
11:33
"Just turn your computer off. Ignore it. It'll go away."
201
693799
3971
«Просто выключите компьютер. Не обращайте внимания, и всё пройдёт».
11:38
And we saw that in Rana Ayyub's case.
202
698261
2466
Так случилось с Раной Айюб.
11:41
She was told, "Come on, you're making such a big deal about this.
203
701102
3468
Ей сказали: «Ты делаешь из мухи слона.
11:44
It's boys being boys."
204
704594
1743
Это просто мальчишечьи игры».
11:47
And so we need to pair new legislation with efforts at training.
205
707268
5252
Поэтому нужно объединять новые законы с практической подготовкой.
11:54
And education has to be aimed on the media as well.
206
714053
3429
В образовании нуждаются и СМИ.
11:58
Journalists need educating about the phenomenon of deepfakes
207
718180
4260
Журналистам нужно объяснять феномен дипфейка,
12:02
so they don't amplify and spread them.
208
722464
3039
чтобы они не усиливали и не распространяли его.
12:06
And this is the part where we're all involved.
209
726583
2168
И вот что касается всех нас.
12:08
Each and every one of us needs educating.
210
728775
3855
Каждому из нас нужно учиться.
12:13
We click, we share, we like, and we don't even think about it.
211
733375
3675
Мы кликаем, расшариваем, лайкаем и даже не задумываемся об этом.
12:17
We need to do better.
212
737551
1547
Мы способны на большее.
12:19
We need far better radar for fakery.
213
739726
2809
Нам нужен лучший радар для подделок.
12:25
So as we're working through these solutions,
214
745744
3841
Пока мы воплощаем в жизнь эти решения,
12:29
there's going to be a lot of suffering to go around.
215
749609
2563
ещё многие люди пострадают.
12:33
Rana Ayyub is still wrestling with the fallout.
216
753093
2746
Рана Айюб всё ещё борется с последствиями.
12:36
She still doesn't feel free to express herself on- and offline.
217
756669
4189
Она всё ещё не чувствует, что может свободно выражать себя в сети и вне её.
12:41
And as she told me,
218
761566
1365
И, как она мне сказала,
12:42
she still feels like there are thousands of eyes on her naked body,
219
762955
5074
ей по-прежнему кажется, что тысячи глаз смотрят на её голое тело,
12:48
even though, intellectually, she knows it wasn't her body.
220
768053
3661
хотя умом она понимает, что это было не её тело.
12:52
And she has frequent panic attacks,
221
772371
2349
Часто у неё бывают панические атаки,
12:54
especially when someone she doesn't know tries to take her picture.
222
774744
4100
особенно когда кто-то незнакомый пытается её сфотографировать.
12:58
"What if they're going to make another deepfake?" she thinks to herself.
223
778868
3511
«Что если они хотят сделать ещё один дипфейк?» — думает она.
13:03
And so for the sake of individuals like Rana Ayyub
224
783082
3921
Итак, ради таких, как Рана Айюб,
13:07
and the sake of our democracy,
225
787027
2306
ради нашей демократии
13:09
we need to do something right now.
226
789357
2182
нужно делать что-то прямо сейчас.
13:11
Thank you.
227
791563
1151
Спасибо.
13:12
(Applause)
228
792738
2508
(Аплодисменты)
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7