Why we have an emotional connection to robots | Kate Darling

138,301 views ・ 2018-11-06

TED


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

00:00
Translator: Joseph Geni Reviewer: Krystian Aparta
0
0
7000
Переводчик: Artem Savochkin Редактор: Alena Chernykh
00:13
There was a day, about 10 years ago,
1
13047
2508
В один прекрасный день около десяти лет назад
00:15
when I asked a friend to hold a baby dinosaur robot upside down.
2
15579
3944
я попросила друга подержать робота-детёныша динозавра вверх ногами.
00:21
It was this toy called a Pleo that I had ordered,
3
21889
3446
Игрушка, которую мне доставили, называлась Pleo,
00:25
and I was really excited about it because I've always loved robots.
4
25359
4401
и я была несказанно рада, ведь я всегда любила роботов.
00:29
And this one has really cool technical features.
5
29784
2279
А у этого ещё было множество классных фишек:
00:32
It had motors and touch sensors
6
32087
2119
моторы, датчики прикосновений,
00:34
and it had an infrared camera.
7
34230
2244
даже инфракрасная камера.
00:36
And one of the things it had was a tilt sensor,
8
36498
2763
Ещё у него был датчик уровня наклона,
00:39
so it knew what direction it was facing.
9
39285
2318
так что он знал, в какую сторону он направлен.
00:42
And when you held it upside down,
10
42095
2134
И когда его держали вверх ногами,
00:44
it would start to cry.
11
44253
1572
он начинал плакать.
00:46
And I thought this was super cool, so I was showing it off to my friend,
12
46527
3496
Я думала, что это очень круто, так что решила похвастаться другу,
00:50
and I said, "Oh, hold it up by the tail. See what it does."
13
50047
2805
и я сказала ему: «Подержи за хвост, посмотри, что он делает».
00:55
So we're watching the theatrics of this robot
14
55268
3625
И вот мы наблюдаем, как этот робот
00:58
struggle and cry out.
15
58917
2199
барахтается и кричит.
01:02
And after a few seconds,
16
62767
2047
Но через несколько секунд
01:04
it starts to bother me a little,
17
64838
1972
мне стало немного неуютно,
01:07
and I said, "OK, that's enough now.
18
67744
3424
и я сказала: «Так, хватит,
01:11
Let's put him back down."
19
71930
2305
давай перевернём его обратно».
01:14
And then I pet the robot to make it stop crying.
20
74259
2555
И я начала гладить робота, чтобы он перестал плакать.
01:18
And that was kind of a weird experience for me.
21
78973
2452
И это было для меня очень странно.
01:22
For one thing, I wasn't the most maternal person at the time.
22
82084
4569
Во-первых, у меня тогда не был особо развит материнский инстинкт.
01:26
Although since then I've become a mother, nine months ago,
23
86677
2731
Хотя я стала матерью девять месяцев назад
01:29
and I've learned that babies also squirm when you hold them upside down.
24
89432
3433
и успела узнать, что дети тоже извиваются, если держать их вверх ногами.
01:32
(Laughter)
25
92889
1563
(Смех)
01:35
But my response to this robot was also interesting
26
95023
2358
Но моя реакция на этого робота также была интересна,
01:37
because I knew exactly how this machine worked,
27
97405
4101
поскольку я точно знала, как эта машина работает,
01:41
and yet I still felt compelled to be kind to it.
28
101530
3262
но при этом всё равно чувствовала, что должна быть добра к ней.
01:46
And that observation sparked a curiosity
29
106450
2707
Это наблюдение разожгло моё любопытство,
01:49
that I've spent the past decade pursuing.
30
109181
2832
которое я удовлетворяла последние десять лет.
01:52
Why did I comfort this robot?
31
112911
1793
Почему я утешала этого робота?
01:56
And one of the things I discovered was that my treatment of this machine
32
116228
3579
И одним из моих открытий стало то, что моё обращение с этой машиной
01:59
was more than just an awkward moment in my living room,
33
119831
3701
было чем-то большим чем просто неловким моментом в моей гостиной,
02:03
that in a world where we're increasingly integrating robots into our lives,
34
123556
5420
что в мире, где мы всё чаще интегрируем роботов в нашу жизнь,
02:09
an instinct like that might actually have consequences,
35
129000
3126
у такого инстинкта могут быть последствия.
02:13
because the first thing that I discovered is that it's not just me.
36
133452
3749
Ведь, как оказалось, я не одна такая.
02:19
In 2007, the Washington Post reported that the United States military
37
139249
4802
В 2007 году газета The Washington Post опубликовала статью о том, что армия США
02:24
was testing this robot that defused land mines.
38
144075
3230
проводила испытания робота, который обезвреживал наземные мины.
02:27
And the way it worked was it was shaped like a stick insect
39
147329
2912
Работало это так: робот, похожий на насекомого-палочника,
02:30
and it would walk around a minefield on its legs,
40
150265
2651
ходил по минному полю.
02:32
and every time it stepped on a mine, one of the legs would blow up,
41
152940
3206
Каждый раз, когда он наступал на мину, одна из ног взрывалась
02:36
and it would continue on the other legs to blow up more mines.
42
156170
3057
и робот продолжал идти на оставшихся, взрывая всё больше мин.
02:39
And the colonel who was in charge of this testing exercise
43
159251
3786
И в конце концов полковник, ответственный за операцию,
02:43
ends up calling it off,
44
163061
2118
прекратил её,
02:45
because, he says, it's too inhumane
45
165203
2435
потому что, по его мнению, бесчеловечно смотреть,
02:47
to watch this damaged robot drag itself along the minefield.
46
167662
4516
как этот повреждённый робот тащится по минному полю.
02:54
Now, what would cause a hardened military officer
47
174978
3897
В чём же кроется причина того, что и закалённый военный офицер,
02:58
and someone like myself
48
178899
2043
и обычный человек, как я,
03:00
to have this response to robots?
49
180966
1857
так реагируют на роботов?
03:03
Well, of course, we're primed by science fiction and pop culture
50
183537
3310
Безусловно, на нас влияют научная фантастика и поп-культура,
03:06
to really want to personify these things,
51
186871
2579
вызывающие желание очеловечить роботов,
03:09
but it goes a little bit deeper than that.
52
189474
2789
но на самом деле есть более глубинные причины.
03:12
It turns out that we're biologically hardwired to project intent and life
53
192287
5309
Оказывается, в нас природой заложено видеть смысл и жизнь
03:17
onto any movement in our physical space that seems autonomous to us.
54
197620
4766
в любом движении, происходящем в пределах поля зрения и выглядящем самостоятельным.
03:23
So people will treat all sorts of robots like they're alive.
55
203214
3465
Поэтому люди обращаются с самыми разными роботами как с живыми.
03:26
These bomb-disposal units get names.
56
206703
2683
Этим роботам, обезвреживающим неразорвавшиеся бомбы, дают имена.
03:29
They get medals of honor.
57
209410
1682
Они получают почётные медали.
03:31
They've had funerals for them with gun salutes.
58
211116
2325
На их похоронах салютуют.
03:34
And research shows that we do this even with very simple household robots,
59
214380
3833
Исследования показали, что мы обращаемся так и с простыми бытовыми роботами,
03:38
like the Roomba vacuum cleaner.
60
218237
2135
такими, как роботы-пылесосы.
03:40
(Laughter)
61
220396
1291
(Смех)
03:41
It's just a disc that roams around your floor to clean it,
62
221711
3089
Это просто диск, катающийся по полу, делая его чище,
03:44
but just the fact it's moving around on its own
63
224824
2306
но простой факт того, что он двигается самостоятельно,
03:47
will cause people to name the Roomba
64
227154
2167
даёт повод людям дать ему имя
03:49
and feel bad for the Roomba when it gets stuck under the couch.
65
229345
3182
и жалеть беднягу, когда он застревает под диваном.
03:52
(Laughter)
66
232551
1865
(Смех)
03:54
And we can design robots specifically to evoke this response,
67
234440
3340
И мы умеем конструировать роботов, созданных вызывать такую реакцию
03:57
using eyes and faces or movements
68
237804
3461
глазами, мимикой и движениями,
04:01
that people automatically, subconsciously associate
69
241289
3259
которые люди автоматически подсознательно ассоциируют
04:04
with states of mind.
70
244572
2020
с выражением различных эмоций.
04:06
And there's an entire body of research called human-robot interaction
71
246616
3293
И исследования по взаимодействиям между человеком и роботом показывают,
04:09
that really shows how well this works.
72
249933
1826
насколько успешно это работает.
04:11
So for example, researchers at Stanford University found out
73
251783
3126
К примеру, учёные Стэнфордского университета выяснили,
04:14
that it makes people really uncomfortable
74
254933
2001
что люди испытывают дискомфорт,
04:16
when you ask them to touch a robot's private parts.
75
256958
2472
когда их просят потрогать интимные части тела робота.
04:19
(Laughter)
76
259454
2120
(Смех)
04:21
So from this, but from many other studies,
77
261598
2023
Из этих и из многих других исследований
04:23
we know, we know that people respond to the cues given to them
78
263645
4223
мы знаем о том, что люди реагируют на сигналы
04:27
by these lifelike machines,
79
267892
2022
этих как будто живых машин,
04:29
even if they know that they're not real.
80
269938
2017
даже если они знают, что они совсем не живые.
04:33
Now, we're headed towards a world where robots are everywhere.
81
273654
4056
Мы всё ближе к будущему, где роботы будут на каждом шагу.
04:37
Robotic technology is moving out from behind factory walls.
82
277734
3065
Робототехника перестаёт быть лишь частью производства,
04:40
It's entering workplaces, households.
83
280823
3013
постепенно проникая в наши дома и офисы.
04:43
And as these machines that can sense and make autonomous decisions and learn
84
283860
6209
И когда эти машины, которые могут ощущать, принимать решения и учиться,
04:50
enter into these shared spaces,
85
290093
2552
попадают в эти наполненные людьми места,
04:52
I think that maybe the best analogy we have for this
86
292669
2496
лучшая аналогия, которую можно придумать, —
04:55
is our relationship with animals.
87
295189
1935
наши отношения с животными.
04:57
Thousands of years ago, we started to domesticate animals,
88
297523
3888
Тысячи лет назад мы начали приручать животных,
05:01
and we trained them for work and weaponry and companionship.
89
301435
4045
использовать их для работы, сражений и просто в качестве друзей.
05:05
And throughout history, we've treated some animals like tools or like products,
90
305504
4985
И в ходе истории мы обращались с одними животными как с инструментами, товаром,
05:10
and other animals, we've treated with kindness
91
310513
2174
а с другими — с добротой,
05:12
and we've given a place in society as our companions.
92
312711
3078
выделили для них место в обществе, как партнёрам.
05:15
I think it's plausible we might start to integrate robots in similar ways.
93
315813
3849
И с высокой долей вероятности мы так же будем интегрировать роботов.
05:21
And sure, animals are alive.
94
321484
3096
Конечно же, животные — живые существа.
05:24
Robots are not.
95
324604
1150
Роботы — нет.
05:27
And I can tell you, from working with roboticists,
96
327626
2580
Я работаю с робототехниками и могу сказать вам,
05:30
that we're pretty far away from developing robots that can feel anything.
97
330230
3522
что эти учёные достаточно далеки от разработки роботов, умеющих чувствовать.
05:35
But we feel for them,
98
335072
1460
Но мы испытываем к ним чувства,
05:37
and that matters,
99
337835
1207
и это важно,
05:39
because if we're trying to integrate robots into these shared spaces,
100
339066
3627
ведь если мы хотим интегрировать их в эти разделяемые нами пространства,
05:42
we need to understand that people will treat them differently than other devices,
101
342717
4628
нужно понять, что к ним будут относиться не так, как к бытовой технике,
05:47
and that in some cases,
102
347369
1844
что в некоторых случаях,
05:49
for example, the case of a soldier who becomes emotionally attached
103
349237
3172
например, когда солдат привязывается к роботу,
05:52
to the robot that they work with,
104
352433
2047
с которым он работает,
05:54
that can be anything from inefficient to dangerous.
105
354504
2504
из этого может выйти что-то неэффективное или даже опасное.
05:58
But in other cases, it can actually be useful
106
358551
2138
Но в некоторых случаях бывает полезно
06:00
to foster this emotional connection to robots.
107
360713
2623
поощрять такие эмоциональные привязанности к роботам.
06:04
We're already seeing some great use cases,
108
364184
2134
Таких случаев мы видели уже великое множество,
06:06
for example, robots working with autistic children
109
366342
2604
к примеру, роботы, работающие с детьми с аутизмом,
06:08
to engage them in ways that we haven't seen previously,
110
368970
3634
захватывают их внимание так, как мы ещё не видели.
06:12
or robots working with teachers to engage kids in learning with new results.
111
372628
4000
И роботы помогают учителям привлечь детей к учёбе, тем самым повышая успеваемость.
06:17
And it's not just for kids.
112
377433
1381
Это касается не только детей.
06:19
Early studies show that robots can help doctors and patients
113
379750
3223
Согласно ранним исследованиям, роботы могут помогать врачам и пациентам
06:22
in health care settings.
114
382997
1427
в медицинских учреждениях.
06:25
This is the PARO baby seal robot.
115
385535
1810
Это детёныш морского котика PARO.
06:27
It's used in nursing homes and with dementia patients.
116
387369
3285
Он используется в домах престарелых и в уходе за больными деменцией
06:30
It's been around for a while.
117
390678
1570
достаточно давно.
06:32
And I remember, years ago, being at a party
118
392272
3325
Я помню, как много лет назад я была на вечеринке
06:35
and telling someone about this robot,
119
395621
2571
и рассказала какой-то девушке об этом роботе,
06:38
and her response was,
120
398216
2126
и её реакция была такой:
06:40
"Oh my gosh.
121
400366
1262
«О Боже,
06:42
That's horrible.
122
402508
1188
это ужасно!
06:45
I can't believe we're giving people robots instead of human care."
123
405056
3397
Не могу поверить, что вместо живых людей за ними ухаживают роботы!»
06:50
And this is a really common response,
124
410540
1875
И так реагирует подавляющее большинство,
06:52
and I think it's absolutely correct,
125
412439
2499
что, на мой взгляд, абсолютно нормально,
06:54
because that would be terrible.
126
414962
2040
ведь это было бы ужасно.
06:57
But in this case, it's not what this robot replaces.
127
417795
2484
Но в этом случае робот заменяет не человека.
07:00
What this robot replaces is animal therapy
128
420858
3120
Он заменяет пет-терапию
07:04
in contexts where we can't use real animals
129
424002
3198
в условиях, в которых мы не можем использовать настоящих животных,
07:07
but we can use robots,
130
427224
1168
а роботов можем,
07:08
because people will consistently treat them more like an animal than a device.
131
428416
5230
потому что люди обращаются с ними скорее как с животными, а не с машинами.
07:15
Acknowledging this emotional connection to robots
132
435502
2380
Осознание этой эмоциональной связи с роботами
07:17
can also help us anticipate challenges
133
437906
1969
может помочь нам понять, какие проблемы
07:19
as these devices move into more intimate areas of people's lives.
134
439899
3451
возникнут, когда эти роботы проникнут в более личные части нашей жизни.
07:24
For example, is it OK if your child's teddy bear robot
135
444111
3404
Например, нормально ли для плюшевого мишки вашего ребёнка
07:27
records private conversations?
136
447539
2237
записывать личные разговоры?
07:29
Is it OK if your sex robot has compelling in-app purchases?
137
449800
4063
Или если у вашего секс-робота есть обязательные встроенные покупки?
07:33
(Laughter)
138
453887
1396
(Смех)
07:35
Because robots plus capitalism
139
455307
2501
Ведь сложив роботов и капитализм,
07:37
equals questions around consumer protection and privacy.
140
457832
3705
мы получим вопросы о защите прав потребителей и их личной жизни.
07:42
And those aren't the only reasons
141
462549
1612
Наше поведение по отношению к роботам
07:44
that our behavior around these machines could matter.
142
464185
2570
может оказаться важным и по другим причинам.
07:48
A few years after that first initial experience I had
143
468747
3270
Несколько лет спустя, после того первого опыта
07:52
with this baby dinosaur robot,
144
472041
2311
с роботом-детёнышем динозавра,
07:54
I did a workshop with my friend Hannes Gassert.
145
474376
2501
мы с моей подругой Ханнес Гассерт проводили тренинг.
07:56
And we took five of these baby dinosaur robots
146
476901
2897
Мы взяли пять таких малышей-динозавров
07:59
and we gave them to five teams of people.
147
479822
2453
и раздали их пяти командам.
08:02
And we had them name them
148
482299
1697
Мы дали задание дать роботам имена,
08:04
and play with them and interact with them for about an hour.
149
484020
3809
играть и общаться с ними в течение часа.
08:08
And then we unveiled a hammer and a hatchet
150
488707
2206
А потом мы достали молоток и топор
08:10
and we told them to torture and kill the robots.
151
490937
2278
и приказали им мучить и убить роботов.
08:13
(Laughter)
152
493239
3007
(Смех)
08:16
And this turned out to be a little more dramatic
153
496857
2294
И это оказалось гораздо драматичнее,
08:19
than we expected it to be,
154
499175
1278
чем мы ожидали,
08:20
because none of the participants would even so much as strike
155
500477
3072
потому что ни один из участников не нанёс ни единого удара
08:23
these baby dinosaur robots,
156
503573
1307
по этим детёнышам,
08:24
so we had to improvise a little, and at some point, we said,
157
504904
5150
так что нам пришлось импровизировать, и в определённый момент мы сказали:
08:30
"OK, you can save your team's robot if you destroy another team's robot."
158
510078
4437
«Хорошо, вы можете спасти своего робота, если сломаете робота другой команды».
08:34
(Laughter)
159
514539
1855
(Смех)
08:36
And even that didn't work. They couldn't do it.
160
516839
2195
И даже это не помогло, они не могли сделать это.
08:39
So finally, we said,
161
519058
1151
Наконец мы сказали:
08:40
"We're going to destroy all of the robots
162
520233
2032
«Мы уничтожим всех роботов,
08:42
unless someone takes a hatchet to one of them."
163
522289
2285
если кто-нибудь не ударит топором одного.
08:45
And this guy stood up, and he took the hatchet,
164
525586
3579
И один парень встал, взял топор,
08:49
and the whole room winced as he brought the hatchet down
165
529189
2706
и каждый в комнате вздрогнул, когда он опустил топор
08:51
on the robot's neck,
166
531919
1780
на шею робота,
08:53
and there was this half-joking, half-serious moment of silence in the room
167
533723
6338
и после этого в комнате воцарилась полушутливая, полусерьёзная тишина
09:00
for this fallen robot.
168
540085
1698
из-за этого робота.
09:01
(Laughter)
169
541807
1406
(Смех)
09:03
So that was a really interesting experience.
170
543237
3694
Так что это оказалось очень интересным опытом.
09:06
Now, it wasn't a controlled study, obviously,
171
546955
2459
Конечно, это не было контролируемое исследование,
09:09
but it did lead to some later research that I did at MIT
172
549438
2850
но этот тренинг дал толчок для наших последующих исследований в МТИ
09:12
with Palash Nandy and Cynthia Breazeal,
173
552312
2228
совместно с Палаш Нанди и Синтией Брезил,
09:14
where we had people come into the lab and smash these HEXBUGs
174
554564
3627
когда люди приходили в лабораторию и крушили роботов HEXBUG,
09:18
that move around in a really lifelike way, like insects.
175
558215
3087
которые двигаются, как самые настоящие насекомые.
09:21
So instead of choosing something cute that people are drawn to,
176
561326
3134
Вместо того, чтобы выбрать что-то милое, притягивающее к себе людей,
09:24
we chose something more basic,
177
564484
2093
мы выбрали что-то более простое,
09:26
and what we found was that high-empathy people
178
566601
3480
и, как оказалось, склонные к сочувствию люди,
09:30
would hesitate more to hit the HEXBUGS.
179
570105
2143
колебались сильнее, прежде чем ударить этих роботов.
09:33
Now this is just a little study,
180
573575
1564
Это был лишь небольшой опыт,
09:35
but it's part of a larger body of research
181
575163
2389
но он часть большого числа исследований,
09:37
that is starting to indicate that there may be a connection
182
577576
2944
первые результаты которых показывают, что может существовать связь
09:40
between people's tendencies for empathy
183
580544
2373
между склонностью человека к сочувствию
09:42
and their behavior around robots.
184
582941
1976
и его поведением с роботами.
09:45
But my question for the coming era of human-robot interaction
185
585721
3627
Но мой вопрос для наступающей эры взаимодействия людей и роботов —
09:49
is not: "Do we empathize with robots?"
186
589372
3055
это не «Нужно ли сочувствовать роботам?»,
09:53
It's: "Can robots change people's empathy?"
187
593211
2920
а «Могут ли роботы влиять на наши чувства?»
09:57
Is there reason to, for example,
188
597489
2287
Стóит ли, например,
09:59
prevent your child from kicking a robotic dog,
189
599800
2333
не позволять ребёнку бить собаку-робота
10:03
not just out of respect for property,
190
603228
2914
не просто из уважения к имуществу,
10:06
but because the child might be more likely to kick a real dog?
191
606166
2953
но потому, что иначе в будущем он может начать бить живую собаку?
10:10
And again, it's not just kids.
192
610507
1883
И опять это применимо не только к детям.
10:13
This is the violent video games question, but it's on a completely new level
193
613564
4056
Напоминает вопрос об опасности жестоких видеоигр, но на совсем другом уровне
10:17
because of this visceral physicality that we respond more intensely to
194
617644
4760
из-за того, что здесь всё настоящее, на что мы реагируем гораздо сильнее,
10:22
than to images on a screen.
195
622428
1547
нежели на изображения на экране.
10:25
When we behave violently towards robots,
196
625674
2578
Когда мы проявляем жестокость по отношению к роботам,
10:28
specifically robots that are designed to mimic life,
197
628276
3120
особенно к тем, которые созданы имитировать жизнь,
10:31
is that a healthy outlet for violent behavior
198
631420
3892
здоровый ли это выход для нашего жестокого поведения
10:35
or is that training our cruelty muscles?
199
635336
2544
или же так мы лишь усугубляем такие склонности?
10:39
We don't know ...
200
639511
1150
Мы не знаем.
10:42
But the answer to this question has the potential to impact human behavior,
201
642622
3945
Но ответ на этот вопрос в будущем может повлиять на человеческое поведение,
10:46
it has the potential to impact social norms,
202
646591
2768
может повлиять на социальные нормы
10:49
it has the potential to inspire rules around what we can and can't do
203
649383
3849
и может повлиять на правила того, что мы можем и не можем делать
10:53
with certain robots,
204
653256
1151
с определёнными роботами,
10:54
similar to our animal cruelty laws.
205
654431
1848
подобно законам о жестоком обращении с животными.
10:57
Because even if robots can't feel,
206
657228
2864
Потому что даже если роботы не могут чувствовать,
11:00
our behavior towards them might matter for us.
207
660116
3080
наше поведение по отношению к ним может оказаться важным.
11:04
And regardless of whether we end up changing our rules,
208
664889
2855
И вне зависимости от того, станем ли мы менять наши законы,
11:08
robots might be able to help us come to a new understanding of ourselves.
209
668926
3556
роботы, возможно, смогут помочь нам лучше понять себя.
11:14
Most of what I've learned over the past 10 years
210
674276
2316
Бóльшая часть того, что я узнала за последние десятилетие,
11:16
has not been about technology at all.
211
676616
2238
никак не относится к технологиям.
11:18
It's been about human psychology
212
678878
2503
Я изучала психологию человека,
11:21
and empathy and how we relate to others.
213
681405
2603
способность сопереживать и то, как мы относимся друг к другу.
11:25
Because when a child is kind to a Roomba,
214
685524
2365
Потому что когда ребёнок добр к роботу-пылесосу,
11:29
when a soldier tries to save a robot on the battlefield,
215
689262
4015
когда солдат пытается спасти робота на поле боя,
11:33
or when a group of people refuses to harm a robotic baby dinosaur,
216
693301
3638
когда группа людей отказывается причинить вред роботу-детёнышу динозавра,
11:38
those robots aren't just motors and gears and algorithms.
217
698248
3191
эти роботы перестают быть просто механизмами и алгоритмами.
11:42
They're reflections of our own humanity.
218
702501
1905
Они становятся отражением нашей человечности.
11:45
Thank you.
219
705523
1151
Спасибо.
11:46
(Applause)
220
706698
3397
(Аплодисменты)
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7