How we can teach computers to make sense of our emotions | Raphael Arar

64,666 views ・ 2018-04-24

TED


Пожалуйста, дважды щелкните на английские субтитры ниже, чтобы воспроизвести видео.

00:00
Translator: Ivana Korom Reviewer: Joanna Pietrulewicz
0
0
7000
Переводчик: Anna P Редактор: Polina Nikitina
00:13
I consider myself one part artist and one part designer.
1
13760
4680
Я считаю себя отчасти художником и отчасти дизайнером.
00:18
And I work at an artificial intelligence research lab.
2
18480
3160
А работаю я в лаборатории по разработке искусственного интеллекта.
00:22
We're trying to create technology
3
22720
1696
Мы разрабатываем технологии,
00:24
that you'll want to interact with in the far future.
4
24440
3296
с которыми вам захотелось бы общаться даже в далёком будущем.
00:27
Not just six months from now, but try years and decades from now.
5
27760
4640
Не только через полгода, а через годы и десятилетия.
00:33
And we're taking a moonshot
6
33120
1616
И мы не боимся предположить,
00:34
that we'll want to be interacting with computers
7
34760
2456
что люди хотят общаться с компьютерами
00:37
in deeply emotional ways.
8
37240
2120
на глубоко эмоциональном уровне.
00:40
So in order to do that,
9
40280
1456
Чтобы этого добиться,
00:41
the technology has to be just as much human as it is artificial.
10
41760
4480
технологии должны стать настолько же естественными, насколько они искусственны.
00:46
It has to get you.
11
46920
2256
Они должны понимать вас.
00:49
You know, like that inside joke that'll have you and your best friend
12
49200
3336
Ну знаете, как ваша с другом шутка,
00:52
on the floor, cracking up.
13
52560
1936
от которой вы оба катаетесь по полу от смеха.
00:54
Or that look of disappointment that you can just smell from miles away.
14
54520
4560
Или как разочарованный взгляд, который чувствуется за версту.
01:00
I view art as the gateway to help us bridge this gap between human and machine:
15
60560
6040
Мне кажется, искусство поможет нам преодолеть пропасть
между человеком и машиной:
01:07
to figure out what it means to get each other
16
67280
3136
мы научимся понимать друг друга,
01:10
so that we can train AI to get us.
17
70440
2760
чтобы потом обучить ИИ понимать нас.
01:13
See, to me, art is a way to put tangible experiences
18
73920
3816
Для меня искусство — это способ передать абстрактные идеи, чувства и эмоции
01:17
to intangible ideas, feelings and emotions.
19
77760
3240
с помощью конкретных явлений.
01:21
And I think it's one of the most human things about us.
20
81800
2600
И я думаю, это одна из наиболее присущих человеку черт.
01:25
See, we're a complicated and complex bunch.
21
85480
2936
Мы, люди, чрезвычайно сложные существа.
01:28
We have what feels like an infinite range of emotions,
22
88440
3136
Диапазон наших эмоций кажется бесконечным,
01:31
and to top it off, we're all different.
23
91600
2496
и к тому же мы все разные.
01:34
We have different family backgrounds,
24
94120
2296
Мы имеем разное происхождение,
01:36
different experiences and different psychologies.
25
96440
3080
разный жизненный опыт и разные характеры.
01:40
And this is what makes life really interesting.
26
100240
2720
Это делает жизнь действительно интересной,
01:43
But this is also what makes working on intelligent technology
27
103440
3496
но также делает работу над интеллектуальными технологиями
01:46
extremely difficult.
28
106960
1600
чрезвычайно трудной.
01:49
And right now, AI research, well,
29
109640
3456
И сегодня в разработке ИИ
01:53
it's a bit lopsided on the tech side.
30
113120
2016
есть перекос в сторону техники.
01:55
And that makes a lot of sense.
31
115160
2136
В этом есть смысл.
01:57
See, for every qualitative thing about us --
32
117320
2456
Ведь все наши качественные характеристики —
01:59
you know, those parts of us that are emotional, dynamic and subjective --
33
119800
4456
наши эмоциональные, динамичные и субъективные стороны —
02:04
we have to convert it to a quantitative metric:
34
124280
3136
необходимо перевести в количественные показатели:
02:07
something that can be represented with facts, figures and computer code.
35
127440
4360
в то, что может быть представлено данными, цифрами и компьютерным кодом.
02:13
The issue is, there are many qualitative things
36
133000
3376
Проблема в том, что многие из качественных характеристик
02:16
that we just can't put our finger on.
37
136400
1960
не поддаются точному определению.
02:20
So, think about hearing your favorite song for the first time.
38
140400
3200
Например, вспомните, когда вы впервые услышали свою любимую песню.
02:25
What were you doing?
39
145200
1200
Что вы тогда делали?
02:28
How did you feel?
40
148000
1200
Что вы почувствовали?
02:30
Did you get goosebumps?
41
150720
1360
У вас пошли мурашки по коже?
02:33
Or did you get fired up?
42
153240
1640
Вы пришли в восторг?
02:36
Hard to describe, right?
43
156400
1200
Трудно объяснить, да?
02:38
See, parts of us feel so simple,
44
158800
2096
Иногда наши чувства кажутся очень простыми,
02:40
but under the surface, there's really a ton of complexity.
45
160920
3656
но если копнуть глубже, то они окажутся гораздо сложнее.
02:44
And translating that complexity to machines
46
164600
2936
И перевод всей этой сложности для машин —
02:47
is what makes them modern-day moonshots.
47
167560
2856
это своего рода «полёт на Луну» нашего времени.
02:50
And I'm not convinced that we can answer these deeper questions
48
170440
4176
И я не уверен, что мы сможем ответить на эти глубокие вопросы,
02:54
with just ones and zeros alone.
49
174640
1480
используя лишь нули и единицы.
02:57
So, in the lab, I've been creating art
50
177120
1936
В лаборатории я занимался искусством,
02:59
as a way to help me design better experiences
51
179080
2456
чтобы с его помощью создавать более удобный дизайн
03:01
for bleeding-edge technology.
52
181560
2096
для новейших технологий.
03:03
And it's been serving as a catalyst
53
183680
1736
И оно служит стимулом,
03:05
to beef up the more human ways that computers can relate to us.
54
185440
3840
чтобы находить способы общаться с компьютерами по-человечески.
03:10
Through art, we're tacking some of the hardest questions,
55
190000
2696
В искусстве мы ищем ответы на самые трудные вопросы:
03:12
like what does it really mean to feel?
56
192720
2360
что значит чувствовать?
03:16
Or how do we engage and know how to be present with each other?
57
196120
4080
Как мы взаимодействуем друг с другом и откуда знаем, как себя вести?
03:20
And how does intuition affect the way that we interact?
58
200800
4000
Как интуиция влияет на наше общение?
03:26
So, take for example human emotion.
59
206440
2056
Возьмём, например, человеческие эмоции.
03:28
Right now, computers can make sense of our most basic ones,
60
208520
3256
Сегодня компьютеры могут понять основные из них —
03:31
like joy, sadness, anger, fear and disgust,
61
211800
3696
радость, грусть, злость, страх и отвращение, —
03:35
by converting those characteristics to math.
62
215520
3000
переводя их характеристики в математику.
03:39
But what about the more complex emotions?
63
219400
2536
А как обстоят дела с более сложными эмоциями?
03:41
You know, those emotions
64
221960
1216
С теми самыми,
03:43
that we have a hard time describing to each other?
65
223200
2376
которые трудно описать другим людям?
03:45
Like nostalgia.
66
225600
1440
Как ностальгия.
03:47
So, to explore this, I created a piece of art, an experience,
67
227640
3936
Для изучения этого вопроса я создал предмет искусства, инсталляцию,
03:51
that asked people to share a memory,
68
231600
2096
где людей просят поделиться воспоминанием.
03:53
and I teamed up with some data scientists
69
233720
2136
Вместе со специалистами по обработке данных
03:55
to figure out how to take an emotion that's so highly subjective
70
235880
3576
я пытался выяснить, как превратить невероятно субъективную эмоцию
03:59
and convert it into something mathematically precise.
71
239480
3200
в нечто математически точное.
04:03
So, we created what we call a nostalgia score
72
243840
2136
Мы создали так называемый показатель ностальгии,
04:06
and it's the heart of this installation.
73
246000
2216
и в этом суть нашей инсталляции.
04:08
To do that, the installation asks you to share a story,
74
248240
3056
Сначала вас просят рассказать историю,
04:11
the computer then analyzes it for its simpler emotions,
75
251320
3256
после чего компьютер анализирует её на простые эмоции,
04:14
it checks for your tendency to use past-tense wording
76
254600
2656
проверяет на склонность к глаголам в прошедшем времени,
04:17
and also looks for words that we tend to associate with nostalgia,
77
257280
3336
а также ищет слова, которые обычно ассоциируются с ностальгией,
04:20
like "home," "childhood" and "the past."
78
260640
3040
такие как «дом», «детство», «прошлое».
04:24
It then creates a nostalgia score
79
264760
2056
Затем он выдаёт показатель ностальгии,
04:26
to indicate how nostalgic your story is.
80
266840
2736
то есть насколько ностальгической была ваша история.
04:29
And that score is the driving force behind these light-based sculptures
81
269600
4136
И ваш показатель наглядно отображается на этих световых скульптурах,
04:33
that serve as physical embodiments of your contribution.
82
273760
3896
которые являются физическим воплощением рассказанной вами истории.
04:37
And the higher the score, the rosier the hue.
83
277680
3216
Чем выше показатель, тем более розовый оттенок —
04:40
You know, like looking at the world through rose-colored glasses.
84
280920
3936
как в выражении «смотреть на мир сквозь розовые очки».
04:44
So, when you see your score
85
284880
2616
Увидев ваш показатель
04:47
and the physical representation of it,
86
287520
2656
и его физическое представление,
04:50
sometimes you'd agree and sometimes you wouldn't.
87
290200
2936
иногда вы соглашаетесь с результатом, а иногда нет.
04:53
It's as if it really understood how that experience made you feel.
88
293160
3480
Словно компьютер на самом деле понял ваши переживания.
04:57
But other times it gets tripped up
89
297400
2216
Но в других случаях он ошибается,
04:59
and has you thinking it doesn't understand you at all.
90
299640
2560
и тогда вам кажется, что он вас совсем не понимает.
05:02
But the piece really serves to show
91
302680
1896
Но это действительно показывает,
05:04
that if we have a hard time explaining the emotions that we have to each other,
92
304600
4056
что если мы с трудом можем объяснить свои эмоции даже друг другу,
05:08
how can we teach a computer to make sense of them?
93
308680
2360
то как же научить компьютер понимать их?
05:12
So, even the more objective parts about being human are hard to describe.
94
312360
3576
И даже более объективные явления в жизни человека трудно описать.
05:15
Like, conversation.
95
315960
1240
Например, разговор.
05:17
Have you ever really tried to break down the steps?
96
317880
2736
Вы кода-нибудь пробовали разобрать разговор по шагам?
05:20
So think about sitting with your friend at a coffee shop
97
320640
2656
Представьте, что вы сидите со другом в кофейне
05:23
and just having small talk.
98
323320
1320
и просто болтаете.
05:25
How do you know when to take a turn?
99
325160
1720
Как вы понимаете,
когда ваша очередь говорить?
05:27
How do you know when to shift topics?
100
327440
1840
Как вы понимаете, когда сменить тему?
05:29
And how do you even know what topics to discuss?
101
329960
2720
И как вы вообще выбираете тему для разговора?
05:33
See, most of us don't really think about it,
102
333560
2096
Большинство людей об этом не задумываются,
05:35
because it's almost second nature.
103
335680
1656
так как это почти вторая натура.
05:37
And when we get to know someone, we learn more about what makes them tick,
104
337360
3496
Узнавая человека поближе, мы лучше понимаем, чем он живёт,
05:40
and then we learn what topics we can discuss.
105
340880
2376
и тогда понимаем, на какие темы с ним поговорить.
05:43
But when it comes to teaching AI systems how to interact with people,
106
343280
3656
Но если мы хотим научить ИИ общаться с людьми,
05:46
we have to teach them step by step what to do.
107
346960
2856
то им нужно расписать этот процесс пошагово.
05:49
And right now, it feels clunky.
108
349840
3496
А сегодня общение с ИИ кажется неестественным.
05:53
If you've ever tried to talk with Alexa, Siri or Google Assistant,
109
353360
4136
Если вам когда-нибудь доводилось говорить с Алексой, Сири или Google Ассистентом,
05:57
you can tell that it or they can still sound cold.
110
357520
4200
то вы можете сказать, что они до сих пор говорят без эмоций.
06:02
And have you ever gotten annoyed
111
362440
1656
А бывало, что вы раздражались,
06:04
when they didn't understand what you were saying
112
364120
2256
когда они не понимали ваш запрос,
06:06
and you had to rephrase what you wanted 20 times just to play a song?
113
366400
3840
и приходилось 20 раз его перефразировать, только чтобы послушать песню?
06:11
Alright, to the credit of the designers, realistic communication is really hard.
114
371440
4896
Хотя надо отдать разработчикам должное, естесвенное общение очень сложно.
06:16
And there's a whole branch of sociology,
115
376360
2136
Существует целый раздел социологии,
06:18
called conversation analysis,
116
378520
1936
называемый анализ общения,
06:20
that tries to make blueprints for different types of conversation.
117
380480
3136
который пытается определить структуру различных типов разговора:
06:23
Types like customer service or counseling, teaching and others.
118
383640
4080
обслуживание клиентов, консультирование, обучение и т.д.
06:28
I've been collaborating with a conversation analyst at the lab
119
388880
2936
В своей лаборатории я работаю вместе с аналитиком общения,
06:31
to try to help our AI systems hold more human-sounding conversations.
120
391840
4696
чтобы сделать разговоры с системами ИИ более похожими на человеческие.
06:36
This way, when you have an interaction with a chatbot on your phone
121
396560
3176
В итоге виртуальный собеседник в телефоне
06:39
or a voice-based system in the car,
122
399760
1856
или голосовая система в автомобиле
06:41
it sounds a little more human and less cold and disjointed.
123
401640
3320
будет общаться с вами более естественно и менее механически и несвязно.
06:46
So I created a piece of art
124
406360
1336
Я решил наглядно показать,
06:47
that tries to highlight the robotic, clunky interaction
125
407720
2816
как проходит механическое, неестественное общение,
06:50
to help us understand, as designers,
126
410560
1976
чтобы нам, разработчикам, стало понятнее,
06:52
why it doesn't sound human yet and, well, what we can do about it.
127
412560
4576
почему оно ещё не звучит по-человечески и как это исправить.
06:57
The piece is called Bot to Bot
128
417160
1456
Это называется «Робот роботу»:
06:58
and it puts one conversational system against another
129
418640
2936
одна разговорная система поставлена в диалог с другой,
07:01
and then exposes it to the general public.
130
421600
2536
и результат показывается зрителю.
07:04
And what ends up happening is that you get something
131
424160
2496
В итоге получается нечто,
07:06
that tries to mimic human conversation,
132
426680
1896
что пытается имитировать человеческое общение,
07:08
but falls short.
133
428600
1896
но не очень удачно.
07:10
Sometimes it works and sometimes it gets into these, well,
134
430520
2736
Иногда разговор идёт как надо, а иногда они попадают
07:13
loops of misunderstanding.
135
433280
1536
в цикл недопонимания.
07:14
So even though the machine-to-machine conversation can make sense,
136
434840
3096
И хотя разговор между компьютерами может иметь смысл
07:17
grammatically and colloquially,
137
437960
2016
в плане лексики и грамматики,
07:20
it can still end up feeling cold and robotic.
138
440000
3216
он всё ещё кажется бесчувственным и механическим.
07:23
And despite checking all the boxes, the dialogue lacks soul
139
443240
4016
И, несмотря на все усилия, в диалоге не хватает души
07:27
and those one-off quirks that make each of us who we are.
140
447280
3136
и этих милых странностей, которые есть у каждого человека.
07:30
So while it might be grammatically correct
141
450440
2056
И хотя здесь соблюдены все правила грамматики
07:32
and uses all the right hashtags and emojis,
142
452520
2656
и правильно использованы хэштэги и смайлики,
07:35
it can end up sounding mechanical and, well, a little creepy.
143
455200
4136
в конечном итоге разговор звучит механически и как-то жутковато.
07:39
And we call this the uncanny valley.
144
459360
2336
Это так называемая зловещая долина —
07:41
You know, that creepiness factor of tech
145
461720
1936
то самое жуткое чувство от технологий,
07:43
where it's close to human but just slightly off.
146
463680
2856
которые пытаются вести себя как люди, но немного не дотягивают.
07:46
And the piece will start being
147
466560
1456
И с помощью подобных диалогов
07:48
one way that we test for the humanness of a conversation
148
468040
3216
можно будет тестировать разговоры на естественность
07:51
and the parts that get lost in translation.
149
471280
2160
и выяснять, что теряется при переводе.
07:54
So there are other things that get lost in translation, too,
150
474560
2856
Есть и другие вещи, которые теряются при переводе,
07:57
like human intuition.
151
477440
1616
такие как человеческая интуиция.
07:59
Right now, computers are gaining more autonomy.
152
479080
2776
Сегодня компьютеры становятся более автономными.
08:01
They can take care of things for us,
153
481880
1736
Они могут выполнять за нас действия,
08:03
like change the temperature of our houses based on our preferences
154
483640
3176
к примеру, менять температуру в доме, исходя из наших предпочтений,
08:06
and even help us drive on the freeway.
155
486840
2160
и даже помогать нам вести машину на автостраде.
08:09
But there are things that you and I do in person
156
489560
2496
Но кое-что из того, что мы делаем самостоятельно,
08:12
that are really difficult to translate to AI.
157
492080
2760
очень трудно перевести для ИИ.
08:15
So think about the last time that you saw an old classmate or coworker.
158
495440
4360
Вспомните, когда вы в последний раз встречались с одноклассником или коллегой.
08:21
Did you give them a hug or go in for a handshake?
159
501080
2480
Вы обняли его или просто пожали руку?
08:24
You probably didn't think twice
160
504800
1496
Вряд ли вы долго думали над этим,
08:26
because you've had so many built up experiences
161
506320
2336
ведь у вас уже накопилось так много опыта,
08:28
that had you do one or the other.
162
508680
2000
что вы просто делаете либо то, либо другое.
08:31
And as an artist, I feel that access to one's intuition,
163
511440
3456
И как художник я чувствую, что именно благодаря интуиции,
08:34
your unconscious knowing,
164
514920
1416
нашим неосознанным знаниям,
08:36
is what helps us create amazing things.
165
516360
3056
мы создаём удивительные вещи.
08:39
Big ideas, from that abstract, nonlinear place in our consciousness
166
519440
4056
Великие идеи из этой абстрактной, нелинейной части нашего сознания —
08:43
that is the culmination of all of our experiences.
167
523520
2960
это кульминация всего нашего жизненного опыта.
08:47
And if we want computers to relate to us and help amplify our creative abilities,
168
527840
4656
Если мы хотим, чтобы компьютеры
понимали нас и помогали развивать наши творческие возможности,
08:52
I feel that we'll need to start thinking about how to make computers be intuitive.
169
532520
3896
мне кажется, сто́ит подумать, как научить их интуиции.
08:56
So I wanted to explore how something like human intuition
170
536440
3096
Мне захотелось исследовать, как можно напрямую перевести
08:59
could be directly translated to artificial intelligence.
171
539560
3456
что-то вроде человеческой интуиции для искусственного интеллекта.
09:03
And I created a piece that explores computer-based intuition
172
543040
3216
И я изобрёл способ исследования компьютерной интуиции
09:06
in a physical space.
173
546280
1320
в физическом пространстве.
09:08
The piece is called Wayfinding,
174
548480
1696
Эта штука называется «Поиск пути»,
09:10
and it's set up as a symbolic compass that has four kinetic sculptures.
175
550200
3936
и это символический компас, имеющий четыре кинетические скульптуры.
09:14
Each one represents a direction,
176
554160
2056
Каждая из них представляет направление:
09:16
north, east, south and west.
177
556240
2120
север, восток, юг и запад.
09:19
And there are sensors set up on the top of each sculpture
178
559080
2696
На вершине каждой скульптуры установлены датчики,
09:21
that capture how far away you are from them.
179
561800
2256
которые улавливают, как далеко вы от них.
09:24
And the data that gets collected
180
564080
1816
И на основе полученной информации
09:25
ends up changing the way that sculptures move
181
565920
2136
меняется траектория движения скульптур
09:28
and the direction of the compass.
182
568080
2040
и направление на компасе.
09:31
The thing is, the piece doesn't work like the automatic door sensor
183
571360
3656
Суть в том, что эта штука не работает как автоматический датчик на двери,
09:35
that just opens when you walk in front of it.
184
575040
2656
которая просто открывается, если к ней подойти.
09:37
See, your contribution is only a part of its collection of lived experiences.
185
577720
5056
Ваше участие — это только часть его жизненного опыта.
09:42
And all of those experiences affect the way that it moves.
186
582800
4056
И весь этот жизненный опыт влияет на то, как он движется.
09:46
So when you walk in front of it,
187
586880
1736
Когда вы проходите перед ним,
09:48
it starts to use all of the data
188
588640
1976
он использует все данные,
09:50
that it's captured throughout its exhibition history --
189
590640
2616
которые накопил за всю историю своего существования, —
09:53
or its intuition --
190
593280
1816
то есть свою интуицию, —
09:55
to mechanically respond to you based on what it's learned from others.
191
595120
3560
и автоматически реагирует на вас, исходя из того, что узнал от других людей.
09:59
And what ends up happening is that as participants
192
599480
2536
И в итоге мы как участники
10:02
we start to learn the level of detail that we need
193
602040
2816
начинаем изучать, какой уровень детализации нужен,
10:04
in order to manage expectations
194
604880
2016
чтобы управлять ожиданиями
10:06
from both humans and machines.
195
606920
2776
как человека, так и машины.
10:09
We can almost see our intuition being played out on the computer,
196
609720
3616
На экране компьютера мы почти можем увидеть, как работает наша интуиция
10:13
picturing all of that data being processed in our mind's eye.
197
613360
3600
и как все эти данные обрабатываются нашим сознанием.
10:17
My hope is that this type of art
198
617560
1656
Я надеюсь, что этот вид искусства
10:19
will help us think differently about intuition
199
619240
2416
поможет нам по-другому думать об интуиции
10:21
and how to apply that to AI in the future.
200
621680
2280
и в будущем применить это к ИИ.
10:24
So these are just a few examples of how I'm using art to feed into my work
201
624480
3936
Это лишь несколько примеров того, как я использую искусство в своей работе
10:28
as a designer and researcher of artificial intelligence.
202
628440
3096
разработчика и исследователя искусственного интеллекта.
10:31
And I see it as a crucial way to move innovation forward.
203
631560
3496
И для меня это важнейший способ продвижения инноваций.
10:35
Because right now, there are a lot of extremes when it comes to AI.
204
635080
4376
Потому что сейчас в отношении ИИ существует много крайностей.
10:39
Popular movies show it as this destructive force
205
639480
2816
Известные фильмы представляют его разрушительной силой,
10:42
while commercials are showing it as a savior
206
642320
3056
в то время как реклама представляет его спасителем,
10:45
to solve some of the world's most complex problems.
207
645400
2936
который решит сложнейшие мировые проблемы.
10:48
But regardless of where you stand,
208
648360
2536
Но, независимо от вашего мнения,
10:50
it's hard to deny that we're living in a world
209
650920
2176
трудно отрицать, что мы живём в мире,
10:53
that's becoming more and more digital by the second.
210
653120
2576
который с каждой секундой становится всё более цифровым.
10:55
Our lives revolve around our devices, smart appliances and more.
211
655720
4600
Наша жизнь крутится вокруг наших девайсов, умных приборов и тому подобного.
11:01
And I don't think this will let up any time soon.
212
661400
2320
И не думаю, что это прекратится в ближайшее время.
11:04
So, I'm trying to embed more humanness from the start.
213
664400
3736
Итак, цель моей работы — изначально заложить в ИИ больше человеческого.
11:08
And I have a hunch that bringing art into an AI research process
214
668160
5136
И у меня есть предчувствие, что именно внесение искусства в процесс разработки ИИ
11:13
is a way to do just that.
215
673320
1896
поможет нам этого добиться.
11:15
Thank you.
216
675240
1216
Спасибо.
11:16
(Applause)
217
676480
2280
(Аплодисменты)
Об этом сайте

Этот сайт познакомит вас с видеороликами YouTube, полезными для изучения английского языка. Вы увидите уроки английского языка, преподаваемые высококлассными учителями со всего мира. Дважды щелкните по английским субтитрам, отображаемым на каждой странице видео, чтобы воспроизвести видео оттуда. Субтитры прокручиваются синхронно с воспроизведением видео. Если у вас есть какие-либо комментарии или пожелания, пожалуйста, свяжитесь с нами, используя эту контактную форму.

https://forms.gle/WvT1wiN1qDtmnspy7